Wie heeft in het tijdperk van AI-aangedreven smartphonecamera's en bewerkingssoftware werkelijk de controle over de compositie:het algoritme of de fotograaf? Onze derde 'Slimmer imago'-kolom bevat antwoorden.
Door Jeff Carlson | Bijgewerkt op 27 januari 2022 02:56 EST

Een terugkerend thema bij computationele fotografie is de spanning over creatieve keuzes. The “AI” features in cameras and photo editing apps can take over for many technical aspects, such as how to expose a scene or nail focus. Grijpt dat te veel creatieve controle van fotografen? (Zie mijn laatste kolom:“Je maakt al gebruik van computationele fotografie, maar dat betekent niet dat je geen fotograaf bent.”)
Beeldcompositie lijkt buiten die spanning te vallen. Wanneer u een opname uitlijnt, trekt de camera niet fysiek aan uw armen om de lens op een betere lay-out te richten. (Als het aan je armen trekt, is het tijd om een lichtere camera of een stevig statief te overwegen!) Maar software kan in veel omstandigheden de compositie beïnvloeden, vooral tijdens het bewerken, maar in sommige gevallen ook tijdens het fotograferen.
Denk na over de compositie
Op het eerste gezicht lijkt compositie het eenvoudigste onderdeel van fotografie. Richt de camera op een onderwerp en druk of tik op de ontspanknop. Ervaren fotografen weten echter dat het kiezen van waar het onderwerp verschijnt, hoe het in de zoeker/het scherm is samengesteld en zelfs welk element is het onderwerp, vergt meer werk en aandacht. In feite is compositie vaak het moeilijkste onderdeel van het vastleggen van een scène.
Dus waar past computationele fotografie in dit kader?
In sommige opzichten zijn geavanceerdere AI-functies zoals HDR gemakkelijker te realiseren. De camera, vrijwel uitsluitend in een smartphone, maakt binnen een paar milliseconden een tiental foto's met verschillende belichtingen en combineert deze vervolgens tot een goed belichte foto. Het verzamelt een breed scala aan gegevens en voegt deze allemaal samen.
Om AI-slimme technieken toe te passen op de compositie, moet de camera net zo goed begrijpen als jij wat er in de zoeker staat. Een deel daarvan gebeurt:smartphones kunnen identificeren wanneer een persoon zich in beeld bevindt, en sommige kunnen gemeenschappelijke elementen herkennen, zoals de lucht, bomen, bergen en dergelijke. Maar dat helpt niet bij het bepalen welk voorgrondobject prominent moet zijn en waar het moet worden geplaatst ten opzichte van andere objecten in de scène.
Bovendien is het bij het fotograferen nog steeds de fotograaf die bepaalt waar de lens op gericht is. Of toch? Ik maak grapjes over de camera die je armen in positie sleept, maar dat is niet ver van het beschrijven van wat veel camera-cardanische apparaten doen. Naast het minimaliseren van camerabewegingen voor vloeiende bewegingen, kan een gimbal een persoon identificeren en deze in het midden van het beeld houden.
Maar laten we teruggaan naar de camera zelf. Als we controle hebben over het lichaam en waar het naartoe gericht is, zou alle computationele hulp moeten komen van wat de lens kan zien. Eén manier om dat te doen is door een compositie te selecteren binnen de pixels die de sensor registreert. Dat doen we tijdens het bewerken voortdurend door bij te snijden, en daar kom ik zo op terug. Maar laten we zeggen dat we een algoritme willen dat ons helpt de beste compositie te bepalen die voor ons ligt. Idealiter zou de camera meer zien dan wat er in de zoeker wordt weergegeven en een deel van die pixels kiezen.
Welnu, dat gebeurt ook, in beperkte mate. Vorig jaar introduceerde Apple een functie genaamd Center Stage in de iPad-, iPad mini- en iPad Pro-modellen van 2021. De camera aan de voorzijde heeft een ultrabreed gezichtsveld van 120 graden, en de Center Stage-software onthult slechts een deel daarvan, waardoor het lijkt op een normaal videoframe. Maar de software herkent ook wanneer een persoon in beeld is en past dat zichtbare gebied aan om deze gecentreerd te houden. Als een andere persoon de ruimte betreedt, lijkt de camera uit te zoomen om ook deze persoon op te nemen. (Een ander voorbeeld is de Logitech StreamCam, die één persoon links en rechts kan volgen.) Het effect voelt wat glibberig aan, maar de beweging is behoorlijk soepel en zal zeker verbeteren.
Compositie tijdens montage
Apple Photos op de iPhone 13 Pro geeft een Auto-knop weer wanneer er mensen in de afbeelding worden gedetecteerd (links). De automatische uitsnede wordt toegepast op de afbeelding aan de rechterkant. Jeff Carlson Je vindt meer opties voor automatisch framen in bewerkingssoftware, maar de resultaten zijn wisselvalliger.
In de Foto's-app in macOS wordt door klikken op de Auto-knop in de Bijsnijden-interface alleen het rechttrekken toegepast, waardoor de afbeelding in dit geval te ver naar rechts wordt geroteerd. Jeff Carlson Het concept weerspiegelt wat we doen als we gaan zitten om een foto te bewerken:de app analyseert het beeld en detecteert objecten en soorten scènes, en gebruikt dat inzicht vervolgens om alternatieve composities te kiezen door bij te snijden. Veel van de apps die ik als voorbeeld heb gekozen, gebruiken gezichten als basis voor het opnieuw samenstellen; De Foto's-app van Apple presenteert alleen een Auto-knop in de bijsnijdinterface als er een persoon aanwezig is of als een duidelijke horizonlijn aangeeft dat de afbeelding moet worden rechtgetrokken.
Luminar AI heeft goed werk geleverd door de wegwijzer rechts uit te snijden. Jeff Carlson Ik had betere resultaten verwacht in Luminar AI met behulp van de Composition AI-tool, omdat het belangrijkste kenmerk van Luminar AI het feit is dat het elke afbeelding analyseert wanneer je deze begint te bewerken om de inhoud te bepalen. Het deed het goed met mijn landschapstestfoto, waarbij de auto en de bestuurder samen met de rotsen linksboven in beeld bleven en de wegwijzer rechtsonder werd verwijderd. In het portret (hieronder) deed het echter het tegenovergestelde van waar ik op hoopte, door de vingers van de vrouw rechts in beeld te houden en haar haar aan de linkerkant weg te knippen.
Luminar AI ziet eruit alsof het elk gezicht langs de regel-van-derden-hulplijnen benadrukt, maar de afleidende vingers naar rechts houdt. Jeff Carlson Ik heb de twee testafbeeldingen ook naar Pixelmator Pro op macOS gegooid, omdat Pixelmator (het bedrijf) agressief is geweest over het opnemen van op machinetaal gebaseerde tools in de editor. De twee vrouwen in het portret (hieronder) werden goed gekaderd, al zou ik er de voorkeur aan geven om niet zo strak bij te snijden. In de landschapsopname is het iets bijgesneden, waardoor de foto slechts licht is verbeterd.
De reframe van Pixelmator Pro benadrukt de gezichten van de vrouwen, hoewel ik de cropgrenzen naar links zou verschuiven voor een beter evenwicht. Jeff Carlson Adobe Lightroom en Photoshop beschikken niet over een functie voor automatisch bijsnijden, maar Photoshop Elements biedt wel vier voorgestelde composities in de balk Gereedschapsopties wanneer het gereedschap Bijsnijden is geselecteerd. Het is echter niet duidelijk wat de app gebruikt om met deze suggesties te komen, omdat ze behoorlijk willekeurig kunnen zijn.
Adobe Elements beschikt ook over automatisch bijsnijden, maar de resultaten kunnen onvoorspelbaar zijn. Jeff Carlson Comp-u-sitie? (Nee, dat is een vreselijke term)
Het is essentieel om hier op te merken dat dit allemaal uitgangspunten zijn. In elk geval krijgt u een suggestie te zien die u vervolgens handmatig kunt manipuleren door de bijsnijdgrepen te slepen.
Misschien is dat de les die we vandaag kunnen leren:bij computationele fotografie gaat het er niet alleen om dat je de camera of de software al het werk voor je laat doen. Het kan je opties bieden of je wat tijd besparen, maar uiteindelijk zijn de keuzes die je maakt nog steeds van jou. Soms kan het zien van een slechte suggestie voor een herkadering u helpen beseffen welke elementen in het fotowerk moeten worden weggelaten. Of u kunt een automatische aanpassing toepassen, het daar niet mee eens zijn (mogelijk heftig) en uw eigen creatieve ding doen.