Afgelopen weekend The New Yorker publiceerde een essay van Kyle Chayka met een kop die gegarandeerd mijn interesse wekte en mijn nekharen opwekte:"Zijn iPhone-camera's te slim geworden?" (18 maart 2022).
Behalve dat het een goed voorbeeld is van Betteridge's Law of Headlines, voedt het het idee dat computationele fotografie een bedreiging vormt voor fotografen of op de een of andere manier de fotografie verpest. De ondertitel geeft het oordeel weer zoals opvallende krantenkoppen doen:"De nieuwste smartphonemodellen van Apple maken gebruik van machine learning om elke afbeelding er professioneel uit te laten zien. Dat betekent niet dat de foto's goed zijn."
De implicatie daar, en een strekking van het artikel, is dat machine learning slechte beelden creëert. Het is een voorbeeld van een soort nostalgische angstbesmetting die toeneemt naarmate meer computationele fotografietechnologieën helpen bij het maken van afbeeldingen:De machines krijgen meer controle, algoritmen nemen de beslissingen die we vroeger namen, en mijn iPhone 7/DSLR/film SLR/Brownie heeft betere foto's gemaakt. Allemaal verpakt in het idee dat 'echte' fotografen, professionele fotografen, nooit met zulke tovenarij zouden spelen.
(Laten we het feit terzijde schuiven dat de uitdrukking "Dat betekent niet dat de foto's goed zijn" kan worden toegepast op elke technologische vooruitgang sinds de komst van de fotografie. Een betere camera kan de technische kwaliteiten van foto's verbeteren, maar garandeert niet " goede" afbeeldingen.)
Ik raad je ten zeerste aan om het artikel te lezen, waarin een aantal goede punten worden genoemd. Mijn probleem is dat het een belangrijk feit negeert of weglaat:computationele fotografie is een hulpmiddel, een hulpmiddel dat u kunt gebruiken of niet.
Weten dat je keuzes hebt
Om samen te vatten, Chayka's argument is dat de machine learning-functies van de iPhone foto's maken die "vreemd en griezelig" zijn, en dat op zijn iPhone 12 Pro de "digitale manipulaties agressief en ongevraagd zijn". Hij heeft het over Deep Fusion en andere functies die meerdere belichtingen van de scène in milliseconden opnemen, specifieke gebieden aanpassen op basis van hun inhoud, zoals luchten of gezichten, en alles samensmelten om een definitief beeld te creëren. De fotograaf tikt gewoon op de sluiterknop en ziet het eindresultaat, zonder dat hij de technische elementen zoals sluitertijd, diafragma of ISO hoeft te kennen.
U kunt deze functies eenvoudig omzeilen door een app van derden te gebruiken, zoals Halide of Camera+, die opnamen kan maken met handmatige bediening en de afbeeldingen in JPEG- of RAW-indeling kan opslaan. Sommige functies van de apps kunnen profiteren van de oorspronkelijke beeldverwerking van de iPhone, maar u bent niet verplicht ze te gebruiken. De enige handmatige bediening die niet beschikbaar is, is het diafragma, omdat elke compacte iPhone-lens een vaste diafragmawaarde heeft.
Dat vaste diafragma is ook de reden waarom de iPhone de portretmodus bevat, die het onderwerp detecteert en de achtergrond kunstmatig vervaagt om het zachte scherptediepte-effect op de achtergrond te simuleren dat wordt gecreëerd door te fotograferen met een heldere lens van f/1.8 of breder. De kleine optica kan het niet repliceren, dus Apple (en andere smartphone-ontwikkelaars) wendde zich tot software om het effect te creëren. De eerste implementaties van de portretmodus vertoonden vaak merkbare artefacten, de technologie is de afgelopen tien jaar zo verbeterd dat het niet altijd duidelijk is dat de modus werd gebruikt.
Maar nogmaals, het is de keuze van de fotograaf om het te gebruiken. Portretmodus is gewoon een ander hulpmiddel. Als je het uiterlijk van de portretmodus niet leuk vindt, kun je overschakelen naar een DSLR of spiegelloze camera met een degelijke lens.
Algoritmische keuzes
Meer toepasselijk is het idee dat de verwerking van de iPhone een specifiek uiterlijk creëert, waardoor het wordt geïdentificeerd als een iPhone-opname. Sommige afbeeldingen lijken een overdreven dynamisch bereik te hebben, maar dat is niets anders dan de verwerking van vroege belichtingsmenging die HDR-foto's (high dynamic range) heeft gemaakt waar geen schaduw onopgehelderd bleef.
Elk systeem heeft zijn eigen uitstraling. De verwerking door Apple is in mijn ogen meer naturalistisch, met behoud van donkere kleuren en het vermijden van uitgeblazen gebieden in scènes die anders lastig zouden zijn voor een DSLR. De verwerking van Google neigt meer naar het belichten van de hele scène met veel licht. Dit zijn keuzes die de ingenieurs van het bedrijf maken bij het toepassen van de algoritmen die bepalen hoe de afbeeldingen worden ontwikkeld.
Hetzelfde geldt voor traditionele camerafabrikanten:Fujifilm-, Canon-, Nikon-, Sony-camera's hebben allemaal hun eigen "JPEG-look", wat vaak de reden is dat fotografen voor een bepaald systeem kiezen. Chayka erkent dit zelfs wanneer hij herinneringen ophaalt over "...de ongerepte Leica-camerafoto gemaakt met een vaste lens, of de Polaroid instant snapshot met zijn vlekkerige belichting."
Het artikel wil de beeldkwaliteit van de iPhone echt casten als een onnatuurlijke synthetische versie van de werkelijkheid, foto's die "... koud scherp en vaag onmenselijk zijn, gevangen in de griezelige vallei waar creatieve expressie en machine learning samenkomen." Dat is een mooie uitdrukking, maar het komt aan het einde van het praten over de functie Fotografische stijlen van de iPhone, die is ontworpen om de fotograaf meer controle over de verwerking te geven. Als je de voorkeur geeft aan warmere beelden, kun je ervoor kiezen om de warmte te verhogen en die stijl te kiezen tijdens het fotograferen.
Het is ook grappig dat de persoon die aan het begin van het artikel werd genoemd het niet leuk vond hoe de iPhone 12 Pro foto's weergaf, dus "De laatste tijd draagt ze een Pixel, uit de lijn van Google-smartphones, met als enig doel foto's te maken."
De Pixel maakt gebruik van dezelfde soorten computationele fotografie als de iPhone. Vermoedelijk geeft deze persoon de voorkeur aan het uiterlijk van de Pixel boven de iPhone, wat volkomen terecht is. Het is hun keuze.
Kiezen met de massa
Ik denk dat het grotere probleem met de iPhone is dat de meeste eigenaren niet weten dat ze een andere keuze hebben dan de Camera-app van Apple. Het pad naar het gebruik van de standaardoptie is ontworpen om soepel te zijn; naast prominente plaatsing op het startscherm, kunt u het rechtstreeks starten vanaf een pictogram op het vergrendelscherm of gewoon van rechts naar links vegen wanneer de telefoon is vergrendeld. De handeling van het maken van een foto is letterlijk "richten en schieten".
Belangrijker nog, voor miljoenen mensen zijn de foto's die het maakt precies wat ze zoeken. De iPhone maakt afbeeldingen die belangrijke momenten vastleggen of gekke snapshots of een van de onbeperkte soorten scènes die mensen uit hun telefoon halen om op te nemen. En computationele fotografie maakt een groter aantal van die afbeeldingen fatsoenlijk.
Natuurlijk zal niet elke opname "goed" zijn, maar dat geldt voor elke camera. We kiezen welke tools we voor onze fotografie gebruiken, en dat omvat zowel computationele fotografie als camera's, lenzen en opname-instellingen.