Misschien heb je deze week de krantenkoppen gezien over de Samsung Galaxy S23 Ultra die foto’s maakt van de zogenaamde “nep” maan. Sinds de S20 Ultra heeft Samsung een functie genaamd Space Zoom die zijn 10x optische zoom combineert met enorme digitale zoom om een gecombineerde 100x zoom te bereiken. In marketingfoto’s liet Samsung zien dat zijn telefoon bijna kristalheldere foto’s van de maan maakte, en gebruikers deden hetzelfde op een heldere nacht.
Maar een Redditor heeft bewezen dat de ongelooflijke Space Zoom van Samsung een beetje bedrog gebruikt. Het blijkt dat bij het fotograferen van de maan de op AI gebaseerde scène-optimizer van Samsung veel werk verzet om het te laten lijken alsof de maan is gefotografeerd met een telescoop met hoge resolutie in plaats van met een smartphone. Dus wanneer iemand een foto van de maan maakt – in de lucht of op een computerscherm zoals een Reddit-bericht – verwijdert de rekenmachine van Samsung kraters en contouren die de camera heeft gemist.
In een vervolgbericht bewijzen ze onomstotelijk dat Samsung inderdaad de “maan” -afbeelding aan de foto toevoegt om de opname op te schonen. Zoals ze uitleggen: “De computervisiemodule/AI herkent de maan, je maakt foto’s en op dit punt vult een neuraal netwerk dat is getraind op talloze maanbeelden de details in die optisch niet beschikbaar waren.” Het is een beetje meer “nep” dan de Samsung, maar dat is nog steeds te verwachten.
Zelfs zonder verkennend werk zou het vrij duidelijk moeten zijn dat de S23 van nature geen duidelijke foto’s van de maan kan maken. Hoewel Samsung zegt dat opnamen met ingezoomde ruimte met behulp van de S23 Ultra “beelden kunnen vastleggen vanaf een ongelooflijke afstand van 100 meter”, is de maan ongeveer 234.000 mijl verwijderd, of ongeveer 1.261.392.000 voet. Het is ook een kwart van de grootte van de aarde. Smartphones hebben geen probleem om duidelijke foto’s te maken van wolkenkrabbers die meer dan 100 meter verwijderd zijn
Natuurlijk vertelt de afstand tot de maan niet het hele verhaal. De maan is eigenlijk een lichtbron tegen een donkere achtergrond, dus de camera heeft wat hulp nodig om een duidelijk beeld vast te leggen Zo legt Samsung het uit: “Als je een foto van de maan maakt, gebruikt het camerasysteem van je Galaxy-apparaat deze op deep learning gebaseerde AI-technologie, evenals multi-frameverwerking om meer details te verbeteren. Lees verder voor meer informatie over de verschillende stappen, processen en technologieën om hoogwaardige beelden van de maan te leveren.”
Dit is niet anders dan functies als Portretmodus, Portretverlichting, Nachtmodus, Magische gum of Gezicht onscherp maken. Het maakt allemaal gebruik van computerbewustzijn om dingen toe te voegen, aan te passen en te bewerken die er niet zijn. In het geval van de maan is het voor de AI van Samsung gemakkelijk om te denken dat de telefoon ongelooflijke foto’s maakt, omdat de AI van Samsung weet hoe de maan eruitziet. Om dezelfde reden lijkt de lucht soms te blauw of het gras te groen. Photo Engine past wat het weet toe op wat het ziet om een high-end camera te simuleren en de gebruikelijke tekortkomingen van smartphones te compenseren.
Het verschil hier is dat, hoewel het gebruikelijk is dat algoritmen voor het maken van foto’s een afbeelding in segmenten verdelen en er verschillende aanpassingen en belichtingsregelingen op toepassen, Samsung een beperkte vorm van AI-beeldgeneratie op de maan gebruikt om details vast te leggen die nooit hebben bestaan. Begin met cameragegevens, maar je zou het niet weten, omdat de details van de maan er vanaf de aarde altijd hetzelfde uitzien.
Samsung zegt dat de camera van de S23 Ultra gebruik maakt van Scene Optimizer’s “op diep leren gebaseerde AI-detailverbeteringsengine om restruis effectief te verwijderen en beelddetails verder te verbeteren.”
Samsung
Wat gaat Apple doen?
Het gerucht gaat dat Apple dit jaar voor het eerst een periscoopzoomlens aan de iPhone 15 Ultra zal toevoegen, en het debat zal ongetwijfeld rekening houden met hoe het zijn AI traint. Maar u kunt er zeker van zijn dat de rekenmachine, zoals nu, een aanzienlijke hoeveelheid zwaar werk achter de schermen zal doen.
Dat is wat smartphonecamera’s zo geweldig maakt. In tegenstelling tot point-and-shoot-camera’s hebben onze smartphones krachtige hersenen die ons kunnen helpen betere foto’s te maken en slechte foto’s er beter uit te laten zien. Het kan nachtfoto’s eruit laten zien alsof ze zijn gemaakt met goede verlichting en het bokeh-effect nabootsen van een camera met een ultrasnel diafragma.
En dat is wat Apple in staat zal stellen ongelooflijke resultaten te behalen met een 20X of 30X zoomlens van een 6X optische camera. Aangezien Apple op deze manier afstand heeft genomen van astrofotografie, betwijfel ik of het zal helpen om maanfoto’s met een hoge resolutie duidelijker te maken, zodat de iPhone 15 duidelijkere foto’s kan maken, maar je kunt er zeker van zijn dat de fotonische engine hard zal werken om de randen op te ruimen . , behoud van details en verbeterde telecameramogelijkheden. En op basis van wat we op de iPhone 14 Pro krijgen, zijn de resultaten zeker spectaculair.
Of het nu Samsung of Apple is, computationele fotografie heeft enkele van de grootste doorbraken van de afgelopen jaren mogelijk gemaakt, en we hebben nog maar het topje van de ijsberg van wat het kan doen. Niets van dit alles is echt. En als dat zo was, zouden we allemaal een stuk minder onder de indruk zijn van de foto’s die we met onze smartphones maken.