Die Nachrichten sind gerade voll, damit das Samsung angeblich Mond-Fotos faked. Wir haben darüber unseren Podcast gesprochen und erklärt, dass das so nicht der Fall ist. Grundsätzlich funktioniert es folgendermaßen. Das Samsung Galaxy s23 erkennt, dass der Mond fotografiert wird. Anhand von Machine Learning und KI wird dann das Foto im Smartphone so bearbeitet, das ein hervorragendes Mondphoto entsteht. Das hat nichts mit faken zu tun, sondern nutzt einfach die Möglichkeiten, die KI, Algorithmen und Maschinen Learning heutzutage bieten. Ich halte das bei einem Mondphoto für nicht verwerflich. Denn der Mond sieht von jedem Ort der Welt gleich aus. Aber ich möchte euch mal zeigen, wo ich es für problematisch empfinde.
Zunächst einmal vielen Dank an Cyberport die uns das Galaxy S23 für einen Test zur Verfügung gestellt haben. Es ist großartig, dass Cyberport uns immer wieder aushilft, wenn die Hersteller uns keine Geräte zum Testen liefern möchten, also wenn ihr das S23, welches ein fantastisches Smartphone ist, kaufen wollt, macht es unter diesem Link bei Cyberport.
Ich habe ein Vergleichsvideo zwischen der Kamera des Google Pixel 7 und das Samsung Galaxy S23 veröffentlicht. und dort ist mir beim Durchsehen der Bilder ein Foto ins Blickfeld geraten, welches ich problematisch finde. Eines das zeigt wo die Kameraalgorithmen der Hersteller zu stark eingreifen. Ich zeige euch mal das folgende Bild.
Hier seht ihr das Bild, aufgenommen vom Samsung Galaxy S23. Das Gras ist schön grün und der Himmel ist Tief-blau. Ich gehe davon aus, dass die Kamera erkannt hat, dass es sich bei dem Vordergrund um Gras handelt. Und Gras ist grün. Und dass die Kamera erkannt hat, dass es sich bei der blauen Fläche oben um Himmel handelt. Himmel ist Tief-Blau. Und dass die Kamera erkannt hat, das in der Mitte muss Wasser sein. Also wurden die Flächen in den Farben ausgegeben, die von der KI dafür vorgesehen wurden. (Einfach erklärt) . Dies ist, wenn man im Automatikmodus fortografiert auch sinnvoll. Denn dort soll die KI ja den Anwender untestützen.
Aber in folgendem Bild seht ihr, wie es wirklich ausgesehen hat.
Dieses Foto ist zur selben Zeit mit dem Google Pixel 7 aufgenommen worden. Es gibt die Situation deutlich realistischer wieder. Die Bilder wurden Mitte Februar aufgenommen. Das Gras ist also nicht grün, sondern gelb. Ebenso wie das Schilf im Hintergrund. Der Himmel war blau, aber nicht so tiefblau, wie das Samsung Galaxy es uns vorgespielt hat. Auch das Tiefblau des Wassers beim Galaxy war so in der Realität nicht vorhanden. Klar, es sind nuancen aber dennoch.
Ich möchte jetzt gar nicht beurteilen, welches Foto besser oder schlechter ist, ich möchte nur darauf hinweisen, dass das Foto aus dem Samsung Galaxy S23 nicht die Realität widerspiegelt. Und das ist sehr häufig sehr gut. Denn die meisten Menschen nutzen ihre Smartphonekameras als Automatikknipse und möchten, dass die Bilder so gut und nicht so realistisch als möglich aufgenommen werden. Ich würde das nicht einmal als Fake oder Probleme benennen. Es ist doch gut, das Samsung genauer gesagt die Algorithmen in der Kamera versuchen dem Anwender unter die Arme zu greifen und möglichst schöne Fotos hinzubekommen.
In den meisten Fällen funktioniert das ja auch sehr gut. In diesem Fall allerdings wird die Wirklichkeit nicht realistisch wiedergegeben. Und das ist etwas, das finde ich schade. Wer mehr dazu wissen möchte, ich habe hier das große Kameravergleichsvideo zwischen dem Google Pixel 7 und dem Samsung Galaxy S23 verlinkt. Schaut es euch einfach mal in Ruhe an. Dort gibt es noch weitere Beispiele, die aufzeigen, wo die KI eingreift. Grundsätzlich ist die Kamera das Galaxy S23 toll und ich bin damit sehr zufrieden. Und dennoch muss man einfach aufpassen und wachsam sein, wenn man sich heutzutage Fotos anschaut. Denn häufig ist es nicht so, wie es scheint.