Wann ist ein Foto echt? - digitec

2023-03-23 14:45:26 By : Ms. Binger Binger

Bis anhin hatte ich klare Erwartungen, was passiert, wenn ich auf den Auslöser einer Kamera drücke. Die Kontroverse um die Mondbilder des Samsung Galaxy S23 zeigt: Ich muss umdenken.

«Samsung beim Fälschen von Mondfotos erwischt», las ich kürzlich als Schlagzeile. Bei genauerer Betrachtung ist die Aussage weder richtig noch falsch. Vielmehr wirft sie die Frage auf: Wann ist ein Foto echt? Und ist das überhaupt wichtig?

Das Samsung Galaxy S23 Ultra macht erstaunlich scharfe und detaillierte Bilder des Mondes – schon fast zu scharf und detailliert. Ein Reddit-User schoss als Test Fotos eines extra tief aufgelösten Mondbilds. Das Resultat des Smartphones war ein Bild mit Details, die im Quellmaterial nicht existierten. Das führte zur Vermutung, dass die Bildverarbeitung des Galaxys vorgefertigte Mondbilder aus einer Datenbank in seine Fotos pappt. Das wäre möglich, denn der Mond wendet der Erde immer die gleiche Seite zu. Er sieht in der gleichen Mondphase immer identisch aus.

Diese Erklärung greift aber zu kurz. Als der gleiche Reddit-User in Photoshop ein graues Quadrat auf den Mond malt und das fotografiert, ist auch das Quadrat in den Fotos sichtbar. Allerdings plötzlich nicht mehr uniform, sondern mit Mond-Struktur. Samsung schreibt sich in einer Erklärung um Kopf und Kragen. Der Hersteller spricht von «Super Resolution», «AI Deep Learning» und «Detail Enhancement» – er will das Feature als fortgeschrittene Bildverarbeitung einordnen. Die Kontroverse ist übrigens nicht neu, bereits vor zwei Jahren sorgten ähnliche Bilder des Galaxy S21 Ultra für Diskussionen.

Samsungs Mond-Bilder verwischen die Grenzen zwischen Realität und Fälschung: Das Handy erkennt im Super-Zoom-Modus den Mond – auch, wenn es sich dabei nur um ein Bild auf einem Monitor oder einen Ausdruck davon handelt. Schiesse ich dann ein Foto, ist das Resultat ein zunächst unscharfes Mondbild. Dieses Ausgangsmaterial reichert die Künstliche Intelligenz (KI) mit Details aus bestehenden Mondbildern an. Das S23 Ultra tauscht das Bild also nicht komplett aus, ergänzt aber Dinge, welche die Kamera technisch bedingt nicht aufnehmen kann. Die scharfen Mondfotos sind somit akkurat, auch wenn sie nicht alleine im Handy entstehen.

Macht das Smartphone nun also ein Bild der Realität oder ist das Foto gefälscht? Die gleiche Frage stellt sich auch bei anderen Gelegenheiten: Was ist mit Soft-Skin-Modi von gewissen Handys? Oder mit TikTok, wo die KI neuerdings mein gesamtes Gesicht mit einer «schöneren» Version von mir selbst ersetzen kann, inklusive digitaler Kiefer-OP? Und ist das etwas anderes, als wenn ich in Photoshop einen Pickel retuschiere?

Die Grenze zwischen fake und real ist willkürlich. Ein Foto oder Video zeigt nie die Realität. Es ist nur ein Abbildungsversuch der Realität. Eine Interpretation, die der Wahrnehmung des menschlichen Auges nahekommen kann. Ob sie das überhaupt soll, ist eine offene Frage. Sie wird diskutiert, seit es die Fotografie gibt. Mit den Möglichkeiten der digitalen Bildbearbeitung erhielt die Frage eine neue Dimension. Und jetzt, mit dem Aufstieg von KI-basierten Filtern und Funktionen, findet erneut ein Paradigmenwechsel statt.

Dabei gibt es kein «richtig» oder «falsch». Drei Fragen stelle ich aber jedem Bild:

Ein Foto kann verschiedene Ansprüche haben. Am einen Ende des Spektrums steht das dokumentarische Bild – zum Beispiel Reportage- oder Pressefotografie. Das Ziel: Ein Bild, auf das ich möglichst wenig Einfluss nehme und das der menschlichen Wahrnehmung möglichst nahe kommt. Am anderen Ende steht die Kunst, wo alles erlaubt ist. Hier muss ein Bild überhaupt nicht aussehen wie die reale Welt. Es ist nur der Ausdruck einer kreativen Vision.

Zwischen diesen beiden Extremen befindet sich der Rest: Erinnerungsfotos aus den Ferien, Portraits von Prominenten, Produktfotos einer Biermarke. Sie alle sind zwar in der Realität verankert, können aber mehr oder weniger stark davon abweichen. Mir doch egal, ob der Sonnenuntergang auf dem Handy genau so aussieht wie in echt. Hauptsache, das Bild weckt später Erinnerungen an den Aufnahmeort.

Ist der Anspruch geklärt, habe ich unterschiedliche Erwartungen daran, wie ein Bild aufbereitet oder verändert wird.

Am dokumentarischen Ende des Spektrums ist das Ziel klar: Ich schraube lediglich sanft an Farben und Tonwerten, um ein Foto so nahe wie möglich an die Realität zu bringen. Puristen der alten Schule behaupten, schon das sei zu viel. Das halte ich für ein Missverständnis. Schon zu analogen Zeiten sahen Farben mit dem einen Film ganz anders aus als mit dem nächsten. Und in der digitalen Welt ist jedes Bild das Resultat einer bestimmten Sensortechnik, in einem vom Hersteller vorgegebenen Farb, Kontrast-, und Schärfeprofil. Der einzige Unterschied zu einer eigenen Bildentwicklung ist der Kontrollverlust. Was ich hingegen in einem dokumentarischen Foto nicht ändere, sind strukturelle Dinge. Auch der unästhetische Strommast bleibt, wo er ist.

Auch mit einem künstlerischen Ansatz sind die Regeln schnell erklärt: Es gibt keine. Der Schweizer Landschaftsfotograf Fabio Antenore macht hyperreale Bilder. Er setzt sie aus mehreren Belichtungen zusammen und fügt nachträglich Lichteffekte hinzu. Objekte, die ästhetisch nicht ins Bild passen, werden ausradiert. Das ist in dieser Art der Fotografie alles kein Problem. Erlaubt ist, was gefällt.

Spannungen entstehen im Mittelfeld. Was darf ein Vogue-Cover? Die Fotos sind meist das Resultat von aufwändiger Lichtführung, professionellem Make-Up und tiefgreifender Bildbearbeitung. In der Fashion-Fotografie ist kein Platz für Hautunreinheiten, selbst die Gesichtsstruktur wird oft optimiert. Und wie sieht es mit Bildern auf Social Media aus? Auf Profilen von Instagram-Influencern sehe ich eine perfekte Welt. Mit dem perfekten Pärchen an einem perfekten Strand in Bali. Was ich nicht weiss: Wie stark KI-Tools das Bild manipuliert haben. Ist der Himmel noch der originale? Sind die Menschen wirklich so schön? War der Strand so sauber?

Dieses Unwissen illustriert die tatsächliche Herausforderung in der heutigen Fotografie: die fehlende Transparenz. «Ist das Bild echt?», ist die falsche Frage. Die richtige lautet: Weiss ich, wie das Bild entstanden ist?

Die Antwort darauf lautet oft «nein». Besonders problematisch wird das, wenn die Erwartung der Betrachterin nicht mit dem Anspruch des Fotografen zusammenpasst. In gewissen Fällen sollen das Regeln verhindern: Von einem Pressebild darf ich etwa erwarten, dass es nicht strukturell manipuliert wurde. Verändert ein Fotograf ein solches Bild, verstösst er gegen die Richtlinien sämtlicher Bildagenturen. In anderen Fällen impliziert der Kontext den Anspruch. An einer Ausstellung von Fabio Antenore weiss ich, dass die Bilder Gefühle transportieren sollen, nicht die Wirklichkeit.

Doch an vielen Orten sind die Verhältnisse weniger klar. Sehe ich auf Social Media ein Portrait, gehe ich zwar grundsätzlich davon aus, dass die Person in der Realität auch so aussieht. Wer jemals Zeit auf einer Dating-App verbracht hat, weiss, dass das nicht stimmen muss. Ist meine dokumentarische Erwartung naiv oder liegt der Fehler beim Gegenüber und seinen geschönten Bildern? Was ist normal? Das wäre unwichtig, wenn ich wenigstens wüsste, welchen Anspruch die andere Person an das Bild hatte.

Die Geschichte der Fotografie war schon immer eine Geschichte voller Unklarheit, Täuschungen und Missverständnisse – zwischen Menschen. Und jetzt kommt Samsungs scharfer Mond. Er ändert nochmal alles.

Er ändert alles, weil er für eine völlig neue Dimension von Intransparenz steht: Nicht nur als Betrachter weiss ich nicht, wie ein Bild entstanden ist, sondern neu auch als Fotograf. Was genau im Galaxy S23 passiert, wenn ich es gen Himmel richte, verstehe ich nicht einmal mit Samsungs Erklärung. Es ist eine undurchsichtige Kombination aus mehreren Belichtungen, digitaler Bildverarbeitung und KI-Algorithmen, die Material aus einer unbekannten Datenbank hinzufügen. Der verantwortliche «Scene Optimizer» lässt sich zwar deaktivieren. Standardmässig ist er aber eingeschaltet.

Der scharfe Mond ist nur die Spitze des Eisbergs. Youtuber Marques Brownlee fasst verschiedene Beispiele von KI-Bildoptimierung im Video unten zusammen. Ein Handy von Xiaomi zeichnet etwa die Haut weich oder kann Lippen voller machen. Apples iPhone verändert noch keine Strukturen. Es hat aber längst entschieden, dass Schatten etwas Schlechtes sind und greift auf mehrere Belichtungen zurück, wenn der Kontrast zu gross wird. Wann es das tut, kann ich nicht steuern.

Über diesen Kontrollverlust könnte ich mich aufregen. Doch damit würde ich mich lediglich an eine Ära klammern, die zu Ende geht. Stattdessen denke ich um: Bisher hatte ich eine bestimmte Erwartung, was eine Kamera macht, wenn ich den Auslöser drücke. Das ändert sich gerade.

Je besser die Algorithmen von automatischen Bildverarbeitungen werden, desto stärker werden sie selbstständig eingreifen. In Zukunft mache ich kein Foto mehr – ich frage mein Gerät nach seinem Interpretationsvorschlag der Szene. Je nach Modell fällt dieser Vorschlag anders aus. Wie viel KI-Eingriffe ich dabei gut finde, ist reine Geschmacksache. Das muss nicht zwingend schlecht sein, sondern bietet auch neue Möglichkeiten. Und was wir als gesellschaftliches Kollektiv im Durchschnitt bevorzugen, wird die neue Norm.

Sind das dann echte Fotos oder nicht? Das ist mir egal. Mein einziger Wunsch wäre Transparenz – von Fotografinnen und Smartphone-Herstellern gleichermassen.

56 Personen gefällt dieser Artikel

Mein Fingerabdruck verändert sich regelmässig so stark, dass mein MacBook ihn nicht mehr erkennt. Der Grund: Wenn ich nicht gerade vor einem Bildschirm oder hinter einer Kamera hänge, dann wahrscheinlich an meinen Fingerspitzen mitten in einer Felswand.

Hast du Fragen? Dann besuche unser Helpcenter