Wahrheit oder Deepfake: Wie erkennt man KI-Bilder?

Was ist noch schlimmer, als zu wissen, dass jemand fremdgeht? Dabei zusehen zu müssen! In der Reality-Show Fake oder Liebe? werden Kandidat*innen mit Bildern konfrontiert, die ihre Partner*innen an die Beziehungsgrenzen bringen.

Ihren Augen sollten sie dabei aber nicht vertrauen. Denn unter das echte Material werden KI-generierte Bilder geschummelt. Die Kandidat*innen müssen entscheiden, ob das, was sie da sehen, echt ist oder nicht. Liegen sie richtig, gewinnen sie ein Preisgeld von 100.000 Euro.

Hilft es, genau hinzuschauen?

Das Erkennen KI-generierter Bilder ist keine leichte Aufgabe, wie sich in den letzten Monaten herausgestellt hat. Seit Bilder-generierende KI-Applikationen wie Dall-E 2, Midjourney und DreamStudio einer breiten Öffentlichkeit zugänglich wurden, sind schon einige auf die Täuschung reingefallen. Wenn der Papst in einer glänzenden Pufferjacke auftaucht und so aussieht, als habe er in letzter Zeit sehr hart an seinem Street-Cred gearbeitet, dann kann man das noch leicht als Fälschung enttarnen. Aber auch nur, weil der Kontext so schön absurd ist.

Doch Deep-Fake-Technologie bietet in Zeiten, in denen Fake-News und Verschwörungstheorien jeden Tag an die virtuelle Tür klopfen, auch den Nährboden für Manipulationen, Verletzungen der Persönlichkeitsrechte und Propaganda.

Besonders verwirrend wird es beim Videomaterial. Denn KIs können mittlerweile auch Stimmen und Sprachmuster virtuell nachbauen und gezeigte Szenen mit entsprechenden Dialogen unterlegen. Allerdings braucht es heute oft noch eine menschliche Basis für ein gelungenes Deep-Fake-Video: Einen Menschen, der demjenigen, den man darstellen möchte, zum Verwechseln ähnlich sieht. Auf dessen reales Gesicht werden dann digital die Merkmale des anderen Gesichts gelegt.

So hat Hollywood bereits Alterungsprozesse zurückgedreht und sogar verstorbene Schauspieler*innen auf die Leinwand zurückgeholt. So durfte ein Kinopublikum beispielsweise jüngst einen faltenfreien Indiana Jones bewundern und Star-Wars-Fans konnten noch einmal Peter Cushing als Großmoff Tarkin im 2016 erschienenen Film Rogue One: A Star Wars Story sehen – obwohl Tarkin bereits 1994 verstorben war.

In Fake oder Liebe basiert das KI generierte Material auf der Darstellung von Doppelgängerinnen

KI gegen KI

Die Anwendung von Deep-Fake-Technologie in Film und Fernsehen ist aber nur die glänzende Seite der Medaille. Fake oder Liebe? führt den Kandidat*innen ein auf sie persönlich zugeschnittenes Horror-Szenario vor. Eine vergleichsweise harmlose Anwendung der Technologie. Den Partner*innen turtelnd mit Fremden im Pool zusehen zu müssen, dürfte insgesamt weniger Schaden anrichten als falsche Politiker*innen, die hanebüchene Botschaften an die Weltgemeinschaft rausposaunen. Was kann man also tun?

Als Laie: Gar nicht so viel. Denn die Technologie wird immer ausgeklügelter. Klar, manchmal unterlaufen der KI noch Fehler. Wer genau hinsieht, stößt in KI-Bildern immer wieder auf Details, die nicht stimmen können. Es lohnt sich insbesondere einen scharfen Blick auf Hände und Gesichter zu werfen. Augen, Zähne und Finger sind immer noch oft die Schwäche der KI: Die Augen werden manchmal zu schwarzen Löchern, Finger entweder in Slander-Man-Manier zu lang und dünn oder zu einem einzigen Klumpen. Brillengestelle verschwinden neben einem Ohr und Zähne biegen sich zur Seite, als wären sie aus Gummi. Und wenn man Glück hat, dann hat die KI ihr Wasserzeichen hinterlassen. Ein kleines, meistens leicht transparentes Logo in der Ecke des Bildes.

Doch Fehler werden immer spärlicher und Wasserzeichen lassen sich mit wenigen Clicks aus dem Bild schneiden. Steckt in einem Fake etwas mehr Mühe, kann es so gut wie unmöglich sein, ein KI-Bild mit bloßem Auge zu entlarven. Da hilft nur: KI gegen KI.

Erkennt Ihr, was echt ist und was nicht? Hier gehts zum Quiz.

Ein Computer muss sich nicht auf Optik verlassen. Er liest ein Bild völlig anders aus als ein Mensch – nämlich als komplexes Koordinatensystem. KIs erstellen neue Bilder, weil sie auf Basis riesiger Datenmengen gelernt haben, wie die realistische Verteilung von Datenpunkten in einem virtuellen Koordinatensystem aussehen muss. Über die Mustererkennung der Verteilungswahrscheinlichkeit können einige KIs darauf trainiert werden, das Werk anderer KIs zu erkennen.

Doch es ist ein Teufelskreis: Informatiker*innen, die derzeit an Erkennungsmethoden arbeiten, indem sie die Blutströme in Gesichtern untersuchen oder KI-Programmen beibringen, Fälschungen zu erkennen, bauen mit ihren Bemühungen die Basis der Mustererkennung zukünftiger KI-Generationen.

In Zukunft wird es immer schwieriger werden, Wahrheit von Lüge zu unterscheiden. Bevor also Informationen interpretiert werden können, müsste man zunächst ihre Glaubwürdigkeit abwägen. Stammt das Material von einer etablierten Nachrichtenseite? Falls nicht, was sagen die Kommentare, gibt es kritische Stimmen? Letztendlich stellt man sich einer Flut von Fehlinformationen am besten mit Bedacht entgegen.

Netflixwoche Redaktion

Drücke ESC, um die Suche zu schließen.