Donald Trumps angebliche Festnahme, der Papst in stylischer Daunenjacke oder Putin kniend vor Xi Jinping – im Netz kursieren Bilder, die mithilfe von Künstlicher Intelligenz erstellt wurden. Woran sich das erkennen lässt.
In sozialen Netzwerken verbreitete sich am 20. März ein Bild, das anscheinend mithilfe von Künstlicher Intelligenz (KI) erstellt wurde: Es soll den russischen Präsidenten
Immer öfter verbreiten sich durch KI generierte Bilder, so wie zum Beispiel die Fake-Bilder von
Die Fälschung zeigt die Fortschritte einer Technologie, die immer häufiger eingesetzt wird
Das Bild kursierte in unterschiedlichen Sprachen, etwa auf Deutsch, Englisch oder Ukrainisch. Der älteste Beitrag, den CORRECTIV.Faktencheck dazu entdeckte, wurde am 20. März in einem Telegram-Kanal namens News.GRP veröffentlicht, laut Selbstbeschreibung "der schnellste Nachrichten-Aggregator der Ukraine".
Das Bild des knienden Wladimir Putin tauchte im Kontext von Xi Jinpings Besuch in Russland am 20. März 2023 auf. An diesem Tag war der chinesische Staatspräsident laut Medienberichten für ein Treffen mit Putin in Moskau gelandet.
Inzwischen haben mehrere Medien das Bild als Fälschung enttarnt. Doch woran lässt sich das erkennen? Wir haben dazu den Forschungsingenieur David Fischinger vom Austrian Institute of Technology (AIT) gefragt. Er nimmt an, dass das angebliche Bild von Jinping und Putin mithilfe von Künstlicher Intelligenz (KI) erstellt wurde.
Ein nützliches Werkzeug: Die Bilderrückwärtssuche
Ein erstes Indiz dafür liefert eine Bilderrückwärtssuche, wie wir sie hier erklärt haben. Lädt man das Bild von Putin und Jinping bei den Suchmaschinen Google, Tineye oder Yandex hoch und sucht gezielt nach Ergebnissen für den 20. März, erscheinen zunächst Beiträge in sozialen und Foto-Netzwerken wie Imgur, Twitter oder Linkedin. Keiner der gelisteten Beiträge enthält eine konkrete Quellenangabe für das Bild.
Fischinger erklärt, die Bilderrückwärtssuche sei eine sehr nützliche Methode, um die Echtheit von Bildern zu überprüfen. "Wenn KI-Bilder (von Grund auf) generiert werden, gibt es im Allgemeinen nicht nur ein Originalbild, aus dem die Teile entnommen wurden. Es gibt Tausende/Millionen von Fotos, die zum Lernen von Milliarden von Parametern verwendet wurden." Das bedeutet: Das Bild entsteht nicht durch die Manipulation eines vorhandenen Fotos, sondern es wird aus vielen unterschiedlichen Elementen neu erstellt. Deswegen lässt sich in solchen Fällen kein einzelnes Ursprungsbild finden.
Erste Recherche enthüllt Ungereimtheiten
Überprüfen lassen sich KI-generierte Bilder auch mit klassischer Recherche. Was haben Medien an dem Tag berichtet? Wie sieht die Umgebung aus, in der sich Personen befinden? Wer war dabei? Das funktioniert auch beim Bild des knienden Wladimir Putins.
Medien veröffentlichten am 20. März zahlreiche Bilder des Treffens im Kreml, auf denen die Männer in einem völlig anderen Raum zu sehen sind. Der Teppich unter ihnen war nicht rot, wie in der KI-Version, sondern beige. Auch die Stühle hatten statt eines braunen Holzrahmens einen weissen.
Auf der Internetseite der US-Fotoagentur Getty Images und der staatlichen russischen Nachrichtenagentur TASS sind Xi und Putin zwar in unterschiedlichen Räumen zu sehen – doch keiner davon gleicht dem KI-Foto mit dem roten Teppich.
Auffälligkeiten in Fotos erkennen
Generiert KI ein Bild oder Video, kann es manchmal zu optischen Ungereimtheiten kommen. Das Bild von Putin und Xi Jinping zeigt mehrere Auffälligkeiten: Zum Beispiel sieht Putins Kopf ungewöhnlich gross aus, sein Schuh wirkt deformiert – an der Spitze sind unnatürliche Wölbungen zu erkennen. Zudem ist im Hintergrund eine Säule zu sehen, die ungerade verläuft.
Ob manipulierte Bilder in Zukunft weiterhin so leicht zu enttarnen sind, ist dem KI-Forscher Fischinger zufolge fraglich. Schon jetzt seien Porträtfotos deutlich schwieriger zu entlarven. Die Technologie entwickele sich rasant: Die KI-Generierung von Gesichtern habe bereits "ein Qualitätsniveau erreicht", das es selbst geschulten Menschen schwer mache, zwischen generierten und authentischen Porträtbildern zu unterscheiden, so Fischinger. Vor zwei bis drei Jahren sei das für Menschen, zumindest mit etwas Übung, noch einfacher gewesen.
Einige Tools können Einschätzungen liefern, ob Bilder von KI generiert wurden
Unterschiedlichste Internetseiten bieten Werkzeuge an, mit denen sich die Authentizität von Bildern überprüfen lässt. Daraus resultierende Einschätzungen sollten jedoch mit gewisser Vorsicht interpretiert werden, denn sie sind unter Umständen unzuverlässig. Zudem gehen Bildinformationen und -qualität verloren, wenn das Bild in sozialen Netzwerken immer wieder kopiert und verbreitet wird.
Welches Werkzeug bei einer Einschätzung helfen kann, hängt ausserdem davon ab, wie das Bild verändert oder erstellt wurde. So braucht es für den Nachweis eines KI-generierten Fotos andere Werkzeuge als bei Bildern, in die zum Beispiel mit einer einfachen Software andere Teile eingefügt wurden.
Das Foto von Putins Kniefall identifiziert zum Beispiel dieser kostenlose AI-Image-Detector als mögliche KI-Bearbeitung. In einigen Fällen schätzt es aber echte Bilder als Fälschung ein – allein daraus lässt sich folglich nicht auf eine KI-Manipulation schliessen.
Wer sich bei Bildern im Netz unsicher ist, ob sie echt sind, kann diese per E-Mail oder per WhatsApp-Chatbot an CORRECTIV.Faktencheck schicken.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.