Zahlreiche authentische Bilder belegen das Leid im Krieg im Nahen Osten. Doch dieses Bild, das einen Mann und fünf Kinder vor Trümmern zeigt, wurde mithilfe von Künstlicher Intelligenz (KI) generiert.
Gesenkter Blick, verstaubtes Gesicht, hinter ihm ein zerstörtes Haus. Der Mann trägt ein Baby in seinem Arm, hält ein Kind an seiner Hand und trägt drei weitere auf seinen Schultern. Das zeigt ein Bild auf X, Tiktok und Instagram, das Nutzerinnen und Nutzer dem Krieg im Nahen Osten zuordneten.
Dazu heisst es auf Englisch: "So ist es, wenn man in Gaza Vater ist", oder "sie können nirgendwo hingehen, betet für Gaza". Das Bild teilte auch die chinesische Botschaft in Frankreich auf X. Es erreichte Hunderttausende Nutzerinnen und Nutzer in sozialen Netzwerken. Unklar bleibt aber, wer der Urheber des KI-Bildes ist.
Satellitenaufnahmen dokumentieren die Zerstörung in Gaza; es gibt zahlreiches authentisches Bildmaterial und Berichte zu zivilen Opfern in Gaza und Israel seit den Terrorangriffen der Hamas und Israels Gegenangriffen. Doch das angebliche Bild aus Gaza mit dem Mann und den Kindern zeigt keine echten Personen.
Laut Fachleuten ist das Bild KI-generiert
CORRECTIV.Faktencheck bat das Center for Artificial Intelligence and Data Science (CAIDAS) an der Universität Würzburg um eine Einschätzung zu dem Bild. Radu Timofte, Humboldt-Professor für KI und Computer Vision an der Universität Würzburg, antwortete: "Es handelt sich um ein KI-generiertes Bild oder ein KI-manipuliertes Bild." Das sei an Ungereimtheiten zu erkennen, die typisch für KI-generiertes Material seien. "Auf diesem Bild kann man sehen, dass Finger und Zehen nicht in der richtigen Anzahl vorhanden sind oder seltsam aussehen."
Ein weiteres starkes Indiz könne die schlechte Qualität eines Bildes sein, so Timofte. "Ein Bild mit niedriger Auflösung kann die Bildartefakte (künstlich veränderte Bereiche; Anm. d. Red.), die generative KI-Methoden typischerweise erzeugen, verschleiern."
Weitere Fachleute, darunter Siwei Lyu, Direktor des Media Forensic Lab an der Universität Buffalo und Renee DiResta, Forschungsleiterin am Stanford Internet Observatory, bestätigten gegenüber der Nachrichtenagentur AFP ebenfalls, das Bild sei KI-generiert. DiResta verwies dabei auf "die Art und Weise, wie die Figuren mit der Umgebung verschmelzen". Hany Farid, Professor für Elektrotechnik und Computerwissenschaften an der Berkeley School of Information, nannte gegenüber der indischen Faktencheck-Redaktion Boom "den verformten Arm des Erwachsenen" als Indiz für eine KI-Generierung. Tatsächlich sieht der linke Arm des Mannes auf dem Bild grösser aus als der rechte.
Auf dem KI-Bild sind die Zehen nicht korrekt abgebildet und es gibt weitere Unstimmigkeiten
Bei genauerem Hinsehen ist zu erkennen, dass vor allem die Zehen auf dem Bild nicht korrekt abgebildet sind: Das Baby, das im Arm des Mannes liegt, hat an einem Fuss nur drei Zehen. An anderen Füssen sind die Zehen kaum erkennbar. Auch die Füsse des Jungen in der linken unteren Ecke des Bilds wirken unnatürlich; der linke Fuss ist zum Beispiel deutlich überdimensioniert im Vergleich zum rechten.
Zudem liefert eine Bilder-Rückwärtssuche keine Belege für die Authentizität des Bildes: Unter den Suchergebnissen erscheinen ausschliesslich Beiträge in sozialen Netzwerken, die es ohne weitere Quellenangabe verbreiten.
Können Tools solche KI-generierten Bilder erkennen? Timofte von der Universität Würzburg schrieb CORRECTIV.Faktencheck: Wenn die Quelle des Bildes und die Art und Weise, wie das Bild erstellt wurde, unbekannt seien, dann gebe es aktuell keine zuverlässigen Werkzeuge, die zwischen Fiktion und Wirklichkeit unterscheiden könnten. So auch die Einschätzung der Fachleute für KI- und Bilderkennung des Austrian Institute of Technology: "Die Entwicklung solcher Tools ist eine anspruchsvolle Aufgabe, da die rasanten Fortschritte der KI-Technologie bei der Generierung realistischer Bilder es immer schwieriger machen, zwischen echten und generierten Inhalten zu unterscheiden."
Tipps zum Erkennen eines manipulierten oder mit einer KI erstellten Bildes:
- Wenn Sie unsicher sind, ob ein Ereignis so stattgefunden hat, wie es auf einem Bild zu sehen ist: Suchen Sie mit Stichworten nach potenziellen Medienberichten zu dem Ereignis.
- Achten Sie, wie oben beschrieben, auf Ungereimtheiten und Details in dem Bild.
- Suchen Sie, wenn möglich, nach der ursprünglichen Quelle für das Bild. Helfen kann dabei manchmal auch eine Bilder-Rückwärtssuche. Wie die funktioniert, können Sie hier nachlesen.
Bilder, die mithilfe von Künstlicher Intelligenz erstellt wurden, verbreiteten sich bereits in der Vergangenheit in sozialen Netzwerken. So wurde zum Beispiel eine fiktive Festnahme von Donald Trump dargestellt, Wladimir Putin, der angeblich vor Xi Jinping auf die Knie ging, oder eine angebliche Explosion nahe dem Pentagon in Washington.
Über CORRECTIV
- CORRECTIV ist ein gemeinnütziges, unabhängiges und vielfach ausgezeichnetes Recherchezentrum. Die investigativen Journalisten recherchieren langfristig zu Missständen in der Gesellschaft, wie dem Cum-Ex-Steuerraub oder illegaler Parteifinanzierung.
- Eine eigene Faktencheck-Redaktion - CORRECTIV.Faktencheck - überprüft irreführende Behauptungen und Gerüchte in den sozialen Medien. Die Faktenchecker erklären, wie Falschmeldungen unsere Wahrnehmung beeinflussen und wie Sie sich vor gezielten Falschmeldungen schützen können.
- Immer freitags erhalten Sie die neuesten Faktenchecks zu Gerüchten im Netz direkt in Ihr Postfach: Abonnieren Sie hier den CORRECTIV Newsletter.
- Wenn Sie auf mögliche Falschmeldungen oder Gerüchte stossen, können Sie diese CORRECTIV.Faktencheck zur Überprüfung schicken — entweder über den CrowdNewsroom oder über WhatsApp an die +49-151-17535184.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.