Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weisse Nazi-Soldaten und amerikanische Siedler angezeigt hatte. Der Internet-Konzern räumte ein, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprach. Am Freitag war die Funktion weiterhin nicht verfügbar. Zugleich verteidigte Google grundsätzlich die Diversität bei der Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man übers Ziel hinausgeschossen.
In verschiedenen Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren oft ein Problem mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft Weisse dargestellt.
Entwickler auch bei anderen Unternehmen bemühen sich daher um mehr Diversität in verschiedenen Szenarien. Sie geraten damit manchmal - wie in diesem Fall - zwischen die Fronten: Gerade in den USA gibt es eine laute Bewegung, zu der etwa auch Tech-Milliardär Elon Musk gehört, die angeblichen Rassismus gegenüber Weissen anprangert. © dpa
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.