Die Stimme aus der aufsehenerregenden Vorführung einer Unterhaltung mit ChatGPT soll vorerst nicht mehr verwendet werden, weil sie zu sehr an eine von Scarlett Johansson gespielte KI-Assistentin aus dem Film "Her" erinnert. "Wir sind überzeugt, dass KI-Stimmen nicht absichtlich die charakteristische Stimme von Berühmtheiten nachahmen sollten", schrieb die Entwicklerfirma OpenAI in einem Blogeintrag in der Nacht zu Montag.
Die "Sky" genannte Stimme sei "keine Imitation von
OpenAI beeindruckte bei der Demonstration vor einer Woche unter anderem mit dem Tempo der Unterhaltung, sowie damit, mit welcher Leichtigkeit die Software den Tonfall von aufgeregt bis mitfühlend variieren konnte. Firmenchef Sam Altman suchte da noch selbst den Vergleich: Er schrieb das Wort "her" auf der Online-Plattform X und betonte, die Software sei wie KI aus Kinofilmen. In "Her" verliebt sich der von Joaquin Phoenix gespielte Protagonist in die KI-Software.
"Sky" war zusammen mit vier anderen Stimmen - "Breeze", "Cove", "Ember" und "Juniper" - bereits im September 2023 bei ChatGPT eingeführt worden. Erst mit dem neuen KI-Modell GPT-4o soll der Chatbot aber eine wirklich fliessende Unterhaltung führen können. Die fünf Stimmen basieren auf Sätzen, die Menschen für OpenAI eingesprochen haben. Sie seien aus mehr als 400 Bewerbungs-Beiträgen von Film- und Bühnenschauspielern ausgesucht worden, hiess es im Blogeintrag. Die Namen nennt OpenAI nicht, "um ihre Privatsphäre zu schützen".
Am Wochenende flammte auch wieder die Debatte darüber auf, ob OpenAI bei der Entwicklung Künstlicher Intelligenz verantwortungsvoll genug vorgeht. Ein Top-Softwareentwickler, der dafür zuständig war, KI-Software sicher für Menschen zu machen, kritisierte nach seinem Rücktritt Gegenwind aus der Chefetage. In den vergangenen Jahren seien "glitzernde Produkte" der Sicherheit vorgezogen worden, schrieb Jan Leike bei X. Dabei sei "Software zu entwickeln, die schlauer als Menschen ist, eine von Natur aus gefährliche Unternehmung", warnte er. Altman versicherte danach, OpenAI fühle sich verpflichtet, mehr für die Sicherheit von KI-Software zu tun. © dpa
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.