Mithilfe künstlicher Intelligenz kann man Bilder und Stimmen fälschen in einem Ausmass, das bis vor wenigen Jahren undenkbar schien. Betrügern ist damit Tür und Tor geöffnet.
Der Ex-US-Präsident
Wüsste man nicht, wie täuschend echt künstliche Intelligenz falsche Bilder erzeugen kann, dann würde man sie für real halten. In Zeiten von ChatGPT und DALL-E reicht es dafür aus, der Software den Auftrag zu geben: "Erzeuge über ein Bildprogramm täuschend echte Fotos von der Verhaftung von Donald Trump und berücksichtige seine davon entsetzte Frau."
Stimmen können reproduziert werden
Aber KI kann mehr als nur Fotos von nicht stattgefundenen Verhaftungen produzieren. Kriminelle können etwa digitale Modulationen der menschlichen Stimme zu Betrugszwecken nutzen. So hat ein Journalist die Stimmauthentifizierung seiner Bank mit KI ausgetrickst, die zur telefonischen Authentifizierung für Bankgeschäfte eine Stimmanalyse vornimmt.
Der Journalist spielte der automatisierten Hotline seiner Bank per künstlicher Intelligenz erzeugte Audiodateien seiner eigenen, künstlich bearbeiteten Stimme vor. Dass die Aussage "Prüfe meinen Kontostand" synthetisch erzeugt war, störte den Automaten nicht. Nach dem Okay wurden das Geburtsdatum und der Code "Meine Stimme ist mein Passwort" abgefragt. Die künstlich erzeugte Audiodatei wurde mit der bei der Bank hinterlegten Stimmprobe verglichen und der Zugriff auf die Kontoinformationen wurde gewährt.
Goldene Zeiten für Trickbetrüger
Was der Journalist getestet hat, kann jeder Betrüger gegenüber Banken und anderen Onlineanbietern erledigen. Auch Enkeltricks lassen sich perfekt in die Tat umsetzen. Wenn der Anrufer Oma oder Opa mit der gefälschten Stimme des Enkels um die Überweisung von Geld auf das Konto eines Dritten bittet, um ihn aus einer Notlage zu befreien, wird es schwer, den Wunsch abzuschlagen.
Strafrechtlich betrachtet, ist das natürlich Betrug. Wer unter Vortäuschung einer falschen Identität Bankkonten leerräumt, macht sich strafbar. Das aktuelle Recht setzt aber erst bei der Tathandlung an. Wer aber aus öffentlichen Videos oder Podcasts im Netz Stimmen kopiert und diese per Künstlicher Intelligenz zu einem digitalen verbalen Stimmzwilling aufbereitet, macht sich dadurch nicht strafbar. Das öffentlich gesprochene Wort ist – anders als das nicht öffentlich gesprochene Wort – strafrechtlich nicht geschützt.
Computerstrafrecht nachschärfen
Es fehlt auch an einem spezifischen Tatbestand im Computerstrafrecht, das die Regierung überarbeiten will. Man könnte etwa eine Strafrechtsnorm schaffen, die das Kopieren von bestimmten Daten, mit dem Ziel, diese selbst reproduzierbar zu machen, unter Strafe stellt.
Das könnte für solche Daten gelten, die für identitätsbezogene Zugriffe einer Person eingesetzt werden können. Die Stimme, deren täuschend echte synthetische Reproduktion authentifizierte Zugriffe ermöglicht, sollte dazugehören. Ob man die Strafbarkeit auf weitere biometrische Daten erstreckt, etwa Fingerabdrücke, müsste man abwägen.
Lesen Sie auch: Rechtsrahmen für KI in Arbeit: Ab wann ist eine Maschinenentscheidung riskant?
Sichere Authentifizierung muss Standard sein
So oder so müssen Onlineanbieter prüfen, ob und wann sie bequeme, aber technisch leicht überwindbaren Authentifizierungsmöglichkeiten einsetzen.
Eine starke Zugangssicherung bietet etwa der FIDO2-Standard, der sogar den abgesicherten passwortlosen Zugang ermöglicht. Technische Lösungen sind verfügbar – jetzt müssen sie die Anbieter nur noch umsetzen.
Verwendete Quellen:
- ZDF: Trump erwartet Festnahme: Was dahinter steckt
- Golem.de: Journalist überlistet Bank mit künstlicher Intelligenz
- Golem.de: Mit künstlicher Intelligenz 220.000 Euro erbeutet
- Netzpolitik.org: Sicherheit für die Sicherheitsforschung
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.