Software erstellt Diagnosen zu lebensbedrohlichen Krankheiten, sortiert Jobbewerber aus oder gibt Prognosen zur Straffälligkeit ab: Der Einsatz künstlicher Intelligenz (KI) bietet viele Chancen, birgt aber auch erhebliche Risiken. Der Ethikrat hat am Montag eine Stellungnahme zu der sich rasant entwickelnden Technik vorgestellt. Tenor: Maschinen dürfen den Menschen nie vollständig ersetzen. Konkrete Nutzungsvorgaben müssen aber je nach Einsatzbereich erstellt werden.
Grundsätzlich müsse künstliche Intelligenz "menschliche Entfaltung erweitern und darf sie nicht vermindern", sagte die Ethikrats-Vorsitzende, Alena Buyx, bei der Vorstellung der Stellungnahme. Es müsse darum gehen, "dieses unglaublich nützliche Werkzeug zu nutzen und die Nachteile einzuhegen".
Eine Arbeitsgruppe hatte die Stellungnahme mit dem Titel "Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz" in den vergangenen beiden Jahren ausgearbeitet. Beispielhaft wird auf fast 290 Seiten auf vier Anwendungsbereiche eingegangen: Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie Verwaltung.
Dies habe gezeigt, dass die Beurteilung von KI "immer kontext-, anwendungs- und personenspezifisch erfolgen muss", erklärte das Gremium. Denn das Delegieren an Maschinen könne "für verschiedene Personengruppen, Akteure und Betroffene ganz unterschiedliche Auswirkungen haben", erläuterte die Sprecherin der Arbeitsgruppe, Judith Simon. "Der Teufel steckt im Detail und wir müssen genau hingucken."
KI in den Bereichen Schule, Medizin, Kommunikation, Meinungsbildung und Verwaltung
Für den Medizinbereich richten sich Empfehlungen des Ethikrates unter anderem auf die Qualitätssicherung bei der Entwicklung und Nutzung von KI-Produkten. Zudem müssten ärztliche Kompetenzverluste vermieden und die Privatsphäre von Patienten mit intensiver Datennutzung in der medizinischen Forschung in Einklang gebracht werden.
"KI-Anwendungen, die nachweislich herkömmlichen Behandlungsmethoden überlegen sind, sollten allen einschlägigen Patientengruppen zur Verfügung stehen", sagte Buyx. Ein vollständiger Ersatz von Ärzten durch ein KI-System gefährde aber das Patientenwohl und sei auch nicht durch "akuten Personalmangel" zu rechtfertigen.
Der Einsatz von KI in der Schule sollte sich auf Elemente beschränken, die nachweislich die Kompetenzen und sozialen Interaktionen der Lernenden erweitern, heisst es. So könnten intelligente Tutor-Systeme für Schüler "sehr hilfreich sein" und Lehrer entlasten, sagte Nida-Rümelin.
"Eine Art Überwachungsregime": Ethikrat äussert sich nur kurz zu möglichen negativen Folgen von KI-Einsatz
KI könne aber auch "zu einer Art Überwachungsregime führen": Systeme zur Videoüberwachung und Kontrolle von Klassen würden "eher kritisch gesehen". Die aktuelle Debatte um den komplexe Texte erzeugenden Chatbot ChatGPT, der auch die Frage aufwarf, ob Hausaufgaben von Schülern tatsächlich noch selbst geschrieben werden, streift die schon vor Monaten weitgehend fertiggestellte Stellungnahme nur kurz.
Im Bereich Kommunikation empfiehlt der Ethikrat die Weiterentwicklung der Regeln für Online-Plattformen zur Auswahl und Moderation von Inhalten sowie zu personalisierter Werbung und zum Datenhandel. Ausserdem rät der Ethikrat, den Aufbau einer digitalen Kommunikationsinfrastruktur in öffentlich-rechtlicher Verantwortung zu erwägen. Denn sonst bestehe die Gefahr, dass private Firmen wie Tech-Konzerne aus den USA in Europa über Standards etwa zum Blockieren von Inhalten entschieden, sagte Nida-Rümelin.
Für den KI-Einsatz in der Verwaltung rät der Ethikrat zu Ansätzen, die vor Diskriminierungen schützen und "dem blinden Befolgen maschineller Empfehlungen vorbeugen". Verwiesen wird etwa auf den in anderen europäischen Ländern schon üblichen Einsatz bei der Prüfung von Sozialleistungen. Wichtig sei, dass Einzelfallbetrachtungen sowie die Einsichts- und Einspruchsrechte von Betroffenen gewährleistet werden.
Verbrechensvorhersage mit künstlicher Intelligenz: So positioniert sich der Ethikrat
Die Stellungnahme diskutiert auch den hoch umstrittenen Einsatz von Systemen zur Verbrechensvorhersage. "Auch wenn eine Software vorhersagt, dass eine Person zu 99 Prozent straffällig wird, so können wir eben niemals wissen, ob die eine Person vor uns nicht genau dieses eine Prozent ist", sagte Simon zu der Problematik.
Die Stellungnahme sei "ein wichtiger Beitrag zur weiteren Debatte" über künstliche Intelligenz, erklärte Bildungsministerin Bettina Stark-Watzinger (FDP). Dies gelte auch "im Hinblick auf die Fortentwicklung der KI-Strategie der Bundesregierung."
Konkrete gesetzgeberische Empfehlungen macht die Stellungnahme nicht. Buyx verwies aber auf laufende Beratungen zu einem europäischen KI-Gesetz. (AFP/tar)
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.