Das Münchner Institut für Ethik in der Künstlichen Intelligenz (IEAI) hat mehr als 40 Corona-Apps miteinander verglichen und untersucht, inwiefern sie ethischen Massstäben gerecht werden.
Es hat relativ lange gedauert, bis die deutsche Corona-Warn-App Mitte Juni an den Start ging, andere Länder waren da schneller. Doch ist Schnelligkeit bei der Entwicklung einer solchen App, die potenziell tief in die Privatsphäre von Menschen eingreift, nicht der einzige entscheidende Punkt. Mindestens genauso wichtig ist Datenschutz.
Eine kürzlich veröffentlichte Studie des Instituts für Ethik in der Künstlichen Intelligent (IEAI) an der Technischen Universität München (TUM) macht deutlich, dass mit diesem Thema weltweit sehr unterschiedlich umgegangen wird. Das IEAI analysierte mehr als 40 Apps weltweit und stellte dabei unter anderem fest, dass mindestens bei einem Drittel die Daten auf einem zentralen Server gespeichert werden.
Eine zentrale Speicherung kann die Daten anfälliger gegenüber Hackerangriffen machen. Ausserdem ist für Nutzer nicht immer klar, welche Behörden oder andere Institutionen Zugriff auf diese Serverdaten haben. Aus Datenschützersicht ist ein dezentraler Ansatz besser, wie ihn die deutsche Corona-Warn-App hat. Dabei bleiben die Daten auf dem Gerät des Nutzers.
KI kann helfen, kann aber auch schaden
Ein weiteres Ergebnis der Studie: Mehr als die Hälfte der untersuchten Apps nutzen - wie die Corona-Warn-App - ausschliesslich Bluetooth, um die Kontakte zu registrieren. Ebenfalls rund ein Drittel nutzt jedoch zumindest teilweise Standortdaten. Sammelt eine App viele solcher Daten, können damit Bewegungsprofile erstellt werden. Deswegen ist die Erhebung solcher Daten sehr umstritten.
Die Studie ermittelte auch, in welchen Ländern die App verpflichtend ist und in welchen nicht. In den meisten Ländern ist die Nutzung tatsächlich freiwillig. Verpflichtend ist sie in China, Indien, Katar, der Türkei und Russland. Für sechs Länder konnte das nicht ermittelt werden.
Kriterien für eine ethisch einwandfreie Corona-App
Doch welche Rolle spielt überhaupt Künstliche Intelligenz bei Corona-Apps?
Sie kann potenziell dabei helfen, die Daten von Apps so auszuwerten, dass zum Beispiel Infektionsherde schneller ausgemacht werden können - oder sogar vorhergesagt werden kann, wo in nächster Zeit Infektionen vermehrt auftreten werden. Dazu ist es allerdings wichtig, dass die App auch mit den klassischen Methoden der Kontaktverfolgung zusammenarbeitet.
Angesichts der Tatsache, dass schon jetzt bei vielen Apps nicht klar ist, was mit den Daten passiert und ob private Daten auch privat bleiben, pocht das IEAI auf die Einhaltung ethischer Standards. Apps, in denen Standortdaten verwendet und auf einem zentralen Server abgespeichert werden, zum Beispiel in China, Russland, Katar, der Türkei, aber zunächst auch in Norwegen (wo die Regierung die App allerdings nach kurzer Zeit zurückzog), sieht das IEAI eher kritisch.
Eine ethisch einwandfreie App müsse folgende Anforderungen erfüllen: Sie muss ihrem Zweck dienen (und nur dem), darf die Nutzer nicht schädigen, muss Nutzern die Wahlfreiheit lassen, welche Daten sie weitergeben möchten; ihre Funktionsweise muss erklärbar sein und sie muss idealerweise für alle verfügbar sein. Zumindest im letzten Punkt hat auch die deutsche Corona-Warn-App noch Nachholbedarf.
Verwendete Quelle:
- Research-Brief des Instituts für Ethik in der Künstlichen Intelligenz an der Technischen Universität München (TUM): Ethics and the Use of AI-based Tracing Tools to Manage the COVID-19 Pandemic (Ethische Aspekte bei der Nutzung von auf Künstlicher Intelligenz basierenden Tracing-Tools bei der Bekämpfung der COVID-19-Pandemie) (PDF)
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.