Was passiert eigentlich, wenn nicht mehr Menschen, sondern Maschinen die Entscheidung über Leben und Tod treffen? In den USA haben Wissenschaftler einen Algorithmus für die Palliativmedizin entwickelt: Er berechnet erstaunlich genau, wie lange ein Mensch vermutlich noch leben wird. Davon kann abhängen, welche Therapien er noch bekommt - und welche nicht.
Würden Sie gerne wissen, wie lange Sie noch zu leben haben? Für viele Menschen ist die Vorstellung gruselig, den Zeitpunkt ihres eigenen Todes zu kennen. Wissenschaftler versuchen hingegen seit Jahren - und bislang oft mit wenig Erfolg -, den Todeszeitpunkt von Menschen möglichst exakt zu berechnen.
Solche Berechnungen spielen in vielen Bereichen eine Rolle: Anbieter von Lebensversicherungen wollen zum Beispiel gerne wissen, welches Sterberisiko ein Versicherungsnehmer hat.
Auch in Krankenhäusern geht es immer wieder um die Frage, wie lange ein schwerkranker Mensch noch leben wird. Davon hängt zum Beispiel ab, welche Therapien für ihn noch sinnvoll sein könnten - und welche man ihm womöglich besser erspart.
Bisherige Modelle waren nicht exakt
Die bisher verwendeten Modelle für solche Berechnungen waren allerdings in der Regel nicht sehr exakt. Sie gaben eher einen groben Anhaltspunkt.
Nun scheint es Wissenschaftlern aber gelungen zu sein, den Todeszeitpunkt von schwerkranken Menschen genauer anzugeben.
Forscher der Stanford University haben einen Algorithmus entwickelt, der vorhersagen soll, ob ein Patient innerhalb der nächsten drei bis zwölf Monate stirbt.
Die Genauigkeit der Prognose liegt bei 90 Prozent, heisst es in der Studie von Anand Avati und seinem Team.
Berechnung soll Palliativversorgung verbessern
Hintergrund des Projektes an der Stanford University war, die Palliativversorgung schwerkranker Patienten zu verbessern. Die meisten US-Amerikaner wünschen sich, zu Hause zu sterben.
Faktisch gelingt das aber nur bei rund 20 Prozent der Patienten - weil die meisten Schwerkranken oft sehr lange im Krankenhaus behandelt werden und dort versterben.
Deshalb war das Ziel des interdisziplinären Forscherteams in Stanford, möglichst frühzeitig abschätzen zu können, in welchem Zeitraum ein Patient wahrscheinlich sterben wird.
Je früher man dies vorhersagen kann, desto eher kann man sich auch um eine palliative Pflege bemühen, so die Idee. Die Plätze dafür sind in den USA rar, da es einen erheblichen Fachkräftemangel gibt.
In die Entwicklung gingen rund zwei Millionen Daten ein
Um den Algorithmus zu entwickeln, wurden rund zwei Millionen Daten aus elektronischen Gesundheitsakten ausgewertet. Auf dieser Grundlage entwickelte ein neuronales Netzwerk den Algorithmus.
Neuronale Netzwerke sind in der Lage, Daten eigenständig zu verknüpfen und Zusammenhänge herzustellen, um schliesslich Prognosen zu treffen.
Was bedeutet es aber in der Folge, wenn eine Maschine solche Vorhersagen über einen Menschen trifft, bei denen es tatsächlich um Leben und Tod geht?
"Wenn Algorithmen menschliche Eigenschaften berechnen, tritt immer ein grundsätzliches Problem auf", sagt Kevin Baum. Er ist Computerethiker an der Universität des Saarlandes in Saarbrücken.
Individuelle Faktoren spielen keine Rolle mehr
Der Algorithmus kann nur mit Daten arbeiten - aber dabei keine individuellen Gesichtspunkte berücksichtigen, die nicht in diesen Daten verankert sind. Zum Beispiel kann das heissen: Der Algorithmus behandelt die Daten zweier Patienten mit derselben Diagnose und derselben Vorgeschichte gleich.
Aber er berücksichtigt dabei nicht, dass sie vielleicht ganz unterschiedlich mit ihrer Krankheit umgehen.
Möglicherweise gibt einer von ihnen sich auf und schliesst seinen Frieden damit, bald zu sterben. Der andere hat aber womöglich einen starken Überlebenswillen und möchte die Krankheit auf jeden Fall besiegen.
Solche Faktoren kann ein Algorithmus nicht angemessen darstellen, solange diese nicht auch zum Input der Algorithmen werden. Er wird beiden Patienten dieselbe Prognose geben.
Bisherige Modelle waren eher ungenau
Auch bislang wurde beispielsweise in Krankenhäusern mit Modellen gearbeitet, um die Lebenserwartung beziehungsweise Sterbewahrscheinlichkeit von Menschen zu berechnen.
"Diese Modelle sind sicherlich nicht perfekt und hinsichtlich ihrer Vorhersagekraft eher ungenau", sagt Baum. "Aber dafür hat man zumindest verstanden, wie sie funktionieren."
Der sogenannte Todesalgorithmus traf seine Vorhersagen in der Studie hingegen vergleichsweise genau. Er arbeitet so exakt, weil er weitaus komplexer ist als die bisherigen Modelle.
Das sei möglicherweise aber zugleich ein Problem, sagt Computerethiker Baum: "Das System ist angelernt. Damit ist das zur Vorhersage verwendete Modell nicht nur sehr komplex, sondern schlicht unbekannt. Letztlich weiss daher niemand, wie der Algorithmus zu seinem Ergebnis kommt."
Die Berechnungen des Systems seien für einen Menschen nicht mehr nachvollziehbar.
Komplexe mathematische Berechnungen
Herkömmliche Modelle arbeiten mit einer bestimmten Anzahl von Parametern und kombinieren sie auf eine vordefinierte Art und Weise.
"Sie sind von Menschen programmiert. Daher kann man genau sagen, wie sie zu ihrem Ergebnis kommen", sagt Baum. "Letztlich liegt der Berechnung eine relativ simple Funktion zugrunde."
Der in Amerika programmierte Algorithmus sei hingegen "nichts weiter als ein ziemlich komplexes Stück Mathematik", sagt der Experte. Das führe dazu, dass die Ergebnisse für einen Menschen nicht interpretierbar seien.
"Wir wissen nicht, wie der Algorithmus zu dem Ergebnis kommt, dass ein bestimmter Mensch bald sterben werde - ein anderer aber nicht", so Baum.
Algorithmus kann Ergebnis nicht begründen
Im klinischen Alltag würde ein Arzt normalerweise einen Kollegen konsultieren, wenn er nicht weiss, wie er einen Patienten und seine Prognose einschätzen soll.
"Wenn der Kollege ihm dann sagt, dass der Patient mit einer Wahrscheinlichkeit von 80 Prozent die Krankheit nicht überleben wird, wird der Arzt nach den Gründen für diese Einschätzung fragen", sagt Baum.
Die kann ein anderer Arzt ihm liefern - ein Algorithmus aber nicht. Wenn der Algorithmus sonst immer sehr zuverlässig ist, müsste der Arzt es begründen, wenn er eine abweichende Entscheidung trifft - und das könnte er dann in der Regel nicht.
"Wie man aber Erklärungen aus diesen Modellen herleitet, das ist nach wie vor eine offene Forschungsfrage", sagt der Experte.
Neutrale Algorithmen gibt es nicht
Zudem widerspreche es den Prinzipien einer liberalen Demokratie, intelligente Systeme und nicht Menschen solche Entscheidungen treffen zu lassen, sagt Baum.
"In letzter Konsequenz dienen solche Entscheidungen in der Summe zwar den Menschen insgesamt", sagt der Computerethiker. "Aber das Individuum und seine individuellen Rechte werden dabei nicht berücksichtigt."
Hinzu kommt: Nur, weil ein Algorithmus Berechnungen auf der Grundlage von Daten anstellt, sind die Ergebnisse noch lange nicht neutral. Algorithmen stellen letztlich nur Zusammenhänge her - und können dabei Ungleichheiten zementieren.
Algorithmen lernen durch Datensätze
Algorithmen lernen, indem sie riesige Datensätze verarbeiten und auf dieser Grundlage Elemente klassifizieren. Daten können auch gesellschaftliche Ungleichheiten abbilden.
Wenn Frauen im Schnitt weniger als Männer verdienen, ist das für einen Algorithmus wie beispielsweise bei Google die Norm - folglich zeigt er Frauen Werbeanzeigen, die genau das widerspiegeln.
Das könne in ähnlicher Weise auch im Gesundheitssystem passieren, warnt Baum. "Wir müssen aufpassen, mit welchen Daten wir einen Algorithmus füttern - und mit welchen nicht", sagt er.
In den Algorithmus der Stanford University seien zum Beispiel bewusst nur Daten aus elektronischen Krankenakten und daher keine Daten über soziale Schicht oder Hautfarbe aufgenommen worden. Das heisst aber nicht, dass der Algorithmus nicht trotzdem eine Ungleichheit zementieren kann.
Falsche Schlussfolgerungen sind möglich
"Es kann sein, dass ein Krankheitsbild bei einer bestimmten sozialen Schicht häufiger vorkommt", sagt der Computerethiker. Zum Beispiel bei Menschen, die eine Staublunge als Vorerkrankung haben: "Womöglich gibt es Daten, aus denen hervorgeht, dass Menschen, bei denen in der Vergangenheit eine Staublunge diagnostiziert wurde, nicht so lange leben", sagt er.
Ein Algorithmus könnte nun auf Grundlage der Daten davon ausgehen, dass Menschen mit einer Staublunge generell eine kürzere Lebenserwartung haben. "Dabei muss die Staublunge dafür nicht ursächlich sein."
Eine Staublunge tritt zum Beispiel häufig bei Bergleuten auf. "Es könnte auch sein, dass Bergleute in den USA grundsätzlich keine oder eine schlechte Krankenversicherung haben", sagt Baum.
Algorithmus könnte auf falscher Grundlage Empfehlungen treffen
Wegen dieser schlechten Krankenversicherung könne es tatsächlich sein, dass die Bergleute mit Staublunge früher sterben, weil zum Beispiel bestimmte Therapien nicht abgedeckt sind.
Dafür ist aber nicht die Staublunge verantwortlich, sondern lediglich die schlechten Konditionen bei der Versicherung. "Der Algorithmus verwechselt dann Korrelation mit Kausalität", sagt Baum.
Ein Algorithmus könnte aus den Daten aber folgern, dass Menschen mit einer Staublunge generell eine schlechte Lebenserwartung haben - und auch bei ganz anderen Erkrankungen von einer hohen Sterbewahrscheinlichkeit ausgehen und von weiteren Therapien abraten.
Algorithmus gibt nur Wahrscheinlichkeiten an
Dieses Phänomen wird auch als "Mathwashing" bezeichnet. "Auf diese Weise kann ein vermeintlich neutraler Algorithmus bestehende Ungerechtigkeiten zementieren", sagt Baum.
Deshalb sei der Algorithmus aber nicht grundsätzlich abzulehnen. "Er funktioniert besser als die bisherigen Modelle", sagt Baum. "Es ist sehr positiv, wenn er 90 Prozent der Fälle eine Übertherapie von Patienten vermeiden und ihnen so dazu verhelfen kann, würdevoll aus dem Leben zu scheiden. Uns muss umgekehrt aber klar sein, dass wir nicht einschätzen, was der Preis dafür ist. Dafür wissen wir einfach zu wenig über das System."
Baum rät nicht grundsätzlich davon ab, solche Algorithmen einzusetzen - aber wenn, dann nur im Zuge einer gesellschaftlichen Debatte. "Den Ärzten muss klar sein, dass sie mit einem allen Beteiligten letztlich verborgenen Modell arbeiten, das keine absoluten Aussagen macht, sondern nur bestimmte Wahrscheinlichkeiten angibt."
Es sei wichtig, dass die letzte Entscheidung über weitere Therapien oder eine Palliativversorgung immer von einem Menschen und nicht von einer Maschine getroffen werde.
Baum sagt: "Es ist wichtig, dass diese Menschen mehr als nur eine Wahrscheinlichkeitsaussage vorgesetzt bekommen - nämlich eine Erklärung."
Keine Angst vor Verweigerung von Therapien
In Deutschland muss - zumindest nach der aktuellen Rechtslage - niemand befürchten, dass ihm durch den Einsatz von solchen Algorithmen wichtige Therapien verweigert werden. Das sagen die Sprecher der drei grössten deutschen Krankenkassen.
So sagt Rüdiger Scharf von der DAK: "Der Einsatz von Algorithmen in diesem Bereich ist für uns als Krankenkasse kein Thema - und wir würden auch ablehnen. Die Entscheidung über Therapien trifft immer ein Arzt."
Auch Thorsten Jakob, Pressesprecher der Barmer, sagt, dass solche Berechnungen dem Solidaritätsprinzip der gesetzlichen Krankenversicherung widersprächen: "Weitere Überlegungen zu dem Thema erübrigen sich deshalb."
Das sagt auch Michael Ihly, Pressesprecher der Techniker Krankenkasse: "Es gibt kein Gesetz, das besagt, dass ab einem bestimmten Alter oder Zustand bestimmte Eingriffe nicht mehr bezahlt werden."
Darüber müsse immer ein Arzt entscheiden. Es sei allenfalls eine Frage der Medizinethik, inwieweit man einem Menschen, der im Sterben liege, bestimmte Eingriffe noch zumute - oder eben nicht.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.