Interview

„Der Mensch muss im Mittelpunkt stehen“

Diagnosen, Therapien, Pflege: Mit der Künstlichen Intelligenz sind große Hoffnungen verbunden. Doch längst nicht überall stimmt die Qualität, sagt Prof. Dr. med. Christiane Woopen. Um die Chancen lernender Maschinen zu nutzen und die Risiken zu minimieren, fordert die Vorsitzende des Europäischen Ethikrates rasch innovationsfördernde Rahmenbedingungen.

Frau Professor Woopen, können Sie sich vorstellen, der Diagnose eines Computers eher zu vertrauen als Ihrem Arzt? Oder dass Sie sich in die Hände eines Pflege-Roboters begeben?

Christiane Woopen: Das sind für mich zwei sehr unterschied­liche Dinge. Grundsätzlich kann ich mir vorstellen, jedes technische Unterstützungssystem zur Verbesserung der medizinischen Versorgung zu nutzen. Voraussetzung ist für mich allerdings, dass die Qualität gesichert ist. Bei der Diagnose würde ich mich nicht allein der Maschine anvertrauen, sondern ich erwarte zusätzlich die kritische Reflexion des Arztes: Stimmt die Dia­gnose? Sind alle wichtigen Informationen eingeflossen? Was folgt daraus?

Auch einen Umgang mit Pflege-Robotern kann ich mir vorstellen, so lange dies ethisch vertretbar ist. Der Roboter darf den Pfleger bei schweren Arbeiten unterstützen, aber nicht ersetzen – ich möchte nie auf den menschlichen Kontakt verzichten müssen. Der Mensch muss immer im Mittelpunkt stehen.

Lernende Maschinen liefern bessere Diagnosen als Ärzte, Roboter ersetzen Mediziner und Pfleger, der Computer der Zukunft zeigt Gefühle: Künstliche Intelligenz macht viele Schlagzeilen. Wie bedeutend ist das maschinelle Lernen wirklich?

Woopen: Es hat tatsächlich eine große Bedeutung für die Medizin, aber ebenso für alle anderen Bereiche des gesellschaftlichen Lebens. Schon jetzt leistet Künstliche Intelligenz beispielsweise Hervorragendes bei der Bilderkennung, wenn es um das Interpretieren von Röntgenaufnahmen der Lunge geht. Wenn es um KI geht, sind meist große Hoffnungen damit verknüpft. Aber wir müssen immer sorgfältig schauen, an welchen Stellen sie wirklich gut einzusetzen ist. Entscheidend ist immer, dass die Qualität der Ergebnisse gesichert ist. Ich denke da vor allem auch an die Systeme, die helfen sollen, Entscheidungen zu treffen: Dabei werden aus Datenbanken sämtliche Informationen aus der wissenschaft­lichen Literatur ausgewertet, um für Patienten die individuell richtige Therapieempfehlung abzuleiten.

„Unternehmen wie Google und Amazon drängen in die Gesundheitsversorgung. Wir sollten Innovationen ermöglichen, aber die Kontrolle behalten.“

Wie lässt sich die Qualität bei lernenden Maschinen sichern – und wer muss dafür sorgen?

Woopen: Dazu brauchen wir gestufte Regularien, in bestimmten Bereichen Siegel oder Zertifizierungen und zuständige Institutionen. Das ist in jedem Fall eine staatliche Aufgabe. In der Datenethikkommission arbeiten wir gerade daran. Unser Grundsatz lautet: so wenig Regulierung wie möglich, aber so viel wie nötig. Wir dürfen die Dinge nicht mit aufwendigen Verfahren verkomplizieren. Doch müssen wir in jedem Fall Gesundheit als fundamentales Gut schützen. Die Patienten müssen sicher sein können, dass diese Systeme ihnen nutzen und nicht schaden. Deshalb müssen die Algorithmen Qualitätskontrollen durchlaufen. Es darf beispielsweise kein Bias entstehen. Das bedeutet, es darf nicht zu Verzerrungen bei den Ergebnissen kommen.

Das klingt nach einer Riesenaufgabe. Wann ist sie erledigt?

Woopen: Es ist eine Riesenaufgabe (lacht). Deshalb sollten wir jetzt direkt ein gutes System aufsetzen und dann schneller als sonst sein, denn in diesem Bereich ist der Druck enorm. Unternehmen wie Google und Amazon drängen in die Gesundheitsversorgung. Doch sollten wir die Hoheit darüber behalten, was wir wo und in welcher Form zum Nutzen der Patienten einsetzen. Die Datenethikkommission wird der Bundesregierung im Herbst ihre Empfehlungen übergeben, so dass diese idealerweise bis Ende 2020 umgesetzt sein werden.

In Ihrer aktuellen Studie zu Algorithmen in der Gesundheitsversorgung skizzieren Sie, welche Bedeutung diese längst in allen Gesundheitsbereichen von Versorgungsforschung über Diagnosen und Therapien bis zur Prävention und Pflege haben. In welchem Verhältnis stehen dabei Chancen und Risiken?

Woopen: Dafür gibt es leider keine Maßeinheit, wir müssen es von Bereich zu Bereich abwägen. Nehmen Sie beispielsweise einen Algorithmus, der aus geposteten Bildern bei Instagram das Risiko einer psychischen Erkrankung errechnet. Es kann großartig sein, hier rechtzeitig intervenieren und die Erkrankung verhindern zu können. Andererseits: Was wäre, wenn Arbeitgeber das Instagram-Bild auswerten und den Bewerber wegen des Risikos nicht einstellen? Oder wenn der Algorithmus eine falsche Vorhersage liefert? Und wollen wir wirklich, dass Instagram diese Vorhersage übernimmt?

Was ist zu tun, um die Chancen zu nutzen und gleichzeitig die Risiken zu minimieren?

Woopen: Wichtig ist es, die ethischen Fragen von Anfang an mitzudenken. Dazu hatte die Datenethikkommission die Bundesregierung auch aufgefordert, als diese Ende 2018 ihre Strategie Künstliche Intelligenz beschloss. Direkt beim Aufsetzen eines KI-Systems müssen alle Beteiligten an einen Tisch und entscheidende Fragen beantworten: Was wollen wir erreichen? Welche Gefahren, welche technischen, ethischen, rechtlichen Implikationen gibt es? Für das Auswerten von Röntgenbildern brauchen wir andere Prüfverfahren als für das Auswerten von Erkenntnissen aus tausenden wissenschaftlichen Zeitschriften.

Was sind für Sie die wichtigsten ethischen Fragen – und wer muss sie beantworten?

Woopen: Die Hauptfragen aus ethischer Perspektive lauten für mich: Wie schützen wir die Grundrechte und die grundlegende Freiheit der Individuen? Und wie tragen wir mit diesen Techniken dazu bei, dass jeder einzelne Mensch sich entfalten und die Gesellschaft in Wohlstand, Sicherheit und Frieden leben kann? Die Fragen werden in der Gesellschaft entschieden; die Regulierung muss auf staatlicher Ebene erfolgen. Das geht aber nur begrenzt in einem Nationalstaat. Wenn wir über Facebook und Google sprechen, erfordert das mindestens die europäische Ebene, idealerweise die internationale. Im vergangenen Jahr hat der Europäische Ethikrat auf europäischer Ebene einen breiten Prozess der Konsultation zu Artificial Intelligence angestoßen.

Haben Sie den Eindruck, dass das Thema KI tatsächlich schon breit in der Gesellschaft diskutiert wird?

Woopen: Nein, die Diskussion findet derzeit noch in bestimmten Gruppen statt. Bei der weitreichenden Transformation der Gesellschaft sind wir aber alle in der Pflicht. KI muss intensiv in den Medien diskutiert werden, doch muss das Thema auch in die Schulen: Was machen die Techniken mit uns, mit unserem Menschenbild? Woher weiß ich, ob mir ein echter Mensch oder ein Bot die Nachricht geschrieben hat? Ist die Vertrauenswürdigkeit von Kommunikation und Medien zerstört, sind die Grundlagen unserer demokratischen Ordnung berührt – das halte ich für brandgefährlich.

Angenommen, irgendwann stellen nur noch Maschinen Diagnosen. Neben den ethischen wirft das auch rechtliche Fragen mit Blick auf die Verantwortung für Fehlentscheidungen auf, oder?

Woopen: Mit der Frage nach der Verantwortung müssen wir uns doch jetzt auch schon beschäftigen. Als Arzt muss ich meinen Patienten nach dem Stand der medizinischen Erkenntnisse behandeln. Wenn ich dazu nicht nur das Röntgengerät, sondern auch einen Algorithmus einsetze, ist das aus meiner Sicht kein fundamentaler Unterschied. Entscheidend ist heute und wird in Zukunft sein, dass der Arzt sich ein eigenes Bild macht. Sagt der Algorithmus, es handelt sich um einen Tumor, der Arzt hält es aber für eine Entzündung, muss er sich zum Beispiel durch weitere Untersuchungen vergewissern.

„Entscheidend ist heute und wird in Zukunft sein, dass der Arzt sich ein eigenes Bild macht.“

Ärzte kritisieren Diagnose-Apps wie Ada-Health bislang heftig. Wie lernen Patienten den sinnvollen Umgang mit Apps?

Woopen: Erst einmal ist eine solche App doch wunderbar, sofern sie qualitätsgesichert ist und rechtzeitig zum Arztbesuch aufruft. Für Deutschland gibt es einen Nationalen Aktionsplan Gesundheitskompetenz, in dem es auch darum geht, den kritischen Umgang mit Gesundheitsinformationen zu lernen.

Welche Fragen müssen sich Krankenkassen mit Blick auf die Künstliche Intelligenz stellen?

Woopen: Wir werden uns intensiv über ein lernendes Gesundheitssystem unterhalten müssen. Es ist eigentlich ethisch nicht vertretbar, die täglich anfallenden Daten im Gesundheitssystem ungenutzt zu lassen. In einem unserer Projekte am Zentrum ceres geht es darum, dass Forschung und Versorgung einander näher kommen, wir entwickeln dafür eine ethische Governance.

Was bedeutet das in der Praxis?

Woopen: Wenn alte multimorbide Menschen viele Medikamente gleichzeitig nehmen, ist das in randomisierten klinischen Studien nicht abbildbar. Wenn wir hierzu Erkenntnisse gewinnen wollen, brauchen wir Daten aus der Alltagsversorgung. Ärzte und Krankenkassen haben solche wichtigen Daten und sind deshalb in einem lernenden Gesundheitssystem ein wichtiger Faktor. Erste Ansätze für ein lernendes Gesundheitssystem liefern die Universitätskliniken der Medizininformatik-Initiative. Sie untersuchen, wie die Schnittstelle zwischen Versorgung und Forschung gut und sicher funktionieren kann.

Spielt dieses Thema in der Datenethikkommission, deren Co-Sprecherin Sie sind, auch eine Rolle?

Woopen: Ja, das ist eines von vielen Themen. Unsere Aufgabe geht weit über die Gesundheitsversorgung hinaus. Der Koalitionsvertrag formuliert den Auftrag, einen Entwicklungsrahmen für den Umgang mit Daten, mit algorithmengestützten Entscheidungssystemen und Künstlicher Intelligenz zu entwerfen. Das geht weit über die Gesundheitsversorgung hinaus und reicht von Smart Homes über KI im Polizeibereich bis zu sozialen Medien und Sprachassistenten. Wir werden im Oktober Empfehlungen abgeben, die umsetzbar sind – und keine neue Kommission zur Umsetzung erfordern (lacht).

Der Weg zu breiter Akzeptanz von Künstlicher Intelligenz scheint noch lang zu sein. Nur jeder Siebte sagte kürzlich bei einer repräsentativen Befragung, dass die Chancen die Risiken überwiegen.

Woopen: Durch die gesamte Geschichte existiert das Phänomen, dass Menschen dem Neuen kritisch gegenüber stehen. Das war beim Blitzableiter so, bei der Bahn und beim Auto auch. Es ist wichtig, dass wir uns damit auseinandersetzen: Wir müssen die Chancen identifizieren, die Risiken im Blick behalten – und dann kraftvoll gestalten.

Karola Schulte führte das Interview. Sie ist Chefredakteurin der G+G.
Stefan Boness ist freier Fotograf.