Künstliche Intelligenz und Ethik in der Medizin
Rouven Porz ist assoziierter Professor für Medizinethik und Mitglied des Center for Artificial Intelligence in Medicine CAIM. Im Interview erklärt er, warum es die Ethik in der Debatte zu Chancen und Risiken von KI in der Medizin braucht.
Sie sind Medizinethiker am Inselspital in Bern und arbeiten im neuen «Embedded Ethics Lab» des CAIM mit. Was sind Ihre Aufgaben?
Rouven Porz: In der Insel Gruppe unterstützen wir Gesundheitsfachpersonen, wenn sie bei ihrer Arbeit ethischen Problemen oder Dilemmata begegnen. Dabei geht es nicht darum, dass wir ihnen sagen, was richtig oder falsch ist. Vielmehr helfen wir Ihnen bei ethisch schwierigen klinischen Entscheidungen.
Am CAIM möchten wir alle Aktivitäten ethisch unterstützen – das umfasst mehrere Ebenen. Zum einen wollen wir bewusst einen öffentlichen Dialog mit der Gesellschaft führen. Zweitens möchten wir unseren Forschenden die Möglichkeit geben, über die ethischen Herausforderungen ihrer Arbeit zu reflektieren. Der dritte Bereich ist die Lehre für Studierende und junge Forschende. Und viertens findet ja auch in der Ethik Forschung statt. Und diese Forschung versuchen wir mit dem CAIM zu verbinden.
Die Medizin ist eine jahrtausendealte Wissenschaft: Brauchen wir wirklich Künstliche Intelligenz – kurz KI – in der Medizin? Reicht die Expertise von Medizinerinnen und Medizinern nicht mehr aus?
Diese kritische Frage könnte man bei den meisten Innovationen stellen. Auch als die Leute angefangen haben, mit der Eisenbahn zu reisen, fragte man sich, warum Pferde als Transportmittel nicht mehr ausreichen. Ich empfinde die KI nicht als eine Notwendigkeit, die man unbedingt braucht, sondern eher als eine Möglichkeit, die man ausschöpfen will.
Wir sehen ja jetzt schon, dass es Lebensbereiche gibt, in denen uns hochentwickelte Computersysteme helfen können, zum Beispiel der Autopilot beim Fliegen. Das sind grundsätzlich positive Entwicklungen. Mit der KI wollen wir nun herausfinden, welche Vorteile sie der Medizin bieten kann.
Am CAIM möchten klinische Mitarbeitende und KI-Forschende neue Technologien für eine bessere Versorgung der Patientinnen und Patienten entwickeln. Aber: Können wir solchen Technologien vertrauen?
Meiner Meinung nach ja. Wir vertrauen ja auch sonstiger Diagnostik wie Laboranalysen, Magnetresonanz-Bildgebung, genetischen Tests und anderen diagnostischen Errungenschaften. Für mich ist die KI ein Assistenzsystem, das uns unterstützt, nicht beherrscht. KI könnte es den zukünftigen Ärztinnen und Ärzten sogar erlauben, mehr Zeit mit ihren Patientinnen und Patienten zu verbringen.
Künstliche Intelligenz soll auch Vorhersagen treffen: zum Beispiel wie die Chancen eines Patienten oder einer Patientin auf Heilung stehen. Doch sind die damit verbundenen moralischen Implikationen wie etwa ein Therapie-Abbruch nicht extrem heikel?
Jede Zukunftsvoraussage ist riskant. Das Orakel von Delphi hat schon vor 2’500 Jahren im alten Griechenland versucht, die Zukunft vorauszusagen. Auch das hat manchmal zu schlechten Entscheidungen geführt. Ich denke, das Problem liegt hier nicht in der KI, sondern in der Vorstellung, dass die Zukunft präzise vorhergesagt werden kann – obwohl es immer unzählige mögliche Einflussfaktoren gibt.
Wer entscheidet im digitalen Gesundheitswesen letztlich darüber, wie behandelt wird? Ärztinnen und Ärzte? Patientinnen und Patienten? Computer? Und wer trägt die Verantwortung für diese Entscheide?
In den letzten 50 Jahren hat sich gezeigt, dass Ärztinnen und Ärzte immer weniger allein entscheiden, sondern die Patientinnen und Patienten mitentscheiden – anhand der Informationen, die ihnen vorliegen. Computersysteme helfen nun, die Grundlagen für diese Entscheide noch verständlicher zu machen. Unser Gesundheitssystem entwickelt sich nicht in eine Richtung, bei der die Verantwortung gänzlich an die Technik abgegeben wird.
Patientinnen und Patienten werden grundsätzlich weiter selber über ihre Behandlung entscheiden, ausser in Ausnahmesituationen wie auf dem Notfall oder der Intensivstation. Was wir nicht wollen, ist, dass eine Verantwortungslücke entsteht. Ein Grossteil der Verantwortung muss bei den Patientinnen und Patienten bleiben.
Tragen ethische Diskussionen auch zu mehr Transparenz im Bereich KI für die Medizin bei? Es gibt ja eine Art Kontrollverlust, wenn die «Blackbox» KI zu einem Schluss kommt, den wir aus unserer Erfahrung heraus nicht nachvollziehen können…
Ja, es ist eine Aufgabe der Ethik, zur Transparenz beizutragen. Aber die Ethik soll auch zu einem Perspektivenwechsel verhelfen, sodass man Dinge mal aus einem anderen Blickwinkel anschaut.
Natürlich gibt es vieles, was wir nicht verstehen: Hinter meinem Smartphone steckt für mich quasi auch eine Blackbox. Viel interessanter ist für mich jedoch die Frage: Warum gibt es diese Ängste bei der KI in der Medizin, nicht aber bei meinem Auto oder meinem Smartphone, wo auch viel Technik dahintersteckt?
KI ist kulturell noch so neu, weshalb wir uns mit der gesellschaftlichen Akzeptanz gedulden müssen. Um Ängste abzubauen, braucht es einen verstärkten Dialog mit der Gesellschaft. Schon vor 200 Jahren hat Mary Shelley anhand des Frankenstein-Mythos aufgezeigt, dass sich die Gesellschaft vor einem Kontrollverlust in Bezug auf neue Technologien fürchtet. Aber keiner will eine Science-Fiction-Welt, in der die KI irgendwann die Herrschaft über die Menschheit übernimmt. Die Realität gestalten immer noch wir selbst.
Über Rouven Porz
Prof. Dr. phil. und dipl. biol. Rouven Porz ist Leiter Medizinethik und ärztliche Weiterbildung am Inselspital, Universitätsspital Bern. Er ist ausgebildeter Biologe, mit zusätzlichem Masterstudium in Philosophie und Pädagogik an der Universität Saarbrücken, Deutschland. Porz war zudem Präsident der EACME (European Association of Centres of Medical Ethics) und ist Gastforscher an der Universität Cluj-Napoca (Rumänien). Aktuell befasst er sich mit der Implementierung von klinischer Ethik in Institutionen des Schweizer Gesundheitswesens und mit methodologischen Fragen der klinischen Ethik.
Center for Artificial Intelligence in Medicine (CAIM)
Das Center for Artificial Intelligence in Medicine (CAIM) ist eine Forschungs-, Lehr- und Translationsplattform für Medizinaltechnologie, die Künstliche Intelligenz (KI) nutzt, um die Versorgung der Patientinnen und Patienten zu verbessern und die Arbeit von Ärztinnen und Ärzten sowie Pflegenden zu erleichtern. Das CAIM profitiert von der einzigartigen Konstellation in Bern, die Akteure aus Wissenschaft, Gesundheitswesen und Industrie zusammenführt. Es nahm im Januar 2021 als Zentrum der Medizinischen Fakultät der Universität Bern und des Inselspitals, Universitätsspital Bern, zusammen mit den Universitären Psychiatrischen Diensten Bern (UPD) und dem Schweizerischen Institut für seinen Betrieb auf. Das CAIM bündelt interdisziplinäre Berner Expertise im Bereich der Biomedizinaltechnik und fördert Projekte, die sich mit dem Potenzial der KI-Technologie für das Gesundheitswesen befassen. Das CAIM wird die Vermarktung von Innovationen in der KI-Technologie fördern, die Inkubation von Start-ups unterstützen und durch exzellente Forschung, Translation und wirtschaftliches Wachstum nachhaltige Werte schaffen.
Über die Autorin
Dr. Monika Kugemann ist Kommunikationsverantwortliche am Center for Artificial Intelligence CAIM und am ARTORG Center for Biomedical Engineering Research der Universität Bern.