zum Hauptinhalt
Ein Hautarzt untersucht am in seiner Praxis mit einem Vergrößerungsglas die Haut einer Patientin bei einer Hautkrebs-Früherkennung. Künstliche Intelligenz konnte, einer Studie zufolge, unter bestimmten Testbedingungen Hautkrebs besser diagnostizieren als Dermatologen.

© picture alliance / Karl-Josef Hildenbrand

Gehört ein Maßband zu jedem Tumor?: Falsches Trainingsmaterial verwirrt die Künstliche Intelligenz

In der Medizin wird die Technik schon eingesetzt, etwa bei Hautkrebs-Untersuchungen. Doch trotz vieler Vorteile muss der Arzt die Ergebnisse immer kritisch prüfen, mahnt der Ethikrat.

Von Stefan Parsch, dpa

Woche für Woche erscheinen in Fachzeitschriften Studien über das Potenzial von künstlicher Intelligenz (KI) in der Medizin. Während die Entwicklung des kommunizierenden Chatbots ChatGPT die Diskussion um Risiken durch KI entfacht hat, ist die Technologie in der Medizin längst im Einsatz. Doch unproblematisch ist die Anwendung auch auf diesem Gebiet nicht.

Grundsätzlich handelt es sich bei KI um Computerprogramme, die aus riesigen Datenmengen Informationen filtern und zu bestimmten Zwecken nutzen können – etwa um krankhaftes von gesundem Gewebe zu unterscheiden. Für die Diagnostik wird KI unter anderem in der Augenheilkunde, der Dermatologie, der Krebsmedizin, der Pathologie und in der Radiologie eingesetzt. KI ist Teil von Assistenzsystemen bei Operationen und von Chatbots für die Kommunikation mit Patienten.

Die KI-Software kann ebenso gut wie erfahrene Dermatologen Hautkrebs erkennen

Eine schon seit Jahren eingesetzte Anwendung ist die Unterstützung von Dermatologen bei der Abklärung von Hauttumoren. An Zehntausenden Bildern von harmlosen und bösartigen Hautveränderungen trainiert, kann eine KI-Software inzwischen ebenso gut wie erfahrene Dermatologen schwarzen und weißen Hautkrebs erkennen. „Ich nutze die Möglichkeit der KI-Unterstützung gerne, wenn ich mir nicht ganz sicher bin“, sagt die Hautärztin Julia Welzel, Direktorin der Klinik für Dermatologie und Allergologie am Uniklinikum Augsburg.

Inzwischen belegten viele Studien den Nutzen solcher Anwendungen, sagt die Präsidentin der Deutschen Dermatologischen Gesellschaft. Allerdings sei es wichtig, die Technik richtig zu nutzen. Welzel nennt ein simples Beispiel: In einer Studie war auf Aufnahmen von Hautveränderungen teilweise ein Maßband zu sehen, in der Regel bei bösartigen Tumoren. Die KI lernte so, dass es sich überwiegend um bösartige Tumore handelt, wenn ein Maßband zu sehen war. Durch diese Trainingsbilder entwickelte sich die KI in eine falsche Richtung.

Eine KI ist immer nur so gut, wie der Trainingsdatensatz.

 Julia Welzel, Hautärztin

„Eine KI ist immer nur so gut wie der Trainingsdatensatz“, betont Welzel. Wenn die Aufnahmen ausschließlich von hellhäutigen Patienten stammten, habe sie Schwierigkeiten, Hautkrebs auf dunkler Haut zu erkennen. Menschen seien viel flexibler darin, erworbenes Wissen auf ungewohnte Situationen zu übertragen, erklärt die Dermatologin.

Dass helle oder dunkle Haut und andere Merkmale ethnischer Gruppen auch zu unbeabsichtigter Diskriminierung führen können, zeigten zwei im Juli erschienene Fachartikel im Fachmagazin „Science“. So stellten 2022 mehrere Studien fest, dass KI anhand von Röntgenaufnahmen der Brust oder Ultraschallbildern des Herzens Menschen einer ethnischen Gruppe – etwa aus Asien, Afrika oder Europa – zuordnen kann. Die Wissenschaftler wissen nicht, wie die KI das machte, aber die Zuordnung war bei Röntgenaufnahmen zu mehr als 90 Prozent korrekt.

Stellt die KI Krankheitsprognosen aufgrund der ethnischen Zugehörigkeit?

Für die Autoren um James Zou von der Stanford University in Kalifornien sind KI-Systeme damit ein zweischneidiges Schwert: „Die Fähigkeit der KI, ethnische Variablen aus medizinischen Bildern vorherzusagen, könnte dafür nützlich sein, die Ungleichheit im Gesundheitswesen zu überwachen und sicherzustellen, dass Algorithmen in verschiedenen Bevölkerungsgruppen gut funktionieren.“ Doch andererseits könnte die Software auch Wissen um eine ethnische Gruppe zum Erstellen von Krankheitsprognosen verwenden, befürchten die Forscher.

KI könne zu Fehldiagnosen beitragen, habe aber auch das Potenzial, solche Fehler zu erkennen und Wege zu deren Überwindung zu ermöglichen, schreiben die Autoren der zweiten „Science“-Studie um Matthew DeCamp von der University of Colorado und Charlotta Lindvall vom Dana-Farber Cancer Institute in Boston. Zwar habe die US-Arzneimittelbehörde FDA (Food and Drug Administration) bereits mehr als 500 medizinische Geräte mit KI zugelassen. Dennoch fordern DeCamp und Lindvall mehr Forschung dazu, wie solche Systeme arbeiten.

Trotz solcher Mahnungen bezweifelt kaum ein Wissenschaftler den Fortschritt, den KI-Systeme für die Medizin bedeuten können. Das gilt auch für den Deutschen Ethikrat, der sich in seiner Stellungnahme „Mensch und Maschine – Herausforderungen durch künstliche Intelligenz“ vom März 2023 mit der Anwendung in der Medizin auseinandersetzt. Das Gremium fordert, dass die gesamte Handlungskette aus KI-Forschung, Entwicklung von KI-Medizinprodukten und klinischer Anwendung „ethischen Standards genügt, kontinuierlich überwacht und gezielt so weiterentwickelt wird, dass Vorteile sukzessive immer besser genutzt und Gefahren vermieden werden“.

Es ist sehr wichtig, dass Ärzte eine KI-gestützte Diagnose nicht einfach nur übernehmen, sondern auch weiterhin selbst ihre Expertise einbringen.

Steffen Augsberg, Mitglied im Deutschen Ethikrat

Eine solche Gefahr sei, dass Mediziner von KI-Diagnosen abhängig werden, sagt Ethikrat-Mitglied Steffen Augsberg von der Universität Gießen. Er vergleicht das mit der Einführung von Navigationssystemen, die dazu geführt habe, dass manche Menschen ohne solche Hilfen eher die Orientierung verlieren. „Es ist sehr wichtig, dass Ärzte eine KI-gestützte Diagnose nicht einfach nur übernehmen, sondern auch weiterhin selbst ihre Expertise einbringen“, hebt der Jurist hervor.

Daher empfiehlt der Ethikrat, dass KI-Systeme bei ihren Ergebnissen Mediziner auf solche Risiken und die Notwendigkeit einer bewussten Plausibilitätsprüfung hinweisen. Eine weitere Empfehlung lautet, dass die Auswahl der Trainings-, Validierungs- und Testdatensätze alle für die jeweiligen Patientengruppen relevanten Faktoren berücksichtigt – etwa Alter, Geschlecht oder Vorerkrankungen. Dies sollte dokumentiert werden.

Nicht notwendig ist hingegen nach Auffassung von Augsberg, dass die Entscheidungsfindung eines KI-Systems vollständig nachvollzogen werden kann. „Wir haben ja auch keine völlige Sicherheit im normalen Alltag, wenn wir mit anderen Menschen umgehen“, sagt er. Er geht davon aus, dass es nicht möglich ist, jegliche Benachteiligung einzelner Gruppen durch eine KI auszuschließen. Allerdings falle bei der KI ein Einflussfaktor wie „Sympathie“ weg – dies bedeute im Vergleich zu einem menschlichen Entscheider zunächst einmal weniger Diskriminierung. Letztlich komme es, meint Augsberg, auf das Vertrauen an, das Patienten dem KI-System entgegenbringen. Das sei nicht anders als bei einem gewöhnlichen Arzt.

Eine Benachteiligung einzelner Gruppen durch eine KI kann man nicht ausschließen.

Die Hersteller solcher Systeme könnten dieses Vertrauen stärken, indem sie das Vorgehen und das Training des Systems so transparent wie möglich dokumentieren – und dabei auch den Datenschutz und den Schutz der Privatsphäre beachten, empfiehlt der Ethikrat. Zugleich sollten Ärzte ihren Patienten besser aufklären: „Je höher der Grad der technischen Substitution menschlicher Handlungen durch KI-Komponenten ist, desto stärker wächst der Aufklärungs- und Begleitungsbedarf der Patientinnen und Patienten“, schreibt der Ethikrat.

Da die Behandelnden dafür verantwortlich sind, den Betroffenen die beste Behandlung anzubieten, gehört die Überprüfung der Ergebnisse der eingesetzten technischen Instrumente zu den ärztlichen Sorgfaltspflichten.

Stellungnahme des Deutschen Ethikrates

Augsberg sieht in der KI weniger eine Möglichkeit, Mediziner zu ersetzen, als vielmehr die Chance, dass ihnen Aufgaben erleichtert werden. Dies könne ihnen ermöglichen, ausführlicher mit Patienten zu sprechen. Eine vollständige Ersetzung einer ärztlichen Fachkraft sei nicht zu rechtfertigen, unterstreicht der Ethikrat, auch nicht im Fall von Personalmangel. KI dürfe ärztliche Expertise nur ergänzen.

„Da die Behandelnden moralisch und rechtlich dafür verantwortlich sind, den Betroffenen die aus ihrer Sicht beste Behandlung anzubieten, gehört auch die kritische Überprüfung der Ergebnisse der von ihnen eingesetzten technischen Instrumente zu den ärztlichen Sorgfaltspflichten, die als solche nicht delegierbar ist“, betont der Ethikrat.

Ein verantwortungsvoller Umgang mit KI-Systemen, von der Entwicklung über das Training bis zur Anwendung, ist demnach entscheidend dafür, ob KI einen Mehrwert für die Medizin erbringt. In der Dermatologie sei dieser Mehrwert bei der Erkennung von Hautkrebs anerkannt, sagt Dermatologin Welzel: „Mittlerweile geht die Diskussion eher in die Richtung, dass es ein Fehler ist, keine KI zu nutzen.“ Auch bei Tumoren etwa von Brust, Lunge und Gehirn helfen KI-Systeme in der Diagnostik. Das gilt zunehmend auch für Herz-Kreislauferkrankungen und weitere Gebiete der Medizin.

Welzel zufolge wird KI auch bei einer weiteren Veränderung im klinischen Bereich nützlich sein: Viele Krebspatienten, aber auch andere Langzeitpatienten verbringen die meiste Zeit nicht im Krankenhaus, sondern zu Hause. Über das Internet können Patienten des Uniklinikums Augsburg schon heute Messwerte mit der Klinik teilen. Künftig könnten diese Werte von einer KI überwacht werden, die bei Auffälligkeiten im Klinikum Alarm schlägt. Dass die Technik Patienten abschreckt, glaubt Welzel nicht. Sie hat im Umgang mit Patienten die Erfahrung gemacht: „Die Offenheit für KI-Technologien ist groß.“

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false