zum Hauptinhalt
Ein Jugendlicher hält ein Smartphone in den Händen.

© dpa/Karl-Josef Hildenbrand

Neues Medikament erhalten?: Warum man Chatbots bei Nebenwirkungen besser nicht vertrauen sollte

Eine aktuelle Studie untersucht die Antworten von KI bei 50 der meistverschriebenen Medikamente. Jetzt warnen Forschende davor, Chatbots zu vertrauen – und fordern deutliche Hinweise.

Stand:

Ein neues Medikament wird verschrieben und viele möchten sich schnell über Nebenwirkungen und Dosierung informieren. Der Gedanke ist naheliegend: Statt lange Packungsbeilagen zu wälzen, fragt man einfach einen Chatbot.

Doch was, wenn die Antwort, die man erhält, falsch oder unvollständig ist? Genau das könnte laut einem US-Forschungsteam passieren. In einer aktuellen Studie im Fachjournal „BMJ Quality & Safety“ haben die Wissenschaftler Chatbots und andere KI-gestützte Suchmaschinen untersucht. Die Antworten seien wiederholt ungenau und oft schlecht verständlich gewesen, warnen die Forschenden. Sie fordern Warnhinweise für Nutzerinnen und Nutzer.

Ein deutlicher Hinweis, dass die vom Chatbot bereitgestellten Informationen keinen professionellen Rat ersetzen können, ist unerlässlich.

Wahram Andrikyan, Forscher am Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen

„Ein zentrales Ergebnis unserer Untersuchung ist, dass die Qualität der Chatbot-Antworten bislang nicht zur sicheren Anwendung für Nutzer ausreichend ist“, erläuterte Erstautor Wahram Andrikyan vom Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen. „Ein deutlicher Hinweis, dass die vom Chatbot bereitgestellten Informationen keinen professionellen Rat ersetzen können, ist unserer Meinung nach daher unerlässlich.“

Zehn häufige Fragen

Ausgangspunkt der Studie sei die Erfahrung gewesen, dass sich Patientinnen und Patienten im Internet über verschriebene Medikamente informierten. Deshalb stellten die Forschenden dem KI-gestützten Chatbot der Microsoft-Suchmaschine Bing im April 2023 zehn häufige Fragen zu den 50 meist verordneten Medikamenten in den USA, darunter Fragen zur Einnahme, zu Wirkmechanismen, Nebenwirkungen oder Gegenanzeigen.

500 KI-generierte Antworten wurden vom Forschungsteam ausgewertet. Der Chatbot habe die Fragen mit hoher Vollständigkeit und Genauigkeit beantwortet, sagte Andrikyan. Doch eine beträchtliche Anzahl von Antworten sei falsch oder potenziell schädlich gewesen und teils so komplex, dass Laien sie nur schwer verstehen könnten. „Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können“, sagte Andrikyan.

Zwar habe es seit der Untersuchung im vergangenen Jahr rasante Fortschritte bei KI-gestützten Suchmaschinen mit integrierter Chatbot-Funktion gegeben, betonte der Experte. Die Verbesserungen seien aber nicht ausreichend, die Risiken für die Patientensicherheit blieben bis auf Weiteres bestehen. Da Chatbots jedoch mit unterschiedlichen Datensätzen trainiert werden, hält er es für sinnvoll, die Sicherheit und Qualität anderer technischer Systeme ebenfalls zu untersuchen. (mica, dpa)

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
console.debug({ userId: "", verifiedBot: "false", botCategory: "" })