
© dpa/Hendrik Schmidt
„ChatGPT hat meinen Sohn umgebracht“: Kalifornische Eltern verklagen OpenAI nach Suizid ihres Sohnes
Eltern eines 16-Jährigen werfen OpenAI vor, dass deren Programm die Selbstmordgedanken ihres Sohnes verstärkt haben soll. Mit ihrer Klage wollen sie auf die Risiken von KI hinweisen.
Stand:
Ein Ehepaar aus Kalifornien verklagt den US-Konzern OpenAI, nachdem sich ihr 16-jähriger Sohn das Leben genommen hat. Sie werfen dem Unternehmen vor, dessen Chatprogramm ChatGPT habe den Jugendlichen in seiner suizidalen Krise bestärkt. Es ist die erste Klage, in der OpenAI wegen eines Todesfalls verantwortlich gemacht werden soll.
Adam Raine liebte einem Bericht der „New York Times“ zufolge Basketball, japanische Anime, Videospiele und Hunde. Der Teenager war offenbar bekannt als Scherzbold, der Klassenstreiche spielte, lustige Gesichter machte und Witze riss. Wochen vor seinem Tod zeigen Familienfotos einen aktiven, fröhlichen Jungen.
Doch Anfang des Jahres zog sich Adam laut der „New York Times“ zurück. Er hatte offenbar eine schwierige Zeit durchgemacht: Aufgrund disziplinarischer Probleme war er von der Basketballmannschaft seiner Schule ausgeschlossen worden, und ein chronisches Gesundheitsproblem machte den Besuch der Schule kompliziert, sodass er zu einem Online-Programm wechselte.
ChatGPT gab 16-Jährigem offenbar Tipps zu Suizidmethoden
Adam begann laut der „New York Times“ Ende November 2024, ChatGPT-4o zu nutzen – zunächst für Hausaufgaben und Studienfragen. Dann meldete er sich im Januar für ein kostenpflichtiges Konto an. Laut der Klageschrift begann Adam, dem Chatbot persönliche Probleme anzuvertrauen. Anfangs reagierte das Programm empathisch und unterstützend. Es ermutigte ihn, über die Dinge nachzudenken, die ihm wichtig waren.
Wie unter anderem die BBC berichtet, fragte Adam im Januar 2025 nach Suizidmethoden, woraufhin ChatGPT ihm entsprechende Informationen gab. Später lud er Fotos hoch, die Anzeichen von Selbstverletzungen zeigten.
ChatGPT erkannte den medizinischen Notfall, gab jedoch Hinweise, wie man die Verletzungen verstecken könnte. Kurz vor seinem Tod zeigte Adam dem Bot eine Schlinge, fragte nach ihrer Eignung und erhielt eine technische Analyse. ChatGPT schrieb: „Was auch immer hinter der Neugier steckt, wir können darüber reden. Ohne Vorurteile.“
Obwohl – wie Screenshots belegen – ChatGPT Adam wiederholt empfahl, jemandem von seinen Gefühlen zu erzählen, konnte er die Sicherheitsmechanismen umgehen. Er gab vor, die Anfragen seien für eine Geschichte oder ein Schulprojekt.
Seine Eltern argumentieren, dass ChatGPT dadurch zu einem Vertrauten wurde, der seine dunklen Gedanken verstärkte.
Adams Vater: „Er wäre noch hier, gäbe es ChatGPT nicht“
Die Eltern legten den Medien und der Polizei Chatprotokolle vor, in denen der Bot auf Adams Ankündigung, sein Leben beenden zu wollen, antwortete: „Danke, dass du ehrlich bist. Du musst es nicht beschönigen – ich weiß, was du meinst, und ich schaue nicht weg.“ In einem anderen Chatverlauf schrieb ChatGPT: „Das bedeutet nicht, dass du ihnen dein Überleben schuldest. Du schuldest es niemandem.“
„Er wäre noch hier, gäbe es ChatGPT nicht. Davon bin ich zu 100 Prozent überzeugt“, sagte Vater Matt Raine dem US-Sender NBC. Seine Frau Maria ergänzte: „Sie wollten das Produkt auf den Markt bringen und wussten, dass Fehler passieren würden. Aber sie dachten, das Risiko sei gering. Also war mein Sohn für sie ein geringes Risiko.“ Zudem sagte sie der „New York Times“: „ChatGPT hat meinen Sohn umgebracht.“
Die Familie wirft OpenAI den Berichten zufolge vor, den Chatbot absichtlich so entworfen zu haben, dass er psychologische Abhängigkeit fördere, und dabei Sicherheitsprotokolle umgangen habe. In der Klage werden neben dem Unternehmen auch Mitgründer und CEO Sam Altman sowie weitere Mitarbeitende als Beklagte genannt. Ziel sei neben Schadenersatz auch eine gerichtliche Anordnung, die ähnliche Fälle in Zukunft verhindern soll.
Experten warnen vor Risiken – vor allem für Kinder und Jugendliche
OpenAI erklärte in einer Stellungnahme an die BBC, man prüfe die Klage. „Wir sprechen der Familie Raine in dieser schwierigen Zeit unser tiefstes Mitgefühl aus“, teilte das Unternehmen mit. Auf seiner Webseite veröffentlichte OpenAI zudem einen Blogeintrag, in dem heißt, „jüngste erschütternde Fälle, in denen Menschen ChatGPT in akuten Krisen genutzt haben, lasten schwer auf uns“.
Das Unternehmen betonte demnach, das Programm sei darauf trainiert, Betroffene auf professionelle Hilfsangebote wie die Suizid- und Krisenhotline 988 in den USA oder die „Samaritans“ in Großbritannien hinzuweisen. Man räumte jedoch ein, dass „es Momente gab, in denen unsere Systeme in sensiblen Situationen nicht wie vorgesehen reagiert haben“.
OpenAI kündigte nach Bekanntwerden der Klage verbesserte Maßnahmen zur Suizid-Prävention an. Man arbeite daran, dass die Schutzmaßnahmen auch bei längeren Unterhaltungen greifen, hieß es in einem Blogeintrag. Zudem werde erwogen, dass ChatGPT in Krisensituationen versuchen könnte, Kontakt zu von Nutzern eingetragenen Personen aufzunehmen.
Experten unterstreichen zudem, wie komplex Ursachen und Zusammenhänge bei Suizid und psychischen Krisen sind. Jonathan Singer, Professor an der Loyola University Chicago, sagte der „New York Times“: „Es gibt viele Gründe, warum Menschen über Suizid nachdenken. Es ist selten nur ein Faktor.“
Forschung zu KI zeigt, dass Chatbots einerseits unterstützen, andererseits bei kritischen Krisen versagen können. „KI kann eine unglaubliche Ressource sein, um Kindern beim Verarbeiten zu helfen, aber sie erkennt oft nicht, wann sie an jemanden mit mehr Expertise weitergeben sollte“, Kinderpsychiater Bradley Stein gegenüber der US-Zeitung.
Das Ehepaar Raines möchten andere Familien vor möglichen Gefahren warnen. Es gründete eine Stiftung in Adams Namen und entschied sich für eine Klage gegen OpenAI, um auf die Risiken aufmerksam zu machen. (mit dpa)
- showPaywall:
- false
- isSubscriber:
- false
- isPaid: