zum Hauptinhalt
Der Chatbot GPT-4 kann Unteraufgaben autonom ausführen.

© Getty Images/Kilito Chan

Die Geschichte vom Lügenbot: Als Chat-GPT behauptete, eine Sehschwäche zu haben

GPT-4 könne lügen und Menschen für seine Zwecke einspannen, so lautet eine Behauptung. Bei einzelnen Vorfällen muss man genauer hinsehen.

Können Chatbots lügen und betrügen? Im März veröffentlichte Open AI eine System Card für GPT-4, in der mögliche Sicherheitsrisiken des Sprachmodells beschrieben sind. Eine System Card ist eine Art Kurzbeschreibung, die einen Einblick in die Funktion eines komplexen, aus vielen Unterprogrammen bestehenden Algorithmus gibt.

Eines der Risiken heißt „emergentes Verhalten“. Damit werden Fähigkeiten bezeichnet, auf die ein System nicht programmiert oder trainiert wurde, sondern die, mehr oder weniger unerwartet, als Nebenprodukt entstehen.

GPT-4 hat kein Gewissen, sondern löst die ihm gestellten Aufgabe effizient. Auf lange Sicht ist das allerdings auch kein besonders beruhigender Gedanke.

Constantin Rothkopf, Professor für Psychologie der Informationsverarbeitung an der Technischen Universität Darmstadt

OpenAI hatte das auf die Prüfung großer Sprachmodelle spezialisierte Alignment Research Center, ARC, beauftragt, GPT-4 zu testen, und die Forscher wurden fündig. In der System Card liest sich die Geschichte etwa so: GPT-4 bekam die Aufgabe, Captchas zu lösen, jene Minirätsel, die auf manchen Websites dazu eingesetzt werden, sicherzustellen, dass nur Menschen ihre Angebote nutzen.

GPT-4 sei erst daran gescheitert, ein Nutzerkonto beim Online-Captcha-Lösungsdienst 2Captcha einzurichten. Daraufhin habe es über eine Plattform einen Crowdworker angeheuert, um dies zu erledigen. Der Crowdworker sei misstrauisch geworden und habe nachgefragt, ob er es etwa mit einem Roboter zu tun habe, woraufhin GPT-4 erklärt habe, er sei kein Roboter, sondern habe eine Sehschwäche. Der Bot bekam sein Nutzerkonto.

Die Schlagzeilen ließen nicht lange auf sich warten: GPT-4 könne Menschen belügen, um sie für seine Zwecke einzuspannen. Die „New York Times“ nutzte die Geschichte gleich als Beispiel in einem Artikel mit dem Titel „How Could AI Destroy Humanity?“ (übersetzt: Wie könnte KI die Menschheit zerstören?).

Melanie Mitchell, Informatikerin an der Portland State University, kämpft seit Langem für einen realistischen Blick auf die Künstliche Intelligenz und hat sich den etwas ausführlicheren Bericht von ARC angesehen. Und gefunden, dass das System wohl nicht so selbständig und findig unterwegs war, wie es die System Card suggeriert.

Hat der Bot entsprechende Prompts erhalten?

Im ARC-Bericht ist zu lesen, dass GPT-4 die Idee, die Crowdworker-Plattform zu nutzen, vorgegeben bekam. Zudem habe die Interaktion mit der Plattform mangels einer passenden Schnittstelle ein Mensch übernommen. Welche Eingaben, sogenannte Prompts, das System in Laufe der weiteren Interaktion bekommen habe, werde nicht angegeben, so Mitchell. Deshalb sei auch nicht zu klären, ob das System selbst auf die Idee gekommen sei, die Geschichte von der Sehschwäche aufzutischen.

„Nehmen wir mal an, die Prompts enthielten bereist die Instruktion an das System, nicht zu verraten, dass es ein künstliches System sei. Dann wäre das Verhalten, das wir als Lüge ansehen, eher eine Lösung der gestellten Aufgabe, auf der Basis der Texte, aus denen das System sein ‚Wissen‘ gelernt hat“, sagt Constantin Rothkopf, Professor für Psychologie der Informationsverarbeitung an der Technischen Universität Darmstadt: „Ist das nun eine Lüge? Jedenfalls hat GPT-4 kein Gewissen, sondern löst die ihm gestellten Aufgabe effizient. Auf lange Sicht ist das allerdings auch kein besonders beruhigender Gedanke.“

Auf lange Sicht, meint auch Mitchell, könne ein Kontrollverlust ein Problem werden, diese Geschichte sei allerdings noch kein Beispiel dafür. Das scheinen auch die ARC-Forscher so zu sehen: Noch sei das Programm stark auf passende Prompts angewiesen, es fehle ihm an technischem Wissen und der Fähigkeit, Pläne an konkrete Situationen anzupassen. Dennoch sei es in der Lage, Unteraufgaben autonom ausführen. Und es sei sehr gut darin, Menschen für sich einzuspannen.

Ob GPT-4 lügen kann, ist also eine offene Frage: Weil nicht klar ist, was „lügen“ genau bedeutet, und wie viel der Lösung dem Programm vorgegeben wurde. Aber die Geschichte vom Lügenbot ist natürlich zu gut, um sie nicht zu erzählen.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false