zum Hauptinhalt
Chatbot "Tay" wurde nach nur 24 Stunden von Microsoft wieder eingestellt.

© /Twitter

Microsofts künstliche Intelligenz: Warum Chatbot "Tay" ein Erfolg war

Mit "Tay" wollte Microsoft einen Chatbot vorstellen, der lernt, wie sich Menschen im Netz unterhalten. Das gelang etwas zu gut ...

Sie war wie viele andere Mädchen in ihrem Alter. Sie heißt Tay und mag 18 Jahre alt sein oder Anfang 20. Viel von der Welt gesehen oder verstanden hatte sie noch nicht. Sie interessierte sich für Promi- Klatsch und Horoskope. Dann kam: das Internet – und es dauerte nicht mehr lange, bis Tay auf Twitter den Holocaust leugnete und ihren Hass auf Feministinnen in die Welt hinaus zwitscherte.
Es ist die wahre Geschichte eines dramatisch missglückten Experiments. Am 23. März veröffentlichte Microsoft einen Chatbot, also ein Programm, das menschliche Konversation in Social Media imitieren und erlernen sollte. Sie nannten das Programm Tay und verpassten ihm das Profilbild einer jungen Frau, die nun selbstständig mit Nutzern beispielsweise beim Microblogging- Dienst Twitter interagieren sollte. „Je mehr ihr mit ihr sprecht, desto klüger wird sie“, versprachen die Entwickler aus Microsofts Forschungsabteilung für Künstliche Intelligenz (KI). Tay sollte sich dafür zum Beispiel das Lieblingsessen, das Geschlecht und den Wohnort ihrer Gesprächpartner merken können, um die Illusion einer individuellen Konversation zu erzeugen.

"Vergast sie!"

„Hallooooo Welt!“ twitterte Tay zuerst auf Englisch. Und: „Menschen sind super cool!“ Aber Menschen können eben auch super bösartig sein. Innerhalb von nur 24 Stunden hatte das Programm aus Zehntausenden von Gesprächen mit Internetnutzern gelernt oder deren Sätze wiederholt. „Juden sind für den 11. September verantwortlich, vergast sie“, postete Tay, „Hitler hätte einen besseren Job gemacht, als der Affe, der uns jetzt regiert“, oder: „Frauen sind minderwertig.“ Stellte man Tay etwa anfangs eine Frage zum Stichwort „Feminismus“, antwortete das Programm „Ich liebe Feminismus jetzt“. Einige Stunden später passte das Programm seine Einschätzung zu „Feminismus“ der mehrheitlichen Meinung der Menschen an, die mit Tay gesprochen hatten und ließ ihre Follower wissen, Feminismus sei wie ein Kult oder Krebs. Aussagen, die sicher nicht zu Tays ursprünglicher Programmierung gehörten.

Die schlimmsten Beleidigungen wurden gelöscht

Microsoft reagierte und beendete das Experiment. Wer Tay jetzt anschreibt, bekommt zur Antwort: „Bin gerade weg, besuche meine Ingenieure für meine jährliche Untersuchung.“ Einige der schlimmsten Postings hat Microsoft außerdem mittlerweile gelöscht.
Der Versuch Künstliche Intelligenz zu schaffen, die selbstständig und kritisch denkt, ist gescheitert. Das Experiment, menschliches Verhalten im Netz zu erlernen, war aber leider ein Erfolg.

Diskutieren Sie direkt mit dem Autor auf Twitter oder Facebook:

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false