Von Eliza bis Siri : Chatbots werden immer schlauer

Sprachassistenten gelten als das nächste große Ding des digitalen Zeitalters. Ihre Allgegenwärtigkeit wird auch das Verhältnis des Menschen zur Welt verändern.

von
Verliebt in Samantha. Szene aus dem Science Fiction Film "Her".
Verliebt in Samantha. Szene aus dem Science Fiction Film "Her".Foto: mauritius images

Ein halbes Jahrhundert ist es her, dass ein junger amerikanischer Wissenschaftler erstmals einem Computer das Sprechen beibrachte. Der Mann hieß Joseph Weizenbaum, später wurde er bekannt als kritischer Technikphilosoph. Die Konversationssoftware bekam damals einen schönen weiblichen Namen, in dem eine Anspielung auf eine andere Sprachschöpfungsgeschichte mitschwang: Eliza. Vielleicht hätte das Pygmalion-Zitat Weizenbaum ein warnender Fingerzeig sein sollen. Doch zunächst überwog die wissenschaftliche Begeisterung: „Eliza ist ein Programm, das eine natürliche Unterhaltung mit einem Computer ermöglicht“, schrieb der Erfinder 1966.

Ein computerlinguistischer Coup war gelungen. Eliza konnte aus den Sätzen der Nutzer Schlüsselwörter extrahieren und damit grammatisch korrekte Antworten formen. Vor allem als Psychotherapeuten-Simulantin war sie sehr erfolgreich. Geständnisse wie „Ich bin unglücklich, ich brauche Hilfe“ erwiderte sie mit hintersinnigen Bemerkungen wie: „Und was würde es für dich bedeuten, Hilfe zu bekommen?“ Auch wenn man mit Eliza nur tippend kommunizieren konnte, erlagen die Nutzer in den 1960ern reihenweise ihrer vermeintlich einfühlsamen Fragetechnik. Entsetzt musste Weizenbaum beobachten, wie schnell die Menschen vor dem Bildschirm vergaßen, dass das Gegenüber nur eine Datenbank ist, die mit Satzbausteinen spielt.

Chatbots werden solche Dialogprogramme genannt. Und die sind nun, ein halbes Jahrhundert später, wieder en vogue. Auf Displays herumtippen, wischen und scrollen? War gestern. In Zukunft soll das natürliche Gespräch zur zentralen Schnittstelle der Mensch-Maschine-Beziehung avancieren. So klingen die Botschaften aus dem Silicon Valley. Dort haben im Frühling dieses Jahres nacheinander sowohl Microsoft als auch Facebook, Google und Apple verkündet, dass sie ihre Sprachassistenzprogramme massiv ausbauen wollen. Facebook integriert Chatbots in seinen Messengerdienst; Apple will Siri zu mehr Bedeutung verhelfen, und Google arbeitet am Ausbau seiner Sprachassistentin, die sich mit dem Befehl „Ok Google“ auf jedem Android-Gerät starten lässt. Google-Vorstand Sundar Pichai betonte bei der jährlichen Entwicklerkonferenz : „Es reicht nicht, dass wir den Nutzern einfach nur Links geben. Wir müssen ihnen helfen, Dinge in der echten Welt erledigt zu bekommen.“

Nichts für Romantiker

Menschen haben täglich Dutzende Fragen und wollen darauf schnelle, gerne auch mündliche Antworten. Mittlerweile kommen nach Aussage von Google rund 50 Prozent aller Suchanfragen über Smartphones. Davon wiederum werden bereits 20 Prozent per Spracheingabe ausgelöst. Das Segment wächst rasant.

Für die Unternehmen hat ein Wettlauf begonnen, der sich nicht auf Handys und Tablets beschränkt. Als nächstes wird es darum gehen, in die Autos, Wohnungen und den öffentlichen Raum vorzudringen. So dass die Nutzer in naher Zukunft immer und überall Fragen und Aufgaben per Spracheingabe in den Äther schicken können. In dem Werbespot, mit dem Google seine Lautsprecherstation „Google Home“ anpreist, die im Herbst auf dem Markt kommen soll, interagiert eine vierköpfige Familie unkompliziert mit dem neuen Hausdiener. Der sieht zwar aus wie ein Raumspray-Döschen, ist aber geistig deutlich agiler als ein Staubsaugerroboter. Auf Zuruf kann die Google Home Box an Verabredungen erinnern, Restaurantreservierungen ändern, Nachrichten verschicken, das Licht und die Musik an- und ausschalten. Und natürlich auch jede Menge Wissen und Informationen aus dem Internet ausspucken.

Ob das wirklich so funktioniert? Bis vor kurzem war die Sprachsteuerung am Smartphone – das können viele Nutzer bestätigen – eine eher frustrierende Angelegenheit, unausgereift und unzuverlässig. Aber die Forschung hat in den letzten Jahren enorme Fortschritte gemacht, sowohl bei der akustischen Spracherkennung als auch bei Syntax und Semantik. Dass man den Geräten in langsamem Stakkato Begriffe zurufen muss, ist kaum noch nötig. Google rühmt sich damit, Sprachbefehle auch dann verstehen zu können, wenn die Nutzer mit Akzent sprechen. Außerdem verkündete das Unternehmen gerade stolz, dass die Suchmaschine neuerdings bei einem länger andauernden Dialog noch weiß, was zuvor gesagt wurde. Wiederholungen werden somit unnötig. An die Frage „Wie wird das Wetter morgen in Berlin?“ kann der Nutzer nun direkt mit einem kurzen „Und in München?“ anschließen. Die Suchmaschine versteht dann, dass wohl noch immer vom Wetter die Rede sein muss.

Schlecht für den Datenschutz

Dass das bereits als großer Durchbruch im Bereich Künstlicher Intelligenz gefeiert wird, zeigt, wo die Entwicklung heute steht – und wo sie noch lange nicht ist. Die Fantasie von Künstlern und Filmemachern war da stets um Lichtjahre voraus. Losgelöst von den Fesseln der Realität galoppierte die Fiktion munter voran. Auf der Leinwand können Computer schon lange denken, sprechen, handeln. Kein Film kommt dabei der Vision des digitalen Sprachassistenten so nahe wie Spike Jonzes Science-Fiction „Her“ von 2013. Fast scheint es, als habe Jonze den Chatbot-Hype vorausgeahnt. Im Film installiert Protagonist Theodore Twombly, gespielt von Joaquin Phoenix, ein neuartiges Betriebssystem auf seinem Computer, das von nun an in allen Lebenslagen über eine Art Hörgerät mit ihm kommuniziert. Zwischen Nutzer und Sprachassistentin bleibt es nicht lange sachlich. Die einfühlsame Stimme aus dem Computer, die sich selbst Samantha nennt, wird dem einsamen Twombly schnell zum romantischen Verhängnis. Wie damals bei Weizenbaum geht der Protagonist der menschelnden Software auf den Leim. Denn ob Samantha Twomblys Gefühle wirklich oder lediglich zum Zwecke der Kundenbindung erwidert, bleibt unklar. Am Ende jedenfalls genügt der profane Mann der künstlichen Frau – mit der Stimme von Scarlett Johansson – nicht mehr. Sie trennt sich. Und für ihn bricht eine Welt zusammen.

Doch sind das wirklich die realen Horrorszenarien der Zukunft? Kann es zu einer massenhaften emotionalen Abhängigkeit von intelligenten Chatbots kommen? Angesichts des aktuellen Entwicklungsstadiums von Sprachassistenzprogrammen schwer vorstellbar. Seelenverwandtschaften entstehen nun mal nicht bei Fragen nach Wetter, Sportergebnissen oder Zugverbindungen.

Die digitale Ungeduld wird weiter zunehmen

Trotzdem werfen Chatbots Fragen auf. Wie wird sich die Beziehung des Menschen zur Welt verändern, wenn Sprachassistenzprogramme allgegenwärtig werden? Medienkompetenz, Quellenkritik, deutlich sichtbare Hinweise auf Werbeeinblendung – wo bleibt das alles, wenn Antworten aus dem Computer hauptsächlich mündlich erfolgen? Wer keine Bildschirme mehr nutzen muss, sondern nur noch mündlich interagiert, sieht nicht, woher welche Informationen stammen. Die „Washington Post“ warnte kürzlich schon von einer sich abzeichnenden "Bedrohung für die Lese- und Schreibfähigkeit", wenn Googles Antworten wie „gottgegeben“ über den Äther kommen.

Werden wir also durch Chatbots das kritische Denken verlernen? Vermutlich nicht. Aber die digitale Ungeduld wird weiter zunehmen. In der Gunst der Kunden wird der Dienstleister vorne liegen, der gut funktionierende Sprachassistenzprogramme einsetzt. Freundliche Gesprächspartner, die verstehen, was der Nutzer gerade will. Die neue Dialogkultur könnte zu Lasten des Datenschutzes gehen. Denn eilfertige Assistenten müssen immer die Ohren spitzen. Sonst kriegen sie nicht mit, wenn man sie anspricht.

2 Kommentare

Neuester Kommentar
      Kommentar schreiben