zum Hauptinhalt
Viele Menschen nutzen Siri, um SMS oder andere Texte in ihr Handy zu diktieren.

© imago images / ZUMA Press

Abhörerin von Sprachassistent: „Viele Kinder bezeichnen Siri als ihre beste Freundin“

Für viele war es ein Schock, dass bei der Apple-Sprachsoftware Siri Menschen mithören. Eine Mitarbeiterin berichtet nun, was sie sich dort alles anhören muss.

Manchmal wird es Renate F.* zu heftig. „Der Dirty Talk mit Siri ist häufig derart detailliert, dass ich lieber nicht mehr davon hören will“, sagt sie. „Meist sind es Männer, es ist erstaunlich, wie verbreitet das ist.“

Vor ihr auf dem Bildschirm ist eine Tonspur zu sehen und das zu lesen, was der Computer von dem Sprachbefehl des Siri-Nutzers verstanden hat. Darunter ist ein Feld, in das F. eintragen soll, was tatsächlich gesagt wurde. Häufig hat die Software bereits alles korrekt verstanden, manchmal aber auch nicht. Und wenn es ihr zu dreckig wird, dann klickt sie auf den Button „unverständlich“.

Erlaubt ist das nicht. Denn F. ist eine der Personen, die „Transcribers“ und „Correctors“ genannt werden. Sie soll Sprachfetzen, die Menschen beispielsweise über ihr iPhone in das Apple-Spracherkennungsprogramm Siri eingesprochen haben, anhören und aufschreiben. Diese Praxis hatte zuletzt für einige Aufregung gesorgt. Denn dass Apple, Amazon, Google und Co. die Aufnahmen ihrer Sprachassistenzsysteme mit Computern analysieren, war bekannt. Dass allerdings auch Menschen private und intime Details mithören, war einer breiten Öffentlichkeit bis vor wenigen Wochen verborgen geblieben. Nach einem Sturm der Entrüstung kündigten jetzt alle drei US-Konzerne an, diese Art der Auswertung zu überdenken.

"Das Wort 'Fotze' kommt überraschend oft vor"

Doch Renate F. hat durchaus Gefallen an ihrem Job gefunden. Sie ist eigentlich Lehrerin für Deutsch als Fremdsprache. Die 55-Jährige lebt in Barcelona. „Ich bin zu dieser Tätigkeit gekommen, weil ich keine Lust hatte mich weiter freiberuflich durchzuschlagen“, sagt die alleinerziehende Mutter. „Es ist nicht leicht, damit durchzukommen, wenn man nicht verbeamtet an einer Schule ist.“

Da kam ihr das Angebot der Sprachauswertung gerade recht. „Ich hatte schon vor vier Jahren dort ein Bewerbungsgespräch, fand es dann aber doch nicht so spannend“, erzählt F. „Jetzt ist mir ein festes Gehalt aber doch wichtiger. Und besser als ein Call Center ist es allemal.“ Nun sitzt sie 30 Stunden pro Wochen mit Kopfhörern in einem Großraumbüro, jeden Tag hört sie 1200 bis 1800 Sprachfetzen aus dem deutschen Sprachraum.

Der Tagesspiegel kooperiert mit dem Umfrageinstitut Civey. Wenn Sie sich registrieren, tragen Sie zu besseren Ergebnissen bei. Mehr Informationen hier.

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen von unseren Redakteuren ausgewählten, externen Inhalt, der den Artikel für Sie mit zusätzlichen Informationen anreichert. Sie können sich hier den externen Inhalt mit einem Klick anzeigen lassen oder wieder ausblenden.

Ich bin damit einverstanden, dass mir der externe Inhalt angezeigt wird. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu erhalten Sie in den Datenschutz-Einstellungen. Diese finden Sie ganz unten auf unserer Seite im Footer, sodass Sie Ihre Einstellungen jederzeit verwalten oder widerrufen können.

„Das können Kurzbefehle sein wie 'Siri, mach’ das Licht im Wohnzimmer an' oder auch längere Sprachaufzeichnungen“, erzählt sie. „Viel beschäftigte Menschen sprechen zum Beispiel gerne beim Autofahren SMS in ihr Handy anstatt zu tippen. Oder im Bad oder beim Kochen.“ Und es gebe anscheinend auch viele gelangweilte Hausfrauen, die in ihr Handy sprechen, dass sie gerade gestaubsaugt haben, einkaufen waren und was sie sonst so machen. Und dann wären da noch die, die sich tierisch aufregen und Siri anbrüllen, „was für eine dämliche Fotze sie eigentlich sei, dass sie so einen Scheiß schreibt“. Das Wort „Fotze“ komme „für mich älteres Semester“ überraschend oft vor, sagt F.

Auch viele Kinder nutzen Siri. Einige blödeln nur damit herum, aber viele wissen laut F. besser als die Erwachsenen, wie man mit dem System zu reden hat. „Die geben ganz klare Befehle wie: „Siri, zeig‘ mir das Neueste von Fortnite.“ Viele Kinder, berichtet F., bezeichnen Siri als ihre beste Freundin.

Siri lernt, dass "Code" nicht "Kot" ist

Dabei war ihr anfangs gar nicht klar, was sie da eigentlich anhörte. Auf ihre Nachfrage gaben ihre Vorgesetzten ihr keine Auskunft. „Irgendwann war es klar“, sagt sie. „Wenn nicht Geheimdienst, dann eben Softwareoptimierung.“ Denn tatsächlich lässt Apple die Sprachbefehle seiner Kunden zumindest nach eigenen Angaben nicht des Inhalts wegen abhören, sondern um die Spracherkennung zu verbessern.

F. gibt ein Beispiel. „Und du musst noch den Code eingeben“, sagt da jemand gut verständlich. Siri schreibt: „Und du muss doch den Kot eingeben.“ Nun tippt F. den korrekten Satz in ihren Computer. „Denn wenn die Maschine, deren Teil Siri ja ist, nicht eine riesige Menge an Daten eingefüttert bekommt, kann sie nicht lernen, dass das phonetisch gleichklingende 'Kot' in bestimmten Kontexten graphemisch als „Code“ zu schreiben ist“, erklärt sie.

Manchmal macht es ihr zu schaffen, dass sie einfach nur tatenlos zuhören kann. Schließlich sind alle Tonspuren anonymisiert. „Ich kann die Pubertierende nicht trösten, weil ihre beste Freundin sie nicht mehr sehen will. Das weinende Kind nicht, weil es wieder alles falsch gemacht hat. Die Frau nicht, die irgendjemandem vom Tod der Mama berichtet.“ Doch sie fragt sich, ob nicht irgendjemand anderes durchaus in der Lage ist, die Daten zuzuordnen und Kapital daraus zu schlagen. „Könnte man den Typen, der anscheinend Frau und Kind hat und nebenbei eine 'geile Sau' bedient, erpressen?“

Neben dem iPhone ist Siri auch in Apples HomePod integriert, ein Sprachassistent wie Amazons Echo.
Neben dem iPhone ist Siri auch in Apples HomePod integriert, ein Sprachassistent wie Amazons Echo.

© dpa

Überhaupt; was passiert, wenn F. unfreiwillig Zeugin von Straftaten wird? „Ich selbst habe noch nichts strafrechtlich Relevantes gehört“, meint sie. „Wir haben auch keine Anweisung, wie damit zu verfahren wäre.“ Aber ein Kollege habe einmal ein Gespräch gemeldet, weil es darin aus seiner Sicht eindeutig um einen großen Drogendeal gegangen sei. Ob diese Meldung weiterverfolgt wurde, wisse aber weder F. noch ihr Kollege. „Häufig höre ich aber Liebesbotschaften“, meint F. „Oder Hassbotschaften. Das Konkreteste war: „Ich hoffe, du wirst morgen überfahren.““

Ist Renate F. bald arbeitslos?

In Spanien berichteten zuletzt verschiedene Medien von schlechten Arbeitsbedingungen bei Firmen, die die Sprachauswertung für Google vornehmen. F. bezeichnet ihren Arbeitgeber, der ursprünglich darauf spezialisiert war, Internetseiten in verschiedene Sprachen zu übersetzen, hingegen als „sehr fair“. „Hier arbeiten Mitarbeiter aus aller Herren Länder“, erzählt sie. „Ein Opernsänger, viele Brasilianer, sehr viele Deutsche.“

Sie selbst ist seit zehn Monaten dort beschäftigt, zum zweiten Mal auf sechs Monate befristet. „Nach zwei Befristungen muss man entweder aufhören oder wird fest angestellt“, weiß sie und ist optimistisch, dass sie längerfristig bleiben kann, denn viele ihrer Kollegen seien bereits entfristet worden.

Ändert das vorerst beschlossene Aus für die menschliche Sprachauswertung daran etwas? Apple hatte angekündigt, künftig explizit die Erlaubnis der Nutzer einzuholen, bevor Menschen die Siri-Mitschnitte anhören dürfen. „Wir haben bisher noch nichts von unserem Arbeitgeber gehört, ob das an unserem Job etwas ändert oder ob wir ihn sogar verlieren“, sagt F. „Momentan sind wir unter Beibehaltung von Vertrag und Gehalt beurlaubt, sollen aber jederzeit zur Verfügung stehen.“

Umsonst ist die Arbeit von Renate F. jedenfalls nicht. Wer Siri diktiert, dass ein „Code“ eingegeben werden soll, muss sich seit einigen Tagen nicht mehr über „Kot“ in seinem Handy ärgern.

*Name von der Redaktion geändert. Der echte Name ist der Reaktion bekannt. Der Arbeitsvertrag von Renate F. liegt ebenfalls vor.

Zur Startseite