Hate Speech im Netz : Eine Maschine gegen den Hass

Wissenschaftler entwickeln eine Software, um sogenannte Hate Speech im Internet aufzuspüren.

Dennis Yücel
Menschen schlagen am 5. September 2017 auf dem Gendarmenmarkt in Berlin auf eine Hate-Speech-Mauer aus Styropor ein.
Menschen schlagen am 5. September 2017 auf dem Gendarmenmarkt in Berlin auf eine Hate-Speech-Mauer aus Styropor ein.Foto: picture alliance / Britta Pedersen/dpa-Zentralbil/dpa

Hassrede – sogenannte Hate Speech – ist im Internet zu einem alltäglichen Problem geworden. In sozialen Netzwerken und den Kommentarspalten vieler Online-Medien werden Diskussionen immer häufiger von Beiträgen gestört, die Menschen wegen ihrer Herkunft, Hautfarbe, Religion, Sexualität oder ihres Geschlechts beleidigen. Allein in Deutschland gibt es inzwischen Hunderte, die sich hauptberuflich moderierend oder als Community-Manager mit solchen Hass-Beiträgen auseinandersetzen müssen. Sie überwachen Diskussionen und müssen bewerten, vermitteln, gegensteuern und wenn nötig löschen.

„Die Datenmenge und die Geschwindigkeit des digitalen Diskurses sind so hoch, dass man als Mensch kaum noch hinterherkommt“, sagt Martin Emmer. „Gerade während der sogenannten Flüchtlingskrise im Sommer 2015 wurde im Netz so viel Hass gepostet, dass es kaum noch zu moderieren war.“

Der Professor für Kommunikationswissenschaft an der Freien Universität Berlin leitet gemeinsam mit seinem Kollegen Professor Joachim Trebbe das neue Forschungsprojekt „NOHATE – Bewältigung von Krisen öffentlicher Kommunikation im Themenfeld Flüchtlinge, Migration, Ausländer“. In Zusammenarbeit mit Informatikerinnen und Informatikern der Beuth Hochschule für Technik Berlin und dem Technologie-Unternehmen VICO Research & Consulting entwickeln die Beteiligten des Verbundprojekts eine Software, die Community-Manager in ihrer täglichen Arbeit gegen den digitalen Hass unterstützt – speziell in Fällen von Hassrede gegenüber Flüchtlingen und Einwanderern. Gefördert wird das Projekt vom Bundesministerium für Bildung und Forschung mit rund einer Million Euro.

Der Algorithmus erkennt Hate Speech und lernt stetig dazu

„Wir entwickeln einen Algorithmus, der soziale Netzwerke, Foren und Kommentarspalten durchsuchen und dort Hate Speech identifizieren kann“, sagt Emmer. „Das Programm kann Community-Manager darauf hinweisen, wo und wann es brenzlig wird und möglicherweise eingegriffen werden muss.“ Denkbar sei auch, dass der Algorithmus später auch quasi vorausschauend agieren kann, als eine Art Frühwarnsystem, um rechtzeitig zu erkennen, wenn Diskussionen zu entgleiten drohen. „Die Software könnte dann auch Maßnahmen zur Deeskalation vorschlagen“, sagt Emmer. „Sie könnte dem Moderator zeigen, welche Strategien in ähnlichen Fällen erfolgreich waren.“

Die Idee für ein solches Programm kam Martin Emmer gemeinsam mit dem Informatik-Professor Alexander Löser auf einer Tagung im vergangenen Jahr.

Löser verantwortet an der Beuth Hochschule die technische Seite des Projekts. Dessen Kern ist ein Algorithmus, der nicht nur die Fälle von Hassrede erkennt, die ihm von Menschenhand beigebracht worden sind, sondern sein Wissen selbst erweitert. „Mithilfe eines sogenannten Deep-Learning-Verfahrens untersucht der Algorithmus eigenständig naheliegende Wörter und Sätze und lernt beständig dazu“, sagt Löser. „Stößt er auf Postings, die er als Hate Speech klassifiziert, schlägt er Alarm.“

Löser betont dabei, wie wichtig die Zusammenarbeit mit den Sozialwissenschaftlern sei. „Es ist im Prinzip von der technischen Seite ähnlich, wenn ein Lernverfahren erkennt, ob jemand in einem Text bestimmte Schuhe mag oder ob er Hass-Sprache benutzt. Entscheidend ist dabei nicht der Algorithmus, sondern die Daten, die zur Verfügung stehen.“ Nur wenn der Algorithmus am Anfang mit einem möglichst gut ausgearbeiteten Datensatz arbeiten kann, könne er erfolgreich dazulernen, sagt Löser. „Die Menschen müssen ihn erst einmal mit möglichst variantenreichen Trainingsdaten füttern, die die Realität gut abbilden.“

Das Programm soll Menschen im Berufsleben schützen

Diese Trainingsdaten zu sammeln ist nun Aufgabe der Kommunikationswissenschaftler an der Freien Universität. „Der erste Schritt besteht für uns darin, mit klassischen Methoden der Sozialforschung zu untersuchen, wie Hate Speech im Migrationsdiskurs funktioniert“, sagt Sünje Paasch-Colberg. Die promovierte Kommunikationswissenschaftlerin ist als wissenschaftliche Mitarbeiterin an dem Projekt beteiligt. „Wir werden Kommentarspalten auswerten, Hate Speech sammeln und kategorisieren, untersuchen, wie die Themen sich entwickeln und Wellen bilden.“

Mehrere Kooperationspartner – darunter Nichtregierungsorganisationen wie die Amadeu-Antonio-Stiftung, die intensiv zu Hate Speech arbeitet, sowie große Verlage wie Axel Springer – stehen dem Projekt beratend zur Seite und sollen später von der Software profitieren. „Für uns Sozialwissenschaftler bietet sich mit der Entwicklung eines solchen Tools die Möglichkeit, nicht nur Studien zu erstellen, sondern auch praktisch in die Gesellschaft hineinzuwirken“, sagt Paasch-Colberg. Über das am Verbundprojekt beteiligte Technologie-Unternehmen soll die Software vermarktet und an Verlage und Medienunternehmen verkauft werden. Künftig könnte das Produkt in Firmen weltweit zum Einsatz kommen.

„Letztlich soll es auch ein Programm sein, das Menschen im Berufsleben schützt“, sagt Alexander Löser. Studien belegten mittlerweile, dass es psychisch belastend sein könne, jeden Tag stundenlang Hass-Postings lesen zu müssen. „Hierbei wird künftig eine Maschine stark unterstützen können.“

Alle im Projekt seien sich jedoch bewusst, dass ein solches Vorhaben zu besonderer ethischer Wachsamkeit verpflichte. „Wir arbeiten hier an einer sehr machtvollen Technik“, sagt Martin Emmer. Alexander Löser betont, dass der Algorithmus stets vom Menschen kontrolliert werden müsse: „Wir programmieren keine automatische Lösch- Maschine. Unsere Software wird Hinweise geben und Vorschläge machen – die letzte Entscheidung liegt aber immer beim Menschen.“

0 Kommentare

Neuester Kommentar
      Kommentar schreiben