Rassismus, Antisemitismus, Beleidigungen : Woher kommt der Hass im Netz?

Die Debattenschlachten im Internet werden mit aller Härte geführt. Rassismus, Antisemitismus, Beleidigungen – all das ist Alltag. Portalbetreiber wie Facebook wollen, dass die Nutzer das selbst regeln. Doch dieses Prinzip funktioniert immer seltener.

von und Alice Hasters
Virtuell wird in den sozialen Netzwerken geschrien und gepöbelt, was das Zeug hält. Doch woher kommt der Hass im Netz?
Virtuell wird in den sozialen Netzwerken geschrien und gepöbelt, was das Zeug hält. Doch woher kommt der Hass im Netz?Foto: Carsten Bachmeyer Fotolia

Wer zur Feuerwehr von Facebook möchte, muss an David Hasselhoff vorbei. Der Serienstar aus Hollywood wacht gleich neben dem Fahrstuhl in der Europazentrale des weltweit größten sozialen Netzwerks in Dublin, breitbeinig und lebensgroß – zwar nur als Pappaufsteller, aber trotzdem ist der Rettungsschwimmer ein passendes Symbol für die Aufgaben, die die Mitarbeiter hier haben: Auch sie müssen für Ordnung sorgen, Brände löschen und darauf achten, dass sie nicht an anderer Stelle neu entfacht werden.

Hundertausende Meldungen werden überprüft

Gelegt werden die Brände von Facebook-Nutzern selbst. In Kommentaren hetzen und hassen sie, oft geht es dabei um Flüchtlinge, Genderfragen, den Islam oder den Konflikt zwischen Russland und der Ukraine. Findet ein Nutzer, dass mit einem Kommentar eine Grenze überschritten, womöglich gegen Gesetze verstoßen wird, kann er solche Kommentare über eine entsprechende Funktion melden – diese Meldung landet dann hier, in Dublin, bei einem Team, dessen Name an Spezialeinsatzkommandos erinnert: „Community Operations Team“.

Hunderttausende Meldungen überprüfen die Mitarbeiter nach Angaben von Facebook jede Woche – wie viele genau, gibt das Netzwerk nicht bekannt. Ohnehin will sich Facebook nicht zu Zahlen gemeldeter Kommentare und dem Umgang damit äußern. Dabei könnte das US-Unternehmen den Eindruck bestätigen oder dementieren, den viele Menschen in den vergangenen Monaten haben, nämlich: dass die Hetze im Netz immer mehr zunimmt. Nicht nur auf Facebook, sondern auch auf anderen sozialen Netzwerken oder Plattformen wie Twitter, Youtube oder in den Kommentarspalten der Online-Medien.
Gerne würde man gerade von Facebook als weltweit größtem sozialen Netzwerk mit mehr als 1,4 Milliarden Nutzern wissen, ob Erkenntnisse dazu vorliegen, wer diese Hetzer sind. Und ob es tatsächlich immer mehr werden. Doch Facebook schweigt darüber.

Wird Facebook zu langsam tätig?

Ein Statement der deutschen Facebook-Sprecherin Tina Kulow machte vergangene Woche deutlich, dass das „Operations Team“ bei der Sichtung der Kommentare selbst nicht immer zufrieden ist: „Unsere Reporting-Systeme sind dafür entwickelt, Menschen vor Missbrauch, Hassrede und Mobbing zu schützen, und es ist bedauernswert, dass gelegentlich Fehler gemacht werden, wenn solche Reports bearbeitet werden.“
Nicht nur Dublin, sondern auch in Hyderabad in Indien, in Austin und im Facebook-Hauptsitz in Menlo Park in den USA überprüfen insgesamt Hunderte von Mitarbeitern gemeldete Kommentare oder Beiträge. Doch das Team in Dublin „ist der wichtigste Ort von allen, weil hier an die hundert Länder beobachtet werden, auch die des arabischen Raums“, berichtet die „Zeit“, die die Zentrale in Irland besuchte und auch die Begrüßung durch David Hasselhoff beschreibt.
In Dublin sitzen auch die deutschsprachigen Mitarbeiter, die darüber entscheiden, ob eine Meldung gelöscht wird – oder sich nach Ansicht von Facebook in den Grenzen der Meinungsfreiheit bewegt. Diese sind gerade im Hinblick auf rassistische Kommentare zu weit gesteckt, monieren Kritiker: Viel zu selten, viel zu langsam werde das Netzwerk tätig, lautet der Vorwurf, der gerade im Zuge der Flüchtlingsdebatte in den vergangenen Wochen immer lauter erhoben worden ist.

Cybermobbing
CybermobbingFoto: dpa

Wer sich selbst auf die Suche nach entsprechenden Kommentaren begibt, wird schnell fündig: In der Gruppe von Pegida fordert ein User ein „Massenlager“ für Flüchtlinge. In kleineren Gruppen wie zum Beispiel „Chemnitz, Sachsen, Deutschland gegen Scheinasylanten“ kommentiert ein User, der Hungerstreik der Flüchtlinge sei „die beste Art dieses Pack auszurotten!!!“.
Warum werden solche Meldungen nicht einfach gelöscht? Vermutlich, weil sie bisher von keinem Nutzer beanstandet worden sind. Facebook setzt nämlich auf die Kraft des sich selbst regulierenden Systems. In der Regel wird ein Kommentar erst dann geprüft, wenn er gemeldet worden ist. Zwar gibt es auch bestimmte Algorithmen, nach denen Kommentare durchsucht werden, aber der Begriff „Konzentrationslager“ macht deutlich, dass es einer Differenzierung bedarf. So kann einerseits ein Schüler darüber schreiben, wie sehr ihn der Besuch in einem KZ bewegt hat. Andererseits kann ein Nutzer unter dem Schlagwort auch den Holocaust leugnen – eine Straftat, die nach Angaben von Facebook in jedem Fall an Ermittlungsbehörden weitergeleitet wird.

2100 Anfragen gab es von Strafverfolgern im zweiten Halbjahr

60 Inhalte seien im zweiten Halbjahr 2014 eingeschränkt worden, weil sie Rechtsextremismus und die Verleugnung des Holocaust befürwortet hätten, was in Deutschland rechtswidrig ist, heißt es im Transparenzbericht, den Facebook halbjährlich veröffentlicht. Insgesamt habe es rund 2100 Anfragen von Strafverfolgern gegeben, die auf Nutzerkonten zugreifen wollten. „Jede einzelne Anfrage, die wir erhalten, wird auf ihre rechtliche Hinlänglichkeit geprüft; wir lehnen Anfragen ab, die übermäßig weit gefasst oder zu vage sind, beziehungsweise fordern eine größere Genauigkeit für diese“, teilt Facebook mit. Rund einem Drittel der Anfragen sei ganz oder teilweise entsprochen worden.

Angesichts des Vorwurfs, dass Facebook teilweise gar nicht oder zu langsam auf rassistische oder hetzerische Kommentare und Inhalte eingeht, wägt eine Sprecherin ab. Inhaltliche Richtlinien aufzustellen, die es mehr als einer Milliarde Menschen erlauben, sich Ausdruck zu verschaffen und gleichzeitig die Rechte und Gefühle anderer Menschen zu respektieren, sei „eine permanente Herausforderung“, sagte sie. „Manchmal stoßen wir dabei auf neuartige Inhalte oder Grenzfälle, die unsere Richtlinien auf die Probe stellen. In solchen Fällen ist es unser Ziel, unseren Ansatz zu prüfen und entsprechende Schritte einzuleiten, sodass wir die Gratwanderung schaffen und Menschen auf Facebook einerseits die Möglichkeit geben, Informationen, Nachrichten und Inhalte zu teilen – und gleichzeitig die Gemeinschaft als Ganzes schützen.“

Bei weltweit mehr als einer Milliarde Nutzern, die unterschiedliche Meinungen vertreten und Facebook als Plattform nutzen, um Themen zu diskutieren oder Inhalte zu teilen, die ihnen wichtig sind, komme es natürlich vor, dass Menschen auch kontroverse Inhalte posten und diskutieren. „Facebook ist kein Ort für die Verbreitung rassistischer Ansichten“, betont sie. Sondern eine Plattform, „auf der sich Menschen über ein breites Spektrum von politischen Meinungen austauschen“. Diskussionen über die gesellschaftlichen Auswirkungen von Rassismus und Rechtsextremismus seien ein wichtiger Teil davon. „Inhalte wie Hassrede, Aufruf zur Gewalt oder Gewaltverherrlichung verstoßen jedoch gegen die Gemeinschaftsstandards von Facebook und werden umgehend gelöscht.“

33 Kommentare

Neuester Kommentar
      Kommentar schreiben