MEDIA Lab : Mit Maschinen gegen den Hass

Künstliche Intelligenz verspricht Lösungen für viele Probleme der digitalisierten Welt. Kann sie helfen, die Eskalation von Hassrede im Internet zu verstehen?

Joachim Trebbe
Beleidigungen, Verleumdungen und Diskriminierungen im Internet mit Hilfe von Künstlicher Intelligenz begegnen, daran wird geforscht.
Beleidigungen, Verleumdungen und Diskriminierungen im Internet mit Hilfe von Künstlicher Intelligenz begegnen, daran wird...Foto: Andrea Warnecke/dpa-tmn

Seitdem populistische Bewegungen und Akteure die politische Auseinandersetzung in die sozialen Medien gezogen haben, wird dort mit harten sprachlichen Bandagen gekämpft. Beleidigungen, Verleumdungen und Diskriminierungen sind in den Kommentarspalten an der Tagesordnung. Dies gilt besonders für Themen, die gesellschaftlich umstritten sind und diffuse Ängste befeuern: Migration, Religion, kulturelle Werte, soziale Gerechtigkeit. So explodiert etwa die Kommentierung zum Thema Flucht und Asyl regelmäßig und wird häufig nur durch Abschalten und Löschen aufgehalten.

Zwei Fragen sind dabei weitgehend ungeklärt und rücken zunehmend in das Blickfeld der Forschung: Welche kommunikativen Mechanismen stecken hinter dieser sprachlichen Eskalation von Wut und Hass? Und: Wie verlaufen die Beobachtungs- und Entscheidungsprozesse bei denjenigen, die in der Pflicht sind, Hassreden und persönliche Herabsetzungen aus ihren Foren herauszuhalten?

Vielversprechende Forschungsansätze

In jüngster Zeit gibt es zur Untersuchung dieser Fragen vielversprechende Forschungsansätze, die auf der Basis großer Datensätze aus den sozialen Online-Medien versuchen, diese Mechanismen mithilfe künstlicher Intelligenz zu verstehen. Die finnische Kommunikationswissenschaftlerin Salla-Maaria Laakson hat dazu erste Ergebnisse einer Forschungsgruppe von der Universität Helsinki zur automatischen Erkennung rassistischer Äußerungen in politischen Debatten vorgelegt.

Computerlinguisten, Informatiker und Kommunikationswissenschaftler entwickeln Algorithmen für die Erkennung wiederkehrender Muster der Eskalation und ihrer bisher wenig transparenten Verarbeitung in den Arbeitsgruppen der Social-Media-Plattformen. Die „lernende“ Maschine kann bei der Entdeckung dieser Mechanismen helfen und bei der Moderation der politischen Debatten im Netz helfen – so Hypothese und Versprechen der Künstlichen Intelligenzforschung.

Jetzt neu: Wir schenken Ihnen 4 Wochen Tagesspiegel Plus!