
© Getty Images/iStockphoto/woocat
Radikal durch Youtube?: Wenig Hinweise auf einen selbstverstärkenden Effekt
Extremistische Videos konsumiert vor allem, wer schon extremistisch ist. Die Rolle der Algorithmen bei der Verbreitung radikalisierender Inhalte werde überbewertet, sagen Forschende.
Stand:
Der Großteil der YouTube-Videos mit extremistischen Inhalten wird nur von einem geringen Anteil der Nutzer:innen gesehen. In der Regel erreichen diese Videos Menschen, die bereits Kanäle mit vergleichbaren Inhalten abonniert haben, zeigt eine Studie, die in der aktuellen Ausgabe des Fachjournals „Science Advances“ erschienen ist.
Die Forscher:innengruppe um Annie Chen von der City University of New York hat Verhaltens- und Befragungsdaten erhoben. Zunächst wurden 1181 Teilnehmende zu ihren Einstellungen befragt, danach wurde ihr Browserverlauf über fünf Monate lang aufgezeichnet.
Alternative und extremistische Inhalte
Rund 15 Prozent der Proband:innen sahen in den untersuchten Monaten mindestens ein Video eines als „alternativ“ eingestuften Kanals, nur sechs Prozent sahen ein Video eines „extremistischen“ Kanals.
Als „alternativ“ gelten in der Studie Kanäle, die versuchen, diskreditierte Ansichten zu legitimieren, indem sie diese als marginalisierte Standpunkte darstellen. Als „extremistisch“ wurden vor allem rechtsextreme Kanäle aus dem Umfeld der Alt-Right- oder White-Supremacy-Bewegung eingestuft.
Extremistische Inhalte wurden überwiegend von Nutzer:innen konsumiert, die bereits in der Befragung ein sexistisches und rassistisches Weltbild vertreten hatten. Lediglich drei Prozent riefen ein Video eines alternativen oder extremistischen Kanals auf, ohne zuvor einen vergleichbaren Kanal abonniert zu haben.
„Sargnagel“ für eine Hypothese
Die Studienergebnisse stellen damit die „Rabbit-Hole-Hypothese“ infrage, der zufolge die Empfehlungsalgorithmen von Youtube und anderen sozialen Netzwerken den Nutzer:innen vermehrt polarisierende Inhalte vorschlagen, um sie auf der Plattform zu halten. Die Social-Media-Algorithmen würden dadurch zu einer Radikalisierung unbedarfter Nutzer:innen beitragen.
Diese Hypothese wurde vielfach in Medien verbreitet, gilt in der Forschung jedoch als weitgehend unbelegt oder überbewertet. So wertet der Kommunikationswissenschaftler Fabian Prochazka von der Universität Erfurt die Studie als einen weiteren „Sargnagel für die These, dass uns die Algorithmen der sozialen Medien immer radikaler machen“.
Eine wichtige Einschränkung weist die Studie jedoch auf: Youtube hatte 2019 – vor dem untersuchten Zeitraum – auf anhaltende Kritik reagiert und sein Empfehlungssystem überarbeitet. Das Unternehmen gab damals an, die Änderungen hätten zu einem 50-prozentigen Rückgang der Sehdauer von schädlichen Falschinformationen geführt.
Unabhängig überprüfen lassen sich solche Zahlen jedoch nicht, schreiben die Autor:innen der Studie. Schon seit Langem fordern daher Wissenschaft und Politik: Die Algorithmen der sozialen Netzwerke müssen für Forschung zugänglich gemacht werden.
- showPaywall:
- false
- isSubscriber:
- false
- isPaid: