Filterbubble : Warum Facebook seine Macht mit uns teilen muss

Facebook und Google sind die Knotenpunkte der Information. Wer so viel Macht hat, der braucht Kontrolle.

Tim Klimes
Keine Redaktion mehr, kein Sender, kein Druckhaus mehr. Die Nachrichtenzentralen der Tech-Unternehmen sind Server-Kathedralen.
Keine Redaktion mehr, kein Sender, kein Druckhaus mehr. Die Nachrichtenzentralen der Tech-Unternehmen sind Server-Kathedralen.Foto: picture alliance / dpa

Für Facebook-Chef Mark Zuckerberg kann der Einfluss seines Netzwerks gar nicht klein genug sein. Auf der Techonomy-Konferenz in Kalifornien sagte Zuckerberg, es sei „verrückt“ zu glauben, dass Falschmeldungen, die während des amerikanischen Präsidentschaftswahlkampfs über Facebook verbreitet worden seien, die Wahl in die eine oder andere Richtung beeinflusst hätten. Der Facebook-Chef, ganz bescheiden ob der Macht seines Netzwerks.

Das war vor rund zweieinhalb Jahren noch anders. Im Juni 2014 veröffentlichten zwei Wissenschaftler der amerikanischen Cornell University die Ergebnisse eines Experiments, das sie gemeinsam mit Facebook aufgesetzt hatten. Der Grundgedanke: Wie ändert sich das Verhalten von Facebook-Usern, wenn sie eher Postings mit freudigem Inhalt ausgespielt bekommen, gegenüber denjenigen, die mit mehr trübsinnigen Inhalten konfrontiert werden? Etwas mehr als 300 000 zufällig ausgewählte Nutzer wurden für das Sozial-Experiment der News Feed manipuliert – mit eindeutigem Ausgang: Diejenigen Nutzer, die mit eher freudigen Posts konfrontiert waren, waren später auch geneigt, selbst positive Einträge zu formulieren. Bei den Nutzern mit trübsinnigen Posts trat das genaue Gegenteil ein.

Weniger Facebook-Nutzung, wenn Freunde zu negativ posten?

Wenige Tage. nachdem die ersten Medienberichte über das Experiment veröffentlicht und Kritik an den ethischen Fragen einer solchen Manipulation aufgeworfen wurden, meldete sich der von Facebook für das Experiment abgestellte Mitarbeiter öffentlich zu Wort. In einem (mittlerweile gelöschten) Facebook-Post gab Andrew D. I. Kramer einen Einblick in die Beweggründe für das Sozial-Experiment: „Wir hatten das Gefühl, dass es wichtig ist zu untersuchen, ob die häufige Sorge zutrifft, dass Menschen sich schlecht oder ausgeschlossen fühlen, wenn sie die positiven Postings ihrer Freunde sehen. Gleichzeitig waren wir besorgt, dass unsere Nutzer seltener Facebook besuchen, wenn ihre Freunde zu negativ posten.“ Kramer entschuldigte sich im nächsten Satz noch, dass man diese Motivation hinter dem Experiment nicht klargemacht hätte. Es ist allerdings zu vermuten, dass das kein Versehen war.

Diese Offenlegung führte zwangsläufig zu der Frage, was Facebook für den Fall plante, dass das Experiment diese Sorge bestätigt hätte: nämlich, dass die Nutzer sich seltener bei Facebook einloggen, wenn sie mit zu viel Negativität konfrontiert werden. Dann gäbe es zwei Möglichkeiten: den Laden dichtmachen oder die Negativität mittels Algorithmen aus dem News Feed herausfiltern.

Dass die zweite Möglichkeit überhaupt besteht, ist das Problem, über das nun dringend geredet werden muss. Die Macht von Algorithmen über unsere Informationsarchitektur ist nicht neu. Bereits 2011 veröffentlichte der amerikanische Politikwissenschaftler und Internet-Aktivist Eli Pariser sein zum Standardwerk avanciertes Debüt „The Filterbubble: „What the Internet is Hiding from You“ (deutsche Ausgabe: „Filter Bubble: Wie wir im Internet entmündigt werden“).

Schon damals formulierte er die Theorie, dass wir uns in den sozialen Netzwerken in Blasen unserer eigenen Vorlieben bewegen. Google weiß, was Nutzer mögen – und bietet ihnen davon eine Auswahl an. Facebook wirbt mit dem Slogan: „Mach Facebook zu deinem Facebook. Mit mehr von dem, was dir gefällt. Und weniger von allem anderen.“ Gekoppelt mit News werden die Algorithmen des Silicon Valley so zu einer Art Perpetuum mobile der Meinungsmache.

Am Beispiel des Vietnamkriegsfotos

Allein 62 Prozent der Amerikaner haben 2016 ihre Nachrichten über soziale Netzwerke bezogen, wie eine gerade viel zitierte Studie des Pew Research Centers festgestellt hat. Und damit werden deren Algorithmen zu ernst zu nehmenden Playern im News-Business, der Facebook News Feed so zu einem über allem schwebenden Gatekeeper, der entscheidet, welche Informationen an welchen Nutzer ausgespielt werden, wer was zu lesen bekommt. Ein Gatekeeper, programmiert in einem Großraumbüro in Kalifornien, angewendet in der ganzen Welt.

Die Frage, der sich deshalb alle stellen müssen: Wie gehen wir damit um, dass es heute immer öfter Tech-Unternehmen sind, die zum Rückgrat der Informationsgesellschaft werden? Und dass diese Unternehmen Inhalte unter der Haube ihres Codes sortieren, gewichten – und sogar löschen könnten?

Als kürzlich ein Facebook-Posting der Tageszeitung „Aftenposten“ mit dem Foto des Napalm-Opfers Phan Thi Phuc im Vietnamkrieg nach einem vermeintlichen Verstoß gegen die Richtlinien des sozialen Netzwerks gelöscht wurde, bedachte Chefredakteur Espen Egil Hansen Facebook-Chef Zuckerberg mit einem vergifteten Kompliment. In einem offenen Brief schrieb er „Du bist der mächtigste Herausgeber der Welt (...) Und ich finde, du missbrauchst diese Macht.“

Auch wenn der Rückgriff auf traditionelle Denkmuster auf dem Feld der sozialen Netzwerke nicht weiterhilft („Herausgeber“), so liegt in den Sätzen von Espen Egil Hansen die Lösung verborgen. Denn es gibt nur ein Gegenmittel, um Machtmissbrauch zu verhindern: Transparenz.

Algorithmen sind die Coca-Cola-Rezeptur des Internet-Zeitalters

Der verstorbene „FAZ“-Herausgeber Frank Schirrmacher schrieb bereits 2009: „Nerds haben die Drehbücher unserer Kommunikation, (...) unseres Denkens geschrieben. Sie sind die größte Macht der modernen Gesellschaft. Ihre Texte verstehen Außenstehende nicht, obwohl sich alle nach ihnen richten, und sei es, wenn sie Suchbefehle bei Google eingeben.“ Und aus heutiger Sicht etwas zu optimistisch, fügte Schirrmacher an: „Es waren die Nerds, die als Erste erkannten, dass deshalb die Codes offen sein müssten, überprüfbar und zumindest lesbar für die anderen Nerds.“

Doch bei Facebook, Google & Co. ist nichts überprüfbar. Die Algorithmen der großen Tech-Konzerne sind zur Coca-Cola-Rezeptur des Internet-Zeitalters geworden – unter Verschluss, Geschäftsgeheimnis. Doch diese Codes bilden heute den Grundriss der Informationsarchitektur, auf ihnen ist das Fundament des News-Zeitalters aufgebaut. Sie muss man verstehen, einsehen und ja, vielleicht sogar anpassen können, um sich weiter selbstbestimmt in den sozialen Netzwerken bewegen zu können.

Man stelle sich beispielsweise künftig ein Rädchen an unserem persönlichen Facebook-Profil vor, das der Nutzer – etwa bezogen auf seine politische Einstellung – nach Belieben nach rechts und links bewegen kann, um zu sehen, welche Ansichten auf der anderen Seite des Meinungsspektrums gelesen werden. Das garantiert nicht, dass solch ein Tool genutzt wird. Darum geht es aber auch nicht. Es geht darum, dass es genutzt werden kann.

Das wäre der erste Schritt zur, im Zeitalter der sozialen Netzwerke, so bitter notwendigen Medienkompetenz. Heute, da alle Publizisten sind, müssen auch alle die Grundmechanismen des Publizierens verstehen: Dass Veröffentlichen auch immer Weglassen heißt, dass, wer gewichtet, auch gleichzeitig wertet. Wir brauchen die Kontrolle zurück. Wer das verinnerlicht, kann das Perpetuum mobile stoppen.

5 Kommentare

Neuester Kommentar
      Kommentar schreiben