zum Hauptinhalt

Gleichmacher im Internet: Das könnte Ihnen auch gefallen

Praktisch oder gefährlich? Im Netz entscheiden zunehmend Algorithmen darüber, was wir sehen.

Ein Gespenst geht um im Internet. Die bösen Mächte Google und Facebook haben es auf den Weg gebracht, jetzt schwirrt es umher, um uns die Sicht zu vernebeln. Es ist die berüchtigte Weltblickverengung.

Halt, Moment, auf Anfang: Die Geschichte beginnt mit Nicholas Negroponte, Begründer des „Media Lab“ am Massachusetts Institute of Technology (MIT) und langjähriger Kolumnist der Zeitschrift „Wired“. Er hatte bereits Mitte der 1990er Jahre eine Vision zum Thema Zeitungen. Warum sich immer mit den Artikeln rumärgern, die einen nicht interessieren. In einer durchdigitalisierten Welt wird das nicht mehr nötig sein, schrieb er in seinem Bestseller „Total digital“, da kommen nur noch die Inhalte ins Haus, die man wirklich lesen möchte. „Nennen Sie das Blatt einfach ,Meine Allgemeine’.“

Fünfzehn Jahre später scheint „Meine Allgemeine“ zum Greifen nah. Der Hinweis „Das könnte Ihnen auch gefallen“ ist zu einem der wichtigsten Wegweiser durchs Internet geworden. Seine persönlichen Präferenzen muss der Nutzer dazu gar nicht mitteilen. Es reicht, wenn er Konten eröffnet oder Cookies zulässt. Den Rest besorgen Statistiken und Datenbanken. Bei Amazon funktioniert das immer noch lächerlich simpel, nach dem Motto: einmal Kochbuch, immer Kochbuch. Auf anderen Plattformen verläuft die Vorauswahl dagegen oft unbemerkt. Facebook zum Beispiel gewichtet Meldungen von Freunden seit zwei Jahren ungefragt nach „Relevanz“. Das funktioniert so: Klickt man nie auf die Mitteilungen von Freund A, kann es sein, dass dieser irgendwann aus dem eigenen Nachrichtenstrom verschwindet. So innig kann die Freundschaft wohl nicht sein, scheint der Algorithmus zu schlussfolgern.

Wo Aufmerksamkeit wertvoll und knapp ist, spricht eigentlich nichts gegen solche personalisierten Feinjustierungen. Außerdem können es sich die Onlinedienste schlicht nicht leisten, Nutzer mit uninteressanten Inhalten zu langweilen. Gute Empfehlungen oder passende Links versprechen hohe Durchklickraten, lange Verweildauer, breite Zufriedenheit. Sprich: ideales Werbeumfeld.

Um das herzustellen, passt auch Google seine Ergebnislisten zunehmend individuell an. Dabei werden mehrere Faktoren berücksichtigt: das bisherige Such- und Klickverhalten des jeweiligen Nutzers, sein geografischer Standort und neuerdings auch die Vorlieben seines sozialen Umfelds. Facebook hat vorgemacht, wie man den kollektiven Geschmack abbildet und kanalisiert, unter anderem mit dem „Gefällt mir“-Button, der vor gut einem Jahr eingeführt wurde und mittlerweile auf 2,5 Millionen Websites weltweit implementiert ist. Jetzt hat Google nachgezogen, seit kurzem können angemeldete Nutzer auch dort Webseiten ihres Vertrauens mit einem „+1“-Klick adeln. Freunde und Bekannte, mit denen man über Google-Dienste vernetzt ist, bekommen diese Empfehlungen dann in ihren Suchergebnissen angezeigt: Anbieter für Städtereisen? Diesen hier fand der Bürokollege gut. Und jenen mochte die Schwiegermutter.

Im Bereich Unterhaltung und Konsum haben Bekanntenkreise schon immer diese Empfehlungsfunktion erfüllt. Dass große Plattformen den sozialen Vorgang nachzubilden versuchen, um ihn in ihr Geschäftsmodell zu integrieren, scheint nur konsequent. Ob man das schätzt oder ablehnt ist Privatsache.

Trotzdem mehren sich die kritischen Stimmen. Die Sorge gilt nicht dem Datenschutz – sondern der Demokratie. Was, wenn die Empfehlung sich flächendeckend als mediales Filterprinzip durchsetzt? Und auch politische Meinungsbildung bald nur noch innerhalb von geschlossenen Link-Zirkeln stattfindet? Wenn Google entscheidet, welche Nachrichten mich vermutlich sowieso nicht interessieren, wenn Facebook Bekanntschaften unterschlägt, die selten meiner Meinung sind? Kurz: Wenn abweichende, streitbare, weniger populäre Perspektiven für den einzelnen Nutzer immer unsichtbarer, immer schwerer auffindbar werden. Weil alles, was man mir im Netz vorsetzt, immer schon auf meine dreieinhalb Interessensgebiete zugeschnitten ist. Und ich nicht überblicken kann, wer was warum von mir fernhält.

Die Diskussion ist nicht neu, gerade aber wieder entbrannt. Meistzitiert ist dabei der politische Aktivist Eli Pariser und sein kürzlich erschienenes Buch „The Filter Bubble“. Inhaltlich knüpft Pariser an die Thesen von Cass R. Sunstein („Infotopia“ und „republic.com 2.0“) an. Sunstein warnt schon länger vor der Entstehung von Informationskokons, „in denen wir nur noch das zu hören bekommen, was wir auswählen und was uns beruhigt oder zusagt“. Seine Botschaft: Informationelle Schlagseite ist gefährlich fürs Gemeinwohl. Pariser fordert deshalb so etwas wie einen öffentlich-rechtlichen Informationsauftrag für Marktführer wie Google und Facebook. „Wir brauchen das Internet, damit es uns mit neuen Ideen konfrontiert, uns unterschiedliche Perspektiven aufzeigt.“

Die Fronten scheinen also klar, Täter und Opfer ausgemacht: Hier die allmächtigen Algorithmen-Programmierer, die die Blicke der Massen lenken, am liebsten entlang individualisierter Gefälligkeitspfade. Dort der in seiner kleinen Wahrnehmungsblase gefangene Nutzer, unmündig wider Willen – und zunehmend manipuliert vom tendenziösen Geflüster seiner Suchmaschine oder seines sozialen Netzwerks. Dass in solchen sich selbst verstärkende Echoräumen nur Böses gedeihen kann, nämlich Engstirnigkeit und Radikalismus, versteht sich.

Soweit die Thesen. Argumentativ unterfüttert werden sie nicht mit einem Bonmot von Ex-Google-Chef Eric Schmidt, sondern mit einem vermeintlichen Mark-Zuckerberg-Zitat: „Ein Eichhörnchen, das vor deinem Haus stirbt, „könnte für dich im Moment interessanter sein als sterbende Menschen in Afrika.“ Kolportiert hat den Satz David Kirkpatrick in seinem 2010 erschienenen Buch „The Facebook Effect“. Mittlerweile dient die Episode als Grundlage ganzer Verschwörungstheorien.

Dabei hat Zuckerberg mediengeschichtlich nicht unrecht. Mit lokalen Tiergeschichten war schon immer mehr Quote zu machen als mit Elend auf fernen Kontinenten, nicht erst seit Knut, nicht erst seit dem Internet. Die Gefahren diskursiver Verengung sind also möglicherweise für den durchschnittlichen Mediennutzer seit Facebook weder kleiner noch größer geworden, sie lagen ohnehin schon immer im Auge des Betrachters. Abgesehen davon: Auch der Prenzlauer Berg ist eine Wahrnehmungsblase, auch RTL2 kann man Sichtfeldbeschränkung vorwerfen.

Und noch eine beruhigende Nachricht: Auch wenn Medienkompetenz gelegentlich mit dem Klicken auf die ersten drei Suchmaschinen-Treffer verwechselt wird – statistisch gesehen ist selbst Google noch weit vom universellen Nachrichtenmonopol entfernt. Über zehn Stunden verbringt der Bundesbürger täglich mit diversen Informationsquellen, morgens hört er Radio, abends sieht er fern, zwischendurch wird in Printprodukten geblättert. Alles jeweils mehrere Stunden lang. Und die Zahlen sind keineswegs rückläufig.

Man tut übrigens auch Nicholas Negroponte unrecht, wenn man ihn nur als Vordenker der personalisierten Zeitung zitiert. Er empfahl nämlich einen Knopf am Bildschirm, mit dem man den Grad der Personalisierung einfach rauf- oder runterdrehen könnte, je nach Stimmung, Tageszeit oder Suchgegenstand. Auch zum Thema einseitige Berichterstattung hatte er einen Vorschlag: „Denkbar wäre ein Schieberegler, der sich – im wahrsten Sinne des Wortes wie auch politisch – von links nach rechts bewegen lässt.“ Wenn das nicht eine gute Idee für eine App ist.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false