zum Hauptinhalt

Was darf Facebook?: Nutzer sind sauer über geheimen Psycho-Test

Facebook hat den englischsprachigen Newsfeed seiner Nutzer für einen Psycho-Test manipuliert. Die Netzgemeinde ist empört. Doch darf Facebook das?

Der Protest ist gewaltig. Sie fühlen sich als „Versuchskaninchen“ missbraucht, empören sich zahlreiche Nutzer auf Facebook und Twitter. Was sie so verärgert, ist eine Studie, die Facebook zusammen mit zwei US-Universitäten durchgeführt hat. Ohne sie vorab darüber zu informieren, hat das soziale Netzwerk den sogenannten Newsfeed von rund 700000 Nutzern der englischsprachigen Version manipuliert. Die Studie wurde zwar bereits 2012 durchgeführt, wurde aber erst jetzt bekannt – und könnte das Vertrauen in das soziale Netzwerk weiter schädigen.

Herausgefunden werden sollte mit dem einwöchigen Experiment, ob und wie die angezeigten Nachrichten im so genannten Newsfeed die Gefühle der Nutzer beeinflussen. Der Newsfeed ist so etwas wie eine Pinnwand, quasi im Sekundentakt laufen hier neue Beiträge ein. Freunde posten Fotos, Videos, Artikel oder Kommentare darüber, was sie machen und wie es ihnen geht.

Für das Experiment wurde manchen Mitgliedern mehr positive Beiträge ihrer Freunde im Newsfeed angezeigt, den anderen mehr negative Beiträge. Das Ergebnis: Die Nutzer, die mehr positive Nachrichten sahen, neigten eher dazu, auch selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt.

Experimente wie den Stimmungstest durchzuführen, ist Facebook erlaubt

Die Studie ist damit aus zweierlei Gründen bemerkenswert: Zeigt sie doch zum einen, wie stark Nutzer ihre Stimmung durch das soziale Netzwerk tatsächlich beeinflussen lassen, ohne sich dessen vermutlich bewusst zu sein. Vor allem aber wird durch den Psycho-Test erneut deutlich, dass die Mitglieder für den kostenlosen Dienst am Ende doch bezahlen – und zwar mit ihren Daten.

Denn so groß die Empörung unter den Mitgliedern, so kleinlaut müssen sie eingestehen, dass sie alle bei ihrem Beitritt zum Netzwerk den Datenverwendungsrichtlinien zugestimmt haben. Auch in der deutschen Version heißt es: Die vom Nutzer bereitgestellten Informationen – also alle Beiträge, Fotos, Videos – können „für interne Prozesse“ verwendet werden, wie beispielsweise „Datenanalyse, Tests, Forschung“. Experimente wie den Stimmungstest durchzuführen, ist Facebook demnach erlaubt.

Facebook filtert den Newsfeed seiner Nutzer permanent - die haben eingewilligt

Doch Facebook filtert nicht nur für die abgeschlossene Studie den Newsfeed seiner Nutzer, sondern auch generell. Und zwar permanent. Schließlich zielt das werbefinanziertes Unternehmen darauf ab, die Klickzahlen auf seiner Seite zu optimieren – und will sein Angebot entsprechend attraktiv gestalten.

Damit die Nutzer nicht von den tausenden Beiträgen überfordert oder gar gelangweilt sind, sucht Facebook deshalb diejenigen heraus, die es als relevant für den jeweiligen Nutzer ansieht. Nach welchem Algorithmus genau, gibt das Unternehmen nicht bekannt. Einfluss aber hat beispielsweise, wie oft Beiträge bestimmter Freunde angeklickt oder „geliked“ werden, wie Facebook-Mitarbeiter Lars Backstrom in einem Blog-Post im vergangenen Jahr erklärte. Priorisiert würden dann die Einträge von offensichtlich näher stehenden Freunden.

Einige Nutzer dürften Facebook nun noch skeptischer bewerten

Auch die nun bekannt gewordene Stimmungs-Studie rechtfertigt Facebook damit, den Nutzern einen besseren Service bieten zu wollen. Man habe die Sorge überprüfen wollen, dass Menschen sich ausgeschlossen fühlten, wenn sie positive Nachrichten ihrer Freunde sehen, teilte Adam Kramer mit, der an der Studie mitgearbeitet hat. Zudem habe es zuvor Bedenken gegeben, dass viele negative Einträge von Freunden die Nutzer veranlassen könnten, Facebook zu meiden – und genau das will das Netzwerk ja verhindern.

Ob diese Rechnung aufgeht, ist nach der Wutwelle über das heimliche Experiment fraglich. Einige Nutzer dürften Facebook nun noch skeptischer bewerten. Im schlimmsten Fall erreicht das Netzwerk das Gegenteil, nämlich dass Nutzer aus Protest austreten. „Ich verstehe, dass die Leute ihre Bedenken haben. Aber ich glaube, dass ihr Problem eher Facebook selbst ist und nicht die Studie“, zitierte das US-Magazin „The Atlantic“ die Psychologieprofessorin Susan Fiuske, die an der Studie mitgeschrieben hat.

Facebook bedauert inzwischen das Vorgehen, wie Kramer schreibt: „Rückblickend haben die Erkenntnisse der Studie die ausgelösten Ängste vielleicht nicht gerechtfertigt“.

Zur Startseite