zum Hauptinhalt
Nachrichten beziehen aus Facebook?

© Reuters

Fake News: Facebook will Falschmeldungen kennzeichnen

Eine redaktionelle Verantwortung für Inhalte will Facebook zwar nicht übernehmen. Facebook stellt aber vier Maßnahmen vor, um Falschmeldungen einzudämmen.

Fake News sind zum Politikum geworden. Vor allem auf Facebook werden verfälschte, frei erfundene oder hetzerische Meldungen gezielt in Umlauf gebracht, um politische Akteure zu diskreditieren, die öffentliche Meinung zu manipulieren und Stimmung zum Beispiel gegen Flüchtlinge zu machen. Das Unternehmen hat das Problem mittlerweile zumindest als solches anerkannt, CEO Mark Zuckerberg kündigte im November einige Gegenmaßnahmen an. Nun legt Facebook-Manager Adam Mosseri, zuständig für den Bereich Newsfeed, nach.

In einem Blogpost beschreibt er vier Ansätze, mit denen Facebook künftig gegen absichtliche Falschmeldungen vorgehen will. Doch schon in den ersten Sätzen stellt er klar, dass Facebook nicht vorhat, redaktionelle Verantwortung zu übernehmen: "Wir glauben daran, Menschen eine Stimme zu geben, und können nicht selbst Schiedsrichter der Wahrheit werden", schreibt er. "Wir konzentrieren uns auf die schlimmsten der Schlimmen, auf die klaren Fälschungen, die von Spammern verbreitet werden, um daran zu verdienen, und darauf, unsere Community und externe Organisationen einzubinden."

Die erste Maßnahme besteht aus Tests, wie das Melden von Falschmeldungen an Facebook vereinfacht werden könnte. Bisher muss man dafür oben rechts auf einen Inhalt im Newsfeed klicken und "Beitrag melden" auswählen, anschließend stehen drei Begründungen zur Auswahl: "Es ist nervig oder uninteressant", "Es sollte meiner Meinung nach nicht auf Facebook sein" und "Es handelt sich um Spam". Von Falschmeldungen ist nicht die Rede.

Fact-Checker sollen Beiträge prüfen

Wie das in Zukunft aussehen könnte, verrät Mosseri nicht. Möglicherweise werden Nutzer direkt unter einem Beitrag anklicken können, ob sie etwas daran für irreführend halten. Entsprechende Tests laufen jedenfalls derzeit in den USA.

Das vereinfachte Melden allein wäre aber natürlich zu wenig. Irgendetwas muss Facebook mit den Meldungen ja machen. Was, geht aus der zweiten Ankündigung von Mosseri hervor: Inhalte können für alle Nutzer sichtbar als "umstritten" gekennzeichnet werden. "Wir nutzen die Meldungen aus der Community sowie andere Signale, um Beiträge an Fact-Checking-Organisationen weiterzuleiten", schreibt der Facebook-Manager. Unklar ist, was er mit "anderen Signalen" meint. Die Organisationen hingegen sind bekannt. Es sind jene, die im International Fact-Checking Network (IFCN) des Poynter-Instituts versammelt sind.

Stufen die einen Beitrag als Fake ein, wird er auf Facebook als "umstritten" (engl. disputed) markiert und mit einem Link auf die Begründung der Fact-Checker versehen. Derart markierte Beiträge werden zudem im Newsfeed herabgestuft, und sie können auch nicht mehr gegen Bezahlung beworben werden. Sie bleiben allerdings online und können weiterhin geteilt werden. Mosseri schreibt: "Wir glauben, mehr Kontext kann Menschen helfen, selbst zu entscheiden, welchen Inhalten sie trauen und welche sie teilen."

Die dritte Maßnahme betrifft die Gewichtung von Beiträgen im Newsfeed. Facebook hat offenbar festgestellt, dass bestimmte Nutzungsstatistiken ein Zeichen für Fakes oder Irreführung sein können. Die will es testweise in seinen Ranking-Algorithmus integrieren. Mosseri nennt allerdings ein Beispiel, das mehr Fragen aufwirft, als es beantwortet: "Wenn das Lesen eines Artikels dazu führt, dass die Wahrscheinlichkeit, dass Menschen ihn teilen, signifikant sinkt, könnte das ein Zeichen dafür sein, dass er in irgendeiner Hinsicht irreführend ist."

Eigentlich ist der Effekt ja gewünscht: Fake News, die nicht geteilt werden, richten weniger Schaden an, als solche, die viral werden. ZEIT Online hat um Klarstellung gebeten und wird die Antwort gegebenenfalls nachreichen.

EU-Kommission denkt über Transparenzpflichten für Facebook nach

Außerdem wolle man als vierte und vorerst letzte Maßnahme gegen das Geschäftsmodell Fake News vorgehen, schreibt Mosseri. Facebook wolle es Betrügern schwerer machen, sich durch gefälschte Domains als echte Medienorganisationen auszugeben. Außerdem werde das Unternehmen die Seiten von (angeblichen) Verlagen künftig genauer analysieren, um zu erkennen, wer gegen die Nutzungsbedingungen verstößt. (Im Original: "We are analyzing publisher sites to detect where policy enforcement actions might be necessary.")

All das wird zunächst nur in den USA geschehen. Mosseri betont, dies seien nur einige der Dinge, die Facebook jetzt unternehme. Man wolle aus den Tests lernen und die Maßnahmen entsprechend weiterentwickeln und ausbauen.

Es ist allerdings absehbar, dass insbesondere Politiker aus Deutschland und Europa damit nicht zufrieden sein und das Vorgehen als Spiel auf Zeit betrachten werden. Bundesjustizminister Heiko Maas (SPD) denkt schon laut über Haftungsregelungen für Anbieter wie Facebook nach, die in Kraft treten, sobald ein Beitrag gemeldet wurde, sowie über eine "Sitzauflage für Facebook in Deutschland", damit es hier einen verantwortlichen Ansprechpartner gibt. Außerdem hält er gesetzliche Berichtspflichten für möglich. Facebook und andere müssten dann zum Beispiel vierteljährlich offenlegen, wie viele Beiträge gemeldet und wie viele davon gelöscht wurden.

Maas denkt dabei vor allem an strafrechtlich relevante Inhalte wie Bedrohungen, weniger an Fake News. Andere deutsche Politiker befürchten jedoch, dass es im Wahljahr zu gezielten und gesteuerten Desinformationskampagnen kommen wird, und fordern Maas auf, auch in Sachen Fake News aktiv zu werden. Und aus Kreisen der EU-Kommission heißt es, die Einführung einer Transparenzpflicht im Rahmen der bisherigen Selbstverpflichtung der Internetplattformen stehe "im Raum".

Dieser Text erschien zuerst auf ZEIT Online.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false