Von Corona-Lügen überflutet

Millionen Menschen sehen auf Facebook Desinformation über das Coronavirus. Eine Studie zeigt, dass die Plattform den Kampf gegen die Infodemie zu verlieren droht.

Radikale Ideologen der QAnon-Bewegung streuten die Links in geschlossenen Facebook-Gruppen. Ende Juli brauchte Facebook viele Stunden, bis es ein weiteres Video entfernte, das gefährliche Fehlinformationen enthält und das Virus verharmlost. Doch es gibt Lösungsvorschläge  Von Simon Hurtz, Süddeutsche vom 20. August

Mehr…

Den angeblich so intelligenten Algorithmen war offenbar nicht aufgefallen, dass Millionen Menschen die Desinformation wie wild teilten.

Beide Beispiele stützen die These eines Berichts, den die spendenfinanzierte und seit Jahren mit dem Thema befasste Kampagnen-Plattform Avaaz am Mittwoch veröffentlicht hat. „Facebooks Algorithmus: Eine große Gefahr für die öffentliche Gesundheit“ überschreibt die Organisation die Untersuchung. „Facebook versucht zwar, Fehlinformationen zu bekämpfen“, sagt Kampagnendirektor Christoph Schott. „Trotzdem erreichen Seiten, die immer wieder Lügen und Verharmlosungen über das Coronavirus verbreiten, ein Millionenpublikum.“ Im vergangenen Jahr habe ein Netzwerk aus Seiten, die regelmäßig gefährliche Desinformation über Gesundheitsthemen teilen, rund 3,8 Milliarden Abrufe erzielt.

Allerdings muss man die Zahl vorsichtig behandeln. Zum einen ist sie nur ein grober Schätzwert. Facebook zeigt nicht genau an, wie viele Nutzer ein Posting in ihrer Timeline sehen, Avaaz hat den Wert aus anderen Zahlen abgeleitet. Zum anderen beziehen sich die 3,8 Milliarden auf sämtliche Inhalte, die das Netzwerk aus 82 Webseiten und 42 Facebook-Seiten verbreitet hat. Darunter sind auch Artikel, die gar nichts mit dem Virus oder anderen Gesundheitsthemen zu tun haben. Die Zahl beschreibt also die Gesamtreichweite des Netzwerks, nicht aber die Verbreitung einzelner Beiträge.

Facebook nennt die Methodik auf Nachfrage hypothetisch und ungenau. Außerdem verkenne Avaaz die Gegenmaßnahmen, die Facebook schon eingeleitet habe. Zwischen April und Juni habe man rund sieben Millionen Beiträge gelöscht, die gefährliche Fehlinformationen über das Virus verbreiteten. Mehr als zwei Milliarden Menschen seien auf Informationen seriöser Gesundheitsorganisationen wie der WHO geleitet worden.

Schott verteidigt seine Hochrechnung mit Verweis auf die russische Desinformationskampagne im US-Wahlkampf 2016: „Die haben ja auch nicht ausschließlich Stimmung gegen Clinton gemacht, sondern sich mit anderen Inhalten eine große Reichweite aufgebaut und dann immer wieder Propaganda eingestreut.“ Netzwerke für Desinformation existierten oft seit Jahren, seien strategisch aufgebaut und miteinander verknüpft worden. Die Akteure helfen einander gegenseitig, bestimmte Artikel zu verbreiten. Teils wurden Inhalte, die Facebook gelöscht hatte, anderswo leicht abgewandelt neu veröffentlicht oder übersetzt. Diese Kopien fallen durch Facebooks Raster und erreichen teils mehr Menschen als der ursprüngliche Beitrag.

Auch Frank Ulrich Montgomery, Präsident des Weltärztebundes, sieht die Plattformen in der Pflicht. „Das Problem betrifft nicht nur Facebook, sondern auch Youtube und eigentlich alle sozialen Netzwerke“, sagt er. „Es geht gar nicht nur um die Menschen, die völlig absurde Verschwörungserzählungen über Bill Gates glauben. Die kann man nicht ernst nehmen.“ Sorgen bereiteten ihm vor allem zwei Gruppen: „Das sind einmal die Impfverweigerer, die das Leben ihrer Kinder riskieren. Und jene Menschen, die daran zweifeln, dass Covid-19 gefährlich ist und etwa irreführende Vergleiche mit der Grippe verbreiten. Wenn solche Behauptungen einmal viral gehen, kann die Wissenschaft fast nichts tun, um das wieder einzufangen.“

Avaaz macht zwei Lösungsvorschläge: „Correct the record“ und „Detox the Algorithm“. Seit April blendet Facebook Nutzern Hinweise ein, wenn sie zuvor mit Beiträgen interagiert hatten, die Fehlinformationen über Covid-19 enthalten. Diese Warnungen müssten spezifischer werden und mehr Menschen angezeigt werden, fordert Avaaz. Bislang verweist Facebook allgemein auf die WHO, ohne Nutzern zu sagen, warum sie den Hinweis sehen, welchen Inhalt sie zuvor gelikt oder geteilt haben und warum Behauptungen falsch sind. „Jede Untersuchung zu diesem Thema zeigt, dass konkrete Korrekturhinweise helfen können“, sagt Schott. „Menschen glauben den Fehlinformationen dann deutlich seltener.“ Außerdem sei die Zielgruppe, die informiert wird, zu klein. „Ich verstehe ja, dass Facebook diese Hinweise zurückhaltend einsetzt, weil sie den Platz für Anzeigen wegnehmen“, sagt Schott. „Aber überlegen Sie doch mal selbst: Wie oft klicken Sie wirklich auf ‚Gefällt mir‘? Den Großteil der Beiträge sieht man nur, ohne damit zu interagieren. Auch diese Menschen sollte Facebook nachträglich warnen und Richtigstellungen anzeigen.“

Die zweite Forderung betrifft Facebooks Empfehlungsalgorithmen, die Nutzern automatisiert Inhalte vorschlagen – darunter Videos wie den „Plandemic“-Clip und extremistische Propaganda. Oft funktionieren solche Inhalte sogar besonders gut, weil sie emotional wirken und Menschen zum Teilen verleiten. Der Algorithmus verschafft den Beiträgen dann zusätzliche Aufmerksamkeit. Zwar wertet Facebook Seiten ab, die wiederholt Inhalte teilen, die unabhängige Faktenprüfer als falsch einstufen. „Wie genau diese Drosselung funktioniert, wann sie greift, und wer davon betroffen ist, bleibt aber völlig intransparent“, sagt Schott.

Dass Facebook aus Fehlern lernt, zeigt ein Video, das in der Nacht auf Mittwoch veröffentlicht wurde. Es ist der direkte Nachfolger des ersten „Plandemic“-Teils und enthält zahlreiche Lügen. Diesmal zögerte Facebook nicht, sondern reagierte: Es blockiert sämtliche Links auf das Video. Statt Millionen Menschen erreicht der Clip bislang nur ein paar Zehntausend – die vermutlich ohnehin nicht mehr für wissenschaftliche Argumente empfänglich sind. 

Weniger…