Ohne Schlüsseldaten bleibt das Problem der Fehlinformationen in den sozialen Medien unscharf

Bild: kalhh/Pixabay.com

Facebook hat ein Problem mit Fehlinformationen und blockiert den Zugang zu Daten darüber, wie viele es gibt und wer davon betroffen ist.

Geleakte interne Dokumente deuten darauf hin, dass Facebook – das sich kürzlich in Meta umbenannt hat – bei der Minimierung von COVID-19-Impfstoff-Fehlinformationen auf der Facebook-Soziale-Netzwerk-Plattform weitaus schlechter abschneidet, als es behauptet.

Online-Fehlinformationen über das Virus und Impfstoffe sind ein großes Problem. In einer Studie zeigte sich, dass Befragte, die ihre Informationen ganz oder teilweise von Facebook bezogen, den COVID-19-Impfstoff mit deutlich höherer Wahrscheinlichkeit ablehnten als diejenigen, die ihre Informationen aus den Mainstream-Medien bezogen.

Als Wissenschaftler, der sich mit sozialen und zivilgesellschaftlichen Medien beschäftigt, halte ich es für äußerst wichtig zu verstehen, wie sich Fehlinformationen online verbreiten. Aber das ist leichter gesagt als getan. Wenn man einfach nur die Fälle von Fehlinformationen zählt, die auf einer Social-Media-Plattform gefunden wurden, bleiben zwei wichtige Fragen unbeantwortet: Wie wahrscheinlich ist es, dass die Nutzer auf Fehlinformationen stoßen, und sind bestimmte Nutzer besonders häufig von Fehlinformationen betroffen? Diese Fragen sind das Nennerproblem und das Verteilungsproblem.

Die COVID-19-Fehlinformationsstudie „Facebook’s Algorithm: a Major Threat to Public Health“ (Facebooks Algorithmus: eine große Bedrohung für die öffentliche Gesundheit), die von der Interessengruppe Avaaz im August 2020 veröffentlicht wurde, berichtete, dass die Quellen, die häufig Gesundheitsfehlinformationen verbreiteten – 82 Websites und 42 Facebook-Seiten – eine geschätzte Gesamtreichweite von 3,8 Milliarden Aufrufen innerhalb eines Jahres hatten.

Auf den ersten Blick ist das eine erstaunlich hohe Zahl. Es ist jedoch wichtig, sich daran zu erinnern, dass dies der Zähler ist. Um zu verstehen, was 3,8 Milliarden Aufrufe in einem Jahr bedeuten, muss man auch den Nenner berechnen. Der Zähler ist der Teil eines Bruchs, der über dem Strich steht und durch den Teil des Bruchs unter dem Strich, den Nenner, geteilt wird.

Etwas Perspektive gewinnen

Ein möglicher Nenner sind 2,9 Milliarden monatlich aktive Facebook-Nutzer. In diesem Fall hat jeder Facebook-Nutzer im Durchschnitt mindestens eine Information aus diesen Gesundheits-Fehlinformationsquellen erhalten. Es handelt sich jedoch um 3,8 Milliarden Inhaltsaufrufe, nicht um einzelne Nutzer. Mit wie vielen Informationen kommt der durchschnittliche Facebook-Nutzer in einem Jahr in Berührung? Facebook gibt diese Information nicht preis.

Marktforscher schätzen, dass Facebook-Nutzer zwischen 19 Minuten pro Tag und 38 Minuten pro Tag auf der Plattform verbringen. Wenn die 1,93 Milliarden täglich aktiven Nutzer von Facebook im Durchschnitt 10 Beiträge pro Tag sehen – eine sehr konservative Schätzung -, beträgt der Nenner für diese 3,8 Milliarden Informationen pro Jahr 7,044 Billionen (1,93 Milliarden tägliche Nutzer mal 10 tägliche Beiträge mal 365 Tage im Jahr). Das bedeutet, dass etwa 0,05 % der Inhalte auf Facebook von diesen verdächtigen Facebook-Seiten gepostet werden.

Die Zahl von 3,8 Milliarden Aufrufen umfasst alle Inhalte, die auf diesen Seiten veröffentlicht werden, einschließlich harmloser Gesundheitsinhalte, so dass der Anteil der Facebook-Posts, bei denen es sich um Fehlinformationen zum Thema Gesundheit handelt, weniger als ein Zwanzigstel eines Prozents beträgt.

Ist es besorgniserregend, dass es so viele Fehlinformationen auf Facebook gibt, dass wahrscheinlich jeder schon einmal damit in Berührung gekommen ist? Oder ist es beruhigend, dass 99,95 % dessen, was auf Facebook geteilt wird, nicht von den Seiten stammt, vor denen Avaaz warnt? Weder noch.

Verteilung von Fehlinformationen

Neben der Schätzung eines Nenners ist es auch wichtig, die Verteilung dieser Informationen zu berücksichtigen. Ist die Wahrscheinlichkeit, dass alle auf Facebook auf Gesundheitsfehlinformationen stößt, gleich groß? Oder sind Personen, die sich als Impfgegner identifizieren oder nach „alternativen Gesundheitsinformationen“ suchen, eher mit dieser Art von Fehlinformationen konfrontiert?

Eine andere Studie über soziale Medien, die sich auf extremistische Inhalte auf YouTube konzentriert, bietet eine Methode zum Verständnis der Verbreitung von Fehlinformationen. Anhand der Browserdaten von 915 Internetnutzern rekrutierte ein Team der Anti-Defamation League eine große, demografisch unterschiedliche Stichprobe von Internetnutzern in den USA und wählte zwei Gruppen aus: Vielnutzer von YouTube und Personen, die bei einer Reihe von Fragen, die von den Forschern gestellt wurden, starke negative rassistische oder geschlechtsspezifische Vorurteile zeigten. Oversampling bedeutet, dass eine kleine Teilmenge einer Population häufiger befragt wird als ihr Anteil an der Population, um Daten über die Teilmenge besser zu erfassen.

Die Forscher fanden heraus, dass 9,2 % der Teilnehmer in den von der Studie erfassten Monaten mindestens ein Video eines extremistischen Kanals und 22,1 % mindestens ein Video eines alternativen Kanals angesehen haben. Ein wichtiger Hinweis in diesem Zusammenhang: Eine kleine Gruppe von Personen war für die meisten Aufrufe dieser Videos verantwortlich. Und mehr als 90 % der Aufrufe von extremistischen oder „alternativen“ Videos wurden von Personen getätigt, die in der Umfrage vor der Studie ein hohes Maß an rassistischen oder geschlechtsspezifischen Ressentiments zeigten.

Während ungefähr 1 von 10 Personen extremistische Inhalte auf YouTube und 2 von 10 Personen Inhalte von rechtsextremen Provokateuren gefunden haben, sind die meisten Personen, die auf solche Inhalte gestoßen sind, an ihnen „abgeprallt“ und haben sich anderweitig umgesehen. Die Gruppe, die extremistische Inhalte fand und mehr davon suchte, waren Menschen, die vermutlich ein Interesse daran hatten: Menschen mit stark rassistischen und sexistischen Einstellungen.

Die Autoren kamen zu dem Schluss, dass sich „der Konsum dieser potenziell schädlichen Inhalte auf Amerikaner konzentriert, die ohnehin schon rassistische Ressentiments hegen“, und dass die Algorithmen von YouTube dieses Muster möglicherweise noch verstärken. Mit anderen Worten, wenn man nur den Anteil der Nutzer kennt, die auf extreme Inhalte stoßen, weiß man nicht, wie viele Menschen diese Inhalte konsumieren. Dazu muss man auch die Verteilung kennen.

Superspreader oder Whack-a-mole?

Eine viel beachtete Studie der Anti-Hate Speech Advocacy Group Center for Countering Digital Hate mit dem Titel Pandemic Profiteers zeigte, dass von 30 untersuchten Anti-Impf-Facebook-Gruppen 12 Anti-Impf-Prominente für 70 % der in diesen Gruppen verbreiteten Inhalte verantwortlich waren, und die drei prominentesten für fast die Hälfte. Aber auch hier ist es wichtig, nach dem Nenner zu fragen: Wie viele Anti-Impf-Gruppen gibt es auf Facebook? Und wie viel Prozent der Facebook-Nutzer stoßen auf die Art von Informationen, die in diesen Gruppen verbreitet werden?

Ohne Informationen über die Nenner und die Verteilung verrät die Studie zwar etwas Interessantes über diese 30 Anti-Impf-Facebook-Gruppen, aber nichts über medizinische Fehlinformationen auf Facebook als Ganzes.

Diese Art von Studien wirft die Frage auf: „Wenn Forscher diese Inhalte finden können, warum können die Social-Media-Plattformen sie dann nicht identifizieren und entfernen?“ Die Pandemic Profiteers-Studie, die davon ausgeht, dass Facebook 70 % des medizinischen Fehlinformationsproblems lösen könnte, indem es nur ein Dutzend Konten löscht, spricht sich ausdrücklich dafür aus, diese Desinformationshändler von der Plattform zu entfernen. Ich habe allerdings herausgefunden, dass 10 der 12 in der Studie genannten Anti-Impf-Influencer bereits von Facebook gesperrt wurden.

Nehmen wir Del Bigtree, einen der drei prominentesten Verbreiter von Desinformationen über Impfungen auf Facebook. Das Problem ist nicht, dass Bigtree auf Facebook neue Anhänger der Impfgegner rekrutiert, sondern dass Facebook-Nutzer Bigtree auf anderen Websites folgen und seine Inhalte in ihre Facebook-Gemeinschaften bringen. Es sind nicht 12 Einzelpersonen und Gruppen, die Fehlinformationen zum Thema Gesundheit online stellen – es sind wahrscheinlich Tausende von einzelnen Facebook-Nutzern, die Fehlinformationen weitergeben, die sie an anderer Stelle im Internet gefunden haben und die von diesen Dutzend Personen verbreitet werden. Es ist viel schwieriger, Tausende von Facebook-Nutzern zu verbieten als 12 Anti-Impf-Promis.

Deshalb sind Fragen des Nenners und der Verteilung von entscheidender Bedeutung für das Verständnis von Fehlinformationen im Internet. Anhand von Nenner und Verteilung können Forscher die Frage stellen, wie häufig oder selten Verhaltensweisen online sind und wer diese Verhaltensweisen an den Tag legt. Wenn Millionen von Nutzern nur gelegentlich auf medizinische Fehlinformationen stoßen, könnten Warnhinweise eine wirksame Maßnahme sein. Wenn medizinische Fehlinformationen jedoch hauptsächlich von einer kleineren Gruppe konsumiert werden, die aktiv nach diesen Inhalten sucht und sie weitergibt, sind diese Warnhinweise höchstwahrscheinlich nutzlos.

Die richtigen Daten erhalten

Der Versuch, Fehlinformationen zu verstehen, indem man sie zählt, ohne sich über Nenner oder Verteilung Gedanken zu machen, ist das, was passiert, wenn gute Absichten mit schlechten Werkzeugen kollidieren. Keine Social-Media-Plattform ermöglicht es Forschern, genau zu berechnen, wie verbreitet ein bestimmter Inhalt auf ihrer Plattform ist.

Facebook beschränkt die meisten Forscher auf sein Crowdtangle-Tool, das Informationen über die Beschäftigung mit Inhalten weitergibt, aber das ist nicht dasselbe wie die Aufrufe von Inhalten. Twitter verbietet es Forschern ausdrücklich, einen Nenner entweder für die Anzahl der Twitter-Nutzer oder für die Anzahl der an einem Tag geteilten Tweets zu berechnen. YouTube macht es so schwierig herauszufinden, wie viele Videos auf seinem Dienst gehostet werden, dass Google routinemäßig Bewerber für Vorstellungsgespräche bittet, die Anzahl der gehosteten YouTube-Videos zu schätzen, um ihre quantitativen Fähigkeiten zu bewerten.

Die Betreiber von Social-Media-Plattformen haben argumentiert, dass ihre Tools trotz ihrer Probleme gut für die Gesellschaft sind, aber dieses Argument wäre überzeugender, wenn Forscher diese Behauptung unabhängig überprüfen könnten.

Da die gesellschaftlichen Auswirkungen der sozialen Medien immer deutlicher werden, wird der Druck auf die großen Technologieplattformen, mehr Daten über ihre Nutzer und deren Inhalte zu veröffentlichen, wahrscheinlich zunehmen. Wenn diese Unternehmen darauf reagieren, indem sie die Menge der Informationen, auf die Forscher zugreifen können, erhöhen, sollten Sie sehr genau hinschauen: Werden sie Forschern erlauben, den Nenner und die Verteilung von Online-Inhalten zu untersuchen? Und wenn nicht, haben sie Angst davor, was die Forscher finden werden?

Ethan Zuckerman ist Associate Professor für öffentliche Politik, Kommunikation und Information an der University von Massachusetts Amherst. Sein Beitrag ist zuerst auf The Conservation unter der Lizenz CC BY-ND-4.0 erschienen.

Ähnliche Beiträge:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert