Twitter, Facebook und Instagram Weniger Falschmeldungen in sozialen Netzwerken

Eine Forschungsgruppe der Uni Bremen hat einen Mechanismus erprobt, mit dem sich das Weiterverbreiten von Fake News in sozialen Medien eindämmen ließe. Benjamin Schüz erklärt, wie die Funktion aussehen könnte.
13.01.2022, 06:00
Lesedauer: 4 Min
Zur Merkliste
Weniger Falschmeldungen in sozialen Netzwerken
Von Patricia Friedek

Herr Schüz, der Kampf gegen Falschinformationen im Internet ist ein hartnäckiger. Es gab in der Vergangenheit schon viele Versuche, die Verbreitung von Fake News in sozialen Netzwerken einzudämmen. Was unterscheidet Ihren von den anderen?

Benjamin Schüz: Das Spannende bei unserem Ansatz ist, dass wir nicht so sehr auf den Inhalt der Beiträge in sozialen Netzwerken eingehen. Uns interessiert das Teilen und das Weiterleiten von Informationen – und das vor allem als soziale Handlung. Wir haben die sozialen Prozesse, die für das Funktionieren von Twitter, Facebook oder Instagram so wichtig sind, um eine gezielte Rückmeldung zum Nicht-Weiterleiten erweitert: Nutzerinnen und Nutzer sehen nicht nur, was Freunde und Bekannte „liken“ oder teilen. In unserer Studie bekamen sie zurückgemeldet, wie oft Inhalte zwar gesehen, aber dann nicht geteilt oder mit einem „gefällt mir“ markiert wurden. Unsere Studienteilnehmer schätzten es infolgedessen als weniger akzeptiert ein, irreführende Informationen weiterzuleiten.

Wie kann man sich diese Funktion genau vorstellen?

Wenn man etwa auf Twitter aktiv ist, bekommt man die Benachrichtigung, wie häufig ein Post mit "gefällt mir" markiert wurde. Wir machen nichts anderes, als dieses Prinzip umzudrehen: Die Beiträge werden also mit dem Hinweis versehen, dass die Meldung beispielsweise 1000 Mal angesehen, aber nur 20 Mal geteilt worden ist. Wir haben für unsere Studie Falschinformationen in die normalen Twitter-Feeds unserer Studienteilnehmer eingespült und sie dann mit dieser zusätzlichen Information versorgt. Besonders gut funktionierte der Effekt in Kombination mit dem Hinweis, der sowieso seit einiger Zeit bei Twitter bei Verdacht auf Falschinformationen erscheint: Er warnt Nutzer davor, es könnte sich um Fake News handeln. Der reicht aber häufig nicht aus, um eine Weiterverbreitung zu verhindern. Aber die Kombination scheint gut zu klappen, wenn der Nutzer erfährt: Das ist wahrscheinlich nicht wahr, und der persönliche Kreis teilt das auch nicht.

Es geht also vor allem um soziale Akzeptanz?

Genau. Es ist eine soziale Information, die die Nutzer erhalten nach dem Motto: Das macht man nicht in meinem sozialen Umfeld. Ein großes Problem im Kontext der Verbreitung von Falschinformationen ist, dass man alleingelassen wird mit dem kritischen Quellenstudium – das ist für viele schwierig. Deswegen wollten wir mit unserer Untersuchung über die sozialen Prozesse dazu beitragen, die Weiterverbreitung von Falschinformationen zu reduzieren. Für uns war spannend zu sehen, dass diese kurze soziale Information bei den Leuten soziale Normen verändert.

Die Verbreitung von Falschinformationen hängt stark mit den Algorithmen der Netzwerke zusammen. Nutzerinnen und Nutzer bewegen sich also in ihren eigenen Blasen, in denen ihre Meinungen bestätigt werden. Kann durch Ihre Funktion nicht auch ein gegensätzlicher Effekt ausgelöst werden – dass eine Falschinformation als glaubwürdig eingestuft wird, weil sie umso mehr gelikt und geteilt wird?

Das ist ein wichtiger Punkt – das ist ähnlich wie die Kennzeichnung für Fehlinformationen zu Covid-19, die Twitter eingeführt hat. Das muss ein Stück weit kuratiert sein, von Twitter selbst oder durch andere Nutzerinnen und Nutzer. Jemand muss die Meldung also zuvor als falsch einstufen. Wenn man unsere Funktion einfach in den Algorithmus setzen würde, könnte das durchaus auch nach hinten losgehen.

Lesen Sie auch

  Was waren das für Personen, an denen Sie Ihre Funktion erprobt haben?

Es waren alles englischsprachige Personen, weil die meisten Fehlinformationen auf Englisch sind. Die Teilnehmer sind zwar nicht repräsentativ, haben aber einen relativ breiten Hintergrund an Bildung und politischer Orientierung. Insgesamt haben wir die Studie mit 1417 Personen durchgeführt.

Haben Sie bei Ihrer Studie Unterschiede in den verschiedenen Altersgruppen feststellen können? Eine Studie der Stiftung neue Verantwortung aus dem vergangenen Jahr hat gezeigt, dass Ältere oft eine geringere Nachrichtenkompetenz besitzen als jüngere, und daher auch häufiger auf Falschmeldungen hereinfallen.

Wir haben keinen Einfluss der verschiedenen Altersgruppen oder der unterschiedlichen Medienkompetenz feststellen können. Aber die politische Orientierung hat eine Rolle gespielt, wie häufig Falschinformationen weiterverbreitet wurden.

Lesen Sie auch

Inwiefern?

Wir haben nur grob erhoben, ob sich die Probanden eher liberal oder konservativ verorten würden. Die Leute, die sich eher als konservativ eingeordnet haben, haben mehr Falschinformationen geteilt.

Als wie realistisch schätzen Sie ein, dass so ein Mechanismus tatsächlich in sozialen Netzwerken wie Twitter oder auch Facebook und Instagram eingeführt wird?

Technisch ist es nicht besonders schwierig, das haben wir ja durch die Studie gezeigt – besonders auf Twitter. Allerdings gibt es andere Limitationen: Zum Beispiel, ob es von Interesse für die Betreiber der sozialen Netzwerke ist, wenn eine zentrale Funktion wie das Teilen von Inhalten unterbunden wird. Das kann ich allerdings schlecht einschätzen. Das müsste der Gesetzgeber oder die sozialen Netzwerke selbst entscheiden.

Warum haben Sie die Studie mit Twitter durchgeführt? Facebook und Instagram sind in Deutschland deutlich populärer.

Das hatte einen pragmatischen Grund: Twitter ist für Studien besser einzubinden. Es ist ein offenes Netzwerk, das eine Schnittstelle für akademische Projekte wie unseres anbietet. Facebook hingegen ist ein geschlossenes Netzwerk, in dem Inhalte oft nur in geschlossenen Gruppen einsehbar sind – es gibt Berichte darüber, dass Facebook sogar Wissenschaftlerinnen und Wissenschaftler aussperren möchte. Dieser unterschiedliche Umgang mit unabhängiger Forschung führt leider auch dazu, dass Twitter im Verhältnis von Studien zu Nutzerzahlen deutlich überrepräsentiert ist. Wir sitzen aber gerade daran, die Studie auch für Facebook durchzuführen.

Inwiefern sind Ihre bisherigen Erkenntnisse auch auf Facebook oder Instagram anwendbar?

Alles, was an Netzwerken auf dieser Art von sozialen Mechanismen aufbaut, dass man Rückmeldungen darüber bekommt, wie oft etwas geteilt oder gelikt wurde, eignet sich für unsere Funktion. 

Lesen Sie auch

Zur Person

Benjamin Schüz

ist Professor für Public Health mit dem Schwerpunkt Gesundheitsförderung und Prävention an der Uni Bremen. Mit einem Forschungsteam hat er eine Funktion erprobt, um Falschinformationen in sozialen Medien einzudämmen.

 

Jetzt sichern: Wir schenken Ihnen 1 Monat WK+!
Mehr zum Thema
Lesermeinungen

Das könnte Sie auch interessieren

Das Beste mit WK+