Linguistischer Algorithmus

Bremen verstärkt Extremismus-Analyse in sozialen Netzwerken

Die Innen- und Sicherheitsbehörden in Bremen setzen beim Kampf gegen eine zunehmende Radikalisierung in sozialen Netzwerken auf wissenschaftliche Analyseinstrumente.
12.02.2018, 16:49
Lesedauer: 3 Min
Zur Merkliste
Bremen verstärkt Extremismus-Analyse in sozialen Netzwerken
Von Ralf Michel
Bremen verstärkt Extremismus-Analyse in sozialen Netzwerken

Bremen will im Kampf gegen die Radikalisierung in sozialen Netzwerken wissenschaftliche Analysemethoden anwenden.

Björn Hake

Die Bremer Innenbehörde will systematisch gegen extremistische Hetze in den sozialen Netzwerken vorgehen. Möglich macht dies "LEA", ein linguistischer Algorithmus, den Michael Adelmund, Mitarbeiter der Innenbehörde, entwickelt hat. Mit Hilfe dieses Instruments soll künftig aus Facebook, Twitter & Co. herausgefiltert werden, in welchen Foren sich Extremisten tummeln.

Die Zeiten, in denen extremistische Gruppen jedweder Couleur sich in verrauchten Hinterzimmern trafen, um üble Pläne zu schmieden, seien lange vorbei, sagt Dierk Schittkowski, Leiter des Landesamtes für Verfassungsschutz (LfV). Heutige Treffen fänden online statt, in den Foren und Communities der sozialen Netzwerke. Und die würden dabei zunehmend als Nährboden für Hass und Hetze fungieren. "Medien wie Facebook fördern nicht gerade den kritischen Dialog", formuliert es Bremens oberster Verfassungsschützer. Wer einmal einen solchen Beitrag zugestimmt hat, wird fortan mit Seiten versorgt, die ähnliche Inhalte haben.

Besonders erfolgreich in dieser Hinsicht seien Wut-Beiträge, erklärt Michael Adelmund, der derzeit im Rahmen eines Promotionsprojektes an der Universität Hildesheim untersucht, inwiefern in sozialen Netzwerken Radikalisierungsprozesse begünstigt werden. Wut führe im Internet zu hohen Zustimmungswerten und dazu, dass Beiträge verstärkt geteilt würden. Adelmund spricht in diesem Zusammenhang vom "Effekt der verbindenden Wut".

Propaganda ist allgegenwärtig

Auf diese Weise würden die sozialen Netzwerke eine maßgebliche Rolle bei der Verbreitung von extremistischer Propaganda spielen. Die Terrorpropaganda von Islamisten, fremdenfeindliche Hetze, linksextreme Mobilisierungsvideos oder "Reichsbürger"-Videos seien in den sozialen Medien allgegenwärtig, so Schittkowski. Diffamierende Stereotypenbilder würden durch die Verteilungsprozesse in den sozialen Netzwerken schnell Zigtausende von Menschen erreichen.

In solchen heterogenen Communities, in denen oft Tausende Nutzer miteinander verbunden sind, können durch eine Vielzahl gleichgelagerter Inhalte übersteigerte Ängste heraufbeschworen und dadurch Hass geschürt werden, betont der Leiter des LfV. Hieraus resultiere eine besonders große Gefahr: „Je weiter die Ideologie dabei in den Hintergrund rückt, desto mehr Menschen können Extremisten in sozialen Medien erreichen, weil sie unerkannt bleiben. So können sie erfolgreich gesellschaftliche Ängste heraufbeschwören und ihren gefährlichen Hass säen."

Extremisten versuchten systematisch mit sogenannten „Fake-News“, Hetze oder Stereotypenbildern zu polarisieren und Einfluss auf die Gesellschaft zu nehmen. „Deswegen müssen wir da anfangen, wo dieser Hass und die Akzeptanz von Gewalt zur Durchsetzung politischer Ziele oft entstehen: In den sozialen Netzwerken“, sagt Schittkowski.

Genau an dieser Stelle setzt die Methode an, die Michael Adelmund entwickelt hat. Mit Hilfe des von ihm entwickelten Algorithmus sollen die virtuellen Communities in ihre Einzelteile zerlegt und dadurch latent extremistische Inhalte identifiziert werden, die vorher nicht als solche zu erkennen waren. Die Häufigkeit, mit der bestimmte Begriffe auftauchen, würde Indizien liefern, dass vielleicht mit einer bestimmten Gemeinschaft etwas nicht stimmt.

Zwei Ziele werden verfolgt

Das Analyse-Instrument diene dabei zwei Zielen, erklärt Schittkowski. Zum einen dem Aufspüren neuer extremistischer Gruppen. "Wir haben damit sozusagen ein Frühwarnsystem." Zum anderen aber auch der Sicherung zusätzlichen Beweismaterials. Wer durch Interaktionen wie das Markieren von Beiträgen mit "Gefällt mir", durch positive "Kommentare" oder das "Teilen" von Inhalten verfassungsfeindliche Gruppierungen nachdrücklich unterstützt und auf diese Weise dazu beiträgt, dass deren Propaganda weite Teile der Gesellschaft erreicht, mache sich bewusst oder leichtfertig zum Gehilfen, warnt Schittkowski. Dagegen werde das LfV jetzt systematisch vorgehen. "Wer durch seine Interaktionen im Netz extremistische Propaganda verbreite, muss künftig damit rechnen, das Interesse der Sicherheitsbehörden auf sich zu ziehen."

Wichtig ist Schittkowski dabei die Feststellung, dass es nicht darum gehe, demokratische Meinungsbildungsprozesse zu begrenzen oder zu kontrollieren, sondern sie vor Manipulation zu schützen. Ausgewertet würden nur öffentliche Beiträge auf Communities, die für jedermann zugänglich sind. "Einzelne Personenprofile oder beispielsweise geschlossene Freundschaftsgruppen und Foren, wie es sie oft bei Facebook gebe, sind nicht Gegenstand dieser analytischen Methoden."

Jetzt sichern: Wir schenken Ihnen 1 Monat WK+!
Mehr zum Thema
Lesermeinungen

Das könnte Sie auch interessieren

Das Beste mit WK+