Diskriminierung melden
Suchen:

Berlin: Meinungsbildung 2.0 – Strategien im Ringen um Deutungshoheit im digitalen Zeitalter

05.09.2023

Bundesamt für Verfassungschutz und Zentrum für Analyse und Forschung (ZAF) - Wissenschaftskonferenz 2023.
„Meinungsbildung 2.0 – Strategien im Ringen um Deutungshoheit im digitalen Zeitalter“
Die Digitalisierung und der damit verbundene Wandel sozio-kultureller Techniken hat das gesellschaftliche Zusammenleben grundlegend verändert. Dabei haben sich auch individuelle und kollektive Meinungsbildungsprozesse durch den allgegenwärtigen Zugang zu Informationen gewandelt: Das Angebot von Nachrichtenquellen hat sich in den vergangenen Jahren vervielfacht. Die sog. klassischen Nachrichtenquellen haben ihre Funktion als Gatekeeper sukzessive verloren. Interaktive Medienintermediäre wie Social Media-Plattformen, in denen jede/-r Nutzer/-in potentiell als Sender und Empfänger fungieren kann, haben insbesondere in der jüngeren Generation als Nachrichtenquelle an Bedeutung gewonnen.
Gleichzeitig leben wir in einer dynamischen Zeit, die von einer zunehmenden geo-politischen Polarisierung, außenpolitischen Spannungen (z.B. der russische Angriffskrieg in der Ukraine) und globalen Krisen (z.B. Klimawandel und Covid-19-Pandemie) geprägt ist.

Aus innenpolitischer Perspektive sind daran häufig gesellschaftliche Krisen und soziale Konflikte geknüpft. Die Auswirkungen globaler Entwicklungen werden so für jede/-n Einzelne/-n spürbar.

Das Zusammenspiel aus einem großen Informationsbedürfnis in einer Zeit multipler Krisen und einer scheinbar unerschöpflichen Menge von Informationen, die vor allem online verfügbar sind und zu einem großen Teil keinen journalistischen Standards entsprechen, verändert die Mechanismen von individuellen und kollektiven Meinungsbildungsprozessen.

Der Umstand, dass Medieninhalte auf einigen Intermediären von Algorithmen vorsortiert werden, ist hierbei ein wichtiger Faktor: Ziel dieser Selektion ist nicht, Nutzer/-innen möglichst ausgewogen zu informieren, sondern die Nutzungsdauer auf der jeweiligen Plattform zu maximieren. Dieser Einfluss algorithmischer Personalisierung auf Meinungsbildungsprozesse ist unbestritten (Stark et al, 2021). Als besonders problematisch gilt, dass soziale Medien häufig ein falsches Bild der Mehrheitsmeinung suggerieren, was letztlich zu einer verzerrten Wahrnehmung des gesellschaftlichen Meinungsklimas führen kann - ein Effekt, der durch Aufgreifen in der massenmedialen Berichterstattung über die Grenzen von Social Media-Plattformen hinweg wirken kann (ebd.).

Die beschriebenen Gegebenheiten eröffnen ein Handlungsfeld für Akteur/-innen, die unter verschiedenen Motivlagen versuchen, auf individuelle und kollektive Meinungsbildungsprozesse einzuwirken, indem sie Einfluss auf den öffentlichen Diskurs nehmen. Diese strategisch motivierten Einflussnahmen können zu einer Polarisierung bzw. Fragmentierung und letztlich einer Destabilisierung demokratischer Gesellschaften beitragen. Die gezielte Nutzung plattformseitiger Gegebenheiten kann Bestandteil dieser Strategien sein.

Strategisch motivierte Bemühungen staatlicher Akteur/-innen in diesem Handlungsfeld werden in der Sicherheitsforschung zumeist unter dem Überbegriff „Hybride Bedrohungen“ gefasst.
Zwar ist die gezielte Verbreitung von Desinformation, neben z.B. wirtschaftlicher- oder finanzieller Einflussnahme, nur ein Teil des Instrumentariums, das gemeint ist, wenn von hybriden Bedrohungen gesprochen wird. Allerdings haben sich gezielte Desinformationskampagnen als zentrales Instrument entsprechender Strategien herausgestellt - hervorzuheben sind hierbei insbesondere versuchte Einflussnahmen auf politische Wahlen (z.B. Allcot & Gentzkow, 2016; Barrera et al, 2017; Fletcher et al, 2018).

Das Phänomen der strategischen Beeinflussung des öffentlichen Diskurses nur auf staatliche Akteur/innen zu beschränken, wäre jedoch viel zu kurz gegriffen: Auch nicht-staatliche Akteur/-innen wie extremistische Gruppierungen verfolgen Strategien, die darauf abzielen den öffentlichen Diskurs sukzessive in Richtung radikaler bzw. extremistischer Positionen zu verlagern. Über die Extremismus-Phänomene hinweg werden dabei z.B. identitätspolitische Narrative verbreitet oder aktuelle Ereignisse umgedeutet, sodass sie sich in das Gesamtbild der jeweiligen Agenda fügen.

Die Strategien einiger extremistischer Gruppierungen scheinen sich, weg von dem Ansinnen der unmittelbaren Rekrutierung von Mitgliedern, hin zu einer Beeinflussung der öffentlichen Meinung im Sinne der eigenen Ideologie zu entwickeln. Aktionen in der realen Welt dienen dabei häufig ausschließlich dem Erstellen von Social Media-Content.

Die Übergänge zwischen Strategien nicht-staatlicher Akteur/-innen und staatlich-gesteuerten Einflussnahmen sind dabei oft fließend, z.B. wenn Personen oder Gruppen als Proxy-Akteur/-innen im Auftrag von Staaten agieren. Eine Attribution ist insbesondere bei staatlicher Beteiligung in den meisten Fällen schwierig, da diese möglichst effektiv verschleiert wird, um eine glaubhafte Distanzierung zu ermöglichen (Schauer & Ruff-Stahl, 2016).

Im Rahmen der kommenden Wissenschaftskonferenz, die am 05. und 06. September 2023 in Berlin stattfinden wird, möchten wir den Fokus auf verschiedene Aspekte jener Strategien legen, die staatliche- und nicht-staatliche Akteur/-innen nutzen, um Meinungsbildungsprozesse zu beeinflussen und im Kampf um die Deutungshoheit zu obsiegen.

Beitragsvorschläge können sich zum Beispiel an folgenden Themenkomplexen orientieren:
• Verbreitete Narrative (z.B. Verschwörungsnarrative, Antisemitismus, identitätspolitische Narrative, Elitenfeindlichkeit) oder Verbreitungsformen (z.B. Memes, Deep Fakes).
• Wahrnehmungsstudien auch mit Blick auf die auf Meinungs-, Einstellungs- und Verhaltensebene; Auswirkungen auf Makro und Mesoebene.
• Wirkweise und Bedeutung von plattformseitigen Gegebenheiten (z.B. Filter-Algorithmen) und deren gezielter Nutzung durch strategische Akteur/-innen; dazu auch vergleichende Betrachtungen von Intermediären.
• Methodische Zugänge zur empirischen Erfassung von Konzepten und Test von Hypothesen,
wie z.B. Mainstreaming, Echokammern, Filterblasen.
• Auswirkungen auf die Arbeitsweise sog. klassischer journalistischer Medien (z.B. Click Baiting, emotionalisierende Beiträge).
• Bedeutung einer möglicherweise individuell wahrgenommenen mangelhaften politischen Repräsentation.
• Bedeutung strategischer Diskursbeeinflussung im Rahmen der Gesamtstrategien extremisti-
scher Akteur/-innen (ggf. auch als vergleichende Betrachtung).
• Potentielle Auswirkungen technischer Entwicklungen (z.B. Deep Fakes, Metaverse, Civic Tech).
• Implikationen für Politik und Praxis (z.B. Prävention, Detektion, Attribution, Gegenmaßnahmen).

Wir bitten um Einreichung von Beitragsvorschlägen in Form eines Abstracts (500-700 Wörter) bis zum 12. Mai 2023 über ein Kontaktformular auf der Homepage des Bundesamtes für Verfassungsschutz einreichen.
Beiträge können für zwei verschiedene Formate eingereicht werden:
(1) Vortrag zu Forschungs-/Praxisprojekten (15 Min. Vortragsdauer, zzgl. Diskussion)
(2) Postersessions: Vorstellung eines Projekts in Form eines Posters (max. 100 x 100 cm), ggf. verbunden mit Kurzvortrag am jeweiligen Poster für Interessierte.
Im Anschluss an die Konferenz ist die Publikation eines Tagungsbandes mit den Vortragsbeiträgen geplant.