So unterschiedlich die politischen Selbstverständnisse einzelner Milieus auch sein mögen, im Hass auf Israel können sie einen gemeinsamen Bezugspunkt finden. Gerade diese ideologische Anschlussfähigkeit trägt zur gegenwärtigen Wirkmacht des israelbezogenen Antisemitismus bei.
Posts by cemas_io
Israelbezogener Antisemitismus ist dabei auf kein einzelnes politisches Milieu beschränkt. Er findet sich bei islamistischen Akteur:innen ebenso wie in rechtsextremen Zusammenhängen und in Teilen der Linken.
Zu sehen sind zwei Screenshots von zwei Beiträgen auf der Social-Media-Plattform UpScrolled. Post 1 zeigt ein KI-generiertes Bild eines Schuhs, dessen Sohle mit einer palästinensischen Flagge bemalt ist. Der Schuh zertritt eine Kakerlake, die mit einer israelischen Flagge markiert ist. Post 2 zeigt ein umgekehrtes rotes Dreieck, das den Schriftzug “Fuck Israel” trägt. Beide Posts enthalten antisemitische Symboliken und Chiffren und sind deshalb von den Autor:innen dieses Bluesky-Beitrags zensiert worden.
Gerade darin liegt ihre kommunikative Wirkmacht. Komplexe politische Zusammenhänge werden auf unmittelbar lesbare visuelle Codes reduziert, die emotionalisieren, Gewalt symbolisch normalisieren und sich mutmaßlich unverfänglich weiterverbreiten lassen.
Antisemitische Umwegkommunikation und die Verwendung von Codes ermöglichen so gleichzeitig Anschlussfähigkeit und Abstreitbarkeit. Während sie in der jeweiligen In-Group eindeutig lesbar sind, bleiben sie nach außen hinreichend ambivalent, um sich gegenüber Antisemitismuskritik zu immunisieren.
Vor allem online spielt die Verwendung von Symboliken dabei eine zentrale Rolle: Antisemitische Chiffren und Codes, die stetig aktualisiert werden können, schaffen Gruppenzugehörigkeit und machen antisemitische Botschaften anschlussfähig, ohne sie immer explizit auszuformulieren.
Digitale Plattformen werden dabei zu zentralen Distributionsräumen für israelbezogenen Antisemitismus, der bestehende antisemitische Feindbilder aktualisiert und in Gewalt oder Aufrufe zur Gewalt übersetzt.
Wenn es zu kriegerischen Auseinandersetzungen unter Beteiligung Israels im Nahen Osten kommt, verschärfen sich auch antisemitische Dynamiken weltweit. Unser neuer Artikel zeigt, wie der Krieg im Nahen Osten zum Katalysator für israelbezogenen Antisemitismus wird.
Aus Ähnlichkeiten ihrer Bemühungen in der Informationsmanipulation lässt sich allerdings keine enge Zusammenarbeit der beiden autoritären Länder in diesem Vorhaben ableiten. Ihr Verhältnis ist eher opportunistisch: Sie verstärken bestimmte Narrative, wenn sie ihren eigenen Interessen entsprechen.
Während China über weltführende Kapazitäten bei der KI-Entwicklung verfügt und chinesische Akteure heimische KI-Tools für die Prozesse nutzen können, sind russische Akteure auf kommerzielle Tools aus anderen Ländern angewiesen.
Chinesische Akteure versuchen, mit großen Mengen von KI-Spam Suchmaschinenergebnisse und Algorithmen der Social-Media-Plattformen zu manipulieren. Russische Akteure sind an einer Beeinflussung der Trainingsdatensätze für KI-Modelle interessiert.
KI-Technologien ermöglichen Desinformationsakteuren aus beiden Ländern, die Inhalte kostengünstiger und im größeren Umfang zu produzieren, sowie sie stärker zu personalisieren. Sie werden für die Erstellung von Inhalten wie Texte, Bilder, Memes, Videos oder Deepfakes eingesetzt.
Ein neues Paper des European Centre of Excellence for Countering Hybrid Threats befasst sich mit der Frage, wie Russland und China künstliche Intelligenz für Informationsmanipulation einsetzen:
Die massenhafte Verbreitung von generativen Inhalten führt zu einer Normalisierung von Gewalt sowie Zweifeln an der Echtheit von Bildern. Die Social-Media-Plattformen müssen deshalb ihre Ressourcen zur Unterbindung solcher Inhalte erhöhen. Mehr dazu in unserem Blogbeitrag:
Die Unsicherheit über die Echtheit von Inhalten führt unter anderem dazu, dass echte Bilder als KI-generiert angezweifelt werden, um eigene politische Positionen und Interpretationen des Konflikts zu verbreiten. Dieses Phänomen wird als „Liar’s dividend“ bezeichnet.
Zu sehen sind zwei Screenshots von zwei Beiträgen auf der Plattform X. Post 1 zeigt ein Sattelitenbild mit Bränden in Katar und trägt die Überschrift „Breaking: Qatar’s large oil fields are currently ablaze“. Post 2 zeigt ein brennendes Amazon-Datenzentrum und trägt die Überschrift „Breaking: Bahrain: Iran attacks Amazon data center“. Beide Posts enthalten KI-generierte Bilder, die Falschinformationen belegen sollen, und sind deshalb von den Autor:innen dieses Bluesky-Beitrags zensiert worden.
Zu Beginn des Krieges wurden vor allem alte, aus dem Kontext gerissene Bilder und Videos als Belege herangezogen. Inzwischen wird die visuelle Desinformation von KI-generierten Inhalten dominiert. Diese sind aufgrund der steigenden Qualität zunehmend schwerer zu entlarven.
Auch pro-US und pro-israelische Narrative werden verbreitet, darunter z.B. die Falschbehauptung, dass der iranische Staat die Verantwortung für die Zerstörung der Mädchenschule in der iranischen Stadt Minab übernommen haben soll.
Zu sehen sind zwei Screenshots von zwei Beiträgen auf der Plattform X. Post 1 zeigt ein Bild einer zerstörten Halle und trägt die Überschrift „Israel’s capital Tel Aviv’s Ben Gurion Airport has been destroyed by Iran“. Post 2 zeigt eine brennende Anlage und trägt die Überschrift „Breaking: Iran targets the Dimona nuclear reactor in Israel“. Beide Posts enthalten falsche Bilder, die Falschinformationen belegen sollen, und sind deshalb von den Autor:innen dieses Bluesky-Beitrags zensiert worden.
Diese Posts enthielten typischerweise Behauptungen über angebliche iranische Schläge, insbesondere gegen Israel, die in Wirklichkeit nicht stattfanden, oder übertrieben die zugefügten Zerstörungen.
Das US-Unternehmen NewsGuard dokumentierte 50 Falschbehauptungen, die in den ersten 25 Tagen des Krieges in sozialen Medien verbreitet wurden. Die überwiegende Mehrheit davon – 46 von 50 Falschbehauptungen – unterstützte die Narrative des iranischen Regimes.
KI-generierte Inhalte über Konflikte werden in sozialen Medien dabei nicht nur von politischen, sondern auch von kommerziellen Akteur:innen verbreitet. Diese erhoffen sich eine Reichweitenstärkung sowie Monetarisierung der Inhalte.
Erschwert wird die bereits unübersichtliche Situation dadurch, dass generative KI inzwischen so weit fortgeschritten ist, dass damit massenhaft fotorealistische Bilder und Videos erzeugt werden können. Sie sind häufig nur schwer zu identifizieren und ihre Künstlichkeit nachzuweisen.
Der Internet-Shutdown im Iran, die eingeschränkte Veröffentlichung von Sattelitenbildern und Behinderungen der Presse schaffen ein Informationsvakuum, das mit Propaganda und Desinformation gefüllt wird. Die Akteure nutzen die Situation, um die öffentliche Wahrnehmung zu beeinflussen.
Der Krieg im Nahen Osten wird von einer massiven Verbreitung von Desinformation und KI-generierten Inhalten begleitet. Im neuen CeMAS-Artikel „Krieg im Nahen Osten: Kampf um die Wahrheit und Deutung“ geht Senior Researcherin @jsmirnova.bsky.social auf das komplizierte Informationsumfeld ein:
@exifrecherche.bsky.social erkennt in dem jüngsten Angriff auf Journalisten vor dem Haus des Neonazis Thorsten Heise in Fretterode (Thüringen) eine Kontinuität im „System Heise“. Dieses bleibt seit Jahren von strafrechtlichen Konsequenzen verschont. Die lesenswerte Recherche findet sich hier:
Immer wieder kommt es zu Übergriffen und gewaltvollen Anfeindungen gegen Medienschaffende. Das „Feindbild Journalismus“ taucht dabei in verschiedenen politischen Milieus auf. @reporter-ohne-grenzen.de warnt vor einer hohen Dunkelziffer zu rechtsextremen Angriffen auf Lokaljournalist:innen.
In verschwörungsideologischen Communitys zirkulierten Falschinformationen besonders stark, da sie in dem Thema eine Bestätigung für ihr Verschwörungsnarrativ von einer geheimen Elite, einem sogenannten "Deep State" sehen. Mehr dazu im neuen Research Paper:
@jsmirnova.bsky.social, Senior Researcherin bei CeMAS, hat mit @ntvde.bsky.social über die Verbreitung von Desinformationen zu Entwicklungszusammenarbeit durch verschiedene Akteur:innen auf Telegram gesprochen. Im Zuge der Auflösung von USAID wurden dort massenhaft Falschinformationen geteilt.
Die weitergeleiteten Nachrichten kommen fast ausschließlich aus denselben Kanälen, überwiegend aus dem verschwörungsideologischen Milieu sowie aus pro-russischen Propagandakanälen. Fallbeispiele zu den Desinformationen finden sich in unserem neuen Research Paper auf unserer Website:
Die Telegram-Beiträge, in denen deutsche Entwicklungszusammenarbeit vor allem als korrupt und verschwenderisch geframt wird, werden am meisten im verschwörungsideologischen Milieu verbreitet. Dahinter erkennen die Autor:innen des Papers ein Muster:
Senior Researcherin @jsmirnova.bsky.social erklärt im Interview mit @taz.de, dass sich das Thema Entwicklungszusammenarbeit aufgrund seiner Komplexität besonders gut für Desinformationskampagnen eignet. In der Verschränkung mit Themen wie Klima und Migration bietet es sich für Polarisierungen an:
Sharepic auf schwarzem Hintergrund mit weißer Typografie. Oben steht „Neue Handreichung“ und darunter groß „Jung & Militant“ sowie „Rechtsextreme Jugendgruppen in Deutschland“. In der Mitte ein orange getöntes Foto von mehreren jungen Männern bei einer Demonstration; zwei Personen zeigen das "White-Power"-Handzeichen, im Hintergrund sind Banner und weitere Menschen zu sehen. Unten links steht „Jetzt unter: democ.de“, unten rechts das Logo „democ.
Neue Handreichung: Jung und militant. Rechtsextreme Jugendgruppen in Deutschland. Fokus auf Mobilisierung gegen CSD-Veranstaltungen, Online-Vernetzung, Gewalt und Schnittstellen zu Parteistrukturen. PDF auf democ.de