
WINA: Wie manifestiert sich Antisemitismus in den Sozialen Medien?
Monika Hübscher: Antisemitismus in sozialen Medien zeigt sich in ganz eigenen Formen, etwa durch Memes, Kommentare, Videos, Reels oder Emojis, und wird häufig algorithmisch verstärkt. Was ihn besonders gefährlich macht, ist die Geschwindigkeit und Reichweite seiner Verbreitung. Inhalte können sich in Echtzeit viral ausbreiten und so zu einer massenhaften Normalisierung antisemitischer Narrative führen.
Welche Unterschiede gibt es zu Offline-Antisemitismus?
I Im Unterschied zum Offline-Antisemitismus, der eher lokal begrenzt auftritt und oft durch mediale Berichterstattung oder soziale Kontrolle eingebremst wird, funktioniert Antisemitismus im Netz durch globale Dynamiken. Algorithmen personalisieren die Inhalte, KI kann antisemitische Bilder oder Texte automatisch erzeugen, und Social Bots sorgen für zusätzliche Sichtbarkeit. Dazu kommt, dass Plattformen auf Engagement angewiesen sind, also auf Likes, Shares und Kommentare – was bedeutet: Je provokativer ein Inhalt, desto sichtbarer wird er. Auch Gegenrede kann so unbeabsichtigt zur Sichtbarkeit beitragen. Online wird Antisemitismus also nicht nur reproduziert, sondern technologisch verstärkt und dabei auch noch an persönliche Vorlieben der Nutzer und Nutzerinnen angepasst. Das ist eine Dynamik, die es in dieser Form im Offline- Kontext nicht gibt – und genau darin liegt die besondere Herausforderung.
Die einzelnen Plattformen funktionieren unterschiedlich, sowohl was den Algorithmus als auch die bevorzugten Medien wie Text, Bilder, Videos betrifft. Hat das auch Auswirkungen auf die Intensität oder die Geschwindigkeit der Verbreitung antisemitischer Inhalte? Welche Plattformen sind diesbezüglich besonders toxisch und warum?
I Die Intensität und Geschwindigkeit, mit der antisemitische Inhalte verbreitet werden, hängt maßgeblich davon ab, wie stark Nutzer und Nutzerinnen mit diesen Inhalten interagieren – also ob sie liken, teilen, kommentieren oder länger darauf verweilen. Solche Interaktionen signalisieren den Plattform- Algorithmen Relevanz und führen dazu, dass die Inhalte noch sichtbarer werden. Entscheidend ist dabei, ob und wie die jeweilige Plattform diese Dynamiken durch Moderation einschränkt. Wenn Interaktionen mit antisemitischen Inhalten nicht unterbunden oder gar algorithmisch belohnt werden – wie es etwa bei X unter Elon Musk oder Facebook unter Mark Zuckerberg zunehmend der Fall ist –, steigt die Wahrscheinlichkeit, dass sich antisemitischer Hass besonders schnell und weit verbreitet. Die Moderationspraxis der Plattform bestimmt also mit, wie groß die Reichweite antisemitischer Beiträge tatsächlich wird.
Elon Musk etwa positioniert sich öffentlich gegen Content-Moderation und betont Meinungsfreiheit als oberstes Prinzip auf X (ehemals Twitter). Unter seiner Leitung wurden zahlreiche Moderationsteams entlassen, und Accounts, die zuvor wegen Hassrede gesperrt waren, wieder freigeschaltet. Auch Mark Zuckerberg hat in der Vergangenheit betont, dass er mit Facebook nicht zur „Wahrheitsinstanz“ machen wolle, was sich in einer zögerlichen oder inkonsequenten Moderation antisemitischer Inhalte widerspiegelt. Die aktuelle Entwicklung, dass Plattformen Moderation weiter zurückfahren oder politisch unter Druck geraten, weniger gegen Hassrede vorzugehen, verschärft die Situation zusätzlich – insbesondere für Juden und Jüdinnen, die dadurch noch weniger Schutz vor antisemitischem Hass erfahren.
„Social Media Literacy gegen Antisemitismus befähigt
Nutzer und Nutzerinnen, antisemitische Inhalte in sozialen
Medien zu erkennen, einzuordnen und unter Berücksichtigung
der Funktionsweise der Plattformen selbst kritisch damit umzugehen.“
Mit dem Pogrom an Juden, Jüdinnen und insgesamt Menschen in Israel durch die Hamas am 7. Oktober 2023 sind in Bezug auf Antisemitismus auf Social Media alle Dämme gebrochen. Wie erklären Sie sich den durchschlagenden Erfolg dieser Kriegsführung im Netz durch die Hamas?

von Mering (Hg.):
Antisemitismus in den
Sozialen Medien.
Verl. Barbara Budrich 2024, 320 S., € 40
I Der Erfolg der digitalen Kriegsführung der Hamas ist kein Zufall, sondern das Ergebnis einer gezielten Strategie. Die Hamas wusste genau, welche Wirkung sie durch die Nutzung sozialer Medien erzielen konnte, und hat diese Infrastruktur bewusst in die Planung ihrer Terrorattacke am 7. Oktober 2023 integriert. Die extreme Gewalt wurde gefilmt, gestreamt und über soziale Netzwerke verbreitet mit dem Ziel, Angst zu verbreiten und Propaganda zu streuen. Die Plattformen stellten der Hamas dabei nicht nur die digitale Infrastruktur bereit, sie verhinderten deren Nutzung auch nicht. Im Gegenteil: Durch algorithmische Verstärkung wurden die Inhalte millionenfach sichtbar gemacht. Gewalt- und Hassvideos, antisemitische Kommentare und visuelle Memes wurden durch Likes, Shares und Kommentare immer weiter nach oben und in die Feeds gespült – auch bei Nutzer und Nutzerinnen, die solchen Inhalten sonst nicht aktiv folgen.
Dass eine als terroristisch eingestufte Organisation wie die Hamas diese digitalen Möglichkeiten so effektiv und gezielt nutzen konnte, ist erschütternd. Es zeigt, wie ungeschützt Social Media als Raum sind – nicht nur für jüdische Menschen, die dort antisemitischem Hass ausgesetzt sind, sondern auch für die Gesellschaft insgesamt, die mit der Normalisierung von digitaler Gewalt konfrontiert ist.
Eine wichtige Rolle kommt hier Memes zu. Sie sprechen in Ihrem Buch auch von memetischer Kriegsführung. Können Sie das näher erläutern?
I Memetische Kriegsführung bezeichnet den gezielten Einsatz von Social-Media-Memes zur ideologischen Einflussnahme und Propaganda. Nach dem Terrorangriff der Hamas am 7. Oktober 2023 wurde deutlich, wie effektiv diese Form der digitalen Kriegsführung sein kann: Memes wurden eingesetzt, um Gewalt zu normalisieren, antisemitische Botschaften zu verbreiten und Narrative zu kontrollieren.
Die Hamas und ihre Anhänger nutzten memetische Kriegsführung gezielt, um antisemitische Botschaften sowie Aufrufe zur Gewalt und Vernichtung Israels auf sozialen Medien zu verbreiten. Mithilfe von Meme-Generatoren und KI konnten sie schnell visuelle Inhalte erstellen, die auf Plattformen wie X mit nur wenigen Klicks massenhaft geteilt wurden, oft in mehreren Sprachen. Diese Inhalte dienten nicht nur der Propaganda, sondern auch der digitalen Mobilisierung, der Normalisierung von Gewalt und der gezielten Anstachelung von Hass gegen Juden und Jüdinnen.
„Memetische Kriegsführung bezeichnet den
gezielten Einsatz von Social-Media- Memes
zur ideologischen Einflussnahme und Propaganda.“
Sind sich hier alle Menschen, die solche Inhalte teilen oder liken, bewusst, dass Sie damit Teil eines Online-Krieges werden? Und was können Sie über die Motivation sagen, klar antisemitische Darstellungen gutzuheißen – inklusive von Mordaufrufen gegen Juden und Jüdinnen
I Ich glaube nicht, dass allen Menschen, die solche Inhalte teilen, liken, oder kommentieren, bewusst ist, dass sie damit Antisemitismus verbreiten. Viele verstehen Memes oder scheinbar harmlose visuelle Inhalte eher als Unterhaltung oder Meinungsäußerung, ohne die dahinterliegende Strategie zu erkennen, nämlich die gezielte Verbreitung von Narrativen, die manipulieren und antisemitische Gewalt normalisieren.
Was die Motivation betrifft, antisemitische Darstellungen gutzuheißen, ist das Spektrum breit: Es reicht von ideologischer Überzeugung über Gruppenzugehörigkeit und Effekthascherei bis hin zu schlichter Unwissenheit. Das gilt es tatsächlich noch viel stärker zu erforschen. Allerdings wissen wir bereits, dass viele Social-Media-User und -Userinnen Antisemitismus nicht als solchen erkennen, besonders dann nicht, wenn er in Form von Memes, vermeintlicher Kritik oder populären Narrativen auftritt. Wenn ein Beitrag viele Likes, Kommentare oder Shares hat, wird das häufig als Zeichen von Relevanz oder Richtigkeit wahrgenommen. Die soziale Bestätigung durch Interaktion suggeriert Validität und senkt damit die Hemmschwelle, sich ebenfalls daran zu beteiligen.
Es sind vor allem jüdische Kinder, Jugendliche und junge Erwachsene, die persönlich direkt von Antisemitismus auf Social Media betroffen sind. Haben Sie dazu auch konkrete Zahlen oder Schätzungen? Und was macht das mit den Betroffenen?
I Ja, es gibt dazu belastbare Daten. Eine große EU-Studie aus dem Jahr 2018 zeigt, dass 89 Prozent der befragten Jüdinnen und Juden in Europa Antisemitismus in sozialen Medien als besonders problematisch wahrnehmen – noch vor antisemitischen Erfahrungen im öffentlichen Raum, in den klassischen Medien oder in der Politik. Gerade junge Menschen sind stark betroffen, da sie sich täglich in sozialen Netzwerken bewegen und dort wiederholt mit Hassinhalten konfrontiert werden. Die Auswirkungen auf die Betroffenen sind gravierend. Studien zeigen, dass der Kontakt mit antisemitischen Inhalten auf Social Media Angst, Unsicherheit, Rückzug, Schlafstörungen und psychosoziale Belastungen auslösen kann – ähnlich wie physische Gewalt.
Besonders jüdische Kinder, Jugendliche und junge Erwachsene erleben Social Media nicht nur als Informations- oder Kommunikationsraum, sondern auch als einen Ort permanenter Bedrohung. Interviewstudien zeigen deshalb, dass sich viele jüdische Social-Media- User und -Userinnen gezwungen sehen, ihre jüdische Identität online zu verbergen – etwa durch das Weglassen jüdischer Symbole oder Begriffe in Profilen – oder sich ganz von bestimmten Plattformen zurückziehen, um sich zu schützen. Die Normalisierung von Antisemitismus auf den Plattformen ist besonders für jüdische Jugendliche hoch belastend, weil sie oft allein gelassen sind mit der Entscheidung, ob und wie sie reagieren.
In der EU bemüht man sich seit einigen Jahren mit Strategien gegen Antisemitismus, gegen diesen Hass anzukämpfen. Solche Strategien gibt es inzwischen in vielen EU-Staaten, darunter auch Deutschland und Österreich. Dennoch nimmt der Antisemitismus off- und online weiter zu, ist aber eben vor allem im Netz omnipräsent. Warum werden die Plattformen hier nicht stärker in die Pflicht genommen? Seit dem Amtsantritt von US-Präsident Donald Trump hat zum Beispiel Meta bisherige Regelungen sogar wieder zurückgefahren.
I Dass die Plattformen nicht konsequenter in die Pflicht genommen werden, liegt vor allem daran, dass es bislang keine verbindlichen, durchsetzbaren Regularien gab. Der Digital Services Act (DSA) ist nun ein erster Versuch, das zu ändern. Er verpflichtet große Plattformen, gegen illegale Inhalte, also auch antisemitische Hassrede vorzugehen und Transparenz über Moderationspraxis und algorithmische Prozesse herzustellen. Aber: Die Umsetzung ist bislang lückenhaft. Die notwendige Infrastruktur zur Kontrolle fehlt vielerorts, die Verantwortlichkeiten sind unklar, und Plattformen zeigen oft wenig Kooperationsbereitschaft.
In einem globalen Wettbewerb um Reichweite und Profite steht der Schutz vor Antisemitismus oder Hass im Allgemeinen oft hinten an. Solange Plattformen weiterhin wirtschaftlich davon profifitieren, dass antisemitische Inhalte hohe Reichweite erzeugen, und solange es keine politischen Konsequenzen bei Untätigkeit gegen Antisemitismus gibt, wird sich daran wenig ändern. Strategien gegen Antisemitismus müssen daher stärker technologische Rahmenbedingungen, Plattformökonomien und digitale Machtstrukturen in den Blick nehmen, sonst bleiben sie auf der Oberfläche.
„Je provokativer ein Inhalt, desto sichtbarer wird er.
Auch Gegenrede kann so unbeabsichtigt
zur Sichtbarkeit beitragen.“
Melden oder nicht melden – diese Frage stellen Sie auch in Ihrem Buch. Macht das Melden überhaupt Sinn, wenn man als User dann meist die Antwort erhält, der gemeldete Inhalt verstoße nicht gegen Gemeinschaftsstandards?
I Diese Frage stellen sich viele Nutzer und Nutzerinnen völlig zu Recht – und sie zieht sich auch durch die Interviews, die ich in meiner Forschung geführt habe. Viele berichten von einer tiefen Frustration und Ermüdung, weil sie antisemitische Inhalte immer wieder melden, aber kaum eine Reaktion erfolgt. In den meisten Fällen erhalten sie die Standardantwort, dass der gemeldete Inhalt „nicht gegen die Gemeinschaftsstandards“ verstoße, obwohl es sich klar um antisemitische Aussagen oder Bilder handelt. Das führt dazu, dass sich viele irgendwann fragen: „Warum soll ich überhaupt noch melden?“ Einige ziehen sich zurück, andere ignorieren antisemitische Inhalte, weil sie das Gefühl haben, dass ihr Engagement ohnehin keine Wirkung hat. Und tatsächlich zeigt die Forschung, dass Meldeverfahren bislang keine strukturelle Wirkung entfalten: Der Antisemitismus auf den Plattformen nimmt nicht ab, selbst dann nicht, wenn viele Menschen regelmäßig melden.
Die Plattformen kommunizieren oft nicht transparent, wie sie Inhalte bewerten oder warum sie bestimmte Meldungen ablehnen. Dazu kommt, dass viele automatisierte Moderationssysteme nur expliziten Hass erkennen, nicht aber die oft kodierten, visuell verpackten oder ironisch inszenierten Formen antisemitischer Hetze, wie sie in sozialen Medien besonders häufig auftreten. Kurz gesagt: Es braucht dringend bessere Verfahren, menschliche Moderation mit Expertise zu Antisemitismus und strukturelle Änderungen in der Plattformregulierung, damit User und Userinnen nicht länger allein gelassen werden und damit ihre Bemühungen nicht ins Leere laufen.
Welche Möglichkeiten hat ein Einzelner, der persönlich von Antisemitismus betroffen ist, derzeit, sich dagegen zu wehren?
I Einzelpersonen, die von Antisemitismus betroffen sind, haben derzeit nur sehr eingeschränkte Möglichkeiten, sich wirksam zu wehren – insbesondere im digitalen Raum. Es besteht die Möglichkeit, Anzeige bei der Polizei zu erstatten. Das kann ein wichtiger Schritt sein, erfordert aber viel Kraft, Zeit und häufig auch juristische Unterstützung, zumal die Erfolgsaussichten von Fall zu Fall stark variieren. Eine weitere Möglichkeit ist der Weg über zivilgesellschaftliche Organisationen wie RIAS (Recherche- und Informationsstelle Antisemitismus) in Deutschland oder die Antisemitismus-Meldestelle der IKG Wien in Österreich, die antisemitische Vorfälle dokumentieren und Betroffene beraten.
Insgesamt lässt sich jedoch feststellen: Die Verantwortung, sich gegen Antisemitismus zu wehren, liegt derzeit zu stark bei den Einzelnen und den jüdischen Communitys. Es braucht dringend mehr strukturelle Unterstützung – etwa durch effektive Melde- und Beschwerdestrukturen, schnellere und nachvollziehbare Reaktionen der Plattformen, konsequente Strafverfolgung sowie politische Maßnahmen, die digitale Räume tatsächlich sicherer machen.
„Die Normalisierung von Antisemitismus auf den Plattformen
ist besonders für jüdische Jugendliche hoch belastend,
weil sie oft allein gelassen sind mit der Entscheidung,
ob und wie sie reagieren.“
Wie müsste der Kampf gegen Antisemitismus auf Social Media Ihrer Ansicht nach geführt werden?
I Der Kampf gegen Antisemitismus auf Social Media muss technologische, politische und pädagogische Maßnahmen zusammendenken. Plattformen müssen stärker reguliert und sanktioniert werden, wenn sie antisemitische Inhalte nicht konsequent moderieren. Gleichzeitig braucht es besseres Melde- und Beschwerdemanagement, das auf Expertise im Bereich Antisemitismus basiert. Und: Nutzer und Nutzerinnen müssen durch Social Media Literacy befähigt werden, Antisemitismus zu erkennen, einzuordnen und kritisch mit Plattformmechanismen umzugehen. Nur wenn diese Ebenen zusammenspielen, können soziale Medien ein sicherer Ort werden.
⇒ uni-due.de/2024-08-06-social-media-literacy-gegen-antisemitismus
Welche Rolle kommt dabei der Politik, welche den Strafverfolgungsbehörden und welche der Zivilgesellschaft zu?
I Der Politik kommt die Aufgabe zu, klare gesetzliche Rahmenbedingungen zu schaffen und deren Umsetzung durchzusetzen, etwa durch Sanktionen bei Plattformversagen oder den Ausbau unabhängiger Aufsichtsinstitutionen. Außerdem muss sie Forschung fördern und Betroffenenstrukturen dauerhaft finanziell absichern. Die Strafverfolgungsbehörden müssen Antisemitismus im Netz konsequent verfolgen, auch dann, wenn er in kodierter oder visuell verpackter Form auftritt. Dafür braucht es spezialisierte Einheiten, Schulungen und eine stärkere Zusammenarbeit mit Plattformen und internationalen Stellen.
Die Zivilgesellschaft ist oft die erste Anlaufstelle für Betroffene. Sie dokumentiert Vorfälle, bietet Beratung, sensibilisiert die Öffentlichkeit und entwickelt Bildungsformate. Zugleich muss die Zivilgesellschaft Antisemitismus als ihr eigenes Problem begreifen, nicht nur als etwas, das „anderen“ passiert. Das bedeutet, Wege zu finden, um zu lernen, aufzuklären und Verantwortung zu übernehmen. Dazu gehört die Erkenntnis, dass wir in Europa mit Antisemitismus sozialisiert sind und dass er tief in unseren Kulturen, Erzählungen und Traditionen verankert ist. Anstatt antisemitische Vorfälle reflexhaft zu skandalisieren oder zu externalisieren, braucht es einen angemessenen, reflektierten Umgang, der Betroffene ernst nimmt und strukturelle Zusammenhänge sichtbar macht.
Sie plädieren auch für Social Media Literacy gegen Antisemitismus. Was muss diese beinhalten, und wie kann man diese vermitteln?
I Social Media Literacy gegen Antisemitismus befähigt Nutzer und Nutzerinnen, antisemitische Inhalte in sozialen Medien zu erkennen, einzuordnen und unter Berücksichtigung der Funktionsweise der Plattformen selbst kritisch damit umzugehen. Sie verbindet technologisches Wissen über Algorithmen und Validierungsmechanismen mit der Fähigkeit zur Dekonstruktion von Antisemitismus. Das bedeutet, antisemitische Narrative, Bilder und Verschwörungsmythen in ihren historischen Wurzeln und aktuellen Erscheinungsformen zu erkennen, einzuordnen und zu hinterfragen. An der Universität Duisburg-Essen entwickeln wir aktuell ein interaktives Online-Lernspiel, das genau diese Fähigkeiten spielerisch vermittelt. Interessierte, die mehr darüber erfahren oder mitwirken möchten, können sich gerne bei uns melden.