Hass als Unterhaltungsform – Möglichkeiten in der präventiven Jugendarbeit

Liebe Leserinnen und Leser,

seit 2015 flüchten vermehrt Menschen nach Europa, was seitdem immer wieder zu Gewaltaufrufen gegen Geflüchtetenunterkünfte und zu verbalen Angriffen auf Politiker*innen führt. Im digitalen Zeitalter findet ein Großteil dieser Debatte im Internet, genauer gesagt, in Sozialen Medien und Kommentarspalten von Onlinemedien, statt. Die anfänglichen Hypothesen über die Radikalisierung des Diskurses aufgrund von Anonymität sind nur teilweise berechtigt. Viele User*innen verbreiten problemlos unter ihrem richtigen Namen Hass und Aufrufe zur Gewalt gegen Geflüchtete und deren Unterstützer*innen. Der Druck der Zivilgesellschaft wurde immer stärker und auch Politiker*innen wurden vermehrt Opfer solcher Angriffe. Mittlerweile geschieht viel in dem Bereich Hate Speech. Eine Taskforce wurde gegründet und deutschlandweit beschlagnahmten Beamte bei Razzien Laptops und Mobilgeräte. Zur gruppenbezogenen Menschenfeindlichhkeit (GFM) in Zeiten von Sozialen Medien wurden in den letzten zwei Jahren viele Publikationen (z.B. „Hass im Netz“ von Inge Brodnig) herausgegeben und Handlungsstrategien diskutiert. Auch wenn in diesem Bereich noch viel zu tun ist, beschäftigt sich dieser Artikel mit einer anderen Art von Hate Speech.

Ein Phänomen, das bisher kaum beleuchtet ist, ist eine Form von Hate Speech, die sich nicht gegen Menschengruppen richtet, sondern meist gegen Einzelpersonen. Diese Art von Hass richtet sich nicht gegen Geflüchtete, gegen Juden oder gegen Sinti und Roma, denn diese Form von Hass hat keine politische Agenda. Es geht um den Spaß, um die Shares, die Retweets, insgesamt ist es „just for the lulz“ (nur für die Lacher).

Der Artikel wird sich vor allem auf Twitter und zu Teilen auf YouTube beziehen, da dies keine Communitys, wie beispielsweise 4chan, sind, bei denen der Hass im Vordergrund steht. Twitter hatte Ende 2016 ca. 320 Millionen aktive User*innen und gehört damit nach Facebook mit 1,15 Milliarden angemeldeten Nutzer*innen, Instagram mit 600 Millionen und YouTube (Statistiken über aktive Kommentator*innen liegen leider nicht vor) zu den bedeutendsten Social Media Diensten. Die Zahl der aktiven Twitteraccounts spiegelt noch viel weniger als die Anzahl der registrierten Facebookaccounts die Anzahl der real agierenden Personen vor Laptops oder Smartphones wieder. Sind es bei Facebook vor allem Fakeprofile, die zum Betrug oder zur Vermittlung von sexuellen Dienstleistungen angelegt werden, sind es bei Twitter hauptsächlich Bots und viele Zweit- oder Drittaccounts von User*innen. Eine nicht geringe Anzahl dieser Zweit- und Drittaccounts haben ausschließlich einen Zweck: Hass verbreiten, Menschen angreifen und  diese strategisch aus dem Internet zu vertreiben. Diese Strategie nennt man Silencing. Sie findet auch in der klassischen Hate Speech Verwendung, jedoch aus anderen Motiven.

Es gibt verschiedene Namen für die Menschen, die Hass als Unterhaltungsform nutzen. Eine Twitteruserin nannte diese konstruierte Gruppe in einem Artikel „Sifftwitter“, andere nennen sie „Trolls“ bzw. „Trollringe“, um unter einzelnen Gruppen von Hetzern zu unterscheiden und sie selbst nennen sich gelegentlich „Haider“ (Hater). Ein wirklich passender Begriff konnte sich bisher nicht etablieren. Der Begriff „Troll“ legt nahe, dass jede Form von Trolling aus Hassmotiven entsteht, der Begriff „Sifftwitter“ wird vom Großteil der damit bezeichneten Personen gefeiert und die Selbstbezeichnung, mit der sie sich rühmen und nicht diskreditieren wollen, möchte man ihnen auch nicht zusprechen.

Die wohl größte Anzahl an Feinden auf Twitter und YouTube in Deutschland hat Rainer Winkler aka. Drachenlord. Seit 2011 betreibt er einen YouTube-Kanal, auf dem er Videos von sich selbst hoch lädt. Dies sorgt seitdem für immer größeren Hass und verschiedene, auch strafrechtlich relevante Verbrechen. So wurde „der Drache“ das erste Opfer in Deutschland vom sog. Swatting. Beim Swatting, das in Amerika ein zunehmendes Problem darstellt, werden Falschinformationen über eine Person an die Polizei oder, wie in diesem Falle, an die Feuerwehr, weitergegeben, in der Absicht, das Haus der betroffenen Person stürmen zu lassen. Beim Swatting von Rainer Winkler konnte der Täter gefunden und verurteilt werden (Vice berichtete: https://motherboard.vice.com/de/article/erstes-deutsches-swatting-hohe-freiheitsstrafe-fuer-drachenlord-hater). Dieser Hass entsteht in den YouTube-Kommentarspalten und auf Twitter. Unter dem #drachengame tweeten verschiedene Menschen über die neusten Videos vom Drachenlord. Positives ist dabei nicht zu finden. Mit der Bezeichnung „Drachengame“ machen die Akteur*innen jedoch sehr deutlich, was der Hass für sie ist: Ein Spiel. (Eine gute Dokumentation über das sog. Drachengame gibt es hier: https://www.youtube.com/watch?v=JeIjvCSuO0U)

Aus dieser Hatebubble, die aus Menschen unterschlichen Alters und mit diversen politischen Ansichten besteht, sind wiederum Hatetrollbubbles hervorgegangen. Diese splitten sich meist über politische Ansichten bzw. weitere gemeinsame Feinde auf, die sie zu ihren Opfern machen wollen. So gibt es organisierte rechte Hatebubbles, die dann wiederum klassisch gegen Merkel und Geflüchtete hetzen, aber auch solche, die eher dem linken Spektrum zu zuordnen sind und sich vor allem an angeblicher Heuchelei stören. Für viele Jugendliche ist diese Gruppe anziehender. Die User*innen aus dieser Gruppe sind meist zwischen 16 und 35, sind gebildet und rechtfertigen ihren Hass als legitime Kritik. Sie provozieren auch mal gerne mit Antisemitismus und halten einen Satireschutzschild vor sich. Denn Satire darf ja bekanntermaßen alles.

Schaut man sich die Dynamiken in dieser Gruppe an, wird jedoch schnell deutlich, dass es sich hier nicht, oder nur in den seltensten Fällen, um Satire handelt. Vielmehr als kritisieren, ansprangen und den Spiegel vorhalten, wollen diese Akteur*innen nämlich ihrem eigenen Individuum Bedeutung verleihen und sich Reichweite verschaffen. Sie lieben die Reaktionen auf ihre Kommentare, die Retweets, die „lulz“, die sie bekommen. Dieser Narzissmus, den sie anderen User*innen vorwerfen, ist alleine auf der Bestätigung für ihren Hass aufgebaut. Im Prinzip haben sie vermutlich ähnliche Wünsche wie die Menschen, die sie fertig machen: Aufmerksamkeit, Anerkennung, als Individuum hervorstechen.

Und das ist auch für Jugendliche attraktiv. Die Präventionsarbeit muss also hauptsächlich in zwei Richtungen gehen: Möglichkeiten aufzeigen, wie man durch positive Arbeit sein Geltungsbedürfnis ausleben kann und zudem Opfer von Hatetrolls sichtbar machen. Es ist verlockend, in scheinbar harmlose Gespräche mit Trolls einzusteigen und sich gegenseitig ein bisschen zu beleidigen. Menschen mit einer gewissen Schlagfertigkeit und Witz bekommen so auch schnell Zuspruch und Follower, geraten aber immer tiefer in die Welt des Hasses. Man beginnt Hatetrolls für ihre guten Witze oder ihre klugen Sprachspiele zu folgen und die restliche Entwicklung verläuft meist schleichend.

Die Präventionsarbeit in diesem Bereich ist allerdings nicht ohne Gefahr. Die Wahrscheinlichkeit, dass man gerade bei diesem Thema, Jugendliche erst auf die Idee bringt, sich bei Twitter zu registrieren und Menschen systematisch fertig zu machen, ist recht hoch. Deshalb ist es wichtig verschiedene Opfer und Opfertypen von Hate Speech darzustellen, um eine größtmögliche Identifikationsfläche abzubilden. Jeder*jedem sollte klar sein, dass auch man selbst Opfer von dieser Form von Hass werden kann.

Ein weiteres Problem ist der erschwerte Zugang zu diesem Thema. Nur wenige Pädagog*innen sind in dem Maße bei Twitter aktiv, dass sie über das Thema aufklären könnten. Alleine diese Sprache auf Twitter zu verstehen, erfordert schon eine gewisse Übung. Die Codes, die Anspielungen auf Jugendkulturen oder Internetphänomene, vermischt mit politischem Wissen, sind nicht leicht zu entschlüsseln. Deshalb ist es wichtig, sich auch in der pädagogischen Arbeit viel mit der Lebenswelt von Jugendlichen auseinanderzusetzen und gezielt in Multiplikator*innenschulungen über Hass als Unterhaltungsform aufzuklären. Gemeinsam können wir uns vernetzen und uns Konzepte dazu ausdenken, Strategien entwickeln und dafür sorgen, dass zukünftig etwas weniger Hass im Internet stattfindet.

Maxine Bacanji, 23, Lehramtsstudentin in den Fächern Deutsch und Philosophie für das Gymnasium und die Gesamtschule, freie Referentin zu den Themen Hate Speech und Antisemitismus