Hate Speech entgegentreten

Ein Ratgeber für
Kommunikationsverantwortliche

Mit Recht gegen Hass

März 4th, 2020 by Jan Mönikes, Fachanwalt für Urheber- und Medienrecht, Justiziar des BdKom

1.      Hass im Netz

„Hass“ zeigt sich im Alltag, wie auch im Internet, in unterschiedlichen Facetten. Im Zusammenhang mit Äußerungen hat sich in Deutschland in Politik und Öffentlichkeit inzwischen der aus dem englischen Wort „Hate Speech“ abgeleitete Begriff „Hassrede“ und im Zusammenhang mit strafbaren Handlungen auch der der „Hasskriminalität“ etabliert.

Soziologisch und auch politisch kann man sich zur näheren Beschreibung der Bedeutung dieser neuen Begriffe sicherlich darauf einigen, dass darunter alles gefasst werden soll, was mit Abwertungen oder Angriffen auf Menschen einhergeht und wenn zu Hass und Gewalt aufgerufen wird, insbesondere mit rassistischer, antisemitischer oder sexistischer Motivlage. Ebenfalls so motivierte Beleidigungen, Verleumdungen und die Verbreitung von radikalem Gedankengut und illegalen (nazistischen) Inhalten und Ähnliches. Vereinzelt gibt es jedoch Stimmen die nicht nur gruppenbezogene Menschenfeindlichkeit, sondern weitergehend sogar jegliche Form von unsachlicher, offensiver oder „Vorurteilskommunikation“ als Hassrede oder gar als „Gewalt“ und damit „Hasskriminalität“ klassifizieren wollen und sie damit gern ebenfalls zum Gegenstand rechtlicher Regelungen, gar strafrechtlicher Konsequenzen machen möchten. Spätestens hier zeigt sich dann die Unschärfe und Problematik dieser Begriffe in rechtsstaatlicher Hinsicht. Denn weder „Hassrede“, noch „Hasskriminalität“ sind hinreichend bestimmbare juristische Begriffe, noch hätten sie eine Verankerung im bundesdeutschen Recht oder seiner Rechtstradition.

Das deutsche Recht kennt im Grundsatz lediglich zulässige oder unzulässige (bis hin zu strafbaren) Äußerungen. Der Versuch, durch (weite) Neu-Definitionen die gesellschaftlich problematische Verschärfung der öffentlichen Debatte, die das Erstarken populistischer Parteien aktuell begleitet, in den Griff zu bekommen, ist emotional und politisch vielleicht nachvollziehbar, rechtlich aber eher kontraproduktiv. „Hassrede“ stellt auch kein neues Phänomen von Facebook, Twitter & Co. dar. Bereits im Vorläufer aller „sozialen Netzwerke“, dem UseNet, bemühte sich die damals noch zahlenmäßig sehr überschaubare und zudem sozial recht homogene „Community“ bereits um verbindliche Regeln gegen den Missbrauch der offenen Informationsplattform. Regeln zur Selbstregulierung, wie die 1995 von der IETF verabschiedeten „Netiquette Guidelines“ RFC 1855, vermochten aber schon damals kaum, dem Missbrauch des neuen Mediums entgegen zu wirken. Allerdings wurde erst mit der Verbreitung des „WWW“ und den Blogs, Foren und sozialen Medien, sowie einer Verbreiterung der Nutzer*innenschichten des Internets, „Hass“ im Internet zu einem Massenphänomen und die „Empörungskultur“ zu einem Massenphänomen[1].

Früh entwickelte sich der Phänotyp des sog. „Trolls“ als die Beschreibung einer Person, die sich zum Ziel setzt, durch Beiträge andere emotional zu provozieren. Dabei geht es dem Troll kaum je wirklich um die Sache, sondern vor allem darum, schlechte Laune zu verbreiten und eine destruktive Kommunikationskultur zu schaffen – oftmals motiviert aufgrund seiner eigenen sozial gestörten Persönlichkeit und dem Drang nach Aufmerksamkeit, an der es ihm „offline“ offenbar mangelt. Ihm kommunikativ zu begegnen mündet daher meist in dem Rat „don´t feed the troll“, also ihm möglichst keine Aufmerksamkeit zu schenken – erst recht nicht in der Androhung juristischer Schritte. Denn souveräne Nicht-Beachtung wäre die beste Strategie, um gegenüber solch gestörten Geistern aufzutreten und wieder Ruhe in eine Debatte zu bekommen.

Anders dagegen die neuere Figur des „Haters“: Der*die Hater*in hat oft ein konkretes Anliegen und/oder politisches Ziel. Er*sie möchte mit seinen*ihren öffentlichen Beiträgen Unterstützung gegen oder für konkrete Personen oder Gruppen, Institutionen oder Positionen erzielen. Dabei möchte er*sie nicht mit dem Argument überzeugen, sondern mit „Macht“. Daher schreckt er*sie auch nicht vor konkreten Drohungen oder der Aufforderung zur Gewalt zurück. Der „Hater“ ist der Überzeugung, so Wahrheiten zu verbreiten, die vom Mainstream, von „denen da oben“ oder der „Lügenpresse“ unterdrückt werden sollen. Man wolle das „totschweigen“ oder gar „die Wahrheit verbieten“. Strategien, ihn*sie schlicht nicht zu beachten, bestätigen ihn*sie somit lediglich. Denn er*sie ist eben nicht – anders als der typische „Troll“ – allein, sondern mit ähnlich oder sogar gleichgesinnten online und offline verbunden und fühlt sich auch nicht etwa isoliert. Die Problematik der „Hassrede“ ist damit längst auch aus dem Bereich der sozialen Medien zum Teil der allgemeinen politischen Debatten(un)kultur in Deutschland und in anderen Ländern geworden.

Problematisch wird die Verwendung von treffenden Begriffen wie „Hate Speech“ oder „Hasskriminalität“ jedoch, wenn diese nicht mehr nur zur prägnanten Beschreibung dieses gesellschaftlichen Problems verwendet, sondern zur tatsächlichen Grundlage übersimplifizierender (rechts-) politischer Debatte und symbolischer Gesetzgebung erhoben werden. Das Bild der „Datenautobahn“ für das Internet beispielsweise endete so schon in untauglichen Vorschlägen für Gesetze, nach denen „von den privaten Betreibern des Internet“ ernstlich „Stoppschilder“, „Ampeln“ oder sogar „Mautstellen“ und „Grenzkontrollen“ zu errichten wären – unabhängig davon, dass dieses in global und dezentral strukturierten Datennetzen weder physisch noch logisch überhaupt möglich wäre.

Konkret verabschiedet wurde in Deutschland als Ergebnis einer stark von Symbolik geprägten politischen Debatte 2017 bereits das Netzwerkdurchsetzungsgesetz (NetzDG), das die sozialen Netzwerke ab einer gewissen Größe verpflichtet, mit erheblichem Personalaufwand gegen Hasskommentare vorzugehen. Sollten die sozialen Netzwerke dieser Pflicht nicht nachkommen, drohen ihnen Bußgelder bis zu 50 Millionen Euro. Dass mit solchen gesetzlichen „Pflichten“ für die Plattformen zugleich eine Ermächtigung einher geht, die ihnen ermöglicht, von der eigentlich gebotenen „Netzwerkneutralität“ abzuweichen und entgegen der üblichen Regeln des Datenschutzes und des Telekommunikationsgeheimnisses sogar private Kommunikation zu überwachen und zu bewerten, wird jedoch offensichtlich übersehen. Unternehmen, die überhaupt keinen Sitz in Deutschland haben und eine eigene, intransparente Agenda, werden zudem gleichsam zu „Hilfssheriffs“ des Staates ernannt, was ihre bereits vorhandene „Meinungsmacht“ sogar noch erhöht und zugleich wegen der Erhöhung ihrer Gemeinkosten für tausende von Mitarbeiter*innen in „Löschteams“ ihre Stellung im Markt zementiert.

Dieses zeigt sich aktuell (Februar 2020) in der Debatte um die Entwürfe des Bundesministeriums für Justiz und Verbraucherschutz (BMJV) zu einem „Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität[2] und des „Gesetz zur Änderung des Netzwerkdurchsetzungsgesetz[3]. Damit soll eine Reihe von Tatbeständen erweitert und die Strafandrohungen verschärft werden. Zudem sollen die bereits bestehenden Meldepflichten der Betreiber*innen von Plattformen sozialer Medien noch erheblich ausgeweitet und sogar eine Zentralstelle beim Bundeskriminalamt (BKA) errichtet werden, in der hunderte von Polizist*innen „respektlose und herabwürdigende Inhalte“ bekämpfen sollen. Offensichtlich mit dem Ziel, den „Raum des Sagbaren“ zu begrenzen, ist damit aber ein erheblicher Konflikt mit der vom Grundgesetz gewährleisteten Meinungsfreiheit vorprogrammiert.

Weiterer Konflikt droht mit den von den Bundesländern vorgesehenen Neuerungen durch die Bundesländer. Hier soll der Rundfunkstaatsvertrag durch einen Medienstaatsvertrag ersetzt werden. Der Staatsvertrag soll künftig auch für sogenannte Intermediäre, Plattformen und Benutzeroberflächen gelten. Im Wesentlichen sind damit die gleichen Internetplattformen gemeint, die Medieninhalte bereitstellen, und bereits durch das NetzDG, das TMG, die DSGVO geregelt werden.

Und schließlich hat nun auch die EU-Kommission angekündigt, bis Ende 2020 einen Entwurf für einen Digital Services Act, eine umfassende Regulierung für Internetplattformen vorzulegen. Erklärtes Ziel ist es, den Binnenmarkt für digitale Dienste zu stärken und dabei kleineren und innovativen Plattformen zu Rechtsklarheit und gleichen Wettbewerbsbedingungen zu verhelfen, bevor ein Flickenteppich nationaler Einzelregeln entsteht, den dann nur noch die marktdominanten Plattformen überblicken. Dabei geht es auch um den Schutz der Menschen vor Hass, Hetze und Desinformation sowie um den Schutz der Grundrechte wie der Meinungsfreiheit auf den Internetplattformen – aber eben nach gleichen Standards überall in der Europäischen Union.

Aufgrund der aktuell laufenden Gesetzgebung in diesem Bereich, ist der nachfolgende Teil, in dem die bestehenden und in der Diskussion befindlichen rechtliche Instrumente näher beleuchtet werden, gerade noch in Überarbeitung und wird alsbald nachgeliefert.

 

[1] https://www.heise.de/autos/artikel/Meinung-2019-Ich-rege-mich-auf-4630694.html

[2]https://www.bmjv.de/SharedDocs/Gesetzgebungsverfahren/DE/Bekaempfung_Rechtsextremismus_Hasskriminalitaet.html;jsessionid=D166570F0E5EC210DD2771898F057004.1_cid297

[3]https://www.bmjv.de/SharedDocs/Gesetzgebungsverfahren/DE/NetzDGAendG.html?nn=6712350