Hate Speech entgegentreten

Ein Ratgeber für
Kommunikationsverantwortliche

Europas Gesetzgeber werden aktiv gegen Hass im Netz

Februar 25th, 2020 by Reinhard Hönighaus, Sprecher der Europäischen Kommission in Deutschland

Um gegen Hass und Hetze in sozialen Netzwerken, Suchmaschinen und Videoportalen vorzugehen, haben einige Regierungen in Europa und auch die Europäische Kommission in den vergangenen Jahren zunächst auf freiwillige Maßnahmen der Plattformen gesetzt. Die Bundesregierung ging mit dem 2017 in Kraft getretenen NetzDG bereits deutlich weiter. Deutschland erlegte den Anbietern von sozialen Netzwerken unter anderem die Pflicht auf, rechtswidrige Inhalte im Sinne des NetzDG nach Kenntnis und Prüfung zu entfernen oder den Zugang zu ihnen zu sperren.

Inzwischen steht nicht nur in Deutschland eine Verschärfung des NetzDG an, auch in Großbritannien, Frankreich und bei der Europäischen Kommission wird über regulatorische Eingriffe nachgedacht. Am weitesten gehen bisher Ideen einer französischen Regierungskommission, die unter anderem eine neue Aufsichtsbehörde für soziale Medien angeregt hat.

Die neue EU-Kommission unter Ursula von der Leyen strebt nun eine umfassende Regulierung für Internetplattformen an. Erklärtes Ziel ist es, den Binnenmarkt für digitale Dienste zu stärken und dabei kleineren und innovativen Plattformen zu Rechtsklarheit und gleichen Wettbewerbsbedingungen zu verhelfen, bevor ein Flickenteppich nationaler Einzelregeln entsteht, den dann nur noch die marktdominanten Plattformen überblicken. Dabei geht es auch um den Schutz der Menschen vor Hass, Hetze und Desinformation sowie um den Schutz der Grundrechte wie der Meinungsfreiheit auf den Internetplattformen – und zwar nach gleichen Standards überall in der Europäischen Union.

Dieses neue Gesetz über digitale Dienstleistungen (Digital Services Act), das die EU-Exekutive laut ihrem Arbeitsprogramm bis Ende 2020 vorlegen will, dürfte auf europäischer Ebene eine große netzpolitische Debatte in den kommenden Jahren auslösen. Bevor die Kommission ihren Gesetzesvorschlag vorlegt, wird sie wie immer zunächst mit einer breit angelegten öffentlichen Konsultation Ideen testen und Anregungen sammeln. Die Konsultation soll noch im Frühjahr 2020 starten und wird für alle Interessierten offen sein.

Bereits im Mai 2016 hatte die Kommission unter Jean-Claude Juncker zusammen mit vier großen IT-Konzernen (Facebook, Microsoft, Twitter und YouTube) einen Verhaltenskodex eingeführt, um gegen die Verbreitung rassistischer und fremdenfeindlicher Hetze im Internet vorzugehen. Ähnlich wie das NetzDG in Deutschland soll der europäische Kodex sicherstellen, dass Anträge auf Entfernung von Online-Inhalten rasch bearbeitet werden – allerdings auf rein freiwilliger Basis. Die Konzerne haben damals zugesagt, den Großteil dieser Anträge innerhalb von 24 Stunden zu prüfen und den Inhalt gegebenenfalls zu entfernen, dabei aber stets den Grundsatz der Meinungsfreiheit zu wahren. Wenn Unternehmen aufgefordert werden, als illegal angesehene Inhalte von ihrer Online-Plattform zu löschen, bewerten sie diese Aufforderung anhand ihrer eigenen Vorschriften, Leitlinien der Branche sowie gegebenenfalls anhand der nationalen Gesetzgebung und des EU-Unionsrechts im Kampf gegen Rassismus und Fremdenfeindlichkeit.

Inzwischen bekennen sich neun Unternehmen zu dem Kodex: Facebook, YouTube, Twitter, Microsoft, Instagram, Google+, Dailymotion, Snapchat und Webedia (jeuxvideo.com). Die Umsetzung wird durch ein Netz zivilgesellschaftlicher Organisationen in verschiedenen EU-Mitgliedstaaten bewertet. Diese Organisationen testen anhand einer gemeinsam vereinbarten Methode, wie die IT-Konzerne den Verhaltenskodex in der Praxis anwenden. Dies geschieht, indem sie die IT-Unternehmen regelmäßig auffordern, bestimmte Inhalte von ihren Plattformen zu löschen. Die beteiligten Organisationen dokumentieren, wie lange die IT-Konzerne brauchen, um die Aufforderung zu bewerten, wie sie auf die Aufforderung reagieren, sowie das Feedback, das sie von den Konzernen erhalten.

Die Ergebnisse der jüngsten Bewertungsrunde im Jahr 2019, in die auch Instagram und Google+ einbezogen wurden, zeigen, dass rund 89 Prozent der Meldungen binnen 24 Stunden beurteilt wurden. Alle IT-Unternehmen erfüllen das Ziel, der Mehrzahl der Meldungen binnen 24 Stunden nachzugehen. Facebook hat es sogar geschafft, 92,6 Prozent der Meldungen innerhalb von 24 Stunden zu prüfen.

Im Schnitt entfernen IT-Konzerne fast 72 Prozent aller Hetze aus dem Netz, die ihnen von den Nichtregierungsorganisationen und öffentlichen Stellen gemeldet wurde. Wenn etwa 70 Prozent der gemeldeten Inhalte tatsächlich aus dem Netz entfernt werden, gilt dies als zufriedenstellend, da bei Weitem nicht alle von Nutzern gemeldeten Inhalte tatsächlich als eindeutig rechtswidrig zu werten sind.

Für schwerwiegendere Fälle mutmaßlicher illegaler Hetze liegt der durchschnittliche Anteil der entfernten Inhalte höher. Inhalte, die zu Mord an oder zu anderen Gewalttaten an Angehörigen bestimmter Gruppen aufrufen, werden in 85,5 Prozent der Fälle entfernt. Ebenso werden Inhalte, die wahrscheinlich darauf abzielen, den Holocaust zu leugnen, in 75 Prozent der Fälle aus dem Netz genommen. Inhalte mit herabwürdigenden, diffamierenden Begriffen oder Bildern zu bestimmten sozialen Gruppen oder Angehörigen dieser Gruppen werden in 58,5 Prozent der Fälle entfernt. Dies legt nahe, dass die Unternehmen die Meinungsfreiheit angemessen achten und sie beim Entfernen von Inhalten nicht über das Ziel hinausschießen.

Noch immer werden die Nutzer*innen nicht vollständig über die Ergebnisse ihrer Meldungen informiert: Facebook ist die einzige Plattform, die allen Nutzer*innen systematisch Feedback gibt, andere Plattformen erreichen dieses Niveau noch nicht (Twitter: 60,4 Prozent, Instagram: 41,9 Prozent, YouTube: 24,6 Prozent).

Illegale Hetze im Internet ist nicht nur eine Straftat, sondern bedroht die freie Meinungsäußerung und die demokratische Gesellschaft insgesamt. Diese Gefahr wird immer mehr Menschen und auch politischen Entscheidungsträgern in Europa bewusst. Welche Standards für die Lösung dieses ernsten Problems auf europäischer Ebene gesetzt und wie verbindlich diese sein können, ohne Abstriche am Schutz der Meinungsfreiheit zu machen, wird die Debatte über den Digital Services Act in den kommenden Monaten zeigen.