Eine neue EU-Verordnung sorgt für Unruhe, vor allem im Netz. Es geht um das Löschen von “terroristischen Inhalten”. Menschenrechtsaktivist und Tech-Spezialist Dia Kayyali erklärt, warum die Verordnung auf keinen Fall durchkommen sollte: Unternehmen würden noch stärker auf das automatisierte Löschen setzen und dafür opake KI-Algorithmen verwenden; autokratische Regierungen könnten die Verordnung kopieren, etc. Ein Appell.
*
Wenn Gerichte ordentlich arbeiten, dann bieten sie normalerweise eine umfassendere Rechtsprechung als privatwirtschaftliche Unternehmen – vor allem wenn es um Entscheidungen über freie Meinungsäußerung geht. Darüber zu entscheiden, was in öffentlichen Foren in demokratischen Gesellschaften geäußert werden darf, ist keine leichte Aufgabe. Die gesetzlichen Rahmenbedingungen reichen hier vom Ersten Verfassungszusatz in den USA, der das Recht auf freie Meinungsäußerung sehr streng beschützt, bis hin zu den strikten Auflagen gegen hate speech im deutschen Recht.
Doch zumindest können diese Rechtsnormen prozessiert, diskutiert und verstanden werden. Warum versuchen die Europäische Kommission und einige mächtige MinisterInnen des Rates für Justiz und Inneres, einen Regulierungsvorschlag durchzusetzen, der nicht nur private Unternehmen dazu zwingt, Meinungsäußerung zu regulieren, sondern tatsächlich die Verwendung von undurchsichtigen Filtern und KI-getriebenen Algorithmen erfordern würde, um dies zu tun? Die einzige Antwort ist, dass dieser Vorschlag, der seit dem 6. Dezember vorangetrieben wird, politisches Theater ist. Er sollte auf keinen Fall Gesetz werden.
Worum es bei dem Vorschlag geht
Die Europäische Kommission hat eine Verordnung zur „Verbreitung von terroristischen Inhalten im Internet“ vorgeschlagen, die auf einem im September 2017 begonnenen Prozess beruht. Die Kommission hat im März 2018 eine Empfehlung zu „illegalen Inhalten“ verabschiedet und spezifische Regelungen zu „terroristischen Inhalten“ im September dieses Jahres vorgeschlagen.
Das vorgebliche Ziel dieser Verordnung besteht darin, “Hosting-Diensteanbieter” dazu zu zwingen, “terroristische Inhalte” innerhalb einer Stunde nach Erhalt einer Entfernungsanordnung von einer “zuständigen Behörde” eines EU-Mitgliedstaats zu entfernen und proaktive Maßnahmen zu ergreifen, einschließlich “automatisierter Mittel”, die solche Inhalte erkennen und ein Wiederauftreten verhindern. Die Anführungszeichen kennzeichnen alle Stellen in der Verordnung, an denen Definitionen unklar oder schlecht formuliert sind.
Mit dem Vorschlag würden spezifische Verpflichtungen für Hosting-Diensteanbieter geschaffen, die die Entfernung, die Berichterstattung über Entfernung und fortlaufende Darlegung der “proaktiven Maßnahmen” gegen terroristische Inhalte gegenüber den Behörden umfassen. Die Mitgliedstaaten benennen ihre eigenen zuständigen Behörden und legen ihre eigenen Strafen fest, die bis zu 4% des Gesamtumsatzes des letzten Geschäftsjahres des Hosting-Anbieters ausmachen können, wenn der Staat zu dem Schluss kommt, dass dieser systematisch darin versagt hat, die Vorgaben einzuhalten. Darüber hinaus definiert jeder Mitgliedstaat selbst, was genau unter “terroristischem Inhalt” zu verstehen ist.
Die Politik dahinter
Dieser Vorschlag wurde nicht nur von der Kommission, sondern auch von mächtigen Ministern vorangetrieben. Im April haben der Innenminister der BRD, Horst Seehofer und der Innenminister Frankreichs, Gérard Collomb, einen Brief an die Europäische Kommission geschrieben, in dem sie zügige und entschlossene Maßnahmen fordern, um sicherzustellen, dass die Unternehmen Inhalte aus dem Netz entfernen. Sie machten auch keinen Hehl daraus, wie die Zukunft solcher Mechanismen aussehen soll: “In einem späteren Schritt sollten die Regeln evaluiert und gegebenenfalls um Maßnahmen zur Bekämpfung von Kinderpornographie und anderen illegalen Inhalten erweitert werden.”
Dieses Verordnung schreit geradezu “politisches Manöver”. Die BefürworterInnen aus dem Rat für Justiz und Inneres haben sich für eine allumfassende Herangehensweise eingesetzt, was weniger Zeit für Diskussionen bedeutet. Sie haben wiederholt argumentiert, dass die Verordnung vor den Wahlen verabschiedet werden muss. Obwohl die Mehrheit der MinisterInnen im Rat diesem Ansatz zugestimmt hat, drängten die Tschechische Republik und Dänemark auf mehr Zeit. Viele MinisterInnen haben Fragen zum grenzüberschreitenden Charakter des Verordnungsvorschlags und zu technischen Aspekten aufgeworfen, und einige Länder, insbesondere Finnland und Schweden, haben die Auswirkungen des Vorschlags auf die Grundrechte zur Sprache gebracht. Wenig überraschend sprachen sich die Minister aus Frankreich und Deutschland für den Vorschlag aus. Frankreich wies darauf hin, wie stark das Land vom Terrorismus betroffen sei, und Deutschland erklärte, dass es sich um eine “Schlüsselpriorität” handele, die in dieser Legislaturperiode verabschiedet werden müsse.
Zu den Gefahren, die mit dieser Verordnung einhergehen, wurde bereits viel geschrieben (etwa bei Netzpolitik und bei der European Digital Rights Initiative). Wir bei WITNESS wissen aus erster Hand, was alles schief laufen kann, wenn dieser Vorschlag umgesetzt wird. Das Gesetz wird in der Folge von weniger demokratischen Ländern kopiert werden und es wird zum übermäßigen Einsatz automatisierter Content-Moderation kommen.
Wir schließen uns unseren Verbündeten an, einschließlich der UnterzeichnerInnen eines am 4. Dezember an die Minister gerichteten Briefes, das beklagt, dass die Verordnung schlecht formuliert, unnötig und übertrieben sei. Ganz konkret gibt es zwei Bedenken über die negativen Auswirkungen dieser Regelung: Das Vorantreiben opaker Machine-Learning-Algorithmen zum automatisierten Löschen und die Kopie des Gesetzes durch undemokratische Länder.
Automatisierte Content-Moderation
Der Vorschlag fördert die verstärkte Nutzung von Machine-Learning-Algorithmen zur Ermittlung terroristischer Inhalte sowie eine verstärkte automatisierte Entfernung. Die Algorithmen basieren auf Datenbanken, die mit Material gefüllt sind, das als “terroristisch” eingestuft wurde. Die Architektur dafür existiert bereits und ist in Geheimhaltung und Irrtümer gehüllt.
Durch das Globale Internetforum zur Bekämpfung des Terrorismus (GIFCT) verfügen viele große Unternehmen bereits über eine gemeinsame Datenbank mit extremistischen Inhalten, die gegen ihre Nutzungsbedingungen verstoßen (was bedeutet, dass sie möglicherweise nicht einmal gegen das Gesetz verstoßen). Leider stellt das GIFCT fast keine Informationen über diese Datenbank öffentlich zur Verfügung, einschließlich Informationen zu Qualitätsprüfungen oder Neubewertungen. Fehler in dieser Datenbank werden an alle Mitglieder des GIFCT weitergegeben. Das scheint Seehofer und Collomb nicht zu beeindrucken, in ihrem Schreiben an die Kommission fordern sie die Unternehmen auf, dass sie “die zugehörigen Hash-Werte miteinander austauschen sollten, um die Wiederveröffentlichung von Inhalten zu verhindern, die bereits als rechtswidrig anerkannt wurden.”
Facebook und YouTube, die zu den Gründungsmitgliedern der GIFCT gehören, verwenden bereits Machine-Learning-Algorithmen, um so genannte extremistische Inhalte zu erkennen und zu entfernen. Wir beschäftigen uns seit August 2017 mit den Auswirkungen dieses Algorithmus auf YouTube. Gemeinsam mit unserem Partner, dem Syrian Archive, haben wir die Entfernung hunderttausender Kanäle und Videos beobachtet, die Menschenrechtsverletzungen in Syrien dokumentieren.
Keine Verantwortung, keine Transparenz
Wir wissen fast gar nichts über diese Algorithmen. Es gibt keine Zusicherungen hinsichtlich algorithmischer accountability oder Transparenz hinsichtlich der Genauigkeit, Erklärbarkeit, Fairness und Überprüfbarkeit dieser Algorithmen. Plattformen verwenden proprietäre Machine-Learning-Algorithmen, die vor jeglicher Überprüfung geschützt sind. Gruppen wie WITNESS versuchen durch das Überprüfen von Mustern oder Informationen aus zweiter Hand, herauszufinden, wie diese Algorithmen funktionieren. Wenn diese Algorithmen als “nicht interpretierbar” angelegt wurden, haben Menschen keine Chance, sie zu verstehen. Aber wir können nicht einmal auf die Trainingsdaten oder grundlegende Annahmen zugreifen, die diese Algorithmen steuern. Es gab noch nie eine Art Prüfung Dritter einer solchen proprietären Technologie, obwohl wir dies nachdrücklich unterstützen würden, wenn die Unternehmen dafür offen wären.
Stichwort Genauigkeit: Wir haben gesehen, welch katastrophale Auswirkungen bereits bestehende Systeme auf die Meinungsfreiheit und auf die Dokumentation und die Erforschung von Menschenrechtsverletzungen haben können. Wie bereits erwähnt, sind im Syrian Archive Hunderttausende von Videos verschwunden, und ganze Kanäle wurden geschlossen. Diese Videos stammen von Gruppen, die von JournalistInnen und Menschenrechtsorganisationen wie den Vereinten Nationen anerkannt sind. Wenn sie extremistische Aktivitäten zeigen, dann machen sie deutlich, dass sie dies zum Zwecke der Dokumentation tun. Doch viele dieser Videos haben schlicht gar keine Verbindung zum Extremismus – sie zeigen Demonstrationen oder die Folgen eines Bombenanschlags.
„Syrian Archive“ ist nicht die einzige Gruppe, die sich auf solches Open Source-Wissen stützt, um Menschenrechtsverletzungen zu untersuchen und zu dokumentieren. Dazu gehören auch der Internationale Strafgerichtshof, Human Rights Watch, die Vereinten Nationen und sogar Staatsanwälte in Schweden und Deutschland, die versuchen, KriegsverbrecherInnen und TerroristInnen in Syrien strafrechtlich zu verfolgen. Diese ErmittlerInnen werden nicht alamiert, wenn Plattformen vorhaben, bestimmtes Material zu löschen. Somit können sie es nicht überprüfen und eventuelle Beweise sichern. Wir haben keinerlei Zweifel daran, dass diese Verordnung die Unternehmen stark dazu anregt, die Schleusen für eine automatisierte Inhaltsmoderation zu öffnen.
Schlechte Kopien
WITNESS arbeitet auf globaler Ebene, und wir haben gesehen, wie in demokratischen Gesellschaften durchgeführte Maßnahmen dazu verwendet werden können, die Menschenrechte zu unterdrücken, oder, wie Richtlinien in einem völlig anderen Umfeld einfach nicht funktionieren. In seiner jetzigen Form nimmt diese Verordnung den Gerichten und den Gesetzgebern die Entscheidung darüber ab, welche Meinungsäußerungen legal oder illegal sind und sie übergibt diese Entscheidungen Unternehmen und völlig unklar definierten „zuständigen Behörden“.
Die Verordnung ermutigt die großen Netzplattformen, Machine-Learning-Algorithmen zu erschaffen, die in undemokratischen Gesellschaften eingesetzt werden könnten, um KritikerInnen zum Schweigen zu bringen. Und sie ermutigt zu der Idee, dass zur Bekämpfung von “terroristischen Inhalten” jedes Mittel Recht ist – eine Idee, die bereits von Russland, Ägypten und vielen anderen Ländern, in denen schreckliche Menschenrechtsverletzungen begangen wurden und werden, kopiert worden ist.
Die wichtige Rolle der EU und Deutschlands
Die Rolle der Europäischen Union, insbesondere Deutschlands, bei der Festlegung von gesetzlichen Rahmenbedingungen, die möglicherweise die Rechte von Milliarden Menschen beeinflussen können, wird immer größer. Darüber hinaus kann bisher kein Rechtssystem mit den Entwicklungen des Internets Schritt halten, deswegen ist jede neue Gesetzgebung, die es regelt, von so großer Bedeutung.
Die Reaktionen der Legislative auf Probleme, die durch das Internet hervorgerufen wurden, können und werden sich global ausbreiten, auch wenn sie die freie Meinungsäußerung bedrohen – das haben nicht zuletzt die zahlreichen rechtlichen Reaktionen auf die Verbreitung von Fake News weltweit gezeigt. Deshalb sind wir zutiefst besorgt über den schlechten Präzedenzfall, der global gelten würde, sollte diese Verordnung durchgesetzt werden.
Das ist nicht hypothetisch. Das NetzDG, das ein gefährliches System für die schnelle Entfernung “illegaler Inhalte” in den sozialen Medien schafft, wurde bereits von vielen Ländern als positives Beispiel angeführt, darunter auch Russland, ein Land, das offensichtlich eine abscheuliche Bilanz beim Thema der freien Meinungsäußerung hat.
In der Tat schrieb Reporter ohne Grenzen, dass ein gefährliches russisches Gesetz, das 2017 verabschiedet wurde, eine Copy-Paste-Variante des NetzDG sei. Selbst innerhalb des demokratischen Systems in Deutschland wurde die NetzDG dazu benutzt, Tweets zu entfernen, die eine Parodie auf die Hate Speech eines AfD-Politikers darstellten.
Regierungen auf der ganzen Welt missbrauchen bereits die Nutzungsbedingungen von Plattformen, um KritikerInnen zum Schweigen zu bringen. Stellen Sie sich vor, wie geschickt Regierungen, die bereits die Servicebedingungen von Facebook missbrauchen, etwa Kambodscha, die Verordnung zu terroristischen Inhalten in ihren eigenen Ländern instrumentalisieren könnten.
Diese Verordnung wird zwar stark vorangetrieben, sie wird jedoch nicht mehr verabschiedet, bevor das Europäische Parlament am 13. Dezember in die Winterpause geht. Die MinisterInnen müssen die Parlamentsabgeordneten davon überzeugen, diesen gefährlichen Vorstoß zu unterstützen, und es ist gut möglich, dass genügend Abgeordnete dies zurückdrängen werden. Dann wird die Verordnung geändert oder gar nicht erst kommen. Wir bei WITNESS werden diesen Prozess genau beobachten. Unsere hier vorliegende Analyse werden wir dem EU-Parlament zukommen lassen. Zudem unterstützen wir Aktivitäten, die das öffentliche Bewusstsein für dieses Thema schärfen, wie etwa diesen offenen Brief von La Quadrature du Net.
Anm. d. Red.: Weitere Projekte, die sich mit der politischen Dimension von KI beschäftigen, finden Sie auf der Doku-Webseite der BG-Jaheskonferenz AMBIENT REVOLTS. Das Foto oben stammt von Andi Weiland und steht unter einer CC-Lizenz.