Cornelia Ernst
Cornelia Ernst

Schlichtweg illegal

Cornelia Ernst, datenschutzpolitische Sprecherin von DIE LINKE im Europaparlament, erklärt im Vorfeld zur Abstimmung über die ‚Verwendung von Technik zur Verarbeitung von Daten zwecks Bekämpfung des sexuellen Missbrauchs von Kindern im Internet‘

„Der vorliegende Text erlaubt das wahllose Scannen aller Kommunikationen, was schlichtweg illegal ist. Sexueller Missbrauch von Kindern ist ein schreckliches Verbrechen, das mit verschiedenen Maßnahmen bekämpft werden muss. Aber das, worüber heute abgestimmt wird, ist so, als würde die Post von jedem alle Briefe öffnen, um zu prüfen, ob etwas Illegales vorliegt. Das wahllose Scannen der gesamten Kommunikation ist keine verhältnismäßige Antwort auf Kriminalität. Wenn wir eine solche Massenüberwachung bei sexuellem Kindesmissbrauch zulassen, wird sie in Zukunft auch auf andere Formen der Kriminalität ausgeweitet werden. Deshalb werde ich heute dagegen stimmen.“

 

Cornelia Ernst weiter:

„Was heute verabschiedet wurde, erlaubt es Anbietern von Messenger-Diensten wie Facebook-Messenger oder Skype, den Inhalt und die Metadaten aller Kommunikationen sowohl auf bekanntes und neues Material über sexuellen Kindesmissbrauch als auch auf die Aufdeckung von ‚Grooming‘ zu scannen. Erkannte Straftaten können an Strafverfolgungsbehörden oder zivilgesellschaftliche Organisationen gemeldet oder zur Sperrung von Konten genutzt werden. Dieses wahllose Scannen der privaten Kommunikation stellt eine Massenüberwachung dar, die niemals gerechtfertigt ist, nicht einmal bei den schrecklichsten Verbrechen. Während das Scannen nach bekanntem Material mit der photoDNA-Software von Microsoft als recht zuverlässig gilt, trifft das bei der Erkennung von neuem, unbekanntem Material und Grooming nicht zu. Hier steht nur eine auf künstlicher Intelligenz basierende Technologie zur Verfügung, ohne dass es unabhängige Informationen oder Transparenz hinsichtlich der verwendeten Algorithmen oder objektiver Leistungsindikatoren gibt. Mit anderen Worten: Wir kennen weder die Faktoren, auf denen die Entscheidungen der KI beruhen, noch wissen wir, wie gut sie funktioniert.“

 

Hintergrund:

Im Juli 2020 stellte die Kommission fest, dass das Inkrafttreten des Kodex für elektronische Kommunikation (Richtlinie (EU) 2018/1972) am 21. Dezember 2020 zur Folge hat, dass nummernunabhängige Anbieter von interpersonellen Kommunikationsdiensten (Gmail, Skype, Facebook Messenger etc.) in den Anwendungsbereich der Datenschutzrichtlinie für elektronische Kommunikation (Richtlinie (EU) 2002/58) fallen, die die Vertraulichkeit der Kommunikation schützt. Um das Grundrecht auf Vertraulichkeit der Kommunikation zu gewährleisten, ist die Verarbeitung des Inhalts der Kommunikation generell verboten und die Verarbeitung von Metadaten im Wesentlichen nur zu technischen und Abrechnungszwecken erlaubt. Es sieht vor, dass, sofern keine ausdrückliche Ausnahmeregelung oder richterliche Anordnung vorliegt, „das Abhören, Anzapfen, Speichern oder andere Arten des Abfangens oder Überwachens von Nachrichten und der damit verbundenen Verkehrsdaten durch andere Personen als die Nutzer, ohne die Zustimmung der betroffenen Nutzer“ verboten ist. Die Einbeziehung solcher Dienste-Anbieter in den Geltungsbereich des Datenschutzes für elektronische Kommunikation bedeutet, dass sie nicht mehr das tun können, was sie jetzt auf freiwilliger Basis tun, nämlich die Kommunikation scannen, um Kinderpornografie und die Anwerbung von Kindern (Grooming) zu erkennen und den Strafverfolgungsbehörden zu melden. Die Kommission schlug daher vor, eine dringende Ausnahmeregelung von der Datenschutzrichtlinie für elektronische Kommunikation zu erlassen, damit diese Dienste-Anbieter weiterhin die Kommunikation scannen können. Das Hauptargument der Kommission ist, dass sie ohnehin die DSGVO einhalten müssen und dass es sich nur um eine vorübergehende Ausnahmeregelung (bis 2025) handelt, weil es einen kommenden umfassenderen Gesetzesvorschlag geben wird, der darauf abzielt, ein solches Scannen verpflichtend zu machen.

 

Es gibt jedoch große Probleme mit diesem Ansatz. Erstens hat bisher keine Datenschutzbehörde den Einsatz solcher Technologien bewertet und bestätigt, das dieser gemäß DSGVO legal ist. Es scheint, dass die Unternehmen dies getan haben, ohne die Nutzer ordnungsgemäß zu informieren, die keine Möglichkeit hatten, solche Praktiken anzufechten. Zweitens gibt es keine verfügbaren Informationen darüber, welche Anbieter genau diese Techniken verwenden und wie diese Technologien funktionieren. Zum Beispiel sagte die Kommission, dass Anti-Grooming-Filter Schlüsselindikatoren verwenden, um potenzielle Fälle zu erkennen, aber sie können keine konkreten Beispiele für solche Indikatoren liefern, weil das den Tätern helfen würde, sie zu umgehen. Die Verhandlungen wurden mit der Präsidentschaft unter starkem Druck geführt. Der daraus resultierende Text beinhaltet Grooming und die Erkennung von unbekanntem Material. Das Parlament schaffte es, ein paar Schutzmaßnahmen einzuführen, wie z.B. Berichts- und Transparenzpflichten, aber keine wesentliche Einschränkung des wahllosen Scannens von Kommunikation.

 

Straßburg, 6.7.2021