Die Einführung der EU-Chat­kontrolle wurde vertagt

Abschaffung der Privatsphäre vertagt

Juristen, Technologieexperten und Bürgerrechtsvereine kritisierten den EU-Gesetzesentwurf zur Chatkontrolle als zu drastischen Eingriff in die Privatsphäre und technisch kaum umsetzbar. Die EU-Kommission hat das Vorhaben nun vertagt.

Der Gesetzentwurf der EU-Kommission, der unter dem Namen »Chatkontrolle« firmiert, hat abseits von zivilgesellschaftlichen Datenschutzorganisationen und Experten kaum Protest hervorgerufen, obwohl er einen erheblichen Eingriff in die Privatsphäre der Bürger bedeuten würde. Möglicherweise lag das an der Kombination der Wörter »Datenschutz« und »EU-Gesetzgebungsverfahren«, die zuverlässig einschläfernd wirkt. Erfreulicherweise wird das Gesetz nun wohl trotzdem nicht mehr vor der Europawahl im Juni verabschiedet.

Der ursprüngliche Entwurf der EU-Kommission für eine »Verordnung zur Festlegung von Vorschriften zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern« sah unter anderem die anlasslose Überwachung jeglicher – auch verschlüsselter – digitaler Kommunikation vor. Anbieter:innen von Kommunikationsdiensten sollten verpflichtet werden, sowohl bekannte als auch noch unbekannte Darstellungen von sexualisierter Gewalt gegen Kinder (Child Sexual Abuse Material, CSAM) sowie das Anbahnen von Kontakt mit Minderjährigen zur Vorbereitung sexualisierter Gewalt (Grooming) aufzudecken, zu melden und zu entfernen. So unterstützenswert dieses Anliegen ist, Chatkontrolle ist dafür nach Ansicht von Expert:innen sowohl aus technischen als auch inhaltlichen Gründen nicht zielführend.

Für die Suche nach bereits bekanntem Bildmaterial soll ein EU-Zen­trum eine entsprechende Datenbank verwalten. Der Abgleich mit dieser Datenbank muss nicht mit Originalbildern erfolgen, sondern mutmaßlich mit hashes, also eindeutigen Zeichenketten, die jeweils aus einem Bild errechnet werden. Zum Wesen einer Hashfunktion gehört es, dass sie nicht umkehrbar ist, das Originalbild sich also nicht aus dem Hash rekonstruieren lässt. So können Bilder abge­glichen werden, ohne sie preiszugeben.

75 Prozent der gemeldeten privaten und intimen Bilder waren strafrechtlich völlig irrelevant, wie Patrick Breyer (Piratenpartei) betont.

Um dieses Verfahren auch auf verschlüsselte Kommunikation (also beispielsweise bei Signal oder Whatsapp) anzuwenden, muss das Bild auf dem Smartphone jedoch untersucht werden, bevor es verschlüsselt wird. Diese Technologie kommt einer absichtlich eingebauten Sicherheitslücke gleich, die zweckentfremdet werden könnte. Zudem lehrt die Vergangenheit, dass hehre Ziele wie Kinderschutz als Türöffner für die Einschränkung von Persönlichkeitsrechten dienen können. Wie auf dem Internetportal Netzpolitik.org veröffentlichte interne Dokumente belegen, hat Europol bei einem Treffen mit einer Delegation der EU-Kommission ungefilterten Zugriff auf die Daten gefordert und eine Ausweitung auf andere Kriminalitätsbereiche vorgeschlagen. Bereits im Januar 2023 diskutierten Innenminister:innen der EU ebenfalls darüber, die Befugnisse und die Anwendung der Technologie auf allgemeine Verbrechensbekämpfung auszuweiten.

Noch weitaus problematischer wird es, wenn die Kommunikation auf bisher unbekanntes Material oder Grooming untersucht werden soll. Hierzu wird ein selbstlernendes System mit großen Mengen bekannter Bilder oder Texte trainiert. Selbst bei unrealistisch geringen Fehlerquoten würden die Systeme angesichts der schieren Masse an Kommunikation wahrscheinlich sehr oft fälschlicherweise anschlagen. Das bedeutet, dass private Bilder Minderjähriger von hoffentlich vertrauenswürdigen Mitarbeiter:in­­nen des Kommunikationsanbieters, des zu gründenden EU-Zentrums und der Strafverfolgungsbehörden gesichtet würden. Allerdings gibt es gar nicht genug Ressourcen für eine solche Überprüfung.

European Digital Rights (EDRi), der Dachverband europäischer digitaler Bürgerrechtsorganisationen, führt auf seiner Website eine beachtliche Liste an Interessenvertreter:innen, die sich gegen Chatkontrolle aussprechen. Sie reicht vom Juristischen Dienst des EU-Rats über den UN-Menschenrechtskommissar bis zu Missbrauchsbetroffenen und Kinderschutzorganisationen. Während die technischen Sachverständigen vor allem auf die Unzulänglichkeit der Technologie hinweisen, kritisieren die juristischen Sachverständigen, dass der Entwurf nicht mit den Grundrechten vereinbar sei und ohnehin von Gerichten gekippt werden würde.

»In dieser Debatte werden häufig Datenschutz und Kinderschutz gegeneinander ausgespielt – ein der Sache nicht gerecht werdender Ansatz«, ist in einer Stellungnahme des deutschen Kinderschutzbunds (DKSB) vom März vorigen Jahres zum Thema Chatkontrolle zu lesen. Der DKSB verwies darauf, dass Privatsphäre auch für Kinder und Jugendliche ein Grundrecht ist, und bemängelte, dass bereits jetzt viele Kinder und Jugendliche fälschlicherweise Ziel von Ermittlungen werden, zum Beispiel wegen einvernehmlichem sexting mit Gleichaltrigen, und dass die Strafverfolgung durch die enorme Menge an falschen Meldungen gar behindert würde. »Der Fokus auf eine technische Lösung ist zu einseitig und bleibt einem gesamtgesellschaftlichen Problem gegenüber blind«, heißt es in der Stellungnahme weiter. Die Verordnung nehme ausschließlich die Verbreitung von CSAM in den Fokus, nicht aber die Entstehung des Materials. Überdies werde CSAM von organisierten Gruppen überwiegend auf Wegen verbreitet, die mit der Verordnung gar nicht kontrolliert würden.

Den Verdacht, dass Kinderschutz nicht die (Haupt-)Motivation für Chatkontrolle ist, hat im September eine investigative Recherche der Wochenzeitung Zeit erhärtet, die das umfangreiche Lobbynetzwerk beleuchtet, das sich für die Einführung der Chatkontrolle einsetzt. Die Stiftung Thorn war eng an der Entstehung des Entwurfs beteiligt. Da sie die Software verkauft, die mit Hilfe von KI CSAM aufspüren soll, hat sie offensichtlich ein finanzielles Interesse an der Einführung der Chatkontrolle. Thorn wiederum habe die Lobbyfirma FGS Global angeheuert.

Teil des Lobbygeflechts ist den Recherchen zufolge auch die Organisation Weprotect Global Alliance. Dieser gehören neben Kinderschutzorganisationen zahlreiche Regierungen, Sicherheitsbehörden und Firmen an. Der Europaabgeordnete Patrick Breyer (Piratenpartei) fasste auf dem Chaos Communication Congress Ende Dezember zusammen: Geheimdienste, Strafverfolger und die Industrie hätten sich als Kinderschützer ausgegeben und sogar eine neue Kinderschutzorganisation gegründet, das sogenannte Brave Movement. Wie die Zeit berichtete, wurde dieses erst einen Monat vor Veröffentlichung des Kommissionsvorschlags gegründet, mit Hilfe einer Zehn-Millionen-Dollar-Spende der Oak Foundation, dem wohl wichtigsten Geldgeber der Lobby rund um die Chatkontrolle.

Mittlerweile wurde bekannt, dass die EU-Kommission auch sogenanntes Microtargeting eingesetzt hat, um ­einzelne Vertreter:innen der Mitgliedstaaten gezielt für ihr Vorhaben zu gewinnen. Wie Netzpolitik.org berichtete, ermittelt deshalb der EU-Datenschutzbeauftragte. Nach einer Beschwerde Breyers über die Lobbytätigkeiten zugunsten der Einführung der Chatkontrolle hat die Bürgerbeauftragte der EU zudem ein Verfahren gegen Europol eingeleitet, weil zwei frühere Mitarbeiter aus dem CSAM-Bereich zu Thorn abgewandert sind, wo einer als Lobbyist tätig wurde.

Ende November hat sich das EU-Parlament auf eine Kompromisslösung geeinigt, in der die schlimmsten Eingriffe in die Privatsphäre getilgt sind. Verschlüsselte Kommunikation wird ausdrücklich von der Chatkontrolle ausgenommen und auch das technisch nicht ausgereifte KI-gestützte Scannen auf der Suche nach bisher unbekanntem Bildmaterial oder Grooming sind in diesem Vorschlag nicht mehr enthalten.

Anders sieht es im EU-Rat aus. Nach wie vor stellt sich eine Sperrminorität bestehend aus Polen, Österreich, Deutschland, Slowenien und Estland gegen den Vorschlag der Kommission. Erst wenn sich der Rat auf eine Position geeinigt hat, kann es in Verhandlungen mit Kommission und Parlament weitergehen.

Die Kommission scheint mittlerweile davon auszugehen, dass die Richtlinie nicht mehr vor der Europawahl im Juni beschlossen werden kann. Jedenfalls hat sie im Dezember eine temporäre Ausnahme von der Datenschutzrichtlinie für elektronische Kommunikation verlängert, die Internetdiensten wie Google oder Facebook bereits jetzt erlaubt, Inhalte ihrer Nutzer:innen auf CSAM hin zu scannen. Diese Ausnahme wurde vor ihrer Verlängerung evaluiert. 75 Prozent der gemeldeten privaten und intimen Bilder waren strafrechtlich völlig irrelevant, wie Breyer betont.

Es bleibt zu hoffen, dass das EU-Parlament auch nach der Europawahl im Juni noch so zusammengesetzt sein wird, dass sich eine Mehrheit für den Schutz fundamentaler Grundrechte findet. Das Initiativrecht für Gesetze verbleibt aber ohnehin allein bei der Kommission. Das ist für die CSAM-Bekämpfung tragisch, solange sich die Kommission zu diesem Thema von IT-Firmen mit finanziellen Interessen und von Strafverfolgungsbehörden und Geheimdiensten beraten lässt, statt auf Expert:innen zu hören, denen es tatsächlich um Kinderschutz geht. Dann nämlich enthielte eine Verordnung effektive Instrumente wie Unterstützungsangebote für Betroffene, eine Infrastruktur zur anonymen Meldung von CSAM oder mehr Maßnahmen zur Prävention. Das wäre allemal besser, als das Kindeswohl als Argument zur Durchsetzung autoritärer Überwachungsphantasien zu instrumentalisieren.