EU-Rat nimmt Abstand vom obligatorischen Scannen privater Nachrichten - Scannen soll freiwillig sein

Darüber hinaus sehen die Rechtsvorschriften die Einrichtung eines Europäischen Zentrums zur Bekämpfung des sexuellen Kindesmissbrauchs vor, das die Mitgliedstaaten unterstützen und den Opfern Hilfe leisten soll.

Symbolfoto. Foto: Yves Herman/Reuters

Symbolfoto. Foto: Yves Herman/Reuters

Die Mitgliedstaaten der Europäischen Union haben sich auf einen gemeinsamen Standpunkt zu den geplanten Rechtsvorschriften über den Schutz von Kindern im Internet geeinigt. Der Vorschlag sieht keine Verpflichtung für globale Technologieunternehmen vor, Material mit sexuellem Missbrauch von Kindern (CSAM) zu identifizieren und zu entfernen. Dies gab der EU-Rat am Mittwoch bekannt.

Es ist ein Sieg für Unternehmen wie Alphabet/Google, Meta und andere US-Tech-Unternehmen, aber auch für Überwachungsgegner, die davor gewarnt hatten, dass die ursprünglichen Vorschläge die Privatsphäre bedrohten. Die Abschwächung der strengen Regulierung ist auch Teil einer breiteren Gegenbewegung gegen die Regulierung unter der Führung der Regierung von Präsident Donald Trump.

Weniger strenge Vorgaben

Die neue Haltung der Mitgliedstaaten ist weniger streng als die Position des Europäischen Parlaments im Jahr 2023, als es von Chat-Diensten, Internetanbietern und App-Stores verlangte, bekannte und neue Bilder, Videos und Fälle von Online-Grooming von Kindern zwingend zu melden und zu entfernen.

Die ursprüngliche Gesetzgebung von 2022 sollte die Koordinierung innerhalb der EU verbessern, da der Online-Missbrauch zunehmend die nationalen Grenzen überschreitet. Nun muss ein Kompromiss zwischen den Mitgliedsstaaten und den Abgeordneten des Europäischen Parlaments ausgehandelt werden, um den Vorschlag in ein Gesetz zu verwandeln.

Laut der Erklärung des Rates vom Mittwoch müssen Plattformen das Risiko einschätzen, dass ihre Dienste missbraucht werden, um CSAM zu verbreiten oder Kinder online zu erreichen, und dann Präventivmaßnahmen ergreifen.

Die Durchsetzung wird jedoch in den Händen der nationalen Regierungen bleiben. Sie werden die Behörden benennen, die für die Risikobewertung, die Anordnung von Abhilfemaßnahmen und die Verhängung von Sanktionen im Falle der Nichteinhaltung zuständig sind.

Die neuen Vorschriften ermöglichen es den Unternehmen, Inhalte auf ihren Plattformen weiterhin freiwillig zu überprüfen, um Material mit Kindesmissbrauch zu erkennen. Dieses freiwillige Screening wird auch nach April nächsten Jahres möglich sein, wenn die derzeitige Ausnahme von den Datenschutzbestimmungen ausläuft.

Der dänische Justizminister Peter Hummelgaard begrüßte den gemeinsamen Standpunkt der Mitgliedsstaaten. Er wies darauf hin, dass Millionen von Dateien, die sexuellen Kindesmissbrauch zeigen, jedes Jahr von Menschen geteilt werden, hinter denen echte Opfer schrecklicher Gewalt stehen.

Unterdessen hat das Europäische Parlament die EU aufgefordert, Mindestaltersgrenzen für Kinder in sozialen Netzwerken einzuführen. Die Aufforderung ist nicht bindend, kommt aber zu einer Zeit, in der Australien, Dänemark und Malaysia Verbote von sozialen Netzwerken für Kinder unter 16 Jahren vorbereiten.

(reuters, lud)