Vor Kurzem kündigte Apple an, eine Überwachung von Inhalten einzuführen, die über Apple-Geräte in die Apple-Cloud hochgeladen werden. Mit dem sog. CSAM-Scanning, wobei CSAM für „Child Sexual Abuse Material“ steht, möchte Apple zunächst nur in den USA einen Beitrag zur Bekämpfung von Kinderpornographie leisten. In den USA arbeitet Apple zu diesem Zweck mit der nichtstaatlichen Kinderschutzorganisation National Center of Missing and Exploited Children (NCMEC) zusammen. Eine spätere Einführung der Technologie in der EU ist nicht ausgeschlossen. Der Europäische Rat und das Europäische Parlament haben hierfür bereits einen entsprechenden Rechtsrahmen (Verordnung) durch eine Übergangsregelung zur Aufdeckung von sexuellem Missbrauch von Kindern durch Kommunikationsinhalte geschaffen. Auch bei anderen Anbietern wie Microsoft, Google, Facebook usw. werden ähnliche Maßnahmen schon seit Längerem eingesetzt.

Die Funktionsweise von „neuralMatch“

Apple setzt bei der Einführung der „neuralMatch“-Software auf den Abgleich von Hashwerten. Im Rahmen eines technisch anspruchsvollen Verfahrens werden dabei Hashwerte von kinderpornografischen Bildern erzeugt. Diese Hashwerte sind eine Art individueller Fingerabdruck des jeweiligen Bildes. In dem Moment, in dem die Bilder in die Apple-Cloud hochgeladen werden, erzeugt die Software ebenfalls einen Hashwert des hochgeladenen Bildes. Über die Software erfolgt sodann ein Abgleich der Hashwerte. Stimmen beide Hashwerte überein, wird die Übereinstimmung noch von einer natürlichen Person überprüft. Bestätigt sich die Übereinstimmung der Hashwerte, besteht der Verdacht, dass der Apple-User kinderpornografische Bilder besitzt und in die Apple-Cloud hochgeladen hat. Um ggf. staatsanwaltliche Ermittlungen einzuleiten, werden im letzten Schritt die Polizeibehörden durch die Kinderschutzorganisation NCMEC informiert. Eine Zusammenfassung, wie das Scannen genau funktioniert, hat Apple im August 2021 veröffentlicht.

Welche Kritikpunkte an „neuralMatch“ gibt es derzeit?

Generell ist die Verfolgung von Personen, die kinderpornografische Bilder erstellen und austauschen, absolut zu begrüßen. Denn gerade in den digitalen Medien stellt die sexualisierte Gewalt gegen Kinder ein großes Problem dar, welches schwer strafrechtlich zu verfolgen ist. Wie so häufig ist es jedoch auch in diesem Fall angebracht, genau hinzusehen. Denn es steht zu befürchten, dass die von Apple entwickelte Technologie auch zu anderen Zwecken eingesetzt werden könnte. Dabei sind insbesondere die folgenden Szenarien denkbar:

  1. Kollisionen von Hashwerten

Es ist möglich, dass sich aus zwei vollkommen unterschiedlichen Bildern dieselben Hashwerte ableiten lassen. Man spricht dann von einer Kollision von Hashwerten. In einem solchen Fall würden dann aufgrund dieser Kollision Personen verdächtigt, die keinerlei kinderpornografische Bilder besitzen. Es wäre somit denkbar, dass gegen Unschuldige ermittelt wird.

  1. Abgleich anderer Inhalte

Des Weiteren wäre es vorstellbar, dass auch ein Abgleich von Informationen wie Ort und Zeit der Bildaufnahmen erfolgt. Außerdem kann nicht ausgeschlossen werden, dass die beschriebene Technologie auch auf ganz andere Inhalte, die auf Apple-Geräten gespeichert sind, ausgeweitet wird. Dies könnte unter Umständen bspw. die Arbeit von Journalisten, Rechtsanwälten oder Menschenrechtsaktivisten erschweren.

  1. Missbrauch der Funktion

Hacker oder totalitäre Regime könnten gezielt Bilder oder Dokumente erstellen, die eigentlich keine Kinderpornographie sind, aber trotzdem einen Match der Hashwerte auslösen. Diese gefälschten Bilder oder Dokumente können dann auf Endgeräten von Unschuldigen geladen werden, um diese zu verunglimpfen.

Fazit

Die Verfolgung von Straftaten wie sexualisierte Gewalt gegen Kinder in digitalen Medien ist ein schwieriges Unterfangen. Maßnahmen, die die Effektivität der Strafverfolgungsbehörden erhöhen, sind daher absolut zu begrüßen. Dies darf jedoch nicht auf Kosten des Datenschutzes und des Schutzes der Privatsphäre umgesetzt werden. Des Weiteren kann die Arbeit von Journalisten, Rechtsanwälten, oppositionellen Gruppen usw. gefährdet werden, da insbesondere in totalitären Regimen die Befürchtung besteht, dass die Technologie missbräuchlich verwendet wird. Für diese Personengruppen wird die Nutzung von Apple-Produkten daher in Zukunft mit erheblichen Risiken verbunden sein.

Letztlich werden Personen, die kinderpornografische Inhalte austauschen wollen, trotz der Apple-Technologie höchstwahrscheinlich einen Weg finden, die Inhalte weiterhin austauschen zu können. Am Ende trifft der Eingriff in die Privatsphäre mutmaßlich nur den unbescholtenen Bürger. Apple vollzieht mit der Einführung der Technologie eine bisher nicht da gewesene Kehrtwende hin zu einer Massenüberwachung. Wenn Apple heute nach Kinderpornographie scannen kann, kann es morgen nach allem scannen. Auch wenn das Unternehmen von den Vorteilen seiner Innovation überzeugt ist, sollte sich Apple noch einmal grundlegend überlegen, ob die Abkehr vom Schutz der Daten der richtige Weg für die Zukunft ist.

Über die Änderungen bei Apples neuem Betriebssystem berichteten wir auch schon in unserem Blogbeitrag vom 20.08.2021.