… thousands of faces, my oh my.

In London, Großbritannien, setzt die London Metropolitan Police seit nunmehr drei Jahren eine automatische Gesichtserkennungstechnologie ein. Die Gesichter der erfassten Passanten werden mit denen von polizeilich gesuchten Personen verschiedener Listen abgeglichen. Eine rechtliche Grundlage für diese Datenverarbeitung gibt es nicht.

Fehlende Transparenz, keine rechtliche Grundlage

Zwei Forscher der University of Essex begleiteten die Polizisten ein halbes Jahr lang bei Einsätzen im Rahmen des Projektes „Human Rights, Big Data & Technology Project“. In ihrem 128-seitigen Bericht stellen Pete Fussey und Daragh Murray ihre Erkenntnisse dar. Kritikpunkte fanden die beiden viele. Die Passanten wurden nicht ausreichend über die Erfassung der biometrischen Daten informiert. Es wurden lediglich ein paar Handzettel verteilt und Informationstafeln aufgestellt. Von einer informierten Einwilligung kann nicht gesprochen werden. Die Forscher kritisieren, dass die Aspekte Privatsphäre und Menschenrechte wie die Versammlungs- oder Bewegungsfreiheit bei der Planung des Projektes kaum beachtet wurden. Es wurde weder eine umfassende Datenschutz-Folgenabschätzung durchgeführt noch wurde ausgiebig über technische Alternativen nachgedacht. Darüber hinaus habe es operative Fehler wie inkonsistente Bewertungen der Systemergebnisse gegeben.

Über 80 % der Ergebnisse sind falsch

Die Erkennungsrate des Systems ist zudem nicht sehr hoch. Bei den sechs Testläufen zwischen Juni 2018 und Februar 2019 wurden die biometrischen Daten Tausender Personen verarbeitet. Das System ergab 42 Treffer. Bei nur acht davon handelte es sich tatsächlich um polizeilich gesuchte Personen, die anderen Ergebnisse waren falsch positiv. Diese Ungenauigkeiten schüren die Gefahr von Justizirrtümern und unrechtmäßigen Verhaftungen. Wer sich dem Scannen entziehen möchte, hat schlechte Karten. In London erhielt ein Mann ein Bußgeld von 90 Pfund (ungefähr 100 EUR), weil er sein Gesicht vermummen wollte und die Polizisten, welche ihn darauf ansprachen, beschimpfte.

Verletzung der Bürgerrechte

Die Beschwerden seitens der Bürger mehren sich. Seit Mai 2019 läuft in Cardiff ein Gerichtsprozess gegen die von der Polizei eingesetzte Technologie. Ed Bridges, ein Mitarbeiter der Universität Cardiff sah seine Bürgerrechte und die anderer durch den Einsatz der Gesichtserkennungstechnologie verletzt und wehrt sich. Er wird im Rahmen des Verfahrens von der Bürgerrechtsorganisation Liberty unterstützt. Die Bürgerrechtsorganisation Big Brother Watch führt parallel ähnliche Prozesse und kündigte an auch in diesem Fall zu klagen, wenn die Tests nicht gestoppt würden.

300 Gesichter pro Sekunde

Die eingesetzte Gesichtserkennungssoftware heißt Neoface Watch und wurde von der japanischen Firma NEC entwickelt. Mit dem System können 300 Gesichter pro Sekunde gescannt werden. Solche Gesichtserkennungstechnologien werden schon länger getestet. Über die Pilotprojekte des Einsatzes einer Gesichtserkennungssoftware am S-Bahnhof Berlin Südkreuz und an Flughäfen sowie über die Verwendung der Technik in Fußballstadien haben wir mehrfach berichtet. Auch hier gab es massive Kritik von Seiten der Betroffenen. Neoface soll nun auch bei den Olympischen Sommerspielen 2020 in Tokio eingesetzt werden, um die Athleten, Betreuer und das Personal zu identifizieren.