Über das Pilotprojekt der Videoüberwachung mit moderner Gesichtserkennung am Berliner Bahnhof Südkreuz, das unter anderem vom Bundesinnenministerium und der Deutschen Bahn initiiert wurde, haben wir mehrfach berichtet. Der zunächst auf sechs Monate ausgelegte Test wurde auf zwölf Monate ausgeweitet. Die Vorstellung der Ergebnisse steht noch aus, in vorläufigen Beurteilungen wird von überdurchschnittlich guten Treffergenauigkeiten gesprochen.

Mit dem Projekt sollte unter anderem die Gesichtserkennungssoftware im Live-Betrieb erprobt werden. Hierzu wurden rund 300 freiwillige Teilnehmer gesucht, die zuvor Ihr Gesicht in dem System registrieren bzw. speichern ließen. Alle Personen, die durch die ausgewiesenen Bereiche des Bahnhofs Südkreuz gehen, wurden durch die diversen Kameras gescannt und mit dem Bildmaterial der 300 Testpersonen verglichen. Irgendwann einmal sollen so die Gesichter der Anwesenden mit Bilddateien von Terroristen bzw. Verbrechern verglichen werden.

Das Pilotprojekt zur intelligenten Videoüberwachung neigt sich dem Ende entgegen. Allerdings wird die installierte Technik im Bahnhof nicht abgebaut, sondern von der Deutschen Bahn modifiziert und für einen eigenen, neuen Test weiterverwendet. Denn wie nun gemeldet wurde, möchte die Deutsche Bahn nun die Videoüberwachungsanlage dazu nutzen, bestimmte von Menschen hervorgerufene „Situationen“ im Bahnhof zu untersuchen und auf diese Weise Gefahren frühzeitig zu erkennen. Mit Mitwirkung von spezieller Software, die unter anderem auf die künstliche Intelligenz setzt, soll nunmehr primär das menschliche Verhalten analysiert werden.

So soll zwar auf die Gesichtserkennung und Identifikation einzelner Personen verzichtet werden, vielmehr jedoch das Verhalten eines odermehrerer Menschen beobachtet und ungewöhnliche Vorgänge diagnostiziert werden.

Zu den vier Szenarien, bei welchen das System Alarm schlägt, zählen plötzliche Menschenansammlungen, das Stehenlassen eines zuvor mitgebrachten Gegenstandes, das waagerechte Liegen eines Menschen und das betreten abgesperrter Bereiche. Solche Bewegungen können demnach Indiz für terroristische Angriffe, schwere Straftaten oder Unfälle sein.

Datenschutz bei der Verhaltensanalyse

Ausweislich der Medienberichte werden von der Videoüberwachung keine Personen mehr erfasst bzw. soll auf den Einsatz der Gesichtserkennung verzichtet werden. Ist der neue Testdurchlauf durch die Deutsche Bahn somit datenschutzkonform?

Der Anwendungsbereich der Datenschutz-Grundverordnung (DSGVO) setzt ein personenbezogenes Datum, also einen Personenbezug voraus (Art. 2 Abs. 1 DSGVO). Werden Personen oder sogar deren Gesichter von einer Kamera erfasst, die Bilder auf einem Monitor dargestellt und auf den Systemen (und dem Speicher) verarbeitet, ist dieses eindeutig gegeben. Sodann setzt das Gesetz eine gültige Rechtsgrundlage für die Datenverarbeitung voraus.

Weniger klar ist es dann, wenn die Kameratechnik und Software so eingestellt sind, dass die Personen nicht als Menschen dargestellt oder verpixelt werden. Unter Umständen ist hier nur mit sehr viel Aufwand noch die einzelne Person identifizierbar. Wird ein Mensch lediglich als ein Balken oder Strichmännchen dargestellt, spricht wenig für die Annahme eines Personenbezuges. Bei computeranimierten Grafiken von Symbolen oder Kreise, die einen Menschen zeigen, wäre der Anwendungsbereich der DSGVO fernliegend. Es bedarf dann also keiner Rechtsgrundlage für diese Datenverarbeitung. Anders verhielt es sich beim dem am 1. August 2017 gestarteten Feldversuch der Bundespolizei bzw. des Innenministeriums am Berliner Bahnhof: Um die Videoüberwachung nicht auf möglicherweise unzureichende Rechtsvorschriften zur Videoüberwachung im öffentlichen Raum (vgl. § 4 BDSG-neu, § 27 BPolG – Sachstandbericht des Wissenschaftlichen Dienstes des Bundestages) zu stützen, die nach Meinungen einiger Datenschützer nicht die Verarbeitung biometrischer Daten oder Auswertung des Verhalten erfassen (Vgl. Jandt, ZRP 2018, 16ff), mussten die Teilnehmer am Pilotprojekt ihre ausdrückliche Einwilligung nach vorheriger Aufklärung über die Datenverarbeitung abgeben (nach dem jetzt geltenden Recht gemäß Art. 9 Abs. 1 DSGVO).

Dass die Kamera zuvor in Echtzeit für einen kurzen technischen Moment das Bildmaterial ablegt und die gezeigten Personen in ebenjene Symbole umwandelt, lässt gewiss Zweifel aufkommen und würde dazu führen, dass bei jedem technischen Prozess immer das Datenschutzrecht berührt sein würde.

Jedoch kann eine Verhaltensanalyse auch zu einer Generierung der sog. Verhaltensbiometrie führen (Vgl. Weichert, in: Kühling/Buchner, DSGVO, Art. 4 Nr. 14, Rn. 4). Wenn diverse menschliche Verhaltenszüge über einen längeren Zeitraum durch komplexe Analyseverfahren untersucht werden, so dass diese einen einzigartigen Wert ergeben, wäre dieses Verfahren zur eindeutigen Identifizierung der Person geeignet. Einige Banken setzen bereits auf diese Technologie, um mittels der Verhaltensbiometrie die Authentizität des Nutzers beim Online-Banking zu prüfen. Durch die Tastatureingaben, Mausbewegung und zahlreiche weitere Faktoren kann nach einer bestimmten Zeit ein Muster der Person gebildet und dieses mit anderen Nutzern verglichen werden.

Vor diesem Hintergrund können auch menschliche Bewegungen, wie das Gehverhalten und routinierte Abläufe eine Verhaltensbiometrie begründen und folglich ein personenbezogenes Datum entstehen lassen. Somit öffnet sich spätestens dann bei diesem fiktiven Beispiel doch der Anwendungsbereich der DSGVO – und es ist eine Rechtsgrundlage erforderlich. Doch angesichts der Ausweitung dieser Videoüberwachung wäre die Einwilligung von Tausenden Reisenden in einem Bahnhof einer Großstadt kaum einzuholen. Und hinsichtlich etwaiger Rechtsvorschriften bleiben besagte Zweifel.

Erfolg der Technik

Ebenso bestehen Zweifel an der Sinnhaftigkeit der Technik. Ob und wann ein ungewöhnliches Verhalten tatsächlich Indiz für eine Straftat ist, soll nun zunächst herausgefunden werden. Die Kritik von Datenschützern, derartige Systeme führen zum Überwachungsdruck oder stellen gar alle Anwesenden unter „Generalverdacht“, schwingen auch bei diesem möglichen Test der Deutschen Bahn mit. Wer sich nicht konform zur Masse verhält oder unabsichtlich seinen Koffer vor dem Supermarkt vergisst, sieht sich unter Umständen der Kontrolle durch anwesende Polizeibeamte ausgesetzt. Inwieweit das KI basierte System durch eigene Lernprozesse die Treffergenauigkeit steigert oder doch Fehleralarm auslöst, wo der erfahrene Polizist nicht reagiert hätte, bleibt abzuwarten.