Es sei ein Meilenstein, eine Revolution, etwas noch nie Dagewesenes … Picken Sie sich irgendeinen Superlativ Ihrer Wahl heraus, er wird passen. Die Rede ist von Sora, dem neuesten Streich des Unternehmens OpenAI; jener Softwareschmiede, die bereits mit ChatGPT eine Welle der Begeisterung und der Innovation losgetreten hat.

Für alle, die es noch nicht oder nur am Rande mitbekommen haben: Sora ist eine neuartige sogenannte KI-basierte Software, die es ähnlich wie schon ChatGPT gestattet, mittels Sprachbefehlen neue Inhalte zu generieren – in diesem Fall Videos. Da das Programm noch nicht für die breite Öffentlichkeit verfügbar ist, gibt es bislang erst wenige ausgesuchte, gleichwohl beeindruckende Beispiele ihrer „Schaffenskunst“. Das Ganze funktioniert sowohl mit einem gewissermaßen „weißen Blatt Papier“ – will sagen: man erteilt vorm leeren Bildschirm einen mehr oder weniger ausführlichen Sprachbefehl und erhält quasi auf Knopfdruck das fertige Video – oder aber mit vorgefertigtem Material, welches das Programm fortführen und weiterentwickeln kann.

Die Filmindustrie scheint bereits in leichte Hab-Acht-Stellung überzugehen, und freilich können auch die gesellschaftlichen Auswirkungen einer solchen Technologie immensen Umfang einnehmen. Doch auch für den Datenschutz und die Informationssicherheit ergeben sich spannend-brisante Perspektiven: Angefangen bei Abschätzungen des möglichen Energieverbrauchs für den Einsatz der Software über die knifflige Zuteilung von rechtlichen Verantwortlichkeiten bis hin zur beinahe schon selbstverständlich relevant werdenden Frage, ob denn die in den automatisiert produzierten Filmen sichtbaren Personen auch jeweils ihre Zustimmung gegeben haben.

„Späße“ für prominente und sonstige Persönlichkeiten

Mehr denn je bietet sich hier die Chance, sich zu profilieren für guten und gelebten Datenschutz. Wenn ein Jeder – sei es als Anwender oder noch viel mehr als Hersteller bzw. Vertreiber solcher Systeme – ein stärkeres Auge auf die Abschätzung möglicher Folgen der damit einhergehenden Verarbeitung von Daten hätte, ließe sich manch ein Skandal klein halten, gar vermeiden im Idealfall. Zu Recht wird deshalb darauf verwiesen, dass es angesichts von bereits bestehenden Schutzmechanismen einige der Videomanipulationen zulasten bestimmter prominenter Persönlichkeiten aus der jüngsten Vergangenheit eigentlich gar nicht hätte geben dürfen. Eigentlich. Und doch gibt es sie: Die Rede ist von dem Bestreben, einzelnen Leuten ein vorgetäuschtes Handeln oder eine Aussage anzudichten, die sich so in Wahrheit nie ereignet haben – Deepfakes.

Neben den himmlischen Möglichkeiten für Filmschaffende und andere Kreative sowie den Risiken, die mit der Verbreitung von Falschmeldungen (sog. Fake News) einhergehen, wollen wir den Blick auf die Videoüberwachung richten und uns der Frage zuwenden: Werden wir auch hier der obwaltenden Gefahr von Manipulation und schwindender Rechtssicherheit aufsitzen?

Die eindeutige Antwort lautet: Ja. Wenn man als Zuschauer nicht selbst die Zeit(!) und die technischen Ressourcen zur forensischen Analyse eines Videos aufbringen kann, wird man auf externe Hilfe angewiesen sein. Und wo es die nicht gibt, wird man aufgeschmissen, ergo außerstande sein, ein gefälschtes Video von echten Inhalten zu unterscheiden – diese Rechnung ist so schlicht wie folgenreich. Zwar stellt man seitens des Herstellers in Aussicht, Videos mit einer Art digitalem Wasserzeichen zu versehen – wie auch immer das zustande kommen mag – räumt aber im gleichen Atemzug ein, dass ein solches Kennzeichen ebenso relativ leicht wieder entfernt werden könne. Sonderlich aussichtsreich klingt das nicht.

Gefahr: Deepfakes bei Videoüberwachung

Nun sind sog. Fake News oder Deepfakes auch und bereits in anderen Zusammenhängen – wie bereits gesehen – ein großes Problem unserer (Kommunikations-)Zeit. Ein ebenso fortwährend wie heiß gebackener „Klassiker“ der Datenschutz-Menükarte ist die Videoüberwachung. Oftmals zur Sicherung des eigenen Betriebsgeländes oder zum Schutz von Gesundheit oder Eigentum herangezogen, wird sich hier in Zukunft gleichsam die Frage stellen: Ist das, was wir zu sehen bekommen, echt? Hat es sich wahrlich so ereignet wie Bildaufnahmen es uns glauben machen wollen?

Man stelle sich vor, auf einem Fabrikgelände hat sich ein Diebstahl ereignet, der mittels Kameraaufzeichnung festgehalten worden ist. Durch entsprechende hochwertige Manipulation des gespeicherten Bildmaterials erscheint es nunmehr möglich, die dort sichtbaren Personen zu entfernen oder sogar andere Figuren stattdessen einzuarbeiten. Mit stetiger Verbesserung der zu diesem Zweck gebrauchten (oder missbrauchten) Techniken sind solche Manipulationen nur noch mit forensischen Mitteln und per Einzelbildanalyse mit einer Lupe möglich.

Privacy by design: Artikel 25 sticht

Hier öffnet sich das Tor für den Datenschutz als Trumpfkarte. Oftmals als „Betriebsbremse“ verschrien, gilt es hier den Blick zu schärfen für eine Vorschrift, die zwar eher nur am Rande beachtet zu werden scheint, dafür aber gehörigen technischen Einschlag bietet. Seit Geltung der DSGVO im Jahre 2018 haben Verantwortliche gemäß Artikel 25 stärker als zuvor datenschutzfreundliche Techniken und Voreinstellungen zu berücksichtigen und in die Tat umzusetzen. Dass dies nicht ohne die Hersteller entsprechender (Kamera-)Systeme gehen kann, liegt auf der Hand, und wird seit jeher diskutiert.

Wer bspw. E-Mails via S/MIME oder PGP signiert und/oder verschlüsselt, kennt diesen Spaß: Der Empfänger bekommt in seinem Mail-Programm automatisch und ohne großes Zutun angezeigt, ob eine Nachricht echt (d. h. vom korrekten Absender stammend) ist und ggf. ob sie zwischenzeitlich verändert worden ist. So oder ähnlich sollte es auch für Videosysteme absehbar praktikabel sein, entsprechende Sicherungsmaßnahmen zur digitalen Signierung vorzusehen – und zwar standardmäßig, vom Werk aus.

Wenn man dazu bedenkt, dass über die Jahre hinweg das Einbinden etwa von PGP in die eigene E-Mail-Kommunikation dergestalt vereinfacht worden ist, dass man die Installation ähnlich einem Browser-Plugin mit ein paar wenigen Mausklicks vornehmen kann, anstelle komplexe Textbefehle in eine vergleichsweise schmucklose Kommandozeile einzuhacken, dann stimmt das zuversichtlich.

Datenschutzbewusste Anwender und Betriebe können diese Entwicklung durch entsprechende Nachfrage bei der Anschaffung und Konfiguration von Videoüberwachungsanlagen sicher beschleunigen.