Das 3. Hamburger Datenschutzforum, veranstaltet von der Hamburger Datenschutzgesellschaft e.V. (HDG) und dem Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit am 07.05.2024, widmete sich dem brisanten Thema „Schafft Künstliche Intelligenz den Datenschutz ab?“. Auch in diesem Jahr lud die HDG in die Handelskammer Hamburg ein. Hochkarätige Redner*innen wie Thomas Fuchs (HmbBfDI), Per Meyerdierks (Google), Iris Phan (Leibniz Universität Hannover) und Dr. Rainer Liedkte (Datenschutz- und Sicherheitsbeauftragter) mit einem Impulsvortrag sorgten für spannende Diskussionen und tiefgehende Einblicke. Die Moderation übernahmen Rechtsanwalt Dr. Philipp Kramer und Rechtsanwältin Dr. Carolin Monsees.
Den Auftakt machte Herr Fuchs von der Hamburger Datenschutz-Aufsichtsbehörde mit einer umfassenden Übersicht über die aktuellen regulatorischen Entwicklungen im Bereich der Künstlichen Intelligenz (KI). Er betonte die Notwendigkeit einer ausgewogenen Gesetzgebung, die Innovation nicht behindert, gleichzeitig aber den Datenschutz wahrt. Unter anderem wurde dabei diskutiert, in welchem technischen Stadium eines KI-Systems de facto eine Verarbeitung von personenbezogenen Daten erfolgt. Das „KI-Modell“ würde selber wohl keine personenbezogenen Daten enthalten, skizzierte Herr Fuchs seine Interpretation des Datenschutzrechts.
Auch gab er an der einen oder anderen Stelle einen Einblick in die Arbeit der Behörde und nahm dabei auch indirekt Bezug zu aktuellen nationalen wie auch internationalen Verfahren. Zuletzt sprach er sich persönlich dafür aus, die Zuständigkeit der Datenschutz-Aufsicht über die KI-Modelle auf Basis der europäischen neuen KI-Verordnung anzustreben, um hiermit die Einheitlichkeit zu fördern.
Im Anschluss stellte Per Meyerdierks die Anstrengungen von Google vor, sich als „AI-First“-Unternehmen zu positionieren. Er beleuchtete die internen Prozesse und Strategien, mit denen Google versucht, ethische und datenschutzkonforme KI-Lösungen zu entwickeln.
Für Überraschung sorgte Iris Phan von der Leibniz Universität mit ihrem Beitrag über Sexroboter und die damit verbundenen ethischen Fragestellungen. Ihr Vortrag zeigte eindrucksvoll, wie tiefgehend die Verknüpfungen zwischen KI und Ethik sind und erweiterte die Perspektive der Teilnehmenden auf unerwartete Weise.
Der Impulsvortrag von Dr. Rainer Liedtke lenkte den Fokus auf die gesellschaftlichen Schäden, die durch KI entstehen könnten. Besonders betonte er die oft vernachlässigte Frage: „Brauchen wir KI eigentlich?“ und „was macht das eigentlich mit der Gesellschaft?“, und forderte eine intensivere öffentliche Debatte darüber. In diesem Redebeitrag skizzierte Herr Liedtke ein paar aktuelle (Droh)-Szenarien, die auch zum Nachdenken anregen sollten.
Die abschließende, teils auch angeregte Diskussion drehte sich um die Verantwortung für falsche Daten und Fake News, die durch KI erzeugt werden. Herr Kramer brachte es prägnant auf den Punkt: „Wir wissen nicht, wohin sich die Sache entwickeln wird. Daher ist das Thema so unförmig.“
Insgesamt bot das Forum eine facettenreiche Betrachtung der Chancen und Risiken von KI im Kontext des Datenschutzes und regte zu weiterführenden Diskussionen an. Es wird daher vermutlich nicht die letzte Diskussionsrunde zu diesem Thema gewesen sein – vielleicht stehen wir auch erst am Anfang einer gesellschaftlichen Debatte zu den Vor- und Nachteilen der KI.
Auf einzelne Beiträge möchten wir in diesem Blogartikel näher eingehen:
Google und die KI
Als Vertretung für einen verhinderten Kollegen, sorgte Herr Meyerdierks mit seinem Vortrag für einen abwechslungsreichen Input und bot uns einen praxisnahen Einblick in die Produktwelt von Alphabet (Google Produkte). Der Konzernumbau in Richtung KI, dem aufmerksamen User wird er schon in der veränderten Ausgabe der Suchergebnisse aufgefallen sein, vollzieht sich auch entlang der KI-Produktentwicklungen des letzten Jahrzehnts von Alphabet.
Hierbei verdeutlichte Herr Meyerdierks, wie minimal der Ausschnitt sei, den wir mit den bisherigen KI-Entwicklungen zu sehen bekommen. Es handele sich noch um die erste Entwicklungsstufe einer neuen evolutionären Entwicklung. Die KI würde bei Google spätestens seit entsprechender Verlautbarung des CEO, Sundar Pichai als die dritte Evolutionsstufe des Internets gesehen – nach dem Internet in seiner Ausgangsform und dem Mobilen Internet folge nun die der KI.
Hierbei wurde während des Vortrags und der gesamten Veranstaltung ein Spannungsverhältnis zwischen dem Ansatz von Google und dem der Aufsichtsbehörde deutlich. Während Google sich authentisch als ideenreicher Konzern präsentierte, der nur die Welt verbessern wolle, schien es von Seiten der Moderation und der Gäste die Auffassung zu geben, Google käme seiner Verantwortung – zumindest im Bereich Datenschutz – nicht immer ausreichend nach.
Dabei sind u. E. die unterschiedlichen Ansätze – die entweder eher die Chancen oder die Risiken sehen – doch so prägend für viele gesellschaftliche Auseinandersetzungen. Für den Datenschutz gilt umso mehr, dass nur eine Wertschätzung beider Perspektiven zu gesamtgesellschaftlich lohnenswerten Ergebnissen führen kann. Die Ausführungen von Herrn Meyerdierks waren dementsprechend äußerst interessant und boten einen angenehmen Kontrast zu den anderen, ebenfalls sehr gelungenen Vorträgen. Letztlich sollten alle Seiten an einem gemeinsamen Konzept interessiert sein, um zumindest in Europa einen sinnvollen, aber auch rechtskonformen Weg zu bestreiten.
Nach einer Abgrenzung der verschiedenen Arten von KI und dem Unterschied zum maschinellen Lernen gelang Herrn Meyerdierks – anhand einer Timeline – eine Rückschau auf die vergangenen Jahre. Nach einem Überblick über entwickelte Produkte, etwa Google Gemini, wurde der Ausblick offengelassen. So war auch im Beitrag von Herrn Meyerdierks eine klare Vision, oder gar ein exklusiver Einblick, wohin die Reise gehen soll, nicht ersichtlich. Klar ist, dass Google auch weiterhin seine volle Aufmerksamkeit auf die Entwicklung verschiedener KI-Produkte fokussieren wird. Inwiefern es bei Visionen bleibt oder konkrete Produkte daraus entstehen, dürften die nächsten Jahre zeigen.
Die Entwicklung der künstlichen Entwicklung schreitet zwar schneller voran als noch vor Kurzem gedacht, doch die Revolution kommt dennoch für die menschliche Wahrnehmung des Alltagsbürgers nur schleichend. Es ist nicht direkt für jeden Menschen ersichtlich, mit wie vielen mithilfe von KI hergestellten Bildern wir bereits tagtäglich in unserem Alltag On- wie Offline in Kontakt kommen. War es dem geneigten, interessierten Beobachter noch vor einigen Monaten möglich, anhand eines Studiums bestimmter Körperteile (z. B. Hände) von abgebildeten Personen zu einer eigenen Überzeugung zu kommen, ist dies heute nicht mehr möglich. Selbst versierte KI-Anwender können heute meist nicht mehr ein echtes von einem generierten Bild unterscheiden.
Von Google ist jedenfalls auch in Zukunft spannende KI-Software zu erwarten, die mit rechtlichen Mitteln eingehegt, aber eben auch gepflegt werden will. Datenschutz und KI-Compliance sind die eine Seite der Medaille, die großartigen Möglichkeiten und Chancen der KI die andere.
Let’s talk about sex
Viel Aufmerksamkeit, inklusive Schmunzeln und überraschter Blicke, erregte der Vortrag von Iris Phan, Lehrbeauftragte für Roboterethik an der Leibniz Universität Hannover. Am Beispiel des Sexroboters thematisierte sie die rechtlichen und ethischen Implikationen Künstlicher Intelligenz. Hierbei wurde zunächst der historische Hintergrund der Idee eines künstlichen Menschen beleuchtet, gefolgt von sehr anschaulichen Darstellungen und technischen Daten zu aktuell tatsächlich verkäuflichen Robotern in humanoider Gestalt.
Auch der Zweck dieser Maschinen ist – abgesehen vom offensichtlichen – viel weitgreifender, als zunächst angenommen. So verwies Frau Phan u. a. auf die Eindämmung der (Zwangs-)Prostitution, Hilfe für den Sexualunterricht, Sexualassistenz für behinderte oder alte Menschen und Hilfsmittel bei der Therapie sexueller Störungen.
Neben den hier naheliegenden Fragen „Wie groß ist der Roboter?“, „Welche Haarfarbe hat er/sie?“, „Wie fühlt sich die Haut und der künstliche Herzschlag an?“ werden aus datenschutzrechtlicher Sicht folgende Fragen relevant:
Finden die Vorgaben der europäischen KI-Verordnung Anwendung auf die Roboter? Muss nach den Vorgaben der DSGVO (Art. 35 DSGVO) eine Datenschutz-Folgenabschätzung durchgeführt werden?
Zur Beantwortung dieser rechtlichen Fragen muss man sich vor Augen führen, wie diese Roboter Daten verarbeiten: Zur Interaktion ist Sprach- und Bilderkennungssoftware verbaut – es werden also Audio- und Bilddaten über Mikrofone und Kameras erfasst und verarbeitet. Darüber hinaus sollen die Roboter für ein möglichst menschenähnliches Erlebnis Verhaltens- und Reaktionsmuster des menschlichen Partners erkennen – dafür werden diverse Sensoren an der Maschine benötigt. Dass hierbei personenbezogene Daten und auch solche nach Art. 9 DSGVO (Gesundheitsdaten, Daten zum Sexualleben oder der sexuellen Orientierung) verarbeitet werden, liegt auf der Hand. Vor diesem Hintergrund scheint eine Datenschutz-Folgenabschätzung durchaus erforderlich zu sein. Jedoch hätten sich die Aufsichtsbehörden – so die Referentin – dazu wohl noch nicht geäußert.
Wichtig sei laut Frau Phan, dass ein interdisziplinäres Denken zwischen Technik, Recht und Ethik angewandt werde. So seien aus ethischen Gesichtspunkten Fragen relevant wie „Entsteht mehr Einsamkeit durch Technik?“ (damit beschäftigte sich auch die Barmer in 2023) oder „Darf sich jeder einen Roboter nach eigener Vorstellung und nach dem Vorbild z. B. von Prominenten, Verstorbenen oder Kindern, konstruieren?“. Die Ausgestaltung entsprechender Angebote sollte jedenfalls nicht allein dem betroffenen Wirtschaftszweig überlassen, sondern von den jeweiligen zuständigen Stellen mit gesteuert werden. Aus unserer Sicht lohnt sich ein Blick über den Tellerrand der üblichen Anwendungsfälle für KI und eine Ausweitung der rechtlichen Betrachtung auf unkonventionelle Bereiche.
Resümee: KI insgesamt betrachtet
Die Veranstaltung machte wieder einmal deutlich: Die rechtliche Bewertung von KI sollte in einer gesellschaftlichen Debatte münden. Das Thema der Veranstaltung zeichnet einen möglichen Weg auf – ohne die Frage überhaupt zu beantworten: Schafft die KI den Datenschutz ab, weil immer mehr synthetische, künstliche, falsche, unwahre oder bewusst manipulierte Inhalte das Ergebnis ausmachen? Sind diese Daten dann überhaupt noch datenschutzrechtlich relevant bzw. zu bewerten? Kann das Datenschutzrecht hierzu (derzeit) überhaupt Antworten liefern?
Die synthetischen Fotos und künstlichen Beiträge in den sozialen Netzwerken und zunehmend in den allgemeinen Medien werden vermutlich nicht (mehr) – jedenfalls in dieser finalen Ausgestaltung in naher Zukunft – dem Datenschutzrecht unterliegen, da sie keinem Individuum als betroffene Person zuzuordnen sind. Das Datenschutzrecht läuft dann ins Leere. Teilweise sind die Daten auch falsch oder werden je nach Suchanfrage anders beantwortet. Die naheliegende Antwort wäre daher: Die KI schafft das Datenschutzrecht dort ab, wo dies am Ende gar nicht mehr für die Flut an künstlichen Inhalten (und Bildern/Videos) greift. Ob dies von den Datenschützer*innen gewünscht wird? Hier sei zumindest einschränkend zu sagen: Beim „Input“ und dem Trainieren der KI-Modelle werden mutmaßlich umfangreiche personenbezogene Daten verarbeitet, so dass hier die DSGVO noch anzuwenden ist und damit auch die datenschutzrechtlichen Anforderungen zu erfüllen sind. Eine gänzliche Abschaffung des Datenschutzes dürfte daher nicht zu erwarten sein.
Fazit
Das 3. Hamburger Datenschutzforum bot einen facettenreichen, gleichwohl sehr fachlichen Austausch mit dem Schwerpunkt auf KI. Die Beiträge gaben gute Einblicke in die unterschiedliche Arbeitswelt und sorgten in mehrfacher Hinsicht für rege Diskussion. Wir freuen uns schon jetzt auf das kommende Jahr zur 4. Ausgabe dieser neuen Reihe aus Hamburg und können den am Datenschutzrecht interessierten Personen die Teilnahme wärmstens empfehlen.