Im Rahmen der 98. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) am 6. Und 7. November in Trier wurde auch eine Entschließung nebst Positionspapier zu „empfohlenen technischen und organisatorischen Maßnahmen bei der Entwicklung und dem Betrieb von KI-Systemen“ veröffentlicht.

Das 23-seitige Positionspapier soll abstrakte Handlungsempfehlungen geben und einen Rahmen für die Entwicklung konkreter Konzepte zum Einsatz von KI-basierten Systemen skizzieren.

Gleich zu Beginn des Dokuments wird deutlich, dass die Aufsichtsbehörden an KI-Systemen bzw. einzelnen Komponenten anknüpfen und nicht die „KI“ als fiktive Figur behandeln. Mit diesem Kniff wird die Diskussion, ob es sich um eine „starke“ oder „schwache“ KI handelt und dieser eine fiktive Eigenständigkeit zugeschrienen werden könnte, geschickt umgangen und sich auf greifbare und typische technische Systeme bezogen.

Ferner wird der „Lebenszyklus“ und typische Ablauf eines KI-Systems vom Design zum Training bis hin zur etwaigen „Selbstveränderung des Systems“ ansprechend veranschaulicht und detailliert beschrieben. Hier wird ferner zwischen den einzelnen Stadien differenziert.

Die einzelnen Gewährleistungsziele und technisch-organisatorische Forderungen sind abhängig von dem konkreten Zeitpunkt im Lebenszyklus. In der Anlage des Dokuments findet sich hierzu eine sehr übersichtliche Tabelle.

Rechtliche Vorgaben

Der Abschnitt der rechtlichen Bezüge bleibt allerdings sehr abstrakt und gibt mehr oder weniger die Forderungen aus der DSGVO wieder. Hier wären konkretere Ansätze, beispielsweise zur Wahl der Rechtsgrundlage und dessen Umsetzungsmöglichkeiten (und Beispielsfälle) wünschenswert gewesen. Sofern besondere Kategorien personenbezogener Daten nach Art. 9 DSGVO durch das KI-System verarbeitet werden, was häufig durch Gesichts- oder Stimmerkennung, Verhaltensanalyse oder sogar vorgesehene Verarbeitung biometrischer Daten erfolgt und auch gerade eines der Ziel der Technologie darstellt, kommt in der Regel in der Privatwirtschaft lediglich die ausdrückliche Einwilligung des Betroffenen nach Art. 9 Abs. 2 lit. a, Art. 7, Art. 8 DSGVO in Betracht. In Anbetracht persönlicher Assistenten, die in naher Zukunft in Lautsprechern, Smartphones oder dem Auto verbaut werden, dürfte diese Rechtsgrundlage einzig und allein eine derart umfassende Datenverarbeitung rechtfertigen. Im medizinischen Bereich oder speziellen, überschaubaren Vertragsverhältnissen (Dienstleistungen) sind sicherlich andere Rechtsgrundlagen denkbar. Derartige Fallstricke werden nicht aufgeführt.

Technisch-organisatorische Maßnahmen

Das Positionspapier sieht an vielen Stellen technische Anforderungen an KI-Systeme vor, die etwaige Prüfungspunkte andeuten.

Im Zeitraum des Trainings wie auch eigentlich während der gesamten Zeit sollte demnach sichergestellt werden, dass die Daten möglichst auf lokalen KI-Komponenten bzw. Clients verarbeitet werden. Dieses Vorgehen dürfte praxisfern sehn.

Weiter heißt es:

„Werden die Daten jedoch an einen KI-Server übermittelt, muss die Vertraulichkeit durch eine Ende-zu-Ende-Verschlüsselung gewährleistet werden. Auch serverseitig dürfen die Daten nur durch Befugte weiter verarbeitet werden.(S. 15) sowie: „Wird das Training in einem Cloud-Bereich durchgeführt, müssen die Trainingsdaten, Testdaten und Verifikationsdaten auf verschlüsseltem Weg in diesen Bereich transportiert werden.“ (S. 16).

Transparenz und Erklärbarkeit

Ein großes Thema ist die Erklärbarkeit der KI. Die Vorgänge und Ergebnisse sollten – soweit wie möglich – erklärbar und verständlich sein, um auch durch menschliche Aktionen noch nachträglich interpretiert oder geprüft werden zu können. Dies ist vom konkreten Nutzer, vom Verantwortlichen und auch sogar unter Umständen der Wirtschaft abhängig und entspricht eher der Idealvorstellung des Menschen, Dinge (wie auch die Naturwissenschaft) verstehen zu wollen.

Dieser Problematik ist sich die DSK bewusst und äußerst sich dazu:

„Der Grad der herzustellenden Transparenz über die Methoden der verwendeten KI-Systeme hängt von der Zielgruppe ab (Betroffene, Verantwortliche, Aufsichtsbehörden). Deshalb sollte eine Abstufung in unterschiedliche Level von Transparenz erfolgen. Während Betroffene meist weniger Detailtiefe benötigen und vor allem die Information benötigen, dass ein KI-System eingesetzt wurde und wo ggf. weitere Details in Erfahrung gebracht werden können, benötigen Verantwortliche nachvollziehbare Erläuterungen für alle Schritte des KI-Systems. Prüfende Institutionen wie Aufsichtsbehörden benötigen hingegen weitere Informationen, etwa um abschätzen zu können, wie sicher das KI-System zu Ergebnissen kommt.“ (S. 11, 12).

Grundsatz der Datenminimierung

Zu den Hauptkritikpunkten an KI-Verfahren zählt die Unmöglichkeit der Umsetzbarkeit vom Grundsatz der Datenminimierung. Durch der einer KI innewohnenden „Dauerschleife“ der Verarbeitung von Roh- und Trainingsdaten sowie deren Verarbeitung für zukünftige Erkenntnisse stellt sich immer wieder die Frage, ob Sinn und Zweck der KI nicht gerade im Widerspruch zu den datenschutzrechtlichen Grundsätzen stehen. Auf der einen Seite brauchen diese Verfahren die Daten und sammeln solche stets weiter, um daraus immer verbesserte Erkenntnisse zu gewinnen, auf der anderen Seite sollen personenbezogene Daten möglichst dann gelöscht werden, wenn diese nicht mehr erforderlich sind oder sich aus anderen Erwägungen eine Löschpflicht ergibt. Entzieht man dem System jedoch die Roh- und Bestandsdaten, droht ein Error oder Systemausfall.

Zu dieser Diskrepanz liefert das Positionspapier ein paar allgemein gültige Empfehlungen, ohne jedoch auf konkrete Löschkonzepte oder Methoden einzugehen.

So wird unter anderem für den Lebenszyklus „Einsatz, Rückkopplung und Selbstveränderung des KI-Systems“, der in der Regel der letzte und die längste (fortlaufende bzw. endlose) Phase in zeitlicher Hinsicht darstellt, vorgeschlagen:

„Wenn im Laufe des Einsatzes eines KI-Systems für den Output erkennbar irrelevante Daten verarbeitet werden oder Daten die zur Erfüllung des festgelegten Zwecks nicht (mehr) erforderlich sind, sollte das KI-System mit entsprechend reduzierten Trainingsdaten erneut trainiert werden. Wenn der Output eines KI-Systems mehr Daten umfasst als für den vorgegebenen Zweck erforderlich sind, sind letztere für die weitere Verarbeitung zu verwerfen.“ (S. 17).

In einem weiteren Schritt kann allerdings die Anonymisierung oder Pseudonymisierung gewisse Abhilfe leisten:

„Wenn der Personenbezug eines Outputs für den definierten Zweck nicht erforderlich ist, so ist der Output in geeigneter Weise zu anonymisieren, z. B. durch Datenreduktion/-aggregation.
Wenn die Rückkopplung des Outputs für eine qualitative Verbesserung des KI-Systems im Rahmen seiner Lernfähigkeit verwendet wird, ist ein etwaiger Personenbezug zu entfernen (Anonymisierung/Pseudonymisierung).“ (S. 17).

Die Frage der Verantwortlichkeit der Verarbeitungsvorgänge wird hingegen nicht ausdrücklich thematisiert oder bewusst offengelassen.

Kontrolle durch den Menschen?

Eines wird jedoch klar: Es soll eine vollständige automatisierte Entscheidung möglichst verhindert werden. So wird auf Seite 18 des Papiers etwas deutlicher formuliert:

Soweit an eine finale Entscheidung Folgemaßnahmen geknüpft werden, die ein hohes Risiko für Betroffene bergen, bedarf es eines Freigabe-/Bestätigungs- bzw. Ablehnungsmechanismus durch menschliches Zutun (Art. 22 Abs. 1 DS-GVO). Das KI-System muss dazu solange in einem Warte-Status verbleiben („pending“), bis der weitere Fortgang (manuell) angestoßen wird.“

Die DSK orientiert sich diesbezüglich auch an der „Hambacher Erklärung“ vom April 2019, die unter anderem fordert, dass der Mensch auch bei zukünftigen KI-Szenarien weiterhin die Kontrolle ausüben muss und letztlich die Vorgänge in der Hand haben soll. Ist das zielführend oder versperrt man sich dadurch der facettenreichen Technologie?

Dieser (Wunsch-)Gedanke ist nicht neu und auch verständlich, verkennt aber die technische Entwicklung der KI. Eine klare Abgrenzung zwischen solchen Entscheidungen, die der Mensch erkenntlich und in aufgeklärter Weise vorab treffen soll, und der Selbstverwirklichung einer selbstdenkenden KI ist kaum möglich und würde unter Umständen das System hemmen. Zudem stellt sich die Frage, wann eine solche Entscheidung vorliegt und ob dies überhaupt für die KI-Prozesse, insbesondere aber auch für den Menschen, zu diesem Zeitpunkt erkennbar ist.

Fazit

Insgesamt bietet das DSK Positionspapier eine gute Übersicht mit sehr strukturierten Maßnahmen und Modellen. Aufgrund des hier womöglich erforderlichen Abstraktionsgrades müssen jedoch Verantwortliche die aufgeworfenen Handlungsempfehlungen beim Einsatz von KI-Systemen prüfen und die Maßgaben an den Einzelfall konkretisieren, bleibt es andernfalls bei einem Vabanquespiel.