Im Jahre 2018 wurde die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ vom Deutschen Bundestag gebildet, die sich zur Hälfte aus Mitgliedern des Bundestages und zur Hälfte aus unterschiedlichen externen Expertinnen und Experten zusammensetzt und sich ganz dem Thema „KI“ widmen sollte.

Nun nach etwas über zwei Jahren kam das Team, das in dieser Zeit in regelmäßigen Abständen (auch in der Corona-Phase) tagte und später noch eine Online-Beteiligungsplattform für Jedermann ins Leben rief, nun zum erfolgreichen Abschluss. Anfang November präsentierte die Kommission den rund 800 Seiten insgesamt umfassenden Abschlussbericht – auf eine große Feier in Berlin musste leider verzichtet werden.

Der Abschlussbericht fasst die Ergebnisse in den einzelnen Themenblöcken zusammen, die unter anderem die unterschiedlichen Einsatzfeldern der KI, beispielsweise in der Bildung, Arbeitswelt, der Forschung oder in den Medien vorsehen, aber auch an diversen Stellen das Datenschutzrecht behandelt. Und auch Aussagen der Bürgerinnen und Bürger aus der Online-Beteiligung flossen in den Bericht.

Hierbei ging es unter anderem auch um die Fragen: Mit wem sind Sie bereit Ihre Daten zu teilen und warum (jetzt und in Zukunft)? Oder: Welche Hoffnungen und Befürchtungen verbinden Sie mit dem Einsatz von KI?

Ziele

Was waren die Ziele dieser Enquete-Kommission zu diesem außergewöhnlichen Thema? Neben einer wissenschaftlichen Auseinandersetzung mit der noch recht jungen Materie und der Untersuchung der Chancen für die Wirtschaft bzw. der Arbeitswelt sollten Überlegungen zu Standards sowie einem „KI-Gütesiegel“ angestrebt werden, um auch Vertrauen in der Gesellschaft zu erreichen. Der Fokus lag hier auf einer „KI made in Germany“, oder zumindest „KI made in Europe“, um sich von der weltweiten Konkurrenz abzugrenzen. Dies soll auch Anreiz schaffen für nationale Startups.

Interessant ist übrigens, dass sich die Kommission bewusst gegen eine Definition der KI entschieden hat, und diesbezüglich auf die Begriffsbestimmungen des europäischen „Pendants“ (HEG-KI) verweist, das vor knapp zwei Jahren schon umfangreiche Leitlinien entwickelt hat, worauf sich auch das Whitepaper der EU-Kommission stützt.

Die DSGVO bildet den Rechtsrahmen

Das Expertengremium zeichnet in seinem veröffentlichten Papier zahlreiche Handlungsempfehlungen sowie positive Aspekte und Vorteile des Einsatzes von KI-Systemen in den einzelnen Wirtschaftsfeldern und der Verwaltung auf.

Als ein vorhandenes Steuerungsinstrument, zumindest im Hinblick auf die Datenverarbeitung, lobt die Kommission ausdrücklich die DSGVO als geltendes Recht, hebt allerdings gewisse Regelungslücken beim Umgang mit anonymisierten Daten hervor. Diese fallen bekanntlich aus dem Anwendungsbereich der DSGVO, d.h. unterliegen quasi nicht den datenschutzrechtlichen Bestimmungen.

Hierzu heißt es in der vorangestellten bereichsübergreifenden Zusammenfassung (S. 31):

Die durch die DSGVO erreichte Balance zwischen Datenschutz und Innovation sollte erhalten werden. Rechtsunsicherheiten, die sich bei der Interpretation der DSGVO-Vorschriften mit Blick auf die Funktionsweise von KI-Systemen noch ergeben, sollten geklärt werden. In Teilen sollte das durch eine Konkretisierung der Vorgaben durch die in der DSGVO vorgesehene regulierte Selbstregulierung, also in Form von Codes of Conduct und Zertifizierungen, geschehen. Die Selbstverpflichtungen sollten nach fünf Jahren evaluiert und bei Bedarf durch geeignete gesetzliche Regelungen ersetzt werden. Zum anderen sollten Probleme durch Klarstellung beseitigt werden, die im Rahmen der DSGVO-Evaluierung festgestellt werden.

Die Grundprinzipien der DSGVO bleiben dabei unberührt. […] Der Versuch, aus anonymisierten Daten Rückschlüsse auf Personen zu ziehen, ist bisher nicht strafbar. Geprüft werden sollte, ob und inwieweit es sinnvoll wäre, das vorsätzliche De-Anonymisieren von Daten unter Strafe zu stellen.“

 Fraglich ist, ob ein solcher Ansatz überhaupt zielführend, respektive notwendig ist, denn eigentlich würde die „De-Anonymisierung“, sofern sich eine solche überhaupt umsetzen lässt, wieder die Anwendbarkeit der DSGVO begründen.

Dennoch zieht die Kommission insgesamt ein überwiegend positives Fazit zum bestehenden Datenschutzrecht:

Insofern ist eine solide gesetzliche datenschutzrechtliche Grundlage für die Verarbeitung von personenbezogenen Daten durch KI-Systeme vorhanden. Es gibt jedoch noch keine gesicherte, einheitliche Auslegung und Anwendung der gesetzlichen Vorschriften bei der Beurteilung von einzelnen Anwendungsfällen im Zusammenhang mit dem Training oder Einsatz von KI-Systemen. Dies ist zum einen der schnellen technologischen Entwicklung geschuldet, liegt aber auch an der nationalen Struktur der für die Rechtsdurchsetzung zuständigen Behörden.“ (S. 68).

 Risiken der Diskriminierung, aber auch aktuelle Chancen

Diskussionsbedarf besteht weiterhin an diversen Stellen der KI-Systeme bei der Diskriminierung einzelner Personen bzw. Personengruppen (bias) und den sich daraus ergebenen Folgen und Konsequenzen für die Bevölkerung, aber auch den einzelnen Betroffenen. Transparenz, Nachvollziehbarkeit und Erklärbarkeit von auf KI basierenden Entscheidungen, die sich sodann einer gerichtlichen Überprüfung unterziehen lassen müssen, könnten hier gewisse Abhilfe liefern. In Gänze lässt sich das Problem hierdurch aber wohl nicht auflösen. Ferner werden auch ethische Fragen aufgeworfen, die bei solcher Technologie natürlich immer mitschwingen.

Im Hinblick auf die Haftung für Schäden durch solche KI-Prozesse lehnt die Kommission das vor einiger Zeit von der EU aufgeworfene Konzept der „E-Person“ ab, wonach die KI bzw. der Roboter als eigenständige Rechtsfigur „selber haften“ würde. Vielmehr lässt sich die geltende Gefährdungshaftung und das Produkthaftungsrecht heranziehen.

Und auch der aktuellen Lage entsprechend befasste sich die KI-Kommission mit Covid-19 und möglichen Maßnahmen zur Eindämmung der gegenwärtigen Pandemie durch KI-Systeme. Hier würden sich auch Chancen bieten, die auch der Forderung der Akzeptanz dienen, so die Einschätzung der Expertengruppe. Als konkrete Beispiele werden medizinische Tracking- und Berechnungsmethoden bei der Erkennung der Pandemie oder der Krankheit, aber auch Pflegeroboter bzw. Roboter als Boten erwähnt.

Fazit:

Insgesamt hat die Enquete-Kommission zur KI sehr gute Arbeit geleistet und umfassende Handlungsempfehlungen anhand aktueller, konkreter Anwendungsfällen aufgeführt. Die aufgezeigten positiven Aspekte und Chancen dieser weitreichenden Technologie überwiegen, so dass hier nicht – wie so oft – ein düsteres Bild gezeichnet wurde. Es wäre wünschenswert, wenn sich vieles aus diesem Abschlussbericht realisieren lässt und das Potenzial genutzt wird.

Weitere Informationen zur Kommission, deren Arbeit bzw. bisherige Arbeiten und alle Dokumente und Protokolle finden sich hier.