Am 10. November wurde virtuell das zweite Weizenbaum-Forum vom gleichnamigen Institut aus Berlin mit einem sehr ansprechenden Titel „Ich war’s nicht – der Computer war’s. Wer haftet für den Einsatz von lernfähigen Robotern?“ ausgetragen.

Die von Marcus Richter moderierte Veranstaltung sollte dank eines interdisziplinären Austausches der drei Experten einen facettenreichen Einblick in das Thema gewähren. Die Gretchenfrage lautet: Wer haftet für Schäden durch Roboter bzw. KI-Systeme?

Anwendungsfelder der KI

Zunächst wurde mit Blick auf den Alltag und unser aller Leben die Frage aufgeworfen, in welchen Bereichen überhaupt die KI zur Anwendung kommen könnte bzw. sollte – und uns damit Arbeit abnehmen könnte.

Zu den, nicht immer ganz ernst gemeinten Antworten auf diesen Aufruf zählten z.B. das Wäschewaschen bzw. der Haushalt. Und auch das Autofahren, die Service-Hotline oder die wissenschaftliche Arbeit könnten nach Vorstellung der Teilnehmer in Zukunft hiermit unterstützt werden.

Es folgten drei spannende Impulsvorträge der eingeladenen Referenten: Herbert Zech, Direktor am Weizenbaum-Institut, Rainer Rehak, wissenschaftlicher Mitarbeiter am Weizenbaum-Institut sowie Kirsten Bock, Rechtsphilosophin und Datenschutzjuristin im aufsichtsbehördlichen Bereich.

Mit diesem Panel sollte daher der technische, juristische sowie ethische Blickwinkel zur heutigen Fragestellung betrachtet werden.

Zum Verständnis der KI

Gleich zu Beginn stellte der Informatiker Rainer Rehak vom Weizenbaum-Institut aus seiner Sicht die Technik/Software einer KI vor. Was wird überhaupt unter dem Begriff der KI verstanden? Während sich beispielsweise die Enquete-Kommission der Bundesregierung einer Definition „der“ KI versperrte, brachte es Rainer Rehak mit seiner einfachen Darstellung auf den Punkt: KI sei im Grunde ein technisches System, das Aufgaben wahrnehme und Probleme löse. Dabei werde zumeist auf das Konzept des Machine Learning durch mathematisch statistische Verfahren gesetzt, das im Wesentlichen auf die Mustererkennung zurückgreife.

Auf diese Weise würden Systeme trainiert, bestimmte Muster (z.B. Bilder, Gewebescans oder aber auch Stimmen) zu erkennen, indem sie mit anderem Material verglichen würden. Der Algorithmus ändere sich in der Regel nur kaum bis gar nicht, aber die Konfiguration, d.h. die Gewichtung und einzelne Parameter würden mit der Zeit angepasst werden, damit das System irgendwann klappe.

Gleichwohl sei es für den Anwender und selbst für den Entwickler nicht immer ganz klar, wie die Formeln und Verbindungen funktionieren, weshalb immer wieder von einer sog. Blackbox die Rede sei.

Dabei unterstrich Rainer Rehak: Die Maschine bzw. das System sei immer nur ein Werkzeug und könne nie Akteur werden.

So wird sie nach Ansicht des Referenten zwar teilweise „domänenspezifisch“ besser, aber niemals universell.

Allgemeine Haftungsregeln

Der anschließende Beitrag behandelte die juristische Komponente. Der Direktor am Weizenbaum-Institut, Herbert Zech gab als erstes eine kleine juristische Einführung in die zivilrechtliche Haftung hierzulande und stellte die verschuldensabhängig sowie die verschuldensunabhängige Haftungsmodelle vor.

Sodann warf er die Frage auf, ob es überhaupt für die Haftung bei der KI spezielle Regelungen bedürfe.

Schließlich sei zu bedenken: Was für rechtspolitische Zwecke sollen mit der Haftung derartiger Systeme verfolgt werden und inwiefern kann eine etwaige Steuerungswirkung beispielsweise für Akteure solcher Robotersysteme gewisse Anreiz schaffen? Soll derjenige für Schäden haften, der das System einsetzt? Und wie wäre ein sinnvoller Schadensausgleich zu erzielen?

Unter der Annahme einer verschuldensabhängigen Haftung in diesem Anwendungsbereich müssten im Zweifel die Richter klären, welcher Sorgfaltsmaßstab greife bzw. welche Sorgfaltspflichten bestünden.

Wird hingegen, wie von einigen Experten angenommen, eine verschuldensunabhängige Haftung bzw. die Gefährdungshaftung der KI-Systeme zugrunde gelegt, wie es sich beispielsweise auch im Straßenverkehr bei der Halterhaftung für den PKW vorliegt, liegt in jedem Fall eine Haftung vor.

Doch dann würde die verschuldensunabhängige Haftung auf den Anwender oder aber Betreiber allein durch das Anbieten der Systeme verlagert werden, was Vor- aber auch Nachteile mit sich bringen würde. Es könne aber auch Anreiz schaffen, Hersteller / Entwickler dazu zu bringen, die Technologie weiter zu entwickeln und mehr Sicherheit zu schaffen.

Schwierigkeiten würden dann da bestehen, den richtigen Adressaten der Gefährdungshaftung zu bestimmen, denn soll nun der Entwickler, Hersteller, Betreiber oder Anwender in Haftung genommen werden? Letzteres könnte dazu führen, dass sich der Nutzer nicht ein solches System anschafft, wenn er verschuldensunabhängig selbst haften würde. Da würde nur eine Versicherungspflicht helfen.

Die DSGVO

Es folgte die rechtsethische Perspektive der Juristin Kirsten Bock. Sie zeigte auf, dass die DSGVO bereits einen guten Rechtsrahmen bilde und daher schon jetzt entsprechende Gesetze vorlägen, die auch viele KI-Szenarien regeln. Denn meistens würden die Systeme nun mal mit personenbezogenen oder personenbeziehbaren Daten in Berührung kommen und dann gelte sowieso die DSGVO.

Ferner nahm Kirsten Bock auf das Whitepaper der EU-Kommission für einen Einsatz einer vertrauenswürdigen KI Bezug und präsentierte in knappen Worten die darin enthaltenen sieben Kriterien, wie unter anderem die Vertrauenswürdigkeit, die Rechtskonformität sowie auch Robustheit und Sicherheit.

So böte die DSGVO nach Ansicht von Kirsten Bock bereits heute schon eine gute Basis, insbesondere mit der Definition und Verteilung der Verantwortlichkeit(en) nach Art. 24, 26 und 28 DSGVO sei hinreichend Rechtssicherheit gegeben.

Ein offenkundiges, weitreichendes Problem der Fairness und Diversität der KI wurde im Übrigen nur kurz angesprochen, war aber nicht Thema des Impulsvortrages.

Auch interessant war der kurze Einwurf: Wer kann sich zukünftig überhaupt die Privatsphäre leisten angesichts der bekannten Machtverhältnisse? Denn: Ist der Mensch, der eine KI nutzt bzw. nutzen will, nicht bereits selber nur das Produkt des Systems und machtlos?

Insgesamt lautete aber ihr Fazit: Im Hinblick auf die Datenverarbeitung von personenbezogenen Daten bestünde kein Regelungsbedarf, denn da greife die DSGVO.

Diskussion zu einem fiktiven Fall

In der anschließenden Diskussion der Referenten sollten die jeweiligen Ansichten und Blickwinkel anhand eines (gar nicht mal mehr so) fiktiven Falls erörtert werden: Was wäre, wenn ein autonomes Fahrzeug einen Unfall im Straßenverkehr baut – wer würde für Schäden haften und was für Konsequenzen ergeben sich daraus?

Rainer Rehak wies darauf hin, dass in technischer Hinsicht der Fehler im Nachgang nachvollzogen werden könne und daher die Erkenntnisse des Fehlers rekonstruiert werden könnten. Dies ermögliche die Beurteilung des Systemfehlers, was für die Klärung der Haftung positiv sei.

Herbert Zech, Direktor am Weizenbaum-Institut bewertete die Sachlage anhand der verschuldensunabhängigen Haftung (analog der Halterhaftung für das Auto), womit jedoch eine Verantwortungsdiffusion drohe: Weder Käufer noch Verkäufer hätten Interesse an einer Haftung, sonst würden sie auch gar keinen Kauf/Verkauf anstreben.

Der Gesetzgeber könne zwar hier rechtspolitisch eingreifen und die Rechtslage steuern. Doch im Ergebnis sei wohl nur die Haftpflichtversicherung bzw. Versicherungslösung als Sozialversicherung für KI/Roboter denkbar.

Offen blieb jedoch die rechtsphilosophische Frage: Wollen wir überhaupt Systeme einsetzen und nutzen, die nicht beherrschbar, respektive erklärbar sind?