In unserem ersten Beitrag der Reihe zum AI Act (KI-Verordnung) haben wir uns mit der Frage beschäftigt, ab wann der AI Act eigentlich gilt. Schulungspflichten im Hinblick auf die Erzeugung einer KI-Kompetenz bei den Beschäftigten und das Verbot für bestimmte Praktiken im KI-Bereich gelten schon ab 2. Februar 2025. Die allgemeinen Pflichten gelten hingegen erst ab dem 2. August 2026.
Was soll eigentlich durch den AI Act geschützt werden?
Der AI Act soll den Einsatz von KI nicht verhindern, sondern für einen funktionierenden EU-Binnemarkt sorgen und den Rechtsrahmen in der EU harmonisieren. Schon in den Erwägungsgründen benennt der AI Act die verfolgten Schutzziele relativ eindeutig. Geschützt werden sollen demnach „Gesundheit, Sicherheit und [… die] in der Charta der Grundrechte der Europäischen Union („Charta“) verankerten Grundrechte, einschließlich Demokratie, Rechtsstaatlichkeit und Umweltschutz“.
Auf den ersten Blick handelt es sich hierbei also um drei Schutzziele, nämlich Gesundheit, Sicherheit und die Grundrechte der „Charta“. Hierbei handelt sich mit Blick auf die „Charta“ um folgende Grundrechtskategorien:
Würde des Menschen
Hierzu zählen neben der Würde des Menschen auch das Recht auf Leben, das Recht auf Unversehrtheit, das Verbot der Folter sowie das Verbot der Sklaverei und Zwangsarbeit
Freiheitsrechte
Hier sind verschiedene Rechte zu nennen, so das Recht auf Freiheit und Sicherheit, das Recht auf Achtung des Privat- und Familienlebens, der Schutz personenbezogener Daten, das Recht eine Ehe einzugehen und eine Familie zu gründen, Gedanken,- Gewissens- und Religionsfreiheit, die Freiheit der Meinungsäußerung und Informationsfreiheit, die Versammlungs- und Vereinigungsfreiheit, die Freiheit der Kunst und der Wissenschaft, das Recht auf Bildung, die Berufsfreiheit und das Recht zu arbeiten, unternehmerische Freiheit und das Eigentumsrecht.
Gleichheit
Hierzu zählen neben dem allgemeinen Gleichheitsrecht auch das Recht auf Nichtdiskriminierung, die Achtung der Vielfalt der Kulturen, Religionen und Sprachen, die Gleichheit von Frauen und Männern, Kinderrechte und Rechte älterer Menschen, sowie die Integration von Menschen mit Behinderung.
Solidarität
Recht auf Unterrichtung und Anhörung der Arbeitnehmerinnen und Arbeitnehmer im Unternehmen, Recht auf Kollektivverhandlungen und Kollektivmaßnahmen, Recht auf Zugang zu einem Arbeitsvermittlungsdienst, Schutz bei ungerechtfertigter Entlassung, Gerechte und angemessene Arbeitsbedingungen, Verbot der Kinderarbeit und Schutz der Jugendlichen am Arbeitsplatz, Schutz des Familien- und Berufslebens, Soziale Sicherheit und soziale Unterstützung, Gesundheitsschutz, Zugang zu Dienstleistungen von allgemeinem wirtschaftlichen Interesse, Umweltschutz, Verbraucherschutz.
Bürgerrechte
Aktives und passives Wahlrecht bei den Wahlen zum Europäischen Parlament, Aktives und passives Wahlrecht bei den Kommunalwahlen, Recht auf eine gute Verwaltung, Recht auf Zugang zu Dokumenten, Anrufung des Bürgerbeauftragten, Petitionsrechte, Freizügigkeit und Aufenthaltsfreiheit, Diplomatischer und konsularischer Schutz.
Justizielle Rechte
Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht, Unschuldsvermutung und Verteidigungsrechte, Grundsätze der Gesetzmäßigkeit und der Verhältnismäßigkeit im Zusammenhang mit Straftaten und Strafen, Recht, wegen derselben Straftat nicht zweimal strafrechtlich verfolgt oder bestraft zu werden.
Was ist mit dem Datenschutz?
Tatsächlich findet sich der Datenschutz als Schutzziel des AI Acts wieder. Denn über die Grundrechte der Charta, zu denen innerhalb der Freiheitsrechte ausdrücklich auch das Recht auf Achtung des Privat- und Familienlebens, sowie das Recht auf den Schutz personenbezogener Daten gehört, wird der Datenschutz voll in den AI Act einbezogen.
Darüber hinaus gelten weiterhin die Vorgaben der DSGVO und sonstiger Spezialregelungen. Der AI Act und die DSGVO sind also nebeneinander anzuwenden und müssen beide berücksichtigt werden. Teilweise regelt der AI Act sogar ein Zusammenspiel mit der DSGVO – zum Beispiel in Art. 27 Abs. 4 AI Act. Demnach können sich die Datenschutz-Folgenabschätzung nach Art. 35 DSGVO sowie die Grundrechte-Folgenabschätzung nach Art. 27 AI Act ergänzen. Insbesondere bei Hochrisiko-KI-Systemen wird oftmals sogar beides erforderlich sein. Zur Klassifizierung von Hochrisikosystemen und zu den Anforderungen einer Grundrechte-Folgenabschätzung nach dem AI Act kommen wir in einem der späteren Blogbeiträge dieser Reihe noch einmal zurück.
Festzustellen bleibt soweit also: Der AI Act hat den Datenschutz nicht vergessen. Im Gegenteil, er wird ausdrücklich angesprochen. Allerdings ist das Thema Datenschutz nur ein Thema von vielen, mit denen sich der AI Act beschäftigt.
Was ist mit der Informationssicherheit?
Die klassischen Schutzziele der Informationssicherheit, nämlich Verfügbarkeit, Vertraulichkeit und Integrität von Informationen und Systemen, werden vom AI Act nicht ausdrücklich angesprochen. Selbst wenn der AI Act im Rahmen der Schutzziele von „Gesundheit und Sicherheit“ spricht, geht es hier in erster Linie nicht um den Schutz der Informationssicherheit des KI-Systems an sich, sondern um den Schutz der Gesundheit und der Sicherheit von Personen. Gleichwohl kommt das Thema Informationssicherheit im AI Act nicht zu kurz. Denn u. a. in Art. 15 AI Act wird eine angemessene Genauigkeit, Robustheit und Cybersicherheit von bestimmten KI-Systemen (Hochrisiko-KI-Systemen) ausdrücklich gefordert und nach Art. 11 Abs. 1 AI Act in Verbindung mit der Anlage IV Nr. 2 lit. h sind die ergriffenen Cybersicherheitsmaßnahmen zu dokumentieren. Insgesamt stellt der Bruch der Informations- und Cybersicherheit fast immer auch eine Gefährdung der Schutzziele des AI Acts dar.
Darüber hinaus müssen sich Unternehmen und Organisationen auch unabhängig vom AI Act um die technische Sicherheit der eingesetzten KI-Systeme Gedanken machen. Zum einen, weil oftmals auch Art. 32 DSGVO unabhängig von der Klassifizierung eines KI-Systems immer dann eine angemessene Sicherheit der Verarbeitung fordert, wenn personenbezogene Daten verarbeitet werden. Zum anderen muss ein KI-System möglicherweise in ein bestehendes Informationssicherheitssystem, zum Beispiel nach ISO/IEC 27001 mitberücksichtigt werden, wenn es der Geltungsbereich erfordert.
Insgesamt tut sich hier derzeit übrigens einiges. So gibt es Projekte und Normen, die sich speziell mit der Sicherheit von KI-Systemen beschäftigen, zum Beispiel die ISO/IEC 42001, die sich mit dem Aufbau und dem Betrieb eines Artificial Intelligence Management Systems beschäftigt (AIMS). Erwähnenswert sind auch Projekte, die sich den häufigsten Angriffsszenarien auf KI-Systeme widmen, wie etwa die OWASP Top 10 for Large Language Model Applications oder die OWASP Machine Learning Security Top Ten. Insgesamt ergeben sich hieraus in Zukunft auch mögliche neue Verfahren zur Durchführung von Penetrationstests – wie zum Beispiel bei Large language Models (LLMs) die systematische Prüfung im Hinblick auf prompt injections oder aber auch die Überprüfung des Vorhandenseins von Rückkopplungsschleifen, welche nach Art. 15 AI Act in bestimmten Fällen beseitigt oder so gering wie möglich gehalten werden müssen.
Was ist mit Umweltschutz?
Auch der Umweltschutz wird vom AI Act ausdrücklich angesprochen und das entsprechende Schutzziel sogar noch einmal hervorgehoben, indem Art. 1 AI Act „ein hohes Schutzniveau in Bezug auf Gesundheit, Sicherheit und die in der Charta verankerten Grundrechte, einschließlich Demokratie, Rechtsstaatlichkeit und Umweltschutz, vor schädlichen Auswirkungen von KI-Systemen“ fordert. Einer solchen Klarstellung hätte es eigentlich gar nicht bedurft, denn ein Blick in die Charta zeigt, dass der Umweltschutz in Art. 37 als Unterprunkt des Kapitels „Solidarität“ geregelt wird. Vermutlich wollte der Verordnungsgeber an dieser Stelle noch einmal sicher gehen, dass das entsprechende Schutzziel nicht unter den Tisch fällt.
Gesundheit, Sicherheit, Grundrechte
Im Ergebnis lässt sich feststellen, dass der AI Act im Hinblick auf die Schutzziele einen großen Wurf gemacht hat und eine umfassende Beachtung der Grundrechte erfordert. Vor dem Hintergrund der möglicherweise disruptiven Technologieentwicklung und den Auswirkungen für die Gesellschaft und den einzelnen Menschen, erscheint dieser Ansatz auch sinnvoll. Auf der anderen Seite macht dies auch deutlich, dass in Fällen, in denen eine Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme nach Art. 27 AI Act (hierauf gehen wir einem der kommenden Beiträge dieser Reihe noch näher ein) erforderlich wird, die Prüfung von Risiken und Bedrohungen in Bezug auf die Schutzziele sehr viel breiter sein wird, als dies zum Beispiel derzeit im Rahmen der Datenschutz-Folgenabschätzung nach DSGVO der Fall ist. Die Datenschutz-Folgenabschätzung nach der DSGVO darf daher keinesfalls mit der Grundrechte-Folgenabschätzung nach dem AI Act verwechselt werden.
Die genauen Anforderungen an eine Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme werden sich vermutlich in Zukunft auch noch schärfen. Vor diesem Hintergrund bleibt also noch etwas Zeit, da die entsprechende Durchführung erst bis zum Wirksamwerden des AI Acts am 2. August 2026 vorliegen muss. Wann dabei von einem für Hochrisiko-KI-System auszugehen ist, erläutern wir in einem der kommenden Blogbeiträge.