Seit dem 2. Februar 2025 gilt die Schulungspflicht nach der KI-Verordnung (KI-VO), d. h. Beschäftigte, die sich mit der Nutzung oder dem Betrieb von KI-Systemen befassen, sollen nach Art. 4 KI-VO „über ein ausreichendes Maß an KI-Kompetenz“ verfügen. Mit der Umsetzung der Schulungspflicht ist es jedoch noch nicht getan, denn Unternehmen und Organisation sind gut beraten, wenn sie auch verbindliche Regeln im Umgang mit KI in Form einer KI-Richtlinie einführen.

Die Notwendigkeit, eine solche Richtlinie einzuführen, kann verschiedene Gründe haben:

  • Oftmals ist das Unternehmen selbst dabei, dass Thema KI aktiv einzubinden und stellt den Beschäftigten KI-basierte Lösungen zur Nutzung zur Verfügung.
  • Manchmal ist das Unternehmen aber noch nicht so weit und die Beschäftigten selbst fragen, wann es hier vorangeht, und nutzen vielleicht sogar schon privat angeschaffte oder frei verfügbare KI-Lösungen im beruflichen Kontext.
  • Schließlich kommt es vor, dass weder das Unternehmen noch die Beschäftigten aktiv eine KI-Lösung einführen, diese aber dennoch Einzug ins Unternehmen hält. Dies ist z. B. dann der Fall, wenn mit dem Update einer Software oder eines Betriebssystems plötzlich neue KI-Funktionen vom Anbieter eingebaut wurden und diese quasi über Nacht zur Verfügung stehen.

Regelung treffen

Der allerwichtigste Punkt für ein Unternehmen bzw. eine Organisation ist momentan, den Einsatz von KI überhaupt zu regeln. Um es klar zu sagen:

Nichts ist derzeit schlimmer, als keine Regelung zu treffen.

Der einfachste Weg wäre an dieser Stelle sicherlich, ein generelles Verbot auszusprechen. Wirklich zukunftsfähig wäre ein solcher Ansatz vermutlich nicht. Es sind jedoch auch andere Lösungen denkbar. Eine kleine Warnung an dieser Stelle: Der Blogbeitrag wird etwas länger, dafür aber relativ umfassend.

Klassischer und gemischter Whitelist-Ansatz

Um einerseits einem Wildwuchs der KI-Systeme vorzubeugen und andererseits den nötigen Über- und Durchblick zu behalten, bietet sich je nach Art der Daten ein klassischer bzw. gemischter Whitelist-Ansatz an. Was meinen wir damit?

Personenbezogene Daten

Immer dann, wenn KI-Systeme für die Verarbeitung personenbezogener Daten genutzt werden sollen, muss überprüft werden, ob überhaupt die Rahmenbedingungen dafür vorhanden sind.

Sofern ein Dienstleister das KI-System anbietet, was häufig der Fall sein wird, umfasst dies die klassischen Prüfpunkte aus datenschutzrechtlicher Sicht:

  • Existiert ein Vertrag zur Auftragsverarbeitung nach Art. 28 DSGVO?
  • Enthält der Vertrag mit dem Dienstleister eine Regelung, dass die Daten vom Anbieter nicht für Trainingszwecke genutzt werden dürfen?
  • Findet die Datenverarbeitung ausschließlich innerhalb der EU statt oder gibt es andere Gründe, um von einem angemessenem Datenschutzniveau ausgehen zu dürfen – z. B. die Teilnahme von US-Unternehmen am Data Privacy Framework oder der Abschluss von EU-Standardvertragsklauseln sowie ggf. das Vorhandensein eines Transfer Impact Assessments?

Sofern personenbezogene Daten ins Spiel kommen, kann auch die Prüfung weiterer Punkte erforderlich werden. Das wollen wir aber an dieser Stelle nicht vertiefen, denn eine Sache sollte deutlich geworden sein: Alle KI-Systeme, die das Unternehmen oder die Beschäftigten für die Verarbeitung von personenbezogenen Daten einsetzen möchten, müssen individuell geprüft und freigegeben werden. Daraus folgt, dass eine Verarbeitung von personenbezogenen Daten mittels KI-Systemen im Grundsatz verboten sein sollte, außer das Unternehmen hat diesen Einsatz ausdrücklich erlaubt. Hierfür sollte eine Regelung zum Einsatz von KI daher einen klassischen Whitelist-Ansatz verfolgen: KI-Systeme dürfen nur dann für die Verarbeitung personenbezogener Daten genutzt werden, wenn diese ausdrücklich über eine Whitelist erlaubt wurden. Bei der Frage, ob die Rahmenbedingungen für eine Aufnahme in die Whitelist vorliegen, sollte, sofern vorhanden, der Datenschutzbeauftragte des Unternehmens einbezogen werden.

Schützenswerte Unternehmensinformationen

Ähnlich wie bei der Verarbeitung von personenbezogenen Daten, dürfen auch schützenswerte Unternehmensinformationen nicht einfach so mit jedem KI-System verarbeitet werden. Auch hier muss man, insbesondere wenn das KI-System von einem Dienstleister bereitgestellt wird, näher hinsehen und sich u. a. die Frage stellen: Sichert der Anbieter zu, dass schützenswerte Unternehmensinformationen vertraulich behandelt und insbesondere nicht zweckfremd genutzt werden, z. B. um das KI-Modell zu trainieren?

Auch hier ist also ein echter Whitelist-Ansatz erforderlich, denn schützenswerte Unternehmensinformationen dürfen ausschließlich in geprüften KI-Systemen verarbeitet werden.

Unternehmen, die gemäß ISO/IEC 27001 zertifiziert sind, können hier möglicherweise auf eine vorhandene Regelung zur Informationsklassifizierung verweisen.

Insgesamt ist an dieser Stelle vor der Aufnahme von KI-Systemen auch die Einschaltung des Informationssicherheits-Beauftragten der Organisation ratsam, sofern dieser vorhanden ist.

Nicht personenbezogene und nicht schützenswerte Daten

Stellt man den Whitelist-Ansatz in der Praxis bei Unternehmen vor, kommt relativ schnell die Frage, wie man denn mit einer solch (vermeintlich) restriktiven Regelung den Einsatz von KI im Unternehmen überhaupt noch fördern kann, um den Anschluss nicht zu verlieren. Eine Möglichkeit ist ein gemischter Whitelist-Ansatz. Unternehmen können sich nämlich durchaus dazu entscheiden, bestimmte Arten von KI-Systemen auch ohne individuelle Prüfung freizugeben. Allerdings muss dann klar geregelt werden, dass mit diesen KI-Systemen keine personenbezogenen und keine schützenswerten Unternehmensinformationen verarbeitet werden dürfen.

Eine entsprechende Aufnahme in die Whitelist könnte dann z. B. wie folgt aussehen:

„KI-Systeme, die Bild- Ton- oder Videoinhalte erzeugen oder manipulieren dürfen genutzt werden. Allerdings dürfen hiermit weder personenbezogene noch schützenswerte Unternehmensinformation verarbeitet werden.“

„KI-Systeme, die Textinhalte erzeugen dürfen genutzt werden. Allerdings dürfen hiermit weder personenbezogene noch schützenswerte Unternehmensinformation verarbeitet werden.“

Unternehmen, die einen solchen gemischten Whitelist-Ansatz verwenden, müssen den Beschäftigten hier aber viel zutrauen. Denn was personenbezogene Daten sind und ab wann Unternehmensinformationen schützenswert sind, muss jeder Beschäftigte selbst einschätzen können. Hier können insbesondere die Unternehmen profitieren, die in der Vergangenheit bereits entsprechende Schulungen zum Datenschutz und zur Informationssicherheit angeboten bzw. durchgeführt haben.

Selbst wenn Unternehmen den gemischten Whitelist-Ansatz fahren, können bei den allgemein freigegebenen KI-Systemen neben dem Verbot, dort personenbezogene Daten oder schützenswerte Unternehmensdaten zu verarbeiten, noch weitere Einschränkungen getroffen werden. So ist es bspw. möglich, dass ein Unternehmen die Nutzung bestimmter KI-Systeme oder KI-Modelle grundsätzlich untersagt, wie den Einsatz des KI-Systems DeepSeek des gleichnamigen chinesischen Anbieters. Gerade bei den KI-Tools von DeepSeek weisen Aufsichtsbehörden auf die Risiken hin (vgl. LfD Niedersachsen oder SDTB)

Weitere allgemeine Regelungen, die erforderlich sind

Allein mit der geordneten Aufnahme von KI-Systemen in die Whitelist ist es aber nicht getan. Denn sofern Unternehmen KI-Systeme einsetzen wollen, sind noch weitere Dinge erforderlich, die Einzug in eine KI-Regelung halten sollten.

Hochriskante Zwecke verbieten

Die KI-VO regelt bestimmte Situationen, in denen der Einsatz von KI-Systeme als hochriskant eingestuft werden muss. Damit einher gehen dann verschiedene Pflichten des Unternehmens. Das Gefährliche dabei ist, dass manchmal bereits der Zweck, zu dem ein KI-System eingesetzt wird, ausreicht, um es als Hochrisiko-KI-System zu klassifizieren.

Eine Regelung zur Einführung von KI sollte daher dafür sorgen, dass Beschäftigte wissen, dass sie nicht einfach so hochriskante Zwecke mit dem KI-System verfolgen dürfen.

Um nur ein Beispiel zu nennen: Nehmen wir an, ein Unternehmen hat den Einsatz von ChatGPT per Whitelist erlaubt. Es hat dafür gesorgt, dass mit OpenAI ein Vertrag zur Auftragsverarbeitung nach Art. 28 DSGVO abgeschlossen wurde; Vertragspartner ist die Niederlassung in Irland. Das Unternehmen hat im Rahmen seiner kostenpflichtigen Lizenz die kürzlich angebotene „data residency in Europe“ ausgewählt, womit wiederum OpenAI zusichert, die Daten nicht zweckfremd und nicht zum Training zu verwenden. Und zu guter Letzt hatte auch der Datenschutzbeauftragte keine grundlegenden Bedenken. Was soll also schief gehen? Und hier kommt in unserem Beispiel die Personalabteilung aufs Feld. Dort wird eine Liste mit den Eckdaten aller aktuellen Bewerbungen erstellt. Diese wird bei ChatGPT hochgeladen mit der Bitte, ein Ranking zu erstellen. Und schon wäre das Unternehmen möglichweise Betreiber eines Hochrisiko-KI-Systems mit entsprechenden Pflichten, denn Art. 6 Abs. 2 KI-VO klassifiziert im Zusammenspiel mit Anhang III Ziffer 4 der KI-VO u. a. den folgenden Einsatz als hochriskant:

„KI‑Systeme, die bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere um gezielte Stellenanzeigen zu schalten, Bewerbungen zu sichten oder zu filtern und Bewerber zu bewerten.“

Bei dem vorliegenden Beispiel hätte auch der Datenschutzbeauftragte möglicherweise noch gerne mitgeredet. Denn auch automatisierte Einzelentscheidungen sind nach Art. 22 DSGVO problematisch und das Damoklesschwert einer Datenschutz-Folgenabschätzung nach Art. 35 DSGVO könnte hier auch kurz aufblitzen. Zwar ließe sich jetzt diskutieren, dass es nicht ganz klar ist, ob im hier wirklich ein Hochrisiko-KI-System vorliegt, da der Wortlaut der KI-VO auf eine „bestimmungsgemäße Verwendung“ abstellt. Um in einem solchen Fall aber keine offene Flanke zu bieten, sollten Beschäftigte wissen, was hochriskante KI-Praktiken sind, und es sollte untersagt werden, diese zu verfolgen, sofern sie nicht vom Unternehmen ausdrücklich erlaubt wurden. Denn ansonsten können KI-Systeme mit allgemeinem Verwendungszweck, wie ChatGPT, schnell für alle möglichen Dinge genutzt werden.

Auf Verbote hinweisen

Ähnlich wie bei den hochriskanten KI-Praktiken, gibt es einen weiteren Bereich, den Unternehmen regeln sollten. Konkret geht es hier um die verbotenen KI-Praktiken, die in Art. 5 KI-VO genannt sind. Beschäftigte sollten darüber aufgeklärt werden, was verboten ist und aufgefordert werden, diese Verbote auch einzuhalten. Denn in der Theorie scheint es nicht ausgeschlossen, dass auch KI-Systeme mit allgemeinem Verwendungszweck, wie ChatGPT, für verbotene Praktiken missbraucht werden.

Vor dem Hintergrund der drakonischen Strafandrohung des Art. 99 KI-VO sollte dieser Punkt daher in einer Regelung zur Einführung von KI nicht zu kurz kommen. Zur Erinnerung, Art. 99 Abs. 3 KI-VO regelt das Folgende:

„Bei Missachtung des Verbots der in Artikel 5 genannten KI‑Praktiken werden Geldbußen von bis zu 35 000 000 EUR oder – im Falle von Unternehmen – von bis zu 7 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist.“

Transparenzpflichten regeln

Beim Einsatz von KI müssen noch weitere Punkte geregelt werden. Denn ab dem 2. August 2026 gelten in manchen Situationen bestimmte Transparenzpflichten.

Eine Transparenzpflicht gilt z. B. nach Art. 50 Abs. 4 KI-VO für Deepfakes von Bild-, Ton- oder Videoinhalten, die mithilfe von KI zustande gekommen sind. Das müssen Beschäftigte künftig beachten und wissen, was das Wort „Deepfake“ eigentlich bedeutet. Das es dabei nicht nur um Menschen geht, zeigt schon der Wortlaut der KI-VO, die den Begriff in Art. 4 Ziffer 60 gesetzlich definiert:

„Deepfake“ [ist ein] durch KI erzeugte[r] oder manipulierte[r] Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde.“

Nicht jedes KI-generierte Bild ist also transparenzpflichtig. Aber je nach Realitätsnähe kann möglicherweise doch ein Großteil der erzeugten Inhalte transparenzpflichtig sein. Beschäftigte müssen hierüber informiert werden und das Unternehmen sollte in der Regelung zum Einsatz von KI aufnehmen, ab wann und wie den Transparenzpflichten nachgekommen werden muss.

Ähnlich verhält es sich mit den Transparenzpflichten nach Art. 50 Abs. 4 KI-VO im Hinblick auf Texte:

„Betreiber eines KI‑Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde.“

Zumindest diese beiden Fälle, in denen Transparenzpflichten entstehen können, sollten in der KI-Regelung ausdrücklich behandelt werden.

KI-Kompetenz sicherstellen

Wer die vorherigen Punkte gelesen hat, wird feststellen, dass Beschäftigte einiges wissen müssen. Was ist eigentlich eine KI? Was sind verbotene und was sind hochriskante KI-Praktiken? Wann entstehen besondere Transparenzpflichten. All dies ist eine ganze Menge (Fach-)Wissen, das vorausgesetzt wird und schon an dieser Stelle denkt sich der eine oder die andere sicherlich, dass die Mitarbeitenden zu diesen Themen auch noch einmal gesondert geschult werden sollten. Eine Pflicht zur Schulung – wie eingangs bereits erwähnt – sieht die KI-VO auch ausdrücklich für bestimmte Beschäftigte vor. So heißt es in Art. 4 KI-VO:

„Die Anbieter und Betreiber von KI‑Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI‑Systemen befasst sind, über ein ausreichendes Maß an KI‑Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI‑Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI‑Systeme eingesetzt werden sollen, zu berücksichtigen sind.“

Neben den genannten Themen wird es wichtig sein, weitere Inhalte zu vermitteln, etwa:

  • Ein KI-System kann lügen, phantasieren und diskriminieren.
  • Ein KI-System hat nicht unbedingt immer die aktuellen Daten zur Verfügung.
  • Gesunder Menschenverstand ist bei der Bewertung der Ausgaben von KI-Systemen unerlässlich.

Unternehmen brauchen daher eine Schulungsstrategie, bevor KI einsetzt wird. Mehr zum Thema KI-Schulung lesen Sie hier. Kommen wir wieder zurück zu den Punkten, die eine Regelung zum Einsatz von KI beinhalten sollte. Bei vorhandener Schulungsstrategie kann dieser Punkt der KI-Richtlinie wörtlich so geregelt sein:

„KI-Systeme dürfen nur von Beschäftigten genutzt werden, die vorher an der allgemeinen KI-Grundkompetenzschulung unseres Unternehmens teilgenommen haben.

Weitere datenschutzrelevante Punkte regeln

Wir hatten es etwas weiter oben schon: Wenn personenbezogene Daten mit einem KI-System verarbeitet werden sollen und dies auf die Whitelist genommen werden soll, müssen die individuellen datenschutzrechtlichen Rahmenbedingungen geprüft werden. Aber auch hier kommt es wieder auf das Verhalten der Beschäftigten an. Eine Regelung zum Einsatz von KI sollte daher auf folgendes eingehen – insbesondere, wenn KI-Systeme mit allgemeinem Verwendungszweck, wie etwas ChatGPT, zum Einsatz kommen:

  • Es sollte erklärt werden, dass automatisierte Einzelentscheidung verboten sind; wir erinnern uns, hier ist Art. 22 DSGO relevant.
  • Wenn personenbezogene Daten in einem KI-System verarbeitet werden sollen, bedarf es hierfür einer Rechtsgrundlage. Sofern mit der Verarbeitung innerhalb der KI nur der ursprüngliche Zweck, zu dem die Daten zulässigerweise erhoben wurden, verfolgt wird und deren Einsatz auch erforderlich ist, sollten in der Regel keine Probleme bestehen.
  • Werden aber neue Zwecke verfolgt oder sollen die Daten zweckfremd auch zum Training verwendet werden, bestehen weitere Pflichten. Hier müssen Rechtsgrundlagen geprüft, Datenschutzinformationen gegeben und möglicherweise sogar Betroffenenrechte umgesetzt werden. Eine zweckfremde Verwendung sollte daher in der KI-Richtlinie noch einmal ausdrücklich untersagt werden.

Urheberrechte ansprechen

Mit Blick auf das Urheberrecht ist bei der Nutzung von KI-Tools noch vieles ungeklärt. Möglicherweise unterliegt der Output von KI-Systemen keinerlei Urheberrechtsschutz, da dieser keinem Menschen zugeordnet werden kann bzw. nicht die nötige Schöpfungshöhe aufweist. Andererseits sollten Unternehmen Vorsicht walten lassen, wenn als Input für KI-Systeme urheberrechtlich geschütztes Material verwendet wird und das KI-System dieses nur manipulieren soll. Auch Markenrechtsverletzungen sind hier denkbar.

Unternehmen könnten daher an dieser Stelle ebenfalls eine Reglung treffen, bspw., dass es untersagt ist, urheberrechtlich geschütztes Material, an dem man keine Nutzungsrechte hat, in das KI-System hochzuladen. Zudem kann geregelt werden, dass auf Markenrechte Dritter zu achten ist.

Sonstige Entscheidungen im Sinne der Unternehmenskultur

Eine KI-Richtlinie kann über die genannten rechtlichen Themen hinaus aber auch Fragen der Unternehmenskultur regeln:

  • So kann es z. B. ein Thema sein, ob Beschäftigte KI-generierte Texte eins zu eins für die Kundenkommunikation verwenden dürfen. Sieht das Unternehmen dies als effiziente Arbeitsweise an oder als unpersönliche Kundenkommunikation aus der KI-Retorte? Hier gibt es viele Gestaltungsspielräume.
  • Dürfen Beschäftigte die zur Verfügung gestellten KI-Systeme auch privat nutzen? Hier könnte einerseits das Kostenmodell entscheidend sein. Denn ein Beschäftigter, der für sein private Hobby einen Chatbot etwas programmieren lässt, der tokenbasiert abgerechnet, kann je nach eingesetztem KI-Modell schnell teuer werden. Aber auch bei „Flatrate“-Lizenzen stellen sich weitere Fragen, z. B. wie mit Chathistorien umgegangen wird. Dürfen Administratoren des Unternehmens diese einsehen, haben Beschäftigte gar ein Recht auf die Verfügbarkeit privat hinterlegter Prompts etc. Hier sind Unternehmen gut beraten, die diese Fragen vorab klären.

Insgesamt können an dieser Stelle viele weitere Regelungen getroffen werden, die das Unternehmen für sich individuell als wichtig erachtet.

Ansprechpartner festlegen

Eine Regelung zum Einsatz von KI sollte schließlich festlegen, an wen sich Beschäftigte bei Fragen wenden können und wer für die Pflege der Whitelist und die entsprechenden Prüfungen verantwortlich ist.

Auch wenn das Gesetz bzw. die KI-VO es an dieser Stelle nicht ausdrücklich vorschreibt, so kann es dennoch sinnvoll sein, hierfür einen eigenen KI-Beauftragten oder KI-Koordinator zu benennen.

Dieser kann dann bspw. Fragen der Beschäftigten beantworten und bei neuen KI-Systemen die notwendige Klassifizierung vornehmen, also die Einstufung in

  • Verbotene KI-Systeme
  • Hochrisiko-KI-Systeme
  • Sonstige KI-Systeme

Zudem kann das Vorliegen von Transparenzpflichten in seinen Aufgabenbereich fallen, so wie auch die Planung und Überwachung von weiteren Maßnahmen, sofern Transparenzpflichten entstehen oder das Unternehmen als Anbieter oder Betreiber von Hochrisiko-KI-Systemen bestimmte Pflichten einhalten muss. Zudem kann ein KI-Beauftragter/KI-Koordinator als Schnittstelle zum Thema Datenschutz, Informationssicherheit und Compliance fungieren und hier die weiteren Beauftragten passgenau in die Prüfung einbeziehen.

Fazit

Was eine KI-Richtlinie enthalten muss, wissen Sie jetzt. Und keine Angst, die Regelung kann auch sehr kurz ausfallen, auf jeden Fall wesentlicher kürzer als dieser Blogbeitrag. Aber wir haben hier versucht, einmal die Hintergründe für wichtige Regelungspunkte darzustellen.

Kommen wir zurück zum Anfang des – zugegebenermaßen – etwas lang gewordenen Blogbeitrags:

Nichts ist derzeit schlimmer, als keine Regelung zu treffen.

In diesem Sinne wünschen wir viel Spaß bei dem (geregelten) Einsatz von KI in Ihrem Unternehmen.