Die Cybersecurity and Infrastructure Security Agency (CISA) als Teil des Ministeriums für innere Sicherheit der USA (DHS) und das National Cyber Security Centre (NCSC) des Vereinigten Königreichs haben am 26.11.2023 gemeinsam Richtlinien für die sichere Entwicklung von KI-Systemen veröffentlicht. Beteiligt waren insgesamt 23 Cybersicherheitsbehörden aus insgesamt 18 Ländern – darunter auch das deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI).
Ziel des 20-Seitigen Dokumentes ist es laut Aussagen der CISA, den Entwicklern von Systemen, die KI nutzen, dabei zu helfen, in jeder Phase des Entwicklungsprozesses fundierte Entscheidungen zur Cybersicherheit zu treffen, um damit auch den Einsatz und den Betrieb von KI sicher gestalten zu können. Die Richtlinien enthalten wesentliche Empfehlungen für die Entwicklung von KI-Systemen und betonen die Bedeutung der Einhaltung der secure-by-design-Prinzipien. Diese beinhalten insbesondere die Übernahme der Verantwortung für die „security outcomes“ für Kunden – was am besten mit einer ergebnisorientierten Sicherheitsstrategie gleichzusetzen ist – der radikalen Transparenz und Rechenschaftspflicht, sowie dem Aufbau von Organisationsstrukturen, damit „secure-by-design“ zur einer der obersten Geschäftsprinzipien wird.
Die Richtlinien sind allerdings unverbindlich
Das Dokument selbst stellt direkt am Anfang klar, dass es sich bei den Richtlinien nur um Empfehlungen handelt, welche jedoch dringend von allen Beteiligten gelesen werden sollten, um fundierte Entscheidungen über die Gestaltung, Entwicklung, den Einsatz und den Betrieb ihrer KI-Systeme treffen zu können.
KI-Systeme haben das Potenzial, der Gesellschaft viele Vorteile zu bringen. Jedoch werden auf Grund des enorm hohen Entwicklungstempos die Sicherheitsaspekte oft eher nachranging behandelt. Die Richtlinien wollen dem entgegenwirken und hervorheben, dass Cybersicherheit eine notwendige Voraussetzung für die Sicherheit, Belastbarkeit, Privatsphäre, Fairness, Wirksamkeit und Zuverlässigkeit von KI-Systemen ist. Dies insbesondere vor dem Hintergrund, dass KI-Systemen neuartige Risiken und Sicherheitslücken gegenüberstehen. Vor allem bei den KI-Applikationen, welche maschinelles Lernen einsetzen (ML) besteht das Risiko, dass Angreifer genau das ausnutzen, um ungewollte Verhaltensweisen hervorzurufen – wie die Beeinflussung der Vorhersagen und Klassifizierung durch die KI sowie Extraktion sensibler Informationen.
Was besagen die Richtlinien?
Die Richtlinien gliedern sich in vier Schlüsselbereiche innerhalb des Lebenszyklus der KI-Systementwicklung:
Sicheres Design
Dieser Abschnitt umfasst Risiken und Bedrohungsmodelle sowie spezifische Themen und Abwägungen, die bei der System- und Modellentwicklung zu berücksichtigen sind. Hierzu gehören insbesondere die Sensibilisierung der Mitarbeiter für Bedrohungen und Risiken, eine ganzheitliche Risikobewertung mit potentiellen Auswirkungen für das System, den Nutzer, die Organisationen und Gesellschaft bei Kompromittierung, der Beachtung von Sicherheit im Einklang mit Funktionalität und Leistungsstärke und die Berücksichtigung der Vor- und Nachteile der Sicherheit bei der Auswahl des KI-Modells.
Sichere Entwicklung
Dieser Bereich enthält Richtlinien, die für die Entwicklungsphase von Bedeutung sind, einschließlich der Sicherheit der Lieferkette, der Dokumentation und der Verwaltung von Vermögenswerten und technischen Schulden (= Kosten, die eine ungenügende technische Qualität nach sich ziehen).
Sicherer Einsatz
In diesem Teil befassen sich die Richtlinien mit der Einführungsphase, insbesondere des Schutzes der Infrastruktur und der KI-Modelle vor Kompromittierung, Bedrohungen oder Verlusten, der Entwicklung von Prozessen für das Management von Zwischenfällen und der verantwortungsvollen Veröffentlichung.
Sichere Bedienung und Wartung
Dieser Absatz präsentiert Maßnahmen, die besonders wichtig sind, sobald ein System in Betrieb genommen wurde, einschließlich Protokollierung und Überwachung, Update-Management und Informationsaustausch.
Fazit
Die Richtlinien sind ein wichtiger Schritt für ein gemeinsames internationales Verständnis, auch wenn diese sehr allgemein gehalten sind. Das sich Regierungen aus aller Welt gemeinsam mit dem Thema KI-Sicherheit auseinandersetzen ist richtig und essenziell um mithalten zu können – gerade da sich KI in einem unglaublichen Tempo entwickelt. Nur so kann sichergestellt werden, dass die Vorteile, die KI bieten kann positiv genutzt werden können und spürbare physische Schäden, Rufschädigung oder das Bekanntwerden sensibler Informationen unterbunden werden. Die Richtlinien stellen eine der vielen Bemühungen dar, Regelungen zu KI zu treffen. Andere positive Entwicklungen in diesem Bereich sind der kommende AI Act (wir berichteten). Jüngst haben sich Unterhändler des EU-Parlaments und die EU-Staaten am Freitag den 08.12.2023 nun vorläufig auf den AI Act geeinigt. Die Einigung wäre zuvor fast gescheitert, da insbesondere Deutschland, Frankreich und Italien nur konkrete Anwendungen von KI regeln wollten und nicht auch Basismodelle, die als Grundlage für andere Anwendungen dienen. Bisher wurden mehrere Änderungen am Kommissionsvorschlag vorgenommen, diese beinhalten beispielsweise Ausnahmen für Strafverfolgungsbehörden, welche im Notfall hochriskante KI einsetzen dürfen, die eine Konformitätsbeurteilung nicht bestanden haben und in bestimmten Fällen biometrische Systeme zur Identifizierung von Personen in Echtzeit einsetzen dürfen. Daneben wurden neue Bestimmungen für Basismodelle (Foundation Models) und Allzweck-KI (General Purpose AI, GPAI) hinzugefügt. In den kommenden Wochen werden nun noch Einzelheiten ausgehandelt, die das endgültige Gesetz noch einmal verändern könnten – wir sind gespannt auf das Ergebnis und informieren Sie natürlich über alle Entwicklungen.