Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat am 24. Juli 2025 ein interessantes Whitepaper „Bias in der künstlichen Intelligenz“ der Autoren Dr. Jonas Ditz und Elmar Lichtmeß herausgegeben, das Entwickelnden, Anbietenden und Betreibenden von KI-Systemen eine Einführung in die Bias-Problematik gibt.

Was ist unter dem Begriff Bias zu verstehen?

Der englische Begriff „Bias“ bedeutet übersetzt „Voreingenommenheit“ oder auch „Vorurteil“ und beschreibt im Kontext von KI-Systemen eine im Ergebnis ungleiche Behandlung etwa von Nutzenden oder Unternehmen, vgl. BSI, S.5.

Warum ist dies problematisch?

KI-Systeme werden u.a. als eigenes System (bspw. ChatGPT, Google Gemini, Microsoft Copilot, u.a.) oder etwa auch eingebettet als Unterstützung in allerlei möglichen Anwendungen genutzt. Damit KI-Anwendungen zutreffende Ergebnisse liefern, sollten die Ergebnisse möglichst unverzerrt und unverfälscht erfolgen. Das BSI führt in seinem Whitepaper aus, dass Bias in KI-Systemen zu diskriminierenden und/oder fehlerhaften Entscheidungen führen können, die zu erheblichen Schadensersatzansprüchen, Störungen im Betriebsablauf von Unternehmen oder sogar zur Gefährdung der IT-Sicherheit im Allgemeinen führen können, vgl. BSI, S.5, S.29.

Als eines von vielen Beispielen wird genannt, dass etwa biometrische Zugangskontrollen Menschen einer bestimmten Ethnizität nicht erkennen und damit einen Zugang unberechtigt verweigern oder gewähren können, vgl. BSI, S. 6.

Auch Konsequenzen für die Cybersicherheit eines Unternehmens sind möglich. Die Auswirkungen von bestehenden Bias auf die Cybersicherheit beschreibt das BSI ab Seite 27 des Whitepapers bezogen auf die drei wichtigsten Schutzziele der CIA-Triade: „Confidentiality (dt.: Vertraulichkeit), Integrity (dt: Integrität) und Availability (dt.: Verfügbarkeit).“ Hier beschreiben die Autoren, wie Angreifer bestehende Bias bspw. als Einfallstor verwenden können, um etwa sensitive Daten aus KI-Modellen „auszuleiten“, oder als sog. „Angriffsvektoren“ zu nutzen, BSI, S. 27, 28.

Beispiele für Bias-Arten

Das BSI führt in seinem Whitepaper eine umfassende, jedoch ausdrücklich nicht abschließende Auflistung möglicher Bias-Arten auf. Bias können hierbei in allen Lebenszyklen eines KI-Systems beginnend bei der Datenerhebung über die Modellentwicklung und dem Modelltraining bis zum Einsatz des KI-Systems auftreten, vgl. BSI, aaO, S. 5.

So kann etwa das Vorliegen eines „historischen Bias“ (BSI, S. 7) dazu führen, dass veraltete Daten verwendet werden, die zu heute unzeitgemäßen Ergebnissen führen. Als Beispiel wird hier das Verwenden von veralteten Daten innerhalb eines Bewerberauswahlsystems genannt, das über Daten aus einer Zeit verfügt, in der noch weitaus mehr Männer als Frauen eingestellt wurden. Dies kann dazu führen, dass sich diese Daten auf zukünftige Bewerberentscheidungen auswirken und so zu einer unzeitgemäßen Unterrepräsentanz von Frauen führen, vgl. BSI, S.8.

Ähnliche Ergebnisse können auch dadurch entstehen, dass bestimmte Gruppen in den Daten der KI überhaupt nicht vorhanden sind, sog. Repräsentationsbias (vgl. BSI, S.8), aber auch durch eine Über- oder Unterbetonung von Datenwerten, vgl. BSI aaO. Die Lektüre der Beschreibung der Vielzahl möglicher Bias in KI-Systemen ist sehr zu empfehlen und kann an dieser Stelle leider nicht umfassend zusammengefasst werden, ohne die Inhalte des BSI-Whitepapers zu wiederholen.

Die Wissenschaftlerin und Begründerin der „Algorithmic Justice League“ Joy Buolamwini, die ebenfalls in den umfangreichen Quellenangaben am Ende des Whitepapers geführt wird, beschreibt in ihrem Buch „Unmasking AI“ als Auslöser ihrer Beschäftigung mit dem Thema Bias in IT-Anwendungen und KI das Beispiel einer Gesichtserkennungssoftware, die Gesichter Schwarzer Menschen nicht als Gesicht erkennt und damit komplett von der Nutzung ausschließt, sog. „coded gaze“, vgl. Buolamwini, aaO, S.xii/ xiii.

Die Antidiskriminierungsstelle des Bundes nennt als Diskriminierungsschwerpunkte durch KI etwa den Online-Handel oder den Bereich der Finanzen. Hier können bestehende Bias dazu führen, dass diskriminierende Entscheidungen in Bezug darauf getroffen werden, wer Käufe auf Raten tätigen darf, einen Kredit erhält oder welcher Preis bspw. für Versicherungsprodukte zu zahlen ist.

Was ist zu tun?

Das BSI fordert letztlich von allen Entwickelnden, Anbietenden oder Betreibenden eines KI-Systems Handlungen wie das Wissen um die Bias-Thematik, die Klärung von Zuständigkeiten, die Bekämpfung von Bias beginnend bei den Daten, die Minimierung von unerwünschten Bias in KI-Modellen sowie das Verfolgen der weiteren Entwicklung auf diesem Gebiet, vgl. BSI, S.3.

Zum Auffinden bestehender Bias (Bias-Detektion) stellt das BSI ebenfalls umfangreiche Informationen und auch hilfreiche weitergehende Fragen, die sich eine Organisation stellen sollte, zur Verfügung, vgl. BSI, ab S. 13. Dies umfasst auch Informationen zur sog. Bias-Mitigation, der Verminderung bestehender Bias, vgl. BSI, ab. S. 19. Das Whitepaper enthält in diesem Kontext bspw. auch eine ebenfalls nicht abschließende Auflistung von Open-Source Fairness-Toolboxen aus dem Kontext des Maschinellen Lernens, vgl. BSI, S.19, Fn.11.

Fazit

Auch wenn Empfehlungen und Vorgaben des BSI nicht generell verpflichtend für Unternehmen sind, setzen Sie doch im Hinblick auf bestehende Nachweispflichten maßgebliche Standards und können daher relevant im Kontext der Erfüllung gesetzlicher IT-/ Datenschutz- und/oder Cyber-Sicherheitsvorgaben sein. Letztlich liegt es in unser aller Interesse, dass bei der Verwendung von KI auf Bias gegründete Ergebnisse möglichst minimiert, besser noch ausgeschlossen werden. Hier kann man sich dem Fazit des BSI nur anschließen, dass Systeme sicher und zuverlässig arbeiten sollten.

Wie immer verfolgen wir die Entwicklung auf diesem Gebiet weiter und halten Sie informiert.