Der Fortschritt in der KI-Entwicklung ist nicht aufzuhalten und hält immer mehr im Arbeitsalltag Einzug. Nun hat auch Microsoft seinen „Copilot“ nach einer Early-Access-Probephase für die Allgemeinheit freigegeben, sodass sich eine datenschutzrechtliche Betrachtung lohnt.
Die Frage, die sich oft bei KI-Systemen stellt: Handelt es sich um eine „Datenkrake“ oder ist es tatsächlich ein nützlicher und datenschutzkonformer Helfer für den Arbeitsalltag?
Was ist Copilot?
Microsoft Copilot ist eine KI-Lösung, die in Microsoft 365 (MS 365) implementiert ist und den Nutzer bei der Arbeit mit MS 365 umfassend unterstützen soll (ausführliche Informationen finden Sie hier auf der Microsoft-Website).
Als Assistenztool kann Copilot dabei durch Echtzeitzugriff auf sämtliche vom Kunden in MS 365 verwalteten und in der Cloud gespeicherten Daten unternehmensspezifische und kontextbezogene Antworten erzeugen. Hierfür verwendet Copilot eine Kombination aus Large Language Models, kurz LLMs, bei denen es sich um einen KI-Algorithmus handelt, der Deep Learning-Techniken und umfangreiche Datasets nutzt, um Inhalte zu verstehen, zusammenzufassen, vorherzusagen und zu generieren. Diese LLMs (große KI-Sprachmodelle) enthalten vortrainierte Modelle, die für diese Aufgaben konzipiert sind.
Konkret kann man sich dies wie folgt vorstellen: Copilot empfängt eine Eingabeaufforderung von einem Benutzer in einer App, z. B. Word oder PowerPoint, in der dieser bspw. eine Zusammenfassung aller Dokumente aus der Datenbank des Unternehmens bzgl. eines Themas wünscht.
Copilot verarbeitet dann diese Anfrage, indem es die Spezifität der Aufforderung verbessert, damit der Benutzer Antworten erhält, die für seine jeweilige Aufgabe relevant sind. Die Eingabeaufforderung kann dabei Text aus Eingabedateien oder andere, von Copilot entdeckte, Inhalte enthalten. Das LLM übernimmt die anschließende Verarbeitung der Daten. Copilot greift dabei nur auf Daten zu, auf die ein einzelner Benutzer bereits Zugriff hat, z. B. auf der Grundlage der bestehenden rollenbasierten Zugriffskontrollen von MS 365.
Nach der Verarbeitung im LLM übernimmt Copilot die Nachbearbeitung. Diese umfasst u. a. Groundingaufrufe an Microsoft Graph, Sicherheits-, Compliance- und Datenschutzprüfungen sowie die Befehlsgenerierung. Copilot sendet die Antwort schließlich an die App zurück, wo der Benutzer die Antwort überprüfen und bewerten kann. Das Assistenztool ruft dabei nicht den öffentlichen OpenAI-Dienst auf, der ChatGPT betreibt, sondern verwendet eigene private Instanzen der großen Sprachmodelle und eine Orchestrierungs-Engine.
Microsoft Copilot hat aufgrund der gewollten umfassenden Vernetzung aller kontextbezogenen Geschäftsdaten somit Zugriff auf alle Daten der jeweiligen Organisation und damit Schnittstellen zu allen MS 365 Anwendungen. Dies kann z. B. Chatverläufe, E-Mails, Kalendereinträge und Dokumente sowie sämtliche Datensätze aus Microsoft Graph umfassen.
Microsoft selbst gibt dabei an, dass die Daten der Nutzer, auf die Copilot Zugriff hat, nicht für das Training der dahinterstehenden KI genutzt werden.
Datenschutzrechtliche Probleme bei der Nutzung von Copilot
Aufgrund der Datenverarbeitung durch das Tool ergeben sich mehrere datenschutzrechtliche Fragestellungen. Neben der konkreten vertraglichen Ausgestaltung betrifft dies insbesondere die durch Copilot stattfindende Bündelung sämtlicher Informationen der Nutzer in der Microsoft Cloud.
Vertragliche Ausgestaltung durch Microsoft
Zunächst ist die vertragliche Ausgestaltung zu betrachten. Zwar verspricht Microsoft in den Produkthinweisen zu Copilot, dass kein Training der KI durch Kundendaten erfolgt, dieses Versprechen findet sich allerdings weder in den Supplemental Terms (siehe „M365 Copilot Partner Terms“; galten für die Early-Access-Phase), noch im Auftragsverarbeitungsvertrag (AVV) wieder (siehe Microsoft DPA, Stand: 15.11.2023).
In dem auch für Copilot geltenden AVV selbst ist weiterhin der Passus enthalten, dass Microsoft das Recht hat, zumindest Diagnose- und Metadaten zu eigenen Zwecken zu verarbeiten (vgl. Microsoft DPA, S. 7).
Dass diese Lücke nicht bereits durch produktspezifische Zusatzvereinbarungen geschlossen wurde, macht zumindest skeptisch, ob das durch Microsoft gegebene Versprechen tatsächlich eingehalten wird.
Eine Verarbeitung von Daten durch Microsoft für eigene Zwecke kann jedenfalls nicht gänzlich ausgeschlossen werden.
Verarbeitungstätigkeiten durch Copilot
Neben der vertraglichen Ausgestaltung muss darüber hinaus die konkret stattfindende Verarbeitung durch Copilot datenschutzrechtlich untersucht werden. Die Verarbeitung von Arbeitnehmerdaten findet ihre Rechtsgrundlage grundsätzlich in Art. 88 DSGVO i. V. m. § 26 Abs. 1 BDSG, soweit die Datenverarbeitung der Durchführung des Beschäftigungsverhältnisses dient. Hinsichtlich der Verarbeitung personenbezogener Daten von Geschäftskontakten kommt als Rechtsgrundlage Art. 6 Abs. 1 S. 1 lit. b oder lit. f DSGVO in Betracht.
Durch den Zugriff auf sämtliche Organisationsdaten innerhalb des Microsoft-Tenants kommt es zu einer umfassenden Bündelung der Informationen, die bereits ein datenschutzrechtliches Risiko darstellt. Microsoft selbst hat allerdings Maßnahmen getroffen, um Risiken durch die Verarbeitungstätigkeit von Copilot zu minimieren: So werden die einzelnen Kundeninhalte innerhalb der Mandanten der Organisation logisch getrennt und die Vertraulichkeit und Integrität der Kundendaten durch strenge physische Sicherheitsmaßnahmen, Hintergrundprüfungen und eine mehrschichtige Verschlüsselung sichergestellt. Außerdem ist der Zugriff auf Daten mittels Copilot durch spezifische Nutzer auf den Umfang begrenzt, der diesen Personen durch die Organisation eingeräumt wurde.
Die Verminderung des Risikos durch unberechtigte Zugriffe obliegt somit überwiegend der jeweiligen Organisation selbst. Diese muss sicherstellen, dass durch sie ein wirksames Berechtigungskonzept erstellt und umgesetzt wird, um zu verhindern, dass durch Microsoft Copilot ein unberechtigter Zugriff auf Datensätze stattfindet. Dies ist aufgrund der umfassenden Einbindung notwendig, da Copilot insbesondere auch auf besonders schützenswerte Kategorien von Daten gem. Art. 9 DSGVO zugreifen kann.
Ansonsten könnten im schlimmsten Fall durch eine einfache Eingabeaufforderung eines Nutzers z. B. Gesundheitsdaten von Arbeitnehmern an Unberechtigte offengelegt werden.
Weiter stellt sich das Problem des Zugriffs auf persönliche Inhalte der Arbeitnehmer, wie z. B. E-Mails, bei erlaubter privater Nutzung durch den Arbeitgeber. Der Arbeitgeber hat grundsätzlich kein Recht auf private Inhalte des Arbeitnehmers zuzugreifen. Sollte ein solcher Zugriff erfolgen, kann es für den Arbeitgeber zu empfindlichen Strafen aufgrund der Verletzung des Fernmeldegeheimnisses kommen.
Für diesen Zugriff kann auch nicht auf Art. 88 DSGVO i. V. m. § 26 Abs. 1 BDSG als Rechtsgrundlage der Verarbeitung abgestellt werden, da eine Verarbeitung der privaten Inhalte nicht notwendig ist für die Durchführung des Beschäftigungsverhältnisses. Als Rechtsgrundlage verbliebe hier nur die Einwilligung der Betroffenen, deren Wirksamkeit jedoch aufgrund der umfassenden Verarbeitung durch Copilot und der dadurch nur schwer herzustellenden Transparenz angreifbar wäre.
Ebenfalls ist bei der Implementierung darauf zu achten, dass der Zugriff durch Copilot nicht zur Profilerstellung und damit zur Verhaltens- oder Leistungsüberwachung der Arbeitnehmer eingesetzt wird. Da diese Möglichkeit aufgrund der Kernfunktion von Copilot, dem schnellen Zugriff auf sämtliche Informationen, besteht, kann – unserer Kenntnis nach – lediglich durch organisatorische Maßnahmen (Abschluss von Betriebsvereinbarungen, Erlass von Richtlinien) diesem Risiko entgegengewirkt werden.
Fazit
Die Verwendung von Copilot birgt einige datenschutzrechtliche Risiken. Ob es sich um eine „Datenkrake“ handelt, hängt dagegen von der Belastbarkeit der Aussagen von Microsoft ab.
Grundsätzlich hat Copilot umfassenden Zugriff auf die Daten der jeweiligen Organisation im Microsoft-Tenant. Diese Daten werden laut Aussage von Microsoft zwar nicht für eigene Zwecke verarbeitet und es findet auch kein Training der KI mittels der Nutzerdaten statt, aber dieses Versprechen findet sich nicht in den vertraglichen Grundlagen.
Wichtig ist allerdings festzustellen, dass Copilot hier grundsätzlich nur auf die Daten zugreift, auf die der jeweilige Nutzer aufgrund des jeweiligen Berechtigungskonzepts innerhalb der Organisation auch Zugriff hat und die Verarbeitung innerhalb der MS 365-Datengrenzen stattfindet.
Es obliegt daher insbesondere der Organisation selbst durch Umsetzung eines wirksamen Rechte- und Rollenkonzepts und weiterer technischer und organisatorischer Maßnahmen, wie dem Verbot der privaten E-Mail-Nutzung, die Risiken durch die Bündelungsfunktion von Copilot zu verringern. Insbesondere wird vor dem Einsatz die Durchführung einer Datenschutzfolgenabschätzung gem. Art. 35 DSGVO obligatorisch durchzuführen sein.
Von diesen Problemen abgesehen, sind die möglichen Vorteile der Nutzung von Copilot als Assistenztool für die Unternehmen, und insbesondere die Einsparungen von Personalkosten, nicht hoch genug einzuschätzen, sodass eine umfassende Verwendung von Copilot durch einen Großteil der MS 365 nutzenden Unternehmen in Zukunft wahrscheinlich erscheint.
Leo Koch
15. März 2024 @ 15:51
Hallo und vielen Dank für den Beitrag. Wissen Sie, wo die Daten des Copilot gespeichert werden? Als Tenant Admin werden einem zwar die Datenspeicherorte angezeigt, allerdings nur, wenn man den jeweiligen Dienst schon gebucht hat. Dann wäre es natürlich zu spät. Im Netz und auf der Webseite von Mircrosoft finde ich dazu nichts. Wissen Sie darüber etwas? Beste Grüße!
Anonymous
21. Dezember 2023 @ 17:23
Der bezeichnete Copilot (es gibt inzwischen unterschiedliche) heißt seit dem 15.11.23 „Copilot für Microsoft 365“. Es gibt seitdem sehr viele neue Copiloten in der Microsoft Welt.
Blogredaktion
22. Dezember 2023 @ 9:37
Haben Sie vielen Dank für Ihren Kommentar! Im Beitrag wird gleich im ersten Absatz nach der Überschrift „Was ist Copilot?“ zur entsprechenden Unterseite von Microsoft verlinkt, auf der eine „Übersicht über Microsoft Copilot für Microsoft 365“ (Stand 28.11.2023) gegeben wird und auch der folgende Text dreht sich um Copilot im Kontext von Microsoft 365. Aber Sie haben Recht damit, dass es mehrere „Copiloten“ bei Microsoft-Produkten gibt und wir werden das in Zukunft berücksichtigen und genauer formulieren.
Viele Grüße und frohe Festtage wünscht
Ihre Blogredaktion
Christoph Schmees pc-fluesterer.info
21. Dezember 2023 @ 15:57
Die Frage im Titel ist rhetorisch gemeint, oder? Jedenfalls ist für mich die Antwort völlig klar: Datenkrake, wie das ganze M$364.
Außerdem darf an der Nützlichkeit von KI-Helfern stark gezweifelt werden. Muss ich an die Fehlleistungen erinnern, die ChatGPT bisher abgeliefert hat?