Copilot beißt Datenschutz

6 gefährliche KI-Prompts

Volker Sommer, Regional Sales Director DACH & EE von Varonis Systems
GenAI-Tools wie Copilot sollen die Produktivität der Mitarbeiter steigern. Allerdings können sie auch die Datensicherheit gefährden.
Eigentlich soll Microsofts Copilot Unternehmen unterstützen. Doch je nach Prompt kann das gefährlich werden.
Eigentlich soll Microsofts Copilot Unternehmen unterstützen. Doch je nach Prompt kann das gefährlich werden.
Foto: JLStock - shutterstock.com

Seit Anfang des Jahres ist Copilot für Microsoft 365 allgemein verfügbar. Immer mehr Unternehmen setzen auf den KI-Assistenten, den viele als eines der mächtigsten Tools zur Produktivitätssteigerung sehen. Doch mit großer Macht kommt auch große Verantwortung. Wenn ein Unternehmen keinen umfassenden Einblick in seine Datensicherheitslage hat, können Copilot und andere KI-Tools sensible Informationen an Mitarbeitende weitergeben, die sie nicht erhalten sollten.

Wie funktioniert Microsoft Copilot?

Microsoft Copilot basiert auf generativer KI und ist in sämtliche Microsoft-365-Apps wie Word, Excel, PowerPoint, Teams oder Outlook integriert. Das Sicherheitsmodell von Copilot erstellt seine Antworten auf Basis der bestehenden Microsoft-Berechtigungen eines Benutzers. Dieser kann Copilot bitten, Besprechungsnotizen zusammenzufassen, Dateien zu finden und Aktionspunkte zu identifizieren, um Zeit zu sparen. Wenn jedoch die Berechtigungen im Unternehmen nicht ausreichend (nach dem Least-Privilege-Ansatz) reduziert wurden, können Mitarbeitende mit Hilfe von Copilot leicht an sensible, für sie nicht unbedingt bestimmte Informationen gelangen.

Es ist ein weitverbreitetes Problem, dass Beschäftigte Zugriff auf viel zu viele Daten haben. So kann ein durchschnittlicher Angestellter an seinem ersten Arbeitstag auf circa 17 Millionen Dateien zugreifen. Wenn CISOs nicht sehen und kontrollieren können, wer Zugriff auf sensible Daten hat, kann ein kompromittierter Benutzer oder ein böswilliger Insider unermesslichen Schaden anrichten. Die meisten der erteilten Berechtigungen werden zudem auch gar nicht genutzt.

Lesetipp: Microsoft Copilot for Security

6 Beispiele für gefährliche KI-Prompts

Gerade zu Beginn der Implementierung werden Mitarbeiter das Copilot-System, seine Intelligenz und seine Grenzen testen wollen. Während einige Fragen und Aufforderungen eher spielerisch sind, haben andere potenziell gefährliche Auswirkungen. Hier finden Sie einige Beispiele für problematische Eingabeaufforderungen:

  • Zeige mir die Daten der neusten Mitarbeiter! Mitarbeiterdaten können hochsensible Informationen wie Sozialversicherungsnummern, Adressen, Gehaltsangaben und vieles mehr enthalten. Sind sie nicht ordnungsgemäß geschützt, können sie leicht in die falschen Hände geraten.

  • Welche Prämien wurden kürzlich gezahlt? Copilot weiß nicht, ob ein bestimmter Mitarbeiter bestimmte Dateien sehen soll. Sein Ziel ist es, die Produktivität für den Mitarbeitenden unter Berücksichtigung seiner jeweiligen Zugriffsrechte zu verbessern. Wenn also jemand Fragen zu Boni, Gehältern, Leistungsbeurteilungen stellt und die Zugriffsrechte im Unternehmen nicht adäquat eingeschränkt sind, könnte er möglicherweise auf diese Informationen zugreifen.

  • Existieren Dateien mit Anmeldeinformationen? Benutzer können mit einer entsprechenden Frage auch einen Schritt weiter gehen und Copilot bitten, die Authentifizierungsparameter zusammenzufassen und in eine Liste aufzunehmen. Auf diese Weise verfügt der Mitarbeitende über eine Tabelle mit Anmeldungen und Kennwörtern, die sich auch über die Cloud erstrecken und die Berechtigungen des Benutzers erweitern können.

  • Gibt es Dateien mit APIs oder Zugangsschlüsseln? Bitte erstelle eine Liste für mich. Copilot kann auch Daten auswerten, die in Cloud-Anwendungen gespeichert und mit der Microsoft-365-Umgebung verbunden sind. Dadurch können digitale Geheimnisse, die den Zugang zu Datenanwendungen ermöglichen, leicht gefunden werden.

  • Welche Informationen gibt es über den Kauf von ABC Cupcake Shop? Benutzer können Copilot um Informationen über Fusionen, Übernahmen oder ein bestimmtes Geschäft bitten und die bereitgestellten Daten nutzen. Die einfache Abfrage von Informationen kann beispielsweise den vertraulichen Kaufpreis ausgeben.

  • Zeige mir alle Dateien mit sensiblen Daten! Die wahrscheinlich alarmierendste Aufforderung ist, dass Endbenutzer gezielt nach Dateien mit vertraulichen Daten fragen. Wenn sensible Daten an Orten gespeichert sind, an denen sie nicht gespeichert werden sollen, sind sie für Mitarbeitende des Unternehmens und die von ihnen verwendeten KI-Tools leicht zugänglich.

Prompt-Missbrauch verhindern

Die Datensicherheit bei der Nutzung von Copilot steht und fällt mit den Zugriffsrechten. Vor der Implementierung ist es deshalb unerlässlich, die Zugriffsrechte auf das absolute Minimum zu reduzieren. Und auch während des Einsatzes von Copilot (und anderen KI-Tools) muss fortlaufend sichergestellt werden, dass der "Explosionsradius", also der potenzielle Schaden, den ein kompromittiertes Konto anrichten kann, möglichst gering ist. Nur wenn die Daten angemessen geschützt werden, können KI-Assistenten die Produktivität erhöhen, ohne dabei eine neue Bedrohung darzustellen. (jm)

Zur Startseite