Copilot beißt Datenschutz

6 gefährliche KI-Prompts

17.05.2024 von Volker Sommer
GenAI-Tools wie Copilot sollen die Produktivität der Mitarbeiter steigern. Allerdings können sie auch die Datensicherheit gefährden.
Eigentlich soll Microsofts Copilot Unternehmen unterstützen. Doch je nach Prompt kann das gefährlich werden.
Foto: JLStock - shutterstock.com

Seit Anfang des Jahres ist Copilot für Microsoft 365 allgemein verfügbar. Immer mehr Unternehmen setzen auf den KI-Assistenten, den viele als eines der mächtigsten Tools zur Produktivitätssteigerung sehen. Doch mit großer Macht kommt auch große Verantwortung. Wenn ein Unternehmen keinen umfassenden Einblick in seine Datensicherheitslage hat, können Copilot und andere KI-Tools sensible Informationen an Mitarbeitende weitergeben, die sie nicht erhalten sollten.

Wie funktioniert Microsoft Copilot?

Microsoft Copilot basiert auf generativer KI und ist in sämtliche Microsoft-365-Apps wie Word, Excel, PowerPoint, Teams oder Outlook integriert. Das Sicherheitsmodell von Copilot erstellt seine Antworten auf Basis der bestehenden Microsoft-Berechtigungen eines Benutzers. Dieser kann Copilot bitten, Besprechungsnotizen zusammenzufassen, Dateien zu finden und Aktionspunkte zu identifizieren, um Zeit zu sparen. Wenn jedoch die Berechtigungen im Unternehmen nicht ausreichend (nach dem Least-Privilege-Ansatz) reduziert wurden, können Mitarbeitende mit Hilfe von Copilot leicht an sensible, für sie nicht unbedingt bestimmte Informationen gelangen.

Es ist ein weitverbreitetes Problem, dass Beschäftigte Zugriff auf viel zu viele Daten haben. So kann ein durchschnittlicher Angestellter an seinem ersten Arbeitstag auf circa 17 Millionen Dateien zugreifen. Wenn CISOs nicht sehen und kontrollieren können, wer Zugriff auf sensible Daten hat, kann ein kompromittierter Benutzer oder ein böswilliger Insider unermesslichen Schaden anrichten. Die meisten der erteilten Berechtigungen werden zudem auch gar nicht genutzt.

Lesetipp: Microsoft Copilot for Security

6 Beispiele für gefährliche KI-Prompts

Gerade zu Beginn der Implementierung werden Mitarbeiter das Copilot-System, seine Intelligenz und seine Grenzen testen wollen. Während einige Fragen und Aufforderungen eher spielerisch sind, haben andere potenziell gefährliche Auswirkungen. Hier finden Sie einige Beispiele für problematische Eingabeaufforderungen:

Prompt-Missbrauch verhindern

Die Datensicherheit bei der Nutzung von Copilot steht und fällt mit den Zugriffsrechten. Vor der Implementierung ist es deshalb unerlässlich, die Zugriffsrechte auf das absolute Minimum zu reduzieren. Und auch während des Einsatzes von Copilot (und anderen KI-Tools) muss fortlaufend sichergestellt werden, dass der "Explosionsradius", also der potenzielle Schaden, den ein kompromittiertes Konto anrichten kann, möglichst gering ist. Nur wenn die Daten angemessen geschützt werden, können KI-Assistenten die Produktivität erhöhen, ohne dabei eine neue Bedrohung darzustellen. (jm)