Als im November 2022 Open AI eine erste Version von Chat GPT der Allgemeinheit zur Verfügung stellte, gab es nach gerade mal drei Monaten schon über 100 Millionen registrierte Chat GPT-Nutzer! Und diese Menschen haben einfach losgelegt und die generative KI leider auch mit firmeninternen Informationen gefüttert, etwa mit dem Quellcode der sich noch in der Entwicklung befindenden eigenen Applikationen - mit verheerenden Folgen: Die KI hat den Quellcode besser gemacht, leider diese eigentliche geschützte "Intellectual Property" auch der Allgemeinheit zur Verfügung gestellt. Die sogenannte "Schatten KI" wurde zu einem Problem.
Daran hat sich bis heute leider nicht viel geändert. Laut einer Microsoft-Studie vom Mai 2024 hat Anfang 2024 immer noch mehr als die Hälfte der KI-User (53 Prozent) ihre Vorgesetzten nicht darüber in Kenntnis gesetzt, das sie KI-Software im Unternehmensumfeld nutzen. Insgesamt setzen fast drei Viertel der sogenannten "Knowledge Worker" unterschiedliche KI-Werkzeuge mehr oder weniger häufig in ihrem Büroalltag ein.
Das bestätigt auch eine Veritas-Studie vom Februar 2024. Demnach erhoffen sich Knowledge Worker von KI-Werkzeugen wie Chat GPT schnelleren Zugriff auf Informationen (48 Prozent) und damit eine höhere Produktivität (40 Prozent). Mit KI-Werkzeugen Routine-Aufgaben automatisieren - das wollen laut Veritas 39 Prozent der Befragten. Um dies aber zu tun, müssen sie aber die KI-Systeme oft mit sensiblen Informationen füttern, etwa mit unternehmensinternen Daten.
Dies ist kein Problem, wenn sie die firmeneigene KI-Instanz nutzen, etwa den Microsoft Copilot. In vielen Firmen ist die Nutzung von offener KI in der Cloud daher verboten, wie Microsoft Most Valuable Professional (MVP) Alex Eggers aus seiner Erfahrung zu berichten weiß. Doch offenbar hat sich diese Vorgehensweise noch nicht überall durchgesetzt.
"Die Absicherung der Unternehmensdaten sollte immer ein Hauptanliegen darstellen", betont Chris Noon, Director und Global Head of Commercial Intelligence & Analytics (CIA) bei Dropbox. Seiner Meinung nach sollten Führungskräfte eine koordinierte KI-Strategie in ihren Unternehmen verfolgen: "Sie identifizieren die vertrauenswürdigen KI-Anbieter und stellen klare Bedingungen für den Umgang mit sensiblen Daten."
Unter Umständen könnte das dazu führen, dass Unternehmen, die eigene "Intellectual Property" (IP) entwickeln und über ausreichende Ressourcen verfügen, eine eigene KI-Lösung kreieren - natürlich unter Zuhilfenahme bestehender Sprachmodelle.
Knowledge Worker, die die firmeninternen KI-Werkzeuge nutzen, sollten von ihren Führungskräften und KI-Spezialisten auch dazu "erzogen" werden, kritisch mit den von der KI erzeugten Ergebnissen umzugehen. Denn Chat GPT und Microsoft Copilot "erfinden" auch manche "Tatsachen", wenn sie auf eine nicht ausreichende Datenbasis zugreifen, sei "fantasieren" sozusagen.
Daher ist für Unternehmen auch von entscheidender Bedeutung, die Nutzung der sogenannten "Schatten KI" ganz zu unterbinden, und beim Umgang mit der offiziellen KI-Werkzeuge Mitarbeiter zur Vorsicht zu ermahnen. Spezialisierte IT-Dienstleister können dabei helfen.
Einer von ihnen ist beispielsweise das Münchner Beratungshaus KPS. Paul Anderie, dort als Head of AI & Data Activation tätig, weiß, wie es zu Entstehung der Schatten-KI kommt: "Das Fehlen einer strategischen, top-down-getriebenen Implementierung mit festgelegten Regeln und Schulungen für die Mitarbeitenden fördert derartige Fehlentwicklungen". Wenn es dann auch noch an festen Regen zum Zugriff auf Unternehmensdaten fehlt, kann es leicht zu Verstößen gegen die Datenschutzgrundverordnung (DSGVO) kommen, oder die Firmengeheimnisse landen im Netz.
Laut Lünendonk ist Schatten-KI in der DACH-Region (Deutschland, Österreich, Schweiz) leider ein immer noch ein weitverbreitetes Phänomen: So erlaubt ein Drittel der 150 von dem Marktforschungsunternehmen im April 2024 befragten Unternehmen (33 Prozent) allen Mitarbeitern uneingeschränkten Zugriff auf generative KI-Werkzeuge. In weiteren 32 Prozent der Unternehmen haben Mitarbeitende eingeschränkten Zugriff auf Tools wie Chat GPT. Lediglich 35 Prozent der Unternehmen beschränken die Zugriffsrechte auf ausgewählte Bereiche und Funktionen.