Schon bevor OpenAI im November 2022 die erste Version von ChatGPT für die Allgemeinheit freigab, spielte das Thema Künstliche Intelligenz (KI) für die IT-Sicherheit eine bedeutende Rolle. Bereits seit Jahren schmücken Security-Anbieter ihre Produkte mit mehr oder weniger nützlichen Zusätzen und Buzzwords wie KI, AI (Artificial Intelligence), GenAI (Generative AI) oder ML (Machine Learning).
Allerdings ist auch die Gegenseite nicht untätig geblieben. Cyberkriminelle setzen ebenfalls zunehmend KI-Techniken ein, um bestehende Methoden zu verfeinern oder um neue Angriffe zu entwickeln. Manche versuchten laut Trend Micro sogar, eigene Large Language Models (LLMs) zu entwickeln, die ähnlich wie ChatGPT arbeiten, aber dabei weniger Beschränkungen etwa bei der Generierung von Spam-Texten haben.
Jailbreaking etablierter KI-Modelle
Nach Angaben der Sicherheitsfirma wurden diese Versuche aber wohl wieder aufgegeben. Stattdessen sollen sich die Banden jetzt darauf verlegt haben, die großen LLMs zu "jailbreaken", also Tricks anzuwenden, um ihre Sicherheitsvorkehrungen zu umgehen. Manche sind dabei nach Angaben von Trend Micro mittlerweile so erfolgreich, dass sie bereits "Dienstleistungen" wie Jailbreaking-as-a-Service anbieten können.
"Cyberkriminelle haben KI schon lange vor dem jüngsten Hype um generative KI in der IT-Branche missbraucht", bestätigt David Sancho, Senior Threat Researcher bei Trend Micro. Bei Analysen der Diskussionen zwischen Cyberkriminellen in Untergrundforen habe man zudem festgestellt, dass ihre "Interessen den allgemeinen Marktentwicklungen folgen".
Beispiele für Chatbots für kriminelle Zwecke tragen laut Sancho Namen wie FraudGPT, DarkBARD, DarkBERT oder DarkGPT. Der Sicherheitsforscher geht davon aus, dass es sich dabei um keine Neuentwicklungen, sondern meist um sogenannte Wrapper-Dienste für legitime Chatbots handelt, die von den Kriminellen angeboten werden.
Eine besonders hohe Gefahr geht nach Aussage von Sancho von erweiterten Deepfake-Angeboten aus, die Systeme zur Identitätsprüfung austricksen können. Teils genüge schon ein einziges gestohlenes Ausweisdokument, um überzeugende Fake-Bilder zu erstellen. Bisher sei zar die große Disruption durch kriminelle Chatbots ausgeblieben - aber trotzdem es sei nur eine Frage der Zeit, bis schwerwiegendere Angriffe auftreten.
KI als ernstzunehmende Gefahr
Diesen Trend bestätigt auch Bitdefender mit seinem neuesten Cybersecurity Assessment Report. Im Auftrag der Sicherheitsfirma befragten Mitarbeiter der Marktforschungsfirma Censuswide IT-Security-Profis nach den größten Herausforderungen, mit denen sie zu kämpfen haben. Fast alle Teilnehmer an der Umfrage stuften das Wachstum der Künstlichen Intelligenzen als ernstzunehmende Gefahr für ihre Unternehmen ein.
So nannten 96,6 Prozent der weltweit Befragten KI-generierte Deepfakes als Bedrohung. In Deutschland waren es sogar 99 Prozent der Teilnehmer. Allerdings trauten 74,1 Prozent der Befragten ihren Kollegen zu, Deepfakes von echtem Content unterscheiden zu können. In Deutschland war dieses Vertrauen mit 84,6 Prozent am zweithöchsten hinter Großbritannien mit 85,5 Prozent und vor den USA mit 82,1 Prozent. In Frankreich waren es dagegen nur 67,5 Prozent und in Singapur sogar nur 48,5 Prozent.
"Unternehmen in allen Branchen sehen sich völlig neuen Herausforderungen gegenüber. Diese resultieren aus einer wachsenden Angriffsfläche, Zero-Day-Schwachstellen, Fehlkonfigurationen in der Cloud und den neuen durch Künstliche Intelligenz entstehenden Gefahren", sagt Andrei Florescu, Präsident und General Manager der Bitdefender Business Solutions Group.
"Die Vielfalt der KI-bedingten Angriffsmethoden überrascht uns nicht. Wir sehen bereits seit geraumer Zeit einen Anstieg von Cyberattacken mithilfe von Künstlicher Intelligenz", sagt auch Daniel Hofmann. Er ist CEO beim deutschen Cloud-Security-Anbieter Hornetsecurity. Allerdings sei das Thema noch nicht flächendeckend in den Cybersecurity-Strategien der meisten Unternehmen in Deutschland angekommen.
Laut dem AI-Security-Report 2024 von Hornetsecurity setzen 53 Prozent der befragten Firmen KI noch nicht für ihre eigene IT-Sicherheit ein. Erstaunliche 19 Prozent der Teilnehmer wussten nicht, ob ihr Unternehmen zur Absicherung KI einsetzt oder nicht. Trotzdem ist Hofmann überzeugt, dass "die Gefahr, die von KI ausgehen kann, mittlerweile verstanden wird". Die Technologie eröffne Möglichkeiten, Angriffe effizienter zu erkennen und abzuwehren.
Gekommen, um zu bleiben
Künstliche Intelligenz sei "gekommen, um zu bleiben", so Hofmann. 75 Prozent der von Hornetsecurity Befragten glauben, dass KI im Bereich der Cybersicherheit in den nächsten fünf Jahren an Bedeutung gewinnen wird. Zudem geht jeder Dritte davon aus, dass dadurch die eigene Security-Strategie verbessert wird. Weitere 34 Prozent sind der Ansicht, dass KI sowohl den Angreifern als auch den Verteidigern dient. Dazu kommen allerdings sieben Prozent, die überzeugt sind, dass KI nur den Aggressoren nützt.
"Das Facettenreichtum an Angriffsmöglichkeiten ist durch Künstliche Intelligenz in den letzten Jahren exponentiell gewachsen", fügt Yvonne Bernard, CTO bei Hornetsecurity, hinzu. Leider seien deutsche Unternehmen noch nicht adäquat auf die neuesten Angriffsmethoden vorbereitet. Dabei könne die Technologie die Umsetzung der Sicherheitsrichtlinien "signifikant erleichtern".
Das Marktforschungsunternehmen Vanson Bourne hat sich ebenfalls mit dem Thema KI in der IT-Sicherheit beschäftigt und im Auftrag von Check Point eine Untersuchung durchgeführt. Fast alle dafür befragten Organisationen berichteten, dass sie in den Bereichen Incident Response, Malware-Abwehr und dem Schutz vor Datenverlusten schon jetzt auf KI-gestützte Tools zurückgreifen. Die KI spiele daher eine zentrale Rolle für einen besseren Schutz der digitalen Landschaft.
So habe etwa die Reaktionsgeschwindigkeit auf sicherheitsrelevante Vorfälle Dank geeigneter KI-Tools verbessert werden können. Außerdem würden die Werkzeuge ein besseres Verständnis des Nutzerverhalten und von Anomalien ermöglichen. Trotzdem glauben nur 23 Prozent der in Europa Befragten, dass die KI die manuelle Arbeit der Sicherheitsleute reduzieren wird.
Nichtsdestotrotz kann die neue Technologie laut Check Point schon jetzt Personallücken schließen und ein Verbündeter bei der Behebung des Qualifikationsdefizits sein. Die KI könne zudem bestehende Fähigkeiten erweitern und die Effizienz verbessern. Das gelte ganz besonders für Sektoren mit einem hohen Bedarf an IT-Security-Kenntnissen.
Angriff der Bad Bots
Wie ein mithilfe einer KI durchgeführter Angriff auch aussehen kann, beschreibt der Sicherheitsanbieter Imperva. So setzten Cyberkriminelle bereits "Bad Bots" ein, die Reservierungen für so elementare Dinge wie Restaurantbesuche durchführen und die Plätze dann auf anderen Plattformen überteuert zu versteigern versuchen. Auch bei Konzerttickets würde diese Methode bereits angewendet, so Imperva.
Diese bereits seit Längerem eingesetzten Bots werden nun mit KI erweitert und damit, wie es der Sicherheitsanbieter formuliert, "massentauglich". So seien dadurch jetzt sogar technisch weniger versierte Personen in der Lage, einfache Bot-Skripte zu schreiben.
Bei all der Aufregung um KI-Technologien und dem stetig wachsenden Interesse an ihnen dürfe man das Offensichtliche nicht ignorieren, wirft Prentiss Donohue ein. Er ist Executive Vice President bei OpenText Cybersecurity. "Es besteht noch immer ein grundsätzlicher Bedarf an frei zusammenstellbarer IT-Sicherheit, durch die sich Unternehmen flexibel an sich ändernde Sicherheitsanforderungen anpassen können", so Donohue.
Wenn es um den Schutz sensibler Daten geht, sieht Donohue vor allem Chancen für Managed Service Provider (MSP) und Managed Security Service Provider (MSSP). Mit ihrer Hilfe könnten die Kunden von den neuen KI-Technologien profitieren, ohne dabei ihre Sicherheit aufs Spiel zu setzen.