Werbung für „Immediate Matrix“

Investment-Schwindel mit Promi-Deepfakes

Peter Marwan lotet kontinuierlich aus, welche Chancen neue Technologien in den Bereichen IT-Security, Cloud, Netzwerk und Rechenzentren dem ITK-Channel bieten. Themen rund um Einhaltung von Richtlinien und Gesetzen bei der Nutzung der neuen Angebote durch Reseller oder Kunden greift er ebenfalls gerne auf. Da durch die Entwicklung der vergangenen Jahre lukrative Nischen für europäische Anbieter entstanden sind, die im IT-Channel noch wenig bekannt sind, gilt ihnen ein besonderes Augenmerk.
Im Internet kursieren Deepfake-Videos, in denen bekannte Persönlichkeiten und Unternehmer wie Friedrich Merz, Dietmar Hopp oder Experten der ARD neuartige Investment-Produkte mit sagenhaften Gewinnmöglichkeiten bewerben. Fallen Nutzer darauf herein, ist ihr Geld weg.
 
  • Nachrichtenbeiträge als KI-Trainingsmaterial
  • Wie man Deepfake-Videos erkennen kann
Personen des öffentlichen Lebens sind für Betrüger dankbar, weil von ihnen eine Fülle an Bildern, Videos und Audioaufnahmen existiert, mit denen sie KI-Werkzeuge füttern können.
Personen des öffentlichen Lebens sind für Betrüger dankbar, weil von ihnen eine Fülle an Bildern, Videos und Audioaufnahmen existiert, mit denen sie KI-Werkzeuge füttern können.
Foto: FAMILY STOCK - shutterstock.com

Mit einer aktuellen Deepfake-Betrugskampagne wollen Betrüger Internetnutzer um ihr Geld bringen. Deutsche gehören dabei zu den Hauptzielen, aber auch in anderen Staaten, darunter Kanada, Japan, Südafrika und den Niederlanden, sind ähnliche Videos in Umlauf.

Laut Eset, das jetzt vor der Kampagne gewarnt hat, sitzen die Hintermänner vermutlich in Russland oder der Ukraine. Sie verbreiten seit Mai 2024 verstärkt Online-Werbung, die mit Hilfe von Deepfakes von bekannten Persönlichkeiten zu Investments auffordert.

In den Videos scheinen etwa der CDU-Vorsitzende Friedrich Merz, SAP-Mitbegründer Dietmar Hopp oder Experten der ARD "revolutionäre" Investment-Produkte mit sagenhaften Gewinnmöglichkeiten zu bewerben. Sie versprechen dabei hohe Gewinne bei minimalem Einsatz. Alleine das sollte schon aufhorchen lassen.

Um glaubhafter zu wirken, erwecken die Fake-Videos teilweise den Eindruck, Bestandteil von seriösen Nachrichtensendungen wie der Tagesschau zu sein. Dazu wurde unter anderem ein Beitrag über eine Gewinnverdopplung bei der Lufthansa verwendet.

Echte Nachrichtenbeiträge als KI-Trainingsmaterial

"Politiker und andere Personen des öffentlichen Lebens sind eine wahre Goldgrube für KI-Betrüger", sagt Eset-Forscher Ondrej Novotny, der an der Entdeckung der Kampagne beteiligt war. "Von ihnen existiert eine Fülle an Bildern, Videos und Audioaufnahmen, mit denen sie ihre KI-Werkzeuge füttern können. Das Ergebnis: Eine bekannte Persönlichkeit gibt eine scheinbar seriöse Empfehlung, wie man sein Geld am besten anlegt."

Als Grundlage für die Fake-Videos nutzten die Kriminellen tatsächlich gesendete Nachrichtenbeiträge. Mit diesen Daten trainierten sie die KI-Software, um einen neuen Beitrag zu erstellen. In den gefälschten Videos bewerben die Sprecher dann die dubiose Investment-Plattform "Immediate Matrix". Dort könnten selbst Nutzer ohne Vorkenntnisse Gewinne in Höhe von mehreren tausend Euro erzielen.

Dazu müssten sie nur wenige hundert Euro investieren. Fallen Nutzer darauf herein und investieren, ist das Geld weg. In anderen Ländern drängten Anrufer die Betrogenen zudem zusätzlich noch zu höheren "Investitionen".

"Die Deepfakes in dieser Kampagne sind oft von schlechter Qualität und weisen keine korrekte Lippensynchronisation auf" erklärt Novotny. "Dies schreckt Betrüger aber nicht vom Einsatz ab, weil sie nur einen winzigen Bruchteil der Empfänger benötigen, die auf die Masche hereinfallen und die geforderte Summe überweisen. Das ist leicht verdientes Geld und erfordert nur geringe Investitionen auf Seiten der Kriminellen."

Wie man Deepfake-Videos erkennen kann

Bei Videos im Internet rät Eset, auf folgende Aspekte zu achten:

  • Sprecher in Deepfake-Videos klingen oft monoton. Echte Menschen betonen bestimmte Worte in Sätzen, wohingegen ihre gefakten Imitate oft die gleiche Stimmlage und Betonung nutzen. Zudem sprechen sie manche Worte falsch aus, insbesondere bei Fremdwörtern und englischen Begriffen machen KI-Werkzeuge noch Fehler. Auch bei der persönlichen Anrede ("Du" oder "Sie") kommen KI-Lösungen oft durcheinander.

  • Menschen unterlegen das Gesprochene mit einer passen Mimik und Gestik. Wird eine neue Aussage über ein bestehendes Video gelegt, passt diese nicht mehr zu den Bewegungen des Sprechers. Die Aufnahme wirkt dann unnatürlich.

  • Fehlerhafte Schattenwürfe im Gesicht oder andere Bildfehler sind ein guter Hinweis, dass es sich um einen Fake handelt.

Weitere Empfehlungen woran sich Deepfakes erkennen lassen, geben im Detail das Bundesamt für Sicherheit in der Informationstechnik (BSI) und auf einem leicht verständlichen Niveau die Polizei-Beratung.

Mehr zum Thema

Aktuelle Strategien und Methoden der Cyberkriminellen

Europol warnt vor Deepfake-Nutzung durch organisierte Kriminalität

KI-unterstützter Cyber-Betrug

Verbraucher fürchten durch KI bessere Betrugsmaschen

Zur Startseite