ChannelPartner
Alternatives Drucklayout:
› reiner Text
Link: https://www.channelpartner.de/a/europol-warnt-vor-deepfake-nutzung-durch-organisierte-kriminalitaet,3685090

Hohes Gefahrenpotenzial

Europol warnt vor Deepfake-Nutzung durch organisierte Kriminalität

Datum:01.05.2022
Mit Hilfe künstlicher Intelligenz erstellte Videos und Bilder könnten von Kriminellen in vielen Bereichen zu zahlreichen Zwecken genutzt werden und auch die Arbeit von Polizei und Justiz behindern, warnt Europol.

Beispiel für ein "Deepfake" bei Bilddateien: Das mittlere Bild ist mit der "Morphing" genannten Methode mithilfe Künstlicher Intelligenz aus den beiden anderen generiert worden.
Foto: Europol

Die europäische Strafverfolgungsbehörde Europol hat vor der Nutzung der Deepfake-Technologie durch die organisierte Kriminalität gewarnt1. Deepfakes könnten für Erpressungs- und Betrugsdelikte, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen genutzt werden. Desinformationskampagnen und eine Beeinflussung der öffentlichen Meinung könnten über Deepfakes ebenso betrieben werden, wie das Anstacheln zu politischen und gesellschaftlichen Unruhen.

Außerdem könnten versierte Banden die komplizierte Deepfake-Technologie anderen für kriminelle Vorhaben als Service anbieten. Die Justiz könne mit vermeintlichem Beweismaterial, das aus manipulierten Videos oder Bildern besteht, getäuscht werden, erklärt Europol in dem Bericht (PDF)2.

Deepfakes sind mit Hilfe künstlicher Intelligenz (KI) erstellte Videos, Bilder oder Audio-Dokumente, die authentisch wirken sollen, es aber nicht sind. Der KI-Einsatz sorgt dafür, dass die Stimme echt klingt und gesprochene Sprache und Mimik zueinander passen.

Für einen Erpressungsversuch etwa könnten die Handelnden in einem Pornovideo mit dem Gesicht einer unbeteiligten Person versehen werden, teilte Europol mit. Ein Fremder könne am Telefon mit der Technik wie der bekannte Firmenchef klingen und einen Mitarbeiter zu einer Überweisung veranlassen.

Die Arbeit im Homeoffice seit der Corona-Krise schaffe verstärkt Ansatzpunkte für den betrügerischen Einsatz von Deepfakes. Selbst Passbilder könnten derart manipuliert werden, dass bei einer Kontrolle nicht auffalle, dass das Gesicht einer anderen Person in das Foto des Passinhabers hineingearbeitet worden ist.

Der zunehmenden Entwicklung und Nutzung der Deepfake-Technologie müssten Polizeibehörden Prävention und automatisierte Programme zum Erkennen von Fälschungen entgegenstellen, riet Europol. Auch die Gesetzgebung müsse mit den technischen Entwicklungen Schritt halten. (dpa/pma)

Links im Artikel:

1 https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime
2 https://www.europol.europa.eu/publications-events/publications/facing-reality-law-enforcement-and-challenge-of-deepfakes

IDG Tech Media GmbH
Alle Rechte vorbehalten. Jegliche Vervielfältigung oder Weiterverbreitung in jedem Medium in Teilen oder als Ganzes bedarf der schriftlichen Zustimmung der IDG Tech Media GmbH. dpa-Texte und Bilder sind urheberrechtlich geschützt und dürfen weder reproduziert noch wiederverwendet oder für gewerbliche Zwecke verwendet werden. Für den Fall, dass auf dieser Webseite unzutreffende Informationen veröffentlicht oder in Programmen oder Datenbanken Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit des Verlages oder seiner Mitarbeiter in Betracht. Die Redaktion übernimmt keine Haftung für unverlangt eingesandte Manuskripte, Fotos und Illustrationen. Für Inhalte externer Seiten, auf die von dieser Webseite aus gelinkt wird, übernimmt die IDG Tech Media GmbH keine Verantwortung.