Le FBI met en garde contre les escroqueries d'extorsion AI Deepfake

Les capacités de l'IA générative à créer des images réalistes sont impressionnantes, mais le Federal Bureau of Investigation des États-Unis affirme que les criminels utilisent des deepfakes pour cibler les victimes à des fins d'extorsion.

"Le FBI continue de recevoir des rapports de victimes, y compris des enfants mineurs et des adultes non consentants, dont les photos ou vidéos ont été modifiées en contenu explicite", a déclaré l'agence dans une alerte PSA lundi.

Le FBI affirme que les forces de l'ordre ont reçu l'année dernière plus de 7,000 XNUMX rapports d'extorsion en ligne ciblant des mineurs, avec une augmentation du nombre de victimes de soi-disant «escroqueries à la sextorsion» utilisant des deepfakes depuis avril.

Un deepfake est un type de contenu vidéo ou audio de plus en plus courant créé avec l'intelligence artificielle qui décrit de faux événements qui sont de plus en plus difficiles à discerner comme faux, grâce à des plateformes d'IA génératives comme Midjourney 5.1 et DALL-E 2 d'OpenAI.

En mai, un deepfake de Tesla et du PDG de Twitter, Elon Musk, conçu pour arnaquer les investisseurs en crypto est devenu viral. La vidéo partagée sur les réseaux sociaux contenait des images de Musk d'interviews précédentes, éditées pour s'adapter à l'arnaque.

Les deepfakes ne sont pas tous malveillants, un deepfake du pape François portant une veste Balenciaga blanche est devenu viral plus tôt cette année, et plus récemment, des deepfakes générés par l'IA ont également été utilisés pour ramener à la vie des victimes de meurtre.

Dans ses recommandations, le FBI a mis en garde contre le paiement d'une rançon, car cela ne garantit pas que les criminels ne publieront pas le deepfake de toute façon.

Le FBI recommande également la prudence lors du partage d'informations personnelles et de contenu en ligne, y compris l'utilisation de fonctionnalités de confidentialité telles que la confidentialité des comptes, la surveillance de l'activité en ligne des enfants et la surveillance des comportements inhabituels des personnes avec lesquelles vous avez interagi dans le passé. L'agence recommande également d'effectuer des recherches fréquentes d'informations personnelles et sur les membres de la famille en ligne.

Parmi les autres agences qui sonnent l'alarme, citons la Federal Trade Commission des États-Unis, qui a averti que les criminels utilisaient des deepfakes pour inciter des victimes sans méfiance à envoyer de l'argent après avoir créé un deepfake audio d'un ami ou d'un membre de la famille qui dit qu'ils ont été kidnappés.

"L'intelligence artificielle n'est plus une idée farfelue sortie d'un film de science-fiction. Nous vivons avec, ici et maintenant. Un escroc pourrait utiliser l'IA pour cloner la voix de votre bien-aimé », a déclaré la FTC dans une alerte aux consommateurs en mars, ajoutant que tous les criminels ont besoin d'un court extrait audio de la voix d'un membre de la famille pour rendre l'enregistrement réel.

Le FBI n'a pas encore répondu à Décrypter demande de commentaire.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

Source : https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams