Les criminels ne sont pas paresseux en matière de technologie, bien au contraire… Ce n’est pas parce qu’ils ont choisi une vie criminelle qu’ils sont intrinsèquement paresseux. En fait, ils ont démontré un niveau de créativité et de résolution de problèmes qui a rendu les crimes numériques, tels que les arnaques, encore plus difficiles à arrêter. Et avec l’avènement d’applications d’intelligence artificielle grand public qui peuvent être utilisées pour créer des imitations presque parfaites de personnes et d’organisations de confiance, les arnaques sont sur le point d’évoluer à un point où une détection sans aide sera impossible.
Les fraudeurs cherchent à tromper les gens et à obtenir leur argent, leurs renseignements personnels ou tirer d’autres avantages, souvent en imitant un tiers de confiance. Les arnaques peuvent prendre de nombreuses formes, telles que les arnaques bancaires avec usurpation d’identité, les arnaques de placements, les arnaques de loterie, les arnaques amoureuses, etc. Jusqu’à présent, les consommateurs au regard affûté pouvaient relever des indices indiquant qu’ils avaient affaire à une arnaque. Mais cela va changer.
À mesure que la technologie progresse, les escrocs trouvent de nouveaux moyens pour manipuler les victimes. La plus grande menace imminente viendra de la combinaison des hypertrucages et des grands modèles linguistiques, qui peuvent créer du contenu réaliste, mais faux, difficile à distinguer d’une activité légitime.
Les hypertrucages utilisent l’intelligence artificielle (IA) pour manipuler des images, des vidéos ou de l’audio de personnes réelles. Ils peuvent faire dire ou faire des choses à une personne que celle-ci n’a jamais faite ou ne ferait jamais. Par exemple, les hypertrucages peuvent être utilisés pour créer de fausses nouvelles, de fausses interviews, de faux soutiens ou de fausses preuves. Il existe en ligne de nombreux exemples convaincants de célébrités comme Tom Cruise et Scarlett Johanssen, et de politiciens comme Nancy Pelosi et Barack Obama.
Les grands modèles de langage (GML) sont des systèmes d’IA capables de générer du texte en langage naturel à partir d’une entrée ou d’une invite donnée. Ils peuvent produire un texte cohérent et fluide qui peut imiter le style, le ton ou le contenu d’un domaine, d’une personne ou d’un genre précis. Par exemple, les GML peuvent être utilisés pour créer des robots conversationnels, de fausses évaluations, de faux messages, de faux profils ou de faux courriels. Ils peuvent également être utilisés pour générer des images et même des vidéos, ce qui en fait des solutions tout-en-un pour créer du contenu d’hypertrucage. Les criminels adaptent déjà les GML à leurs propres fins comme en témoigne l’existence de FraudGPT et WormGPT[1].
Les escrocs utilisent déjà des hypertrucages pour des arnaques amoureuses ou des arnaques de grands-parents, et les GML les aident à créer des courriels et des textos sans erreur. Mais la combinaison d’hypertrucages et de GML deviendra un outil puissant et dangereux pour les escrocs, car ils généreront des arnaques convaincantes et personnalisées qui peuvent cibler des individus ou des groupes particuliers et qui ne se distinguent pratiquement pas des communications légitimes. Par exemple, les escrocs peuvent utiliser les GML pour effectuer des recherches et générer tout le nécessaire pour mener une arnaque efficace.
Protégez-vous avec AssistArnaque – En savoir plus!
Publié avec la permission de BioCatch
[1] WormGPT and FraudGPT – The Rise of Malicious LLMs (trustwave.com)