Le fait est que si l’IA peut aider les organisations et les consommateurs à prendre des décisions plus rapides et plus éclairées, les cybercriminels ciblent les mêmes organisations et consommateurs avec des logiciels malveillants liés à l’IA, par exemple de faux domaines, des hypertrucages et du vol par identité synthétique. Bienvenue dans le monde des arnaques avec usurpation d’identité utilisant l’IA, une activité criminelle en pleine ascension.
Cela a fait en sorte que de mauvais acteurs usurpent l’identité (arnaques avec usurpation d’identité) d’individus sur des plateformes telles que Facebook Marketplace, ou encore que des escrocs endossent l’identité de votre banque ou caisse et demandent aux clients ou aux membres de confirmer leurs informations de compte en fournissant un mot de passe, un NIP, un code à usage unique, ou d’autres informations de connexion.
Le défi pour les consommateurs et les entreprises est que les escrocs envoient quotidiennement des millions de courriels et de textos d’hameçonnage qui ressemblent exactement à ce qu’envoient votre banque, votre caisse populaire, des comptes de médias sociaux et des sites de ventes – et trois choses se produisent :
Les consommateurs suppriment les courriels et les textos légitimes de leurs banques ou coopératives de crédit (ainsi que d’autres organisations légitimes) afin d’atténuer leur exposition à d’éventuelles escroqueries par courriel et texto d’hameçonnage. Les consommateurs ne sont pas certains de la légitimité des courriels et des textos des organisations avec qui ils ont une relation établie, ce qui n’est pas bon pour les organisations qui dépendent des stratégies d’engagement numérique avec leurs clients et leurs membres.
Les consommateurs sont dupés (et arnaqués) par des cybercriminels utilisant des courriels et des textos créés par l’IA (utilisant les empreintes numériques des consommateurs contre ceux-ci) qui ressemblent à des courriels et des textos légitimes de leurs banques, coopératives de crédit et autres organisations.
Les organisations légitimes ont des difficultés avec la sécurité numérique, car les menaces émergentes de cybercriminels continuent d’évoluer avec l’utilisation des technologies associées à l’IA.
Pire encore, voyez ce qu’en dit cet article daté du 29 juin 2024 et intitulé « Les plus grosses violations de données en 2024 » (en anglais « The biggest data breaches in 2024 ») : Selon TechCrunch, après plus d’un milliard de dossiers volés, « nous avons passé la mi-2024 et déjà cette année, nous avons vu certaines des plus grandes et plus dommageables violations de données de l’histoire récente. Et juste quand on pense que certains de ces piratages atteignent les bas-fonds, il y a pire encore. »
« D’énormes dépôts d’informations personnelles de clients dérobées, volées et mises en ligne, d’immenses quantités de données médicales volées et concernant la majorité des habitants des États-Unis… Les pires violations de données de 2024 à ce jour ont déjà dépassé le milliard de dossiers volés, et ça va en augmentant. Ces infractions affectent non seulement les individus dont les données ont été irrémédiablement exposées, mais enhardissent également les criminels qui profitent de leurs cyberattaques malveillantes », écrit Zach Whittaker, rédacteur en chef en matière de sécurité pour TechCrunch.
Bref, les mauvais acteurs utilisent la technologie de l’IA pour cibler les consommateurs avec des logiciels malveillants liés à l’IA, de faux domaines, des hypertrucages et du vol par identité synthétique, afin de réaliser leurs lucratives arnaques. De mauvais acteurs utilisent également des logiciels malveillants liés à l’IA et des technologies d’hypertrucage pour pirater et violer les bases de données de certaines des plus grandes entreprises aux États-Unis.
Il est temps pour les gentils d’utiliser les technologies d’IA pour créer de nouvelles solutions afin d’aider à protéger les consommateurs et les entreprises contre les arnaques!
Découvrez en plus sur la détection et la prévention des arnaques!
Tel que publié précédemment, avec la permission de Mark Pribish