Ces nouvelles arnaques avec l’IA sont plus vraies que nature : la nouvelle ruse redoutable des escrocs

Ces dernières années, la technologie de l’intelligence artificielle (IA) a fait de grands progrès, mais comme cela arrive souvent, les arnaques sont au rendez-vous.

Montrer le sommaire Cacher le sommaire

Grâce à l’intelligence artificielle, les cybercriminels sont capables de transformer les emails de phishing en pièges hyper réalistes. Ils rendent alors les escroqueries en ligne plus convaincantes et dangereuses que jamais. Découvrons quels sont les secrets des arnaques 2.0 et les stratégies de défense.

L’Intelligence Artificielle (IA) au service des arnaques

Ces dernières années, les arnaques par emails de phishing ont connu une véritable révolution. Si nous repensons à il y a quelques années, elles étaient presque ridicules. En effet, écrites dans un français approximatif, avec des erreurs grossières et des demandes, elles sentaient le faux à plein nez.

Il était donc facile de les reconnaître et de les jeter sans y réfléchir à deux fois. Mais aujourd’hui, ces arnaques sont devenues rusées et raffinées. Et, dans certains cas, elles sont si bien réalisées qu’elles semblent plus authentiques que les messages officiels eux-mêmes.

L’intelligence artificielle joue depuis longtemps un rôle d’épée à double tranchant. Elle permet de concevoir des attaques de plus en plus sophistiquées. Le phishing, en particulier, a subi une transformation extrêmement importante qui le rend encore plus insidieux.

La capacité de l’IA à imiter le style d’écriture. Mais aussi à créer de fausses pièces jointes et à personnaliser le contenu a transformé les e-mails de phishing en pièges hyper réalistes. Il devient alors très difficile de les distinguer des e-mails légitimes.

À lireCette nouvelle technique d’arnaques inquiète les experts : une arme redoutable pour les hackers

Ce phénomène représente un défi important pour le secteur de la cybersécurité. Ce qui rend donc les arnaques en ligne plus convaincantes et dangereuses que jamais .

Comment les cybercriminels utilisent l’IA pour créer des communications convaincantes ?

Le FBI, que le Journal du Net a relayé, tire la sonnette d’alarme ! L’IA générative est aujourd’hui l’arme favorite des escrocs. Images, vidéos, voix…

« Nous assistons à une véritable explosion des fraudes facilitées par l’IA », prévient un agent spécial du FBI sous couvert d’anonymat. « Les arnaques sont de plus en plus sophistiquées. Et il est crucial que le public soit conscient des dangers. »

L’IA générative permet aux auteurs d’arnaques de créer des faux profils sur les réseaux sociaux. Mais aussi de créer de faux documents d’identité. D’imiter la voix de proches en détresse. Ou encore de fabriquer de toutes pièces des vidéos promotionnelles pour des investissements fictifs.

Imaginez qu’il vous arrive de recevoir un appel de votre « fils » en panique. « Il » vous supplie alors de lui envoyer de l’argent pour payer une rançon. Vous n’avez aucun doute, c’est la voix de votre fils ! Sauf que la voix que vous entendez n’est qu’une imitation parfaite que l’IA génère.

« Ces technologies brouillent les frontières entre le réel et le virtuel », explique un expert en cybersécurité que nos confrères ont relayé. « Il devient de plus en plus difficile de distinguer le vrai du faux. Et c’est ce qui rend ces arnaques si dangereuses. »

Le FBI alerte contre ces arnques

Face à cette menace grandissante, le FBI multiplie les mises en garde. Le bureau d’investigation américain appelle, en effet, les internautes à redoubler de prudence.

« Ne vous fiez jamais aux apparences », insiste l’agence fédérale. « Vérifiez systématiquement l’identité de vos interlocuteurs. Ne partagez jamais d’informations sensibles en ligne. Et méfiez vous des demandes d’argent suspectes, même si elles semblent provenir de personnes de confiance. »

À lireArnaques aux SMS : voici comment ne pas tomber dans les pièges

Le FBI recommande aussi de limiter au maximum la diffusion de son image et de sa voix en ligne. Mais aussi de protéger ses comptes de réseaux sociaux.

 


Vous aimez cet article ? Partagez !

Envoyez cet article à vos amis, votre famille ou collègues...