Comment savoir si vous êtes victime d’une arnaque à l’IA ?
Si l'intelligence artificielle (IA) constitue une avancée technologique majeure, elle fait également l'objet de détournements malveillants, engendrant une nouvelle génération d'escroqueries qui affectent particuliers, organisations et institutions publiques.
Le mode opératoire repose généralement sur une approche d'ingénierie sociale : les escrocs diffusent des informations trompeuses via divers canaux de communication (envoi d’un mail, d’un SMS, appel téléphonique, contact par les réseaux sociaux, etc.) dans l'objectif d'obtenir des données confidentielles ou d'effectuer des transactions frauduleuses.
Différents signaux doivent vous alerter sur une potentielle arnaque par IA :
- un interlocuteur inconnu et/ou inhabituel ;
- une urgence dans la demande de communication d’informations ;
Des chiffres préoccupants
Selon le dernier rapport du site Cybermalveillance.gouv.fr, l’IA a favorisé une forte augmentation des piratages de comptes, hameçonnages et autres cyberattaques. Dans une étude IPSOS datant de septembre 2024, 63% des sondés se considèrent suffisamment informés sur les risques cyber, et dans le même temps, 61% déclarent avoir été victimes d’une attaque durant l’année.
Arnaques vocales et deepfakes vidéos : quand l’IA imite la réalité
Grâce à l’IA et aux technologies de synthèse vocale, les escrocs peuvent imiter la voix d'un proche, d'un collègue ou d'un dirigeant d'entreprise pour soutirer des informations ou de l'argent. L’IA permet d’aller encore plus loin avec le deepfake vidéo, qui clone l’image d’une personne à partir de photos et vidéos disponibles, notamment sur les réseaux sociaux.
- En 2024, par exemple, un employé d’une société asiatique a transféré 25 millions de dollars à des escrocs après une visioconférence deepfake où il pensait parler à ses collègues.
- Plus récemment, l’escroquerie sentimentale au “faux Brad Pitt” a coûté quelque 830 000 euros à une utilisatrice des réseaux sociaux.
Quelles mesures préventives devez-vous adopter ?
- Pour vous prémunir contre l’arnaque vocale, prêtez attention au timbre et à l’intonation de la voix afin d’y repérer des sonorités familières que l’IA ne peut pas reproduire. Le temps de réponse, lui aussi, doit vous alerter, tout comme la répétition des questions.
- Pour détecter le deepfake vidéo, analysez les incohérences sur les images (expressions figées, mouvements des lèvres étranges…) et demandez à la personne de filmer la pièce autour d’elle. L’IA a encore des difficultés pour générer en direct un environnement.
Le recrutement frauduleux : une menace croissante
Le faux entretien d’embauche est une variante du phishing, ciblant spécifiquement les demandeurs d'emploi. Les escrocs se font passer pour des recruteurs ou pour France Travail et incitent la victime à transmettre des documents personnels ou à payer des “frais de candidature”.
Un cas significatif s'est produit en 2022, où 130 candidats ont été victimes d'une offre d'emploi frauduleuse diffusée au nom d'une entreprise dont l'identité avait été usurpée. L'objectif était la collecte de données personnelles destinées à la revente sur le dark web.
Pour vous prémunir contre ces arnaques :
- ne transmettez jamais de données personnelles par email ou par téléphone,
- vérifiez l’identité d’une entreprise avant de candidater et n’hésitez pas à l’appeler,
- n’envoyez jamais de documents sensibles avant d’avoir rencontré un interlocuteur en personne.
L'émergence des agents conversationnels malveillants
L’IA est notamment utilisée pour créer des bots conversationnels qui imitent un service client ou un conseiller technique. Leur objectif est de tromper les utilisateurs en se faisant passer pour une assistance officielle, afin de récupérer des identifiants, des coordonnées bancaires ou des codes de validation.
Ils peuvent apparaître sous forme de fenêtres de chat sur de faux sites web, de messages automatisés sur les réseaux sociaux ou même de chatbots intégrés dans des applications piratées.
Pour ne pas en être victime :
- vérifiez toujours l’URL d’un site avant d’entrer vos informations (les escrocs utilisent souvent des adresses proches des vraies, avec une lettre en plus ou en moins) ;
- ne communiquez jamais de codes de validation ou d’identifiants sur un chatbot. Les banques et entreprises ne demandent pas ce type d’information sur un chat automatisé ;
- privilégiez les contacts directs avec un appel téléphonique ou une prise de rendez-vous.
Le spoofing téléphonique : une technique d'usurpation élaborée
Cette pratique consiste en l'usurpation sophistiquée de numéros officiels permettant aux fraudeurs de se faire passer pour des organismes légitimes. Le numéro affiché sur l’écran du destinataire est falsifié grâce à des logiciels spécialisés, ce qui rend la détection particulièrement complexe.
En octobre 2024, la Cour de cassation a tranché en faveur d'un client de BNP Paribas victime de spoofing téléphonique, condamnant la banque à rembourser 54 500 euros de virements frauduleux effectués en 2019. L'escroc avait utilisé une technique d'usurpation du numéro de téléphone de la conseillère bancaire de la victime, ce qui avait naturellement mis le client en confiance.
Pour vérifier si le contact est bien qui il prétend, raccrochez et rappelez le même numéro. Méfiez-vous des appels non sollicités et rappelez-vous qu’une autorité publique ne vous demandera jamais un paiement par téléphone.
Restez vigilant : les nouvelles arnaques à l’ère de l’IA
Les signaux d'alerte :
- une demande urgente d'informations ou d'argent,
- un interlocuteur inconnu et/ou inhabituel,
- un interlocuteur pressant qui refuse tout délai de réflexion,
- des erreurs dans l'adresse email ou le nom de domaine,
- une qualité audio ou vidéo douteuse lors d'appels,
- des incohérences dans le discours ou les réponses.
Règles d'or pour votre sécurité :
- ne communiquez JAMAIS vos codes bancaires par téléphone ou email,
- en cas d'appel suspect, raccrochez et rappelez le numéro officiel,
- vérifiez toujours l'URL des sites web avant de saisir vos données,
- ne cédez pas à l'urgence : prenez le temps de vérifier.
Liens utiles MACSF :
Comment détecter une tentative de phishing ?
Se protéger contre les arnaques vocales
Les bonnes pratiques de cybersécurité
En cas de doute ou d'urgence :
Contactez la MACSF : 32 33
Assistance cyber : 0 805 051 065
La MACSF, en prévention des risques cyber
Face à la montée des fraudes basées sur l’IA, la vigilance est votre alliée.
Si vous avez besoin d’un diagnostic ou d’une assistance, vous pouvez vous rendre sur la plateforme 17Cyber. Si vous pensez avoir été victime d’une escroquerie en ligne, vous pouvez porter plainte sur la plateforme THESEE.
Au cœur de son assurance multirisque professionnelle, la MACSF propose une garantie cyber-risques exhaustive. Celle-ci englobe non seulement la gestion de l'incident (hotline), mais aussi la prise en charge des préjudices financiers consécutifs à la fraude numérique et l'indemnisation des pertes d'exploitation liées aux cyberattaques. Cette protection s'étend à la restauration des systèmes compromis et inclut une garantie de responsabilité civile envers les tiers si des données confidentielles ont été divulguées.
L'essor de l'intelligence artificielle a engendré une nouvelle génération d'arnaques de plus en plus sophistiquées. La vigilance et l'adoption de bonnes pratiques de sécurité sont essentielles. La vérification systématique des sources, la prudence dans le partage d'informations sensibles et le recours aux canaux officiels constituent votre meilleure ligne de défense contre ces escroqueries modernes.
- Pour protéger votre activité, la MACSF vous accompagne dans vos démarches avec des garanties cyber-risques, qui couvrent les pertes financières liées aux fraudes en ligne et aux cyberattaques ;
- Vous devez formuler toute demande de mise en œuvre par téléphone au 0 805 051 065 (service gratuit + prix appel)*.