Skip to content
Cyberattaques par intelligence artificielle : seule une défense combinée peut encore nous sauver
Crédit: Adobe Stock

Quand voir n’est plus croire

Les deepfakes ne sont plus une curiosité technologique. Ils sont devenus une arme industrielle. Au premier trimestre 2025, les pertes liées à la fraude par deepfake en Amérique du Nord ont dépassé 200 millions de dollars. En un seul trimestre. Le deuxième trimestre a vu ce chiffre grimper à 347 millions. Si cette tendance se maintient, 2025 pourrait voir plus d’un milliard de dollars directement volés grâce à cette seule technologie. Et ce n’est que la partie émergée de l’iceberg. Les incidents se multiplient à une vitesse vertigineuse. En 2024, on comptait 150 incidents de deepfake — une augmentation de 257 % par rapport à l’année précédente. Au seul premier trimestre 2025, ce chiffre a bondi à 179 incidents, surpassant de 19 % le total de toute l’année 2024. Les deepfakes surviennent désormais environ toutes les cinq minutes. Une attaque qui cible au moins 400 entreprises par jour avec des fraudes au PDG.

Le cas d’Arup n’est pas isolé. Chez WPP, le géant de la publicité, des criminels ont tenté de piéger le directeur général avec un clone vocal imitant un cadre supérieur. La demande : un transfert urgent. Le piège a échoué uniquement parce que le dirigeant a posé des questions personnelles auxquelles le deepfake ne pouvait pas répondre. Chez Ferrari, même scénario, même résultat — l’exécutif a détecté des incohérences et a confronté l’imposteur avec une question personnelle. Ces histoires de réussite cachent une réalité plus sombre : combien d’autres ont succombé sans jamais s’en rendre compte ? Le DSI mondial d’Arup a qualifié l’attaque de « ingénierie sociale augmentée par la technologie ». Ce n’est pas le système informatique qui a été compromis. C’est la confiance humaine. Et la confiance, contrairement aux pare-feu, ne se met pas à jour.

L’économie souterraine du deepfake

2025 a vu l’émergence d’un nouveau marché noir : le Deepfake-as-a-Service. Des plateformes entières proposent des outils clé en main pour le clonage vocal, la génération vidéo, la simulation de persona. Plus besoin d’être un génie de l’informatique. N’importe quel escroc peut désormais créer des deepfakes convaincants en quelques clics. Le coût de création d’un deepfake vocal ? Un dollar. La quantité d’audio nécessaire ? Trois secondes. Avec cela, les criminels obtiennent une correspondance vocale de 85 % — suffisante pour tromper même des proches. Une personne sur quatre aux États-Unis a déjà été ciblée par une arnaque vocale générée par IA, selon McAfee. Et 77 % des victimes ont subi des pertes financières. Les entreprises perdent en moyenne 500 000 dollars par incident de fraude par deepfake. Les grandes entreprises ? Jusqu’à 680 000 dollars.

Ce qui me frappe le plus, c’est l’asymétrie. Un dollar pour créer l’arme. Des millions pour réparer les dégâts. Les criminels jouent avec des allumettes pendant que nous essayons d’éteindre des incendies de forêt. Et le pire ? Seulement 0,1 % des gens — oui, vous avez bien lu, zéro virgule un pour cent — sont capables d’identifier correctement tous les deepfakes. Nous ne pouvons plus faire confiance à nos yeux. Nous ne pouvons plus faire confiance à nos oreilles. Les sens qui nous ont guidés pendant des millénaires deviennent des vecteurs de manipulation. Comment construit-on une société quand on ne peut plus croire ce qu’on voit ?

Le secteur financier est en première ligne. Il a connu une augmentation de 47 % des attaques en 2025, représentant 33 % de tous les incidents liés à l’IA. Le vol d’identifiants et la fraude par deepfake dominent. Le secteur des cryptomonnaies n’est pas en reste : 88 % des cas de fraude par deepfake détectés en 2023 le ciblaient. La fintech a vu ses incidents exploser de 700 %. Gartner prédit que d’ici 2026, 30 % des entreprises ne feront plus confiance aux solutions autonomes de vérification d’identité et d’authentification. Les attaques de contournement de détection de vivacité — ces systèmes censés vérifier que vous êtes bien une personne réelle — ont augmenté de 704 % en 2023. Le mur de la vérification s’effrite.

Sources

Sources primaires

FBI IC3 Report 2025 – Rapport annuel sur la cybercriminalité – Janvier 2025
NIST Cyber AI Profile – Draft Guidelines for AI Era Cybersecurity – Décembre 2025
IBM Cost of a Data Breach Report 2025 – Analyse des coûts des violations de données – 2025
Gartner Predictions 2026 – Prévisions sur l’authentification et la vérification d’identité – 2025
KELA Ransomware Report – Analyse des attaques sur les industries critiques – 2025

Sources secondaires

DeepStrike AI Cybersecurity Threats 2025 – Analyse complète des menaces IA – Janvier 2026
DeepStrike Deepfake Statistics 2025 – Statistiques sur la fraude par deepfake – Janvier 2026
EC-Council University Cybersecurity Trends 2026 – Top 10 des tendances cybersécurité – Janvier 2026
Variety – Deepfake-Enabled Fraud $200 Million Losses Report – 2025
Security Magazine – Deepfake fraud financial losses analysis – 2025
McAfee 2024 – Consumer AI Voice Scam Survey – 2024
Fortinet Cyberglossary – AI in Cybersecurity Analysis – 2025
Syracuse University iSchool – AI in Cybersecurity Threat Defense – 2025

Ce contenu a été créé avec l'aide de l'IA.

facebook icon twitter icon linkedin icon
Copié!
Plus de contenu