Intelligence artificielle : Menaces de cybercriminalité en hausse ! Découvrez l’état des lieux choc et les perspectives alarmantes
Les cybercriminels exploitent l’intelligence artificielle pour leurs attaques
Les cybercriminels ont trouvé un nouvel outil pour mener leurs attaques de manière plus efficace et crédible : l’intelligence artificielle (IA). L’utilisation de l’IA générative, popularisée par le robot conversationnel ChatGPT, se répand dans le monde de la cybercriminalité, permettant aux criminels de mettre à jour leurs outils et de rendre leurs attaques plus sophistiquées.
L’IA rend les cybercriminels plus efficaces et crédibles
La démocratisation de l’IA parmi les cybercriminels les rend plus efficaces et crédibles. Les méthodes utilisées par ces criminels restent les mêmes, mais le volume et la persuasivité des attaques augmentent considérablement. Par exemple, les e-mails de phishing deviennent de plus en plus sophistiqués, évitant les erreurs de syntaxe ou d’orthographe grossières. Les escrocs adaptent leur langage et utilisent des contextes appropriés pour convaincre les personnes de cliquer sur des liens ou des sites douteux.
L’IA générative pour créer des logiciels malveillants personnalisés
L’IA générative peut également être détournée pour créer des logiciels malveillants personnalisés, exploitant les vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité parmi les acteurs malveillants. Les hackers utilisent également l’IA pour trier et exploiter une masse de données après avoir infiltré un système informatique, leur permettant de maximiser leurs profits en ciblant les informations les plus pertinentes.
L’IA dans l’arnaque au président et les rançongiciels
L’IA est également utilisée dans le cadre de l’arnaque au président, où les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement. De plus, les rançongiciels utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. La technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.
Les contenus synthétiques générés par l’IA pour tromper, harceler ou extorquer
La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.
La nécessité de la règle du « zero trust »
Face à ces nouvelles menaces, il est essentiel d’appliquer la règle du « zero trust » en matière de cybersécurité et d’IA. Il ne faut faire confiance à aucun élément a priori et mettre en place des mesures de protection appropriées pour contrer ces attaques. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.
Conclusion
En conclusion, l’exploitation de l’IA par les cybercriminels représente une menace croissante. Ils utilisent cette technologie pour améliorer leurs techniques et mener des attaques plus crédibles. Il est donc primordial de rester vigilant et de prendre des mesures de protection adéquates pour contrer ces nouvelles formes de cybercriminalité.
