Attention, découvrez les sombres perspectives de la cybercriminalité et son exploitation redoutable de l’intelligence artificielle !

Les cybercriminels et l’exploitation de l’intelligence artificielle

Les cybercriminels utilisent de plus en plus l’intelligence artificielle (IA) pour mener leurs attaques de manière plus efficace et crédible. L’utilisation de l’IA générative, popularisée par le robot conversationnel ChatGPT, se répand dans le monde de la cybercriminalité. Les outils utilisés par les criminels, tels que le phishing, les rançongiciels, les escroqueries et les arnaques au président, bénéficient d’une mise à jour grâce à l’utilisation de l’IA.

L’IA générative au service des cybercriminels

Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA se démocratise chez les cybercriminels, ce qui les rend plus efficaces et crédibles. Les méthodes utilisées par ces criminels restent les mêmes, mais le volume des attaques et leur pouvoir de persuasion augmentent considérablement.

Les e-mails de phishing deviennent de plus en plus sophistiqués, évitant les erreurs grossières de syntaxe ou d’orthographe. Les escrocs s’adaptent au langage de leurs cibles et utilisent des contextes appropriés pour les convaincre de cliquer sur des liens ou des sites douteux.

L’IA générative pour créer des logiciels malveillants personnalisés

L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés, exploitant des vulnérabilités connues de programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des acteurs malveillants.

De plus, l’IA est utilisée par les hackers pour trier et exploiter une masse de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.

L’utilisation de l’IA dans l’arnaque au président et les rançongiciels

L’IA est également utilisée dans le cadre de l’arnaque au président, où les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement.

Les entreprises et les hôpitaux sont également confrontés aux rançongiciels qui utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.

Les conséquences de l’exploitation de l’IA par les cybercriminels

La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.

Face à ces nouvelles menaces, il est primordial d’appliquer la règle du « zero trust », c’est-à-dire de ne faire confiance à aucun élément a priori en matière de cybersécurité et d’IA. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.

Conclusion

En conclusion, la cybercriminalité exploitant l’IA représente une menace croissante. Les cybercriminels utilisent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.