Les hackers exploitent l'IA générative pour créer des malwares capables d'évoluer en temps réel pendant qu'ils s'exécutent

Selon le Google Threat Intelligence Group, certains virus intègrent désormais directement des modèles de langage, comme Gemini et Qwen, pour générer, modifier ou obfusquer leur propre code en temps réel. Une évolution majeure qui marque le passage d'une IA utilisée pour la productivité à une IA déployée au coeur même des opérations. 

Clavier
Clavier

Jusqu'ici, les hackers se servaient des outils alimentés par l'intelligence artificielle pour gagner du temps : rédiger des mails de phishing (hameçonnage), générer des scripts ou encore rechercher des failles. Désormais, d'après le dernier rapport du Google Threat Intelligence Group publié le 6 novembre, des malwares dialoguent eux-mêmes avec des modèles pendant leur exécution.

Autrement dit, le code malveillant n'est plus figé. Il peut se réécrire, se camoufler ou créer de nouvelles fonctions à la demande. Il ne dépend plus d'un opérateur humain. 

Capables d'adapter leur code pendant l'exécution

C'est que les experts appellent le passage à une "IA just-in-time", utilisé en direct pendant une cyberattaque. Cela rend les logiciels malveillants plus adaptatifs, plus autonomes et beaucoup plus difficiles à détecter. 

Plusieurs exemples de malwares sont donnés par le rapport, tels que "PROMPTSTEAL", attribué au groupe russe APT28, qui interroge un autre modèle de langage, Qwen 2.5-Coder, pour générer des commandes à exécuter sur la machine infectée et exfiltrer des données. 

Les modèles d'IA comme Gemini sont conçus pour refuser les usages dangereux, rappelle la firme. Mais les hackers apprennent à tromper ces garde-fous. Certains se font passer pour des étudiants en sécurité informatique ou pour des participants à des concours techniques. Ils obtiennent ainsi des informations que l'IA refuserait de leur fournir, telles que des explications sur des failles, des scripts d'exploitation...

Une attaque contre l'Ukraine

Le groupe d'experts a identifié plusieurs groupes d'acteurs soutenus par des Etats. APT28, lié à la Russie, est le premier à utiliser un malware générant des commandes via un LLM dans une attaque contre l'Ukraine. L'objectif était de collecter des données sensibles et des documents sur les systèmes compromis. De son côté, APT42 (Iran) a tenté de construire un "agent de traitement de données" capable d'analyser des bases contenant des données personnelles à partir de requêtes en langage naturel.

Face à ces dérives, Google affirme avoir pris des mesures. Il a désactivé les comptes liés à ces activités malveillantes, renforcé les protections de ses modèles Gemini ainsi que partagé des informations avec les équipes de DeepMind pour entraîner les modèles à refuser ce type de requêtes. 

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.