“Monde Immersif”, nouvelle technique de détournement des IA

 

Le groupe de renseignement sur les cybermenaces Cato CRTL a alerté sur le manque de garde-fous chez les IA génératives de DeepSeek, Microsoft Copilot et OpenAI. À l’aide d’un prompt narratif, un chercheur a réussi à faire produire aux modèles des logiciels malveillants.  

 

Les mots justes, Vitaly Simonovich a su les trouver. Chercheur pour le groupe de renseignement sur les cybermenaces Cato CRTL, il a su convaincre les outils d’IA générative de développer des logiciels malveillants capables de voler des identifiants de connexion à Google Chrome. “Notre nouvelle technique de jailbreak LLM, détaillée dans notre rapport sur les menaces “Cato CTRL 2025”, aurait dû être bloquée par des garde-fous. Ce ne fut pas le cas. Il a été possible d’utiliser à mauvais escient les services de ChatGPT, Copilot et DeepSeek”, a déclaré Etay Maor, le responsable stratégique de la sécurité chez Cato Networks. Ni DeepSeek, ni OpenAI, ni Microsoft n’ont répondu au rapport concernant la découverte, tandis que Google a refusé d’examiner le code de l’infostealer obtenu par les modèles d’IA.  

 

Une ingénierie narrative… 

 

Le “Monde Immersif”, c’est la méthode de jailbreaking découverte consistant à créer un univers fictif détaillé, dans lequel chaque outil d’IA générative joue un rôle. Chacun a des tâches et des défis assignés. Cette ingénierie narrative permet de contourner les contrôles de sécurité des LLM et de normaliser les opérations restreintes. En fin de compte, le chercheur a réussi à amener les modèeles de créer des infostealers. « Les infostealers jouent un rôle significatif dans le vol d’identifiants en permettant aux acteurs de la menace de pénétrer dans les entreprises. Notre nouvelle technique de jailbreak LLM, que nous avons découverte et nommée Monde Immersif, montre le potentiel dangereux de la facilité de création d’un infostealer », a déclaré Vitaly Simonovich. 

 

… pour un hack à portée de prompt  

 

“Les obstacles à la création de logiciels malveillants s’amenuisent considérablement avec les outils d’IA générative », déplore le chercheur. Dorénavant, il est possible de développer des infostealers, en utilisant uniquement des outils disponibles librement et sans aucune connaissance en logiciels malveillants. Les chatbots d’IA sont la nouvelle boîte à outil des hackers, conclut le rapport “Cato CRTL 2025”. Pour les responsables de la sécurité de l’information, cela signifie plus de risques de cyberattaques.  

 

Cela pourrait aussi vous intéresser : Quand les meilleures IA trichent pour gagner