Une méthodologie pour protéger les IA des cyberattaques a été publiée par le Campus Cyber et l’association Hub France IA lors du Forum InCyber 2025. Les différents types de cyberattaques y sont détaillés ainsi que des mesures de détection et de remédiation.
Protéger les IA des cyberattaques, c’est le nouveau défi amené par la généralisation des cas d’usage de l’intelligence artificielle. Le Campus Cyber, lieu emblématique de la cybersécurité, et l’association Hub France IA ont donc collaboré pour proposer un guide à cet effet, rendu disponible à l’occasion du Forum InCyber. Le document recommande de sécuriser l’IA dès sa conception, selon le principe “secure by design” recommandé par l’Anssi. En effet, les systèmes d’IA présentent “des vulnérabilités spécifiques, propres à leur architecture et à leur fonctionnement, qui reposent sur des algorithmes complexes et des jeux de données volumineux », d’après les auteurs du rapport. Les modèles en open source nécessitent également des mesures particulières. Il est par exemple recommandé de les télécharger via des sites réputés. Tous les composants tiers, tels que les bibliothèques de données, doivent aussi passer une évaluation de sécurité.
Trois grands types de cyberattaques possibles
De nombreuses cyberattaques peuvent avoir un impact sur les modèles d’IA. Le guide en recense trois principaux types : l’attaque par évasion, l’attaque Oracle et l’attaque par empoisonnement. Le premier type cible le modèle en production en modifiant les données d’entrée pour obtenir des prédictions erronées. Lors du deuxième type d’attaque, les cybercriminels exploitent l’accès au modèle pour en extraire des informations ou influencer son comportement. L’empoisonnement, lui, altère les données d’entraînement du modèle, ciblant sa phase d’apprentissage. Le guide recommande donc de protéger les données via la mise en place de mécanismes d’identification des données malveillantes. Une autre possibilité est d’entraîner le système à se protéger lui-même contre l’empoisonnement en l’entraînant sur des données empoisonnées.
Des techniques de restauration des systèmes
Le document fourni par le Campus Cyber renvoie également aux recommandations de l’Anssi pour les mesures spécifiques à l’IA. Il propose aussi une checklist opérationnelle de remédiation. Les techniques permettant d’identifier les menaces pesant sur les modèles s’y trouvent ainsi que des conseils pour restaurer les systèmes d’IA impactés. Les auteurs du guide conseillent particulièrement de mettre en place un retour d’expérience documentant les incidents afin d’affiner les stratégies de détection et de remédiation dans les organisations.