Détection, rapport d’alertes pour la défensive, sophistication et multiplication des attaques pour l’offensive, l’IA se dédouble en matière de cybersécurité. Attaquants et défenseurs rivalisent d’intelligences artificielles pour seconder, inspirer, préciser les intelligences humaines dans une lutte qui n’en est qu’à ses prémices.
Elle a la couleur de l’IA, le goût de l’IA, mais ce n’est pas toujours de l’IA. Pour Christophe Casalegno, infogéreur et hacker, il convient de s’entendre sur le terme IA qui est parfois employé abusivement en cybersécurité : « Il y a un nombre de solutions qui se réclament de l’IA, mais se révèlent en fait des algorithmes conditionnels classiques qui vont détecter des menaces, et en fonction de cela et d’une mise en corrélation d’évènements, vont prendre une décision, comme mettre en place une sécurité ou faire un rapport d’alerte ». Même en offensif, avec des techniques complexes installées par des vers élaborés où le script est capable d’analyser les vulnérabilités locales, aller faire une recherche sur Internet pour télécharger le bon exploit, l’utiliser et faire un gain de privilège, en réalité, l’infogéreur nous précise que « ce n’est pas de l’IA, juste de l’algorithme conditionnel. »
Cette précision sémantique effectuée, que sont capables de réaliser actuellement les véritables IA défensives et offensives ?
Le droit de se tromper en attaque
En matière défensive, l’avantage premier des algorithmes d’IA est de détecter dans un gros volume de données des patterns que l’humain ne voit pas, mais pas forcément d’associer en concluant que ce pattern est un problème. Christophe Casalegno nous cite un exemple : « Je m’en étais servi pour rechercher des fraudes financières. On sait que s’il y a telles ou telles variations sur un compte bancaire, ça peut être louche. Donc on va entraîner l’IA d’abord manuellement en lui disant, ça c’est bien, ça c’est louche, ça c’est bien, ça c’est louche, etc. avec une multitude fichiers ». L’IA peut aussi faire de l’analyse de données ou de logs. « Nous avons développé un système pour un client qui travaille avec des banques. C’est un système qui apprend tout seul, qui détecte ce qui se passe dans le trafic, qui utilise vraiment de l’IA », commente le hacker et infogéreur.
En matière offensive, le grand avantage de l’attaquant est qu’il a le droit de se tromper. Parce qu’en défense, ce que l’on peut faire c’est reconnaître des attaques et éventuellement déployer des parades, alerter ou édicter des règles temporaires qui vont, par exemple, commander un firewall. « Mais, le problème de l’IA défensive est que si elle se plante, si elle révèle un faux positif, elle peut décider de changer les règles de tous les pare-feux. C’est pourquoi, nous ne donnons jamais le droit à une IA d’activer un pare-feu. Nous sommes face à un risque hallucinatoire. Cela peut fonctionner 1000 fois et la 1001ème fois, l’IA va détecter une menace qui n’existe pas et changer d’un coup les règles de tous les pare-feux », explique Christophe Casalegno. Mais en attaque, ce problème n’existe pas, car si l’IA se plante, il n’y a pas de conséquences pour l’attaquant. Quel est en effet le problème d’une attaque non réussie ? Il suffit d’en lancer une autre.
L’IA générative réduit la barrière d’entrée
Chez Orange Cyberdefense, l’utilisation de l’IA et notamment la générative impacte le cyber à trois niveaux. Premièrement pour les attaquants, ce que l’on constate, c’est que comme pour un utilisateur lambda qui utilise ChatGPT ou Copilot, il existe aussi des IA génératives malveillantes disponibles dans le Dark Web : « La fonction de l’IA générative pour les attaquants va être de réduire la barrière d’entrée en permettant à des attaquants de générer des scénarios d’attaques complexes. La conséquence, c’est la prolifération des attaques. De plus, les LLM permettent d’adresser les attaques par zone géographique en utilisant leurs qualités de traduction », témoigne Kader Seddak, directeur commercial du Cloud Security de l’entreprise française. Deuxièmement, nous assistons à des attaques de plus en plus sophistiquées et personnalisées avec l’IA. Par exemple, le contenu des campagnes de phishing est nettement amélioré avec elle, sans faute de syntaxe ou de grammaire et aussi mieux ciblé. Ce qui rend la détection encore plus difficile. Le troisième impact est le développement de nouveaux types d’attaques avec les Deep fakes. Il est possible de générer des voix de manière remarquable. Au mois de février dernier, une attaque au président d’un nouveau genre s’est déroulée faisant pour victime un employé d’une multinationale de Hong Kong. Ce dernier a été invité à participer à une réunion Teams avec de nombreux participants durant laquelle on lui a demandé d’effectuer quinze transactions sur cinq comptes locaux d’un montant de 24 millions d’euros au total. Un policier de Hong Kong a déclaré : « Je pense que l’escroc a téléchargé des vidéos à l’avance et a ensuite utilisé l’intelligence artificielle pour ajouter de fausses voix à utiliser lors de la vidéoconférence. » Nicolas Arpagian, vice-président Cybersecurity Stratégy & Digital Risks du cabinet de conseil HeadMind Partners, confirme que la qualité de ces fraudes d’usurpations d’identité va crescendo. « Ce que l’on arrive très bien à faire aujourd’hui, c’est la copie de voix. La vidéo et l’image demandent un peu plus de travail. Ce qui est un peu plus compliqué c’est quand la vidéo est en direct. » Et s’il fallait trouver un terrain d’affrontement direct, c’est en matière de Deep fake que IA défensives et offensives se tirent la bourre, selon nos trois experts.
S’agissant de l’IA défensive, le directeur commercial d’Orange Cyberdefense, distingue l’IA au service de la sécurité et la sécurité au service de l’IA. La première signifie que l’on ne peut combattre l’IA que par l’IA. Puisque les attaquants utilisent l’IA pour augmenter leurs capacités, utilisons l’IA pour augmenter nos capacités de défense : « Identifier un Deep fake par un humain est quasi impossible, donc il y a déjà des logiciels d’identification de Deep fakes par les éditeurs, aussi bien pour la voix que pour la vidéo ».
Nouvelles menaces
Orange Cyberdefense utilise ainsi dans son Security Operational Center l’IA générative pour augmenter la capacité de détection et celle de nos analystes qui peuvent ainsi traiter des tickets d’incident plus rapidement et plus efficacement. Ce qui est un peu le nerf de la guerre pour toute entreprise de cybersécurité puisque règne dans le secteur une pénurie d’analystes sur le marché car les attaques sont de plus en plus nombreuses et les profils adéquats trop rares. L’IA vient donc donner un coup de main chez la multinationale française qui l’utilise déjà pour faire de la détection de menaces avancée, c’est-à-dire comme moteur d’identification des signaux faibles.
En ce qui concerne la sécurité au service de l’IA, les clients d’Orange Cyberdefense, que ce soit dans la finance et l’industrie, déroulent de plus en plus de projets d’IA et notamment générative. Or ces projets induisent de nouvelles menaces, comme par exemple, le data poisoning, c’est-à-dire comment l’attaquant peut empoisonner des données, qui sont considérées comme l’oxygène de l’IA, pour altérer le modèle d’IA par prompt injection. Au moment du prompt, on induit en erreur le modèle pour vicier ses réponses. Kader Seddak informe ainsi : « Nous conseillons à nos clients d’accompagner le déploiement de leur solution d’IA avec une analyse de risques. » La norme ISO 23-894 est relative à ces questions.
Protéger les données, mais aussi les codes. Les experts d’Orange Cyberdefense sécurisent aussi le code python des projets IA.
Utiliser l’IA pour garder ses employés
L’IA possède des ressources insoupçonnées. Chez HeadMind Partners, ils ont fait le constat, comme beaucoup, que face à une demande en cybersécurité accrue et une pénurie de compétences, les équipes RH s’inquiètent de la sollicitation des équipes IT pour des raisons anecdotiques et chronophages. Car s’ils s’ennuient, ils s’en vont : « Si on enferme les collaborateurs dans des tâches nécessaires mais pas passionnantes, ils vous quitteront. Nous avons donc créé une IA exclusivement consacrée à la cybersécurité. Nous l’avons déployé pour ne parler que cyber d’un point de vue technique et juridique, en fournissant les sources. Finalement, l’IA permet de garder ses compétences IT », détaille Nicolas Arpagian.
Un autre problème de sécurité concerne les fuites de données, comme celle, médiatisée, des ingénieurs logiciels de Samsung qui ont divulgué l’année dernière des données sensibles de leur entreprise en collant du code propriétaire dans ChatGPT. HeadMind Partners a donc conçu une IA en addon pour contrôler que les données injectées dans les IA génératives ne soient pas confidentielles ou sensibles.
Les raisons d’utiliser IA défensive et offensive sont nombreuses, nécessaires et structurelles, mais nous n’avons encore rien vu.