Deux ans après la sortie de ChatGPT et sa généralisation dans le monde de l’entreprise, le rapport de Capgemini sur l’impact de l’IA sur la cybersécurité illustre les deux pendants de cette nouvelle technologie. D’un côté, les nouvelles menaces que celle-ci émet et d’un autre, une opportunité pour de nouvelles stratégies de cyberdéfense.
92% des organisations interrogées en 2023 ont connu une faille dans leur cybersécurité contre seulement 51% en 2021. Deux ans après l’arrivée de ChatGPT, « il est clair que de nouveaux risques de cybersécurité apparaissent en raison de l’intelligence artificielle et de son pendant génératif (IAG) », explique le rapport de Capgemini publié ce 19 novembre. ChatGPT et ses semblables présentent notamment un risque dans les cas de Shadow IT, quand l’utilisation inappropriée de l’IA par les employés accroit le risque de fuite de données. On parle maintenant de “Shadow IA”. En 2023, un employé Samsung a par exemple faire fuiter un code source confidentiel en le mettant sur ChatGPT dans le but de résumer une réunion. En plus des erreurs humaines liées au manque de formation des collaborateurs , l’IA générative est un atout majeur lors d’attaques par ingénierie sociale comme le phishing. Il est de plus en plus difficile de distinguer le vrai du faux, pour des internautes enclins à livrer des informations personnelles. Un autre mal bien connu reste le recours aux deepfakes, qui marque le grand retour de l’arnaque au président qu’on croyait disparue. Plus de deux organisations sur cinq interrogées (43%) ont déclaré avoir subi des pertes financières suite à leur utilisation.
Une nouvelle forme de cyberattaque : Les « AI worms »
Parmi les différentes menaces, une des plus dangereuses pour les 1000 entreprises de l’étude utilisant l’IA pour leur cybersécurité ou l’envisageant reste les attaques par injection rapide. Utiliser des données malveillantes pour manipuler les modèles d’IA et d’IA générative et en compromettre l’intégrité fragilise la fiabilité de ces IA et demande des opérations de contrôle fréquentes. « Pour s’assurer qu’elles représentent un avantage significatif face à des menaces de plus en plus sophistiquées, les organisations doivent maintenir et prioriser une surveillance continue de l’évolution des menaces et de la cybersécurité, construire une infrastructure de gestion des données appropriée, mettre en place des cadres et lignes directrices éthiques pour l’adoption de l’IA, ainsi que des programmes robustes de formation et de sensibilisation de leurs employés, » déclare Marco Pereira, à la tête de la Cybersécurité des services Cloud Infrastructure du groupe Capgemini. Les chercheurs de l’Institut de Recherche de Capgemini s’inquiètent également d’une nouvelle forme de cyberattaques : les « AI worms ». Ces vers se répandent d’un système à l’autre, déployant des logiciels malveillants dans toute l’infrastructure numérique en misant sur l’interconnectivité des réseaux et compromettant ainsi la sécurité des données.
Des opportunités de nouvelles stratégies de cyberdéfense
Difficiles à détecter, ces attaques peuvent être personnalisées sur les habitudes d’un employé en particulier. Si la généralisation de l’IA augmente la vulnérabilité de l’entreprise aux cyberattaques, elle est aussi plébiscitée par les organisations pour leurs opérations de cybersécurité. Deux tiers de l’échantillon, choisi parmi 12 secteurs d’activités et 13 pays, la privilégie pour protéger leur système d’information. Elle permet de détecter et de répondre aux attaques grâce à sa capacité à analyser rapidement de grandes quantités de données, à identifier des schémas d’attaque et à prédire les violations potentielles. 61% des entreprises interrogées déclarent que, sans l’IA, elles ne seraient pas en mesure d’identifier les menaces critiques. L’IA permet donc une détection et une capacité d’intervention plus rapide. Plus de 60% de l’échantillon analysé ont signalé une réduction d’au moins 5% de leur temps de détection, et près de 40% déclare que leur temps de remédiation a diminué de 5% ou plus après la mise en œuvre de l’IA dans leurs centres d’opérations de sécurité (SOCs).
L’IA est symbole d’espoir pour trois organisations sur cinq (61%) qui considèrent l’IA comme nécessaire pour répondre efficacement aux menaces, et permettre la mise en œuvre de stratégies de sécurité proactives contre des attaques de plus en plus sophistiquées. Cependant le rapport intitulé « Nouvelles défenses, nouvelles menaces : ce que l’IA et l’IA générative apportent à la cybersécurité » pointe également les difficultés d’embauche de professionnels de l’intelligence artificielle. 63 % des organisations reconnaissent la difficulté d’intégrer l’IA générative dans leurs solutions de sécurité existantes en raison du manque de talents.