Le monde de l’informatique surfe régulièrement sur des grandes tendances technologiques. Malheureusement cette tendance des offreurs à s’approprier les buzzwords rend la compréhension de la technologie en tant que telle, très difficile pour les vrais professionnels, qui pourraient concrètement en tirer profit. La cybersécurité fait face à cette problématique depuis déjà plusieurs années avec l’intelligence artificielle…
A lire aussi : Dossier Cybersécurité, Le nouvel élan collectif
Si le terme intelligence artificielle est sur toutes les lèvres, ce n’est pas surprenant. En plus de nourrir nos fantasmes technosolutionistes, elle est aussi vectrice d’investissements très importants. En effet, les fonds dédiés se multiplient et prospèrent, citons l’exemple d’Allianz Global Intelligence AIH2R qui a vu ses performances bondir de +19,48 % de janvier à novembre 2019. Selon MMC Ventures, 40% des « spécialistes » européens de l’IA, n’en font pas réellement
Face à une offre pléthorique de solutions (intégrant réellement de l’intelligence artificielle, prétendant être « boostées à l’IA » ou juste estampillées IA pour mieux se vendre…), il est difficile pour un DSI ou un RSSI de savoir s’il a affaire à une société dont les prétentions sont « fondées ».
Il est tout d’abord important de souligner que l’IA est un terme imprécis. Au cours des différentes phases de l’innovation technique, notre compréhension de ce qu’elle signifie pour nous a considérablement changé depuis son introduction dans notre lexique en 1956 par John McCarthy, précurseur de l’intelligence artificielle. Lors de la première conférence universitaire sur le sujet, il la définissait comme l’ensemble des programmes informatiques capables de réaliser des tâches d’habitude attribuées à des humains.
Alors comment les professionnels de la sécurité peuvent-ils aller au-delà des mots pour identifier une véritable société d’IA ?
L’IA comme un outil, pas comme un but
Dans l’industrie de la cybersécurité, le nombre grandissant d’entreprises qui vantent leurs « capacités IA » crée un brouhaha, désavantageant les entreprises qui ont réellement investit des fonds dans l’IA au cœur de leur activité.
L’intelligence artificielle offre aux utilisateurs la possibilité d’accomplir des tâches à une échelle et à une vitesse que les humains seuls ne peuvent atteindre. Elle peut également tirer de nouvelles conclusions des tâches analytiques. Cependant, il ne s’agit pas simplement d’agréger de grosses bases de données et de les soumettre à des mathématiques avancées, ni de construire des algorithmes complexes. En plus de sélectionner des approches algorithmiques, le datascientist doit également gérer la conservation des données, la sélection et l’extraction des caractéristiques et la formation.
Dans le domaine de la cybersécurité, l’intelligence artificielle est employée pour automatiser les tâches de détection et de réponse à des signaux très subtils provenant d’attaquants dissimulés sur le réseau. L’industrie a besoin d’experts en cybersécurité pour émettre des hypothèses et valider les comportements et les techniques des attaquants en complément de datascientists. Ce n’est qu’en collaborant que ce dernier peut développer un algorithme efficace de détection des cyberattaquants. C’est la raison pour laquelle l’IA est un outil qui aide les équipes de sécurité, mais elle ne fait pas tout.
Bien implémentée, l’IA contribue aussi à combler le déficit de compétences et de ressources en matière de cybersécurité, en permettant à des analystes moins expérimentés d’entrer dans la profession et performer plus et plus rapidement.
Défier le brouhaha et repérer les vrais spécialistes de l’IA
Les DSI à la recherche de solutions de cybersécurité, par exemple, doivent apprendre à distinguer les entreprises utilisant réellement l’IA des imposteurs. Certains indices peuvent permettre de juger en amont des capacités réelles d’une entreprise en matière d’intelligence artificielle :
· Des preuves d’investissements à long-terme dans l’innovation et des résultats concrets. Un bon moyen pour cela est d’observer si l’entreprise a obtenu des prix pour des algorithmes qu’elle a créés, si elle a des brevets et si elle est nommée par des analystes reconnus de l’industrie ?
· Des témoignages de clients qui prouvent l’efficacité et la valeur revendiquées des solutions d’IA. Outre les études de cas des fournisseurs, les revues indépendantes vérifiées et les communautés d’utilisateurs constituent des sources très fiables.
· Le profil LinkedIn de l’entreprise et de ses employés. Si vous ne trouvez qu’un seul développeur sans expérience démontrable en machine learning, il est probable qu’il se soit appuyé sur une bibliothèque de machine learning open source…
· Les antécédents des équipes de direction : Ont-ils une expérience pertinente dans le secteur ? Quelle est leur réputation ? Où ont-ils réussi ?
· Le test d’une solution intégrant l’intelligence artificielle dans son entreprise est la meilleure façon d’avoir une preuve de sa fiabilité et de son utilité (Ce qu’on appelle un Proof-of-Concept). Cela permet de faire un benchmarking compétitif et de comparer les solutions entre elles.
Même si les DSI et RSSI doivent faire preuve de d’avantage de scepticisme lorsqu’ils entament des discussions ou des projets avec des entreprises prétendant avoir des capacités d’IA, dans l’ensemble, l’essor de l’intelligence artificielle est une évolution positive. En effet, elle permet de pallier la pénurie de compétences sur le marché du travail de la cybersécurité – rappelons qu’il y a urgence sur ce point puisqu’il pourrait manquer 3,5 millions de spécialistes cybersécurité dans le monde d’ici 2021 selon une étude de (ISC)² – d’alléger la charge de travail des professionnels et de leur éviter des tâches chronophages et répétitives. Autrement dit, l’IA est un enjeu crucial pour la sécurité des entreprises, et probablement l’une des réponses les plus adaptées à notre contexte actuel, dommage que le message soit devenu aussi difficilement lisible…