[EXCLUSIF] Les objets connectés sont omniprésents dans notre quotidien. Assistant personnel, jouet, casque de réalité virtuelle, Smart TV, etc. autant d’accessoires connectés que nous retrouverons encore au pied du sapin cette année. Le grand public se méfie peu de leur protection et du fait qu’ils puissent représenter une menace potentielle pour leurs données. Un quart des Français ne se pose d’ailleurs pas la question de leur sécurité lors de leur achat[1]. Comment pallier cette absence de réflexe sécuritaire ?
Nous avons un début de réponse avec l’arrivée sur le marché de nouveaux objets connectés, à l’image des robots et assistants personnels, qui s’appuient sur l’intelligence artificielle (IA) et sur des techniques d’apprentissage automatique pour développer leur savoir et l’enrichir à mesure des interactions et des informations perçues.
Ces technologies déjà éprouvées, notamment dans le domaine du e-commerce pour la personnalisation des techniques de vente selon les comportements d’achats des consommateurs, tendent à être de plus en plus appliquées au monde de la cybersécurité transposant la charge de la sécurisation de l’utilisateur vers l’objet lui-même.
Si l’intelligence artificielle est aujourd’hui utilisée pour faciliter le quotidien du grand public, pourra-t-elle demain assurer la sécurité de notre vie digitale ?
Le vol de données, les demandes de rançons, l’usurpation d’identité, etc. font partie de la réalité du monde numérique d’aujourd’hui.
LIRE AUSSI LE DOSSIER
Pour limiter tout risque, le consommateur est supposé faire preuve d’une vigilance de tous les instants. Au-delà de la protection de ses appareils, son comportement en ligne est une composante importante de la maîtrise du risque. Or, pour en finir définitivement avec les clics sur des liens malveillants, l’oubli des mises à jour logicielles, l’incapacité de détecter un faux site web, etc., un premier filtrage pourrait être opéré par un tiers numérique.
Développer des algorithmes favorisant l’application de l’intelligence artificielle à la cybersécurité grand public permettrait d’offrir une nouvelle forme d’assistance à travers des agents de sécurité ‘nouvelle génération’ qui seraient, via la gestion d’opérations récurrentes, responsables d’un premier niveau de protection de l’individu. Connexion à des réseaux sécurisés, réalisation de mises à jour, détection de sites et de contenus à risque, etc. pourraient par exemple être confiées à des assistants cyber personnels.
Cependant, si l’IA peut remplacer l’Homme dans ces démarches, elle ne pourra pas se substituer à lui dans sa gestion quotidienne du Net. L’individu aura toujours une part de responsabilité dans les informations et les contenus qu’il choisit de partager, les interactions en ligne qu’il réalise, etc. Et, dans cette perspective, un équilibre dans la collaboration Homme/machine sera indispensable à trouver pour ne pas totalement déresponsabiliser l’utilisateur.
Avant que les agents de sécurité personnels cyber ne prennent du service massivement, la protection des individus via celles de leurs appareils et objets connectés demeurent un impératif. De même, avant que la classification des données des individus ne soit intégrée par l’IA, elle doit déjà être, dans un premier temps, assimilée par l’Homme lui-même. Ce n’est qu’en ayant développé des algorithmes performants sur l’intégralité de la chaîne numérique, que l’intelligence artificielle pourra prendre le relais en matière de sécurité. Dès lors, le grand public sera libre de l’autoriser à assurer la protection de son identité digitale et de ses appareils connectés.
Ne perdons cependant pas de vue que si l’intelligence artificielle opère dans un mode défensif, elle peut également passer en mode offensif. L’enjeu pour les différentes parties prenantes restera alors de disposer d’une longueur d’avance.
[1] Etude 2017 – McAfee ‘Most Hackable Holidays Gift’