A l’ère du Big Data et de l’analyse des données, l’Intelligence Artificielle (IA) s’impose comme l’un des piliers indispensables de l’informatique. Celle-ci permets d’automatiser certaines tâches que l’on pensait réservées à l’Homme.
Si cette technologie est répandue dans l’environnement professionnel, notamment dans les secteurs fortement numérisés, elle inquiète de plus en plus le grand public. Pertinence des résultats, suppression d’emplois ou perte de contrôle de l’Homme sur la machine sont autant de préoccupations.
Comment alors faire le tri entre les différents termes et applications de l’IA ? Entre fantasme et réalité, quelles sont les pistes concrètes pour l’apprivoiser ?
Si la notion d’IA est déjà familière à certains domaines (informatique, e-commerce ou finance), elle peut faire peur au plus grand nombre. En matière d’intelligence artificielle, il faut bien comprendre que l’on distingue deux grandes familles. D’une part, l’intelligence artificielle spécifique qui n’est autre qu’un programme informatique en charge d’une tâche précise telle la reconnaissance de caractère ou la reconnaissance de visages. Souvent appelé Machine Learning, elle permet notamment d’analyser un grand volume de données. D’autre part, l’intelligence artificielle généraliste qui applique seule son savoir a de nouveaux domaines. C’est l’exemple de Google Deep Mind qui a notamment battu l’Homme au jeu de Go puis aux échecs. C’est bien cette extension du domaine d’action associée à un apprentissage autonome qui est anxiogène. En cause, l’idée que, petit à petit, une machine puisse se passer totalement de l’Homme et étendre son pouvoir sur la société.
L’intelligence artificielle fait déjà des adeptes, à l’image du groupe Crédit Mutuel avec Watson. L’outil intelligent a en effet été implanté dans 5 000 agences auprès de 20 000 conseillers. Il s’occupe de trier les emails et d’aider les chargés de clientèle à répondre aux demandes les plus urgentes. Watson peut aussi prendre en charge la réponse aux questions concernant les produits financiers proposés par la banque. La domination de la machine sur les pans répétitifs de l’Homme est amorcée.
L’IA dans son ensemble peut-être très utile dans les taches qui nécessitent d’analyser un grand volume de données. En effet, le machine learning est particulièrement efficace quand il s’agit de détecter une fraude éventuelle ou de répondre aux questions les plus courantes via des chatbots par exemple. De même, dans la santé où l’IA peut éplucher des centaines d’articles de recherche médicale ou encore en cybersécurité lorsqu’un grand nombre de périphériques doivent être analysés. Effectuées à la main, ces taches nécessiteraient plusieurs personnes mobilisées pendant de longues heures. Ainsi, les ressources peuvent être redirigées sur des postes à plus forte valeur ajoutée pour le business de l’entreprise et qui nécessitent une compréhension du contexte et une vision stratégique qu’une machine ne peut pas fournir.
Prévenir des inquiétudes passe par l’information. Un développement de l’IA le plus transparent possible est indispensable. Tout d’abord, il s’agit de rappeler que le machine learning fonctionne dès lors qu’un humain a assemblé une masse très importante d’informations et leur réponse attendue (par exemple une bibliothèque d’images et l’animal présent pour chaque). La machine se base ensuite sur cet apprentissage pour donner des réponses sur de nouvelles données (dans ce même exemple, des photos soumises par les internautes). L’Homme reste aux commandes en concevant l’architecture de cette IA, en créant et en lui soumettant les données d’apprentissage.
Si l’utilisation de l’intelligence artificielle n’est pas nouvelle, elle inquiète plus de par sa médiatisation. Il y a une décennie, Google fut l’un des premiers à l’employer pour parfaire les résultats de son moteur de recherche, sans que cela soit, à l’époque, controversé. Pour autant, il est important de rappeler que la technologie n’a toujours pas pris le pas sur l’Homme. A l’heure de la course à l’intelligence artificielle, le défi n’est pas tant de mesurer si elle est une menace mais plutôt d’en saisir le potentiel. En effet, une technologie performante et maîtrisée, se basant sur les données les plus pertinentes possibles, peut apporter de réels bénéfices tant pour les entreprises que le grand public.