La capacité à traiter le langage naturel (comprendre : notre langage de tous les jours) représente un enjeu colossal pour les entreprises. Alors que leurs activités reposent largement sur des documents et des échanges écrits (avec l’email et les bases documentaires pour grands champions), celles qui sauront interpréter automatiquement ces données dites « non structurées », en extraire, en catégoriser et en analyser les éléments de sens, bénéficieront aussitôt d’un avantage concurrentiel décisif. Et c’est d’ores et déjà possible grâce à l’intelligence artificielle (IA). Killian Vermersch, CTO et co-fondateur chez Golem.ai, nous livre son analyse.
De l’épluchage des emails clients à l’examen de dossiers techniques, les cas d’usage sont innombrables. Prenons l’exemple d’un prestataire de services aux entreprises. L’analyse du contenu des appels d’offres qu’il reçoit peut lui permettre de ne sélectionner que les plus intéressants. Libérées de lectures inutiles et fastidieuses, les équipes consacrent davantage de temps à leur réponse, maximisant ainsi leurs chances de l’emporter.
A lire aussi : Le rIAlity Lab d’Aix-Marseille vise à démocratiser l’intelligence artificielle
Enfin, à partir des données extraites, les data scientists pourront dans un second temps déterminer les tendances ou les facteurs clés qui permettront d’affiner l’offre dans le futur. Efficacité du processus, rentabilité du modèle d’affaires, intérêt du travail pour les collaborateurs, dynamique d’amélioration continue : ce simple exemple laisse entrevoir toute l’étendue des bénéfices du traitement automatisé de l’écrit.
Le traitement automatique des langues (TAL, Natural Language Processing, NLP en anglais) est l’un des plus vieux sujets de recherche de l’intelligence artificielle, à laquelle il a fourni dans les années 1960 l’une de ses premières réalisations, l’agent conversationnel Eliza. Il comprend plusieurs domaines dont la traduction automatique, la génération de texte et la compréhension (Natural Language Understanding, NLU). C’est cette dernière discipline qui nous intéresse ici. De même que la linguistique est marquée par le débat entre les visions antagonistes de Noam Chomsky et de Jean Piaget, le NLU voit s’affronter deux approches radicalement différentes, l’IA symbolique et l’IA probabiliste. Pour faire émerger le sens, la première mise sur le raisonnement, sur le respect d’un ensemble de règles prédéfinies, tandis que la seconde se base sur l’identification de schémas récurrents et leur probable répétition.
L’IA symbolique présente énormément d’avantages. Tout d’abord, sa performance est sans limite puisque les règles, très stables s’agissant du langage, peuvent toujours être affinées et enrichies. C’est aussi une méthode transparente, qui explique ses résultats. Elle ne requiert que peu de ressources de calcul (un avantage tant économique qu’écologique) et peu de données, ce qui la préserve relativement des cybermenaces et des contraintes réglementaires (RGPD). Enfin, et surtout, c’est une méthode qui fonctionne et qui donne d’excellents résultats, d’ores et déjà supérieurs à l’humain, puisque la machine ne se trompe pas, n’oublie pas, ne fatigue pas.
A lire aussi : [Interview Benoit Tiers] C’est grâce aux efforts de normalisation que les projets data apportent toute leur valeur
En face, l’IA probabiliste souffre de plusieurs handicaps, particulièrement pénalisants sur ce sujet : son besoin de quantités énormes de données, sa gourmandise en puissance de calcul, son opacité quant à la manière dont le résultat a été obtenu. En revanche, elle dispose de la force de frappe inégalable des GAFAM, qui ont poussé partout cette méthode qui correspond à la fois à leurs atouts, à leur modèle économique et à leur culture. Tant et si bien que, sous l’appellation Deep Learning, l’IA probabiliste est aujourd’hui devenue synonyme d’IA tout court, éclipsant pratiquement sa rivale symbolique dans l’esprit du public. Pourtant, aussi pertinent soit-il sur certains problèmes, comme la reconnaissance d’image ou la prédiction de pannes, le Deep Learning ne saurait être considéré ni comme la panacée, ni comme la seule voie pour l’IA.
L’histoire des technologies est jalonnée de luttes où l’ont emporté non pas les meilleures solutions, mais celles qui bénéficiaient du meilleur marketing. Aujourd’hui, cela pourrait se reproduire avec le Deep Learning. Et tout le monde en pâtirait car ce sont uniquement les travers du Deep Learning qui freinent l’acceptation et l’essor de l’IA. Répétons-le : l’IA symbolique est une IA explicable, maîtrisable, qui ne reproduit pas les biais du passé et qui n’engloutit pas des quantités astronomiques de données et d’énergie.
Le traitement automatique des langues pourrait donc se révéler un champ de bataille décisif pour l’avenir de l’IA. Si l’IA symbolique s’y imposait, comme le justifieraient ses atouts, cela mettrait un coup d’arrêt à l’hégémonie du Deep Learning. Surtout, cela changerait la perception de l’IA, qui redeviendrait cette très riche boîte à outils dans laquelle les entreprises peuvent choisir l’approche – symbolique, probabiliste ou mixte – la plus adaptée à leur problème.