Alors que l’on crie à qui veut l’entendre depuis quelques semaines que ChatGPT et les autres systèmes d’IA générative accuseraient pour la première fois une baisse d’intérêt de la part du grand public, leur potentiel reste encore majoritairement inexploité. Bien sûr, ces derniers présentent encore des limites pour une exploitation dans le contexte de l’entreprise. Qu’il s’agisse d’« hallucinations », de désinformation, de préjugés ou d’un manque d’explicabilité, l’utilisation de l’intelligence artificielle (IA) dans le contexte des « grands modèles de langages » (Large Language Models ou LLM) relève davantage de la curiosité que du substantiel. Nicolas Rouyer, consultant senior avant-vente chez Neo4j, nous livre son analyse.
Il y a là un débat à mener. Quoi qu’il en soit, l’IA générative a encore une belle marge de progression pour offrir une véritable visibilité et instaurer de la confiance. Mais pour jeter les bases de cette démarche, nous devons être clairs sur ce que ChatGPT et ses producteurs de textes LLM ne sont pas. Ces derniers ne sont pas assez sensibles et ne peuvent pas remplacer entièrement la nécessité pour vous et moi de rédiger des articles, des essais ou des brochures, même s’ils peuvent nous aider dans les tâches de rédaction initiales.
A lire aussi : Intelligence artificielle générative : les entreprises peuvent-elles dépasser une stratégie centrée sur la productivité ?
Et comme la technologie a assimilé de nombreux exemples de code informatique, elle constitue également une ressource précieuse pour améliorer l’efficacité des développeurs. Mais au-delà de faciliter la génération de codes et de textes, pour exploiter pleinement la puissance de l’IA générative, nous devons former sa prochaine génération sur des données commerciales structurées et de haute qualité, plutôt que de nous fier à « ce qui existe » gratuitement sur internet.
Et l’un des meilleurs moyens pour y parvenir serait d’utiliser un graphe de connaissances comme support et interface. Cette approche est la meilleure façon de parvenir à l’explicabilité, à la conformité et à la reproductibilité, tout en offrant aux concepteurs de systèmes les nombreux autres avantages qu’apportent les graphes de connaissances et la science des graphes.
Dans les faits, les entreprises commencent à adopter davantage cette approche. Pour prendre un exemple concret, une société pétrolière et gazière de Singapour a essayé un LLM pour ses recherches à l’échelle de l’entreprise, mais comme l’IA ne savait pas ce qu’elle cherchait, les résultats n’avaient qu’une valeur limitée. Toutefois, en utilisant des graphes pour donner du contexte, l’entreprise a été en mesure d’accroître la précision et la pertinence de son IA.
Et cette démarche est à la portée de n’importe quelle organisation : qui peut alors accumuler un volume important de données textuelles, qu’elles soient externes (relatives au marché spécifique) ou internes (telles que des catalogues de produits).
La clé pour en finir avec les erreurs de ChatGPT ?
C’est ce qu’on appelle dans le jargon scientifique SLM pour « small language model », qui sera bientôt très répandu dans les applications industrielles et commerciales.
A titre d’exemple, un e-retailer peut se servir de cette approche et incorporer toute la documentation de ses produits à partir de ses bases de données, la charger dans ChatGPT et offrir à ses clients un chatbot conversationnel interactif qui maitriserait toute cette complexité.
Les DSI devraient regarder au-delà des spéculations fantasques à propos de ChatGPT et se concentrer sur l’exploration du potentiel inexploité de leurs entrepôts de données internes en appliquant les LLM et en construisant des graphes de connaissances à l’aide d’algorithmes de science des données de graphes. Ils n’ont alors plus qu’à réinventer le champ des possibles.