Alors que ChatGPT est considéré comme un véritable « game changer » par les directeurs des systèmes d’information (DSI), la question de la confidentialité des données et de l’adaptation de l’entreprise à ce nouvel environnement se pose.
>> Cet article est extrait du guide CIO & IA Générative à télécharger : face au tourbillon, les clés d’une adaptation rapide pour les DSI.
À l’occasion du premier Data Excellence Sprint d’Alliancy, événement qui a réuni une quarantaine de DSI et de décideurs technologiques le 21 novembre 2023 à Paris, le sujet de l’impact de l’IA générative (IAG) sur la direction des systèmes d’information et sur les entités métiers a été débattu lors d’ateliers.
L’IAG est-elle une technologie de rupture ? Même si la plupart des participants rappellent que ce n’est qu’une technologie d’IA parmi d’autres (sur laquelle de très nombreux chercheurs travaillent depuis plusieurs décennies), ils constatent qu’elle apporte de véritables nouveautés, notamment à travers les récentes avancées proposées par ChatGPT.
ChatGPT : un nouveau paradigme
« ChatGPT apporte une interface et une façon d’utiliser de l’algorithmique en temps réel qui sont de vraies nouveautés. Cela perturbe tout le monde, car ce n’était pas très visible jusqu’à présent. Et surtout, nous arrivons aujourd’hui à mixer plusieurs approches : texte, image, voix, compréhension, vidéo… Donc cela remue au sein même des métiers de la direction des systèmes d’information : génération de code, transcription d’un code à un autre… Et, dans les entités métiers, ces algorithmes vont donner lieu à une multitude d’usages, à des rythmes différents », déclare une participante qui évolue dans le secteur de l’énergie.
Un autre participant, dont l’entreprise est, elle aussi, dans le secteur de l’énergie, met en valeur des apports supplémentaires de ChatGPT : « Avant tout, c’est la manière dont nous lui parlons, via les prompts, qui a changé. ChatGPT se souvient par ailleurs du contexte de vos demandes. L’esprit de synthèse est également une nouveauté ; tout comme la créativité, c’est-à-dire la capacité à sortir de ce que vous lui avez donné comme informations quelque chose qui n’existait pas avant. Quand vous additionnez tous ces bénéfices, vous obtenez une technologie qui change tout », analyse-t-il.
La confidentialité des données au cœur des enjeux
Mais la confidentialité des informations injectées dans les large language models (LLM), et celle des informations qui en sortent, est un enjeu hautement stratégique. « La question est de savoir comment garder ses propres savoir-faire dans un contexte comme celui-ci. Parce que si vous demandez à ChatGPT d’analyser votre compte de résultat, par exemple, cela revient à le donner à votre concurrent direct », fait remarquer un participant.
Dans ce contexte, quelles sont les options qui s’offrent aux entreprises ? Une des participantes rappelle que nous possédons en France une réelle expertise, avec des start-up, comme LightOn, qui permettent de déployer son propre LLM au sein de ses infrastructures (en mode on-premise ou sur un cloud privé). Avec son modèle open source Alfred et sa plateforme Paradigm, LightOn fournit en outre aux entreprises des solutions d’IAG garantissant la confidentialité de leurs données.
Fine-tuning ou RAG ? Telle est la question…
Pour aller plus loin encore dans leur démarche et personnaliser les résultats obtenus, les entreprises peuvent mettre en place du fine-tuning. Cette pratique consiste à adapter un modèle de langage préentraîné à des tâches et des données spécifiques. Les bénéfices sont nombreux : les projets tirent profit des connaissances accumulées par le modèle, tout en obtenant des résultats plus précis.
Autre option : mettre en œuvre une architecture RAG (retrieval-augmented generation). Le RAG permet au LLM d’extraire des informations de sources externes, comme des corpus organisationnels ou des bases de données documentaires internes à l’entreprise. Le RAG permet ainsi au modèle de mieux comprendre le contexte des requêtes et de générer des réponses plus pertinentes.
Quelle place donner à l’IA ?
Mais au-delà des différentes options technologiques qui s’offrent aux entreprises, un acteur français de l’assurance se pose la question de savoir jusqu’où l’IA doit être mise en avant. « La vraie question qui nous taraude aujourd’hui est de savoir quelle place nous voulons vraiment donner à l’IA dans la relation à l’humain – à la fois vis-à-vis des conseillers en relation avec les sociétaires et dans la relation même avec ces derniers. Nous voyons bien qu’il serait aujourd’hui facile d’imaginer un avatar capable de prendre la place d’un conseiller sur les canaux digitaux. Mais est-ce réellement ce que nous voulons ? », confie-t-il.
Un autre participant remet, lui aussi, l’IA à sa place : « L’IA doit rester un copilote, c’est-à-dire un composant en apprentissage permanent, situé à côté du pilote, à savoir l’être humain. Il ne faut pas inverser les rôles. L’IA est une aide, un appui, nous devons constamment rester en mesure de la contrôler et de la maitriser. »
Le DSI, un garde-fou avant tout
Pour un autre participant encore, nous devons revenir aux fondamentaux : l’IAG n’est que du calcul de probabilités de mots. « Il n’y a aucune capacité de raisonnement et la technologie est soumise à des biais et des hallucinations. Le mot copilote est donc extrêmement bien choisi : il s’agit d’aide à l’être humain, pas de quelque chose qui va remplacer l’expert », note-t-il.
Ces réflexions en amènent d’autres, davantage centrées sur les nouvelles compétences qui vont émerger. « Les modèles divergent dans le temps, car les données et les pratiques bougent. Il faut donc développer des compétences capables d’évaluer un modèle, c’est-à-dire : de savoir si je peux lui faire confiance, d’identifier les biais et les moments de divergence. C’est une façon de penser très différente des pratiques IT traditionnelles », précise une des intervenantes.
Le mot de conclusion revient à l’un des participants : « Le rôle de DSI est celui de garde-fou. Nous retournons aux philosophes : ‘Qui gardera les gardiens ?’ Et attention de ne pas nous prendre pour des gardiens absolus nous-mêmes. »