Le déploiement à grande échelle de l’intelligence artificielle repose avant tout sur une stratégie robuste de gestion des données. Lors d’un atelier organisé par Alliancy en partenariat avec Palo Alto, plusieurs chief information officers ont souligné l’importance de la centralisation et de l’harmonisation des données, condition indispensable à l’industrialisation des projets d’IA. La formation apparaît aussi comme un levier essentiel pour faciliter l’adoption et structurer les usages. Enfin, les coûts croissants des licences et l’incertitude sur la rentabilité des cas d’usage interrogent la pérennité des investissements réalisés dans l’IA.
Il ne peut y avoir de déploiement à l’échelle de l’IA sans une solide stratégie liée à la donnée. C’est par ces mots que plusieurs participants au workshop ont initié les échanges, rappelant les fondamentaux à maîtriser. « Il est nécessaire que vos données soient centralisées et harmonisées pour envisager de déployer des projets d’IA à l’échelle. La partie liée aux algorithmes et aux prompts est secondaire par rapport à la gouvernance de la donnée », déclare Thomas Masurel, Directeur IT & Data de Danone.
« La qualité de la donnée influence très fortement la qualité des résultats que fournissent les algorithmes d’intelligence artificielle. Chez nous, la gouvernance de la donnée est présente depuis longtemps, elle est liée à notre activité même d’opérateur télécom. Grâce à cette culture, les expérimentations et passages à l’échelle que nous avons mis en œuvre jusqu’à présent ont bénéficié d’une bonne qualité de donnée », ajoute Olivier Heitz, DSI de Bouygues Telecom. « La maturité d’une entreprise sur la donnée définit le niveau de qualité qu’elle peut atteindre. Sans maturité, les cas d’usage sont en échec ou demandent un tel niveau de préparation que toute mise en production ou mise à l’échelle s’avère impossible », complète Michel Delbecq, DSI Groupe d’Elis.
La formation, arme anti-rejet des solutions d’IA et catalyseur du passage à l’échelle
Autre écueil à éviter : le rejet des solutions d’IA par les collaborateurs. Des réticences peuvent en effet survenir, même quand l’entreprise est dans une démarche d’augmentation de ses salariés en leur fournissant des outils d’assistance qui automatisent certaines de leurs tâches répétitives. « Nous faisons un travail de pédagogie pour embarquer les collaborateurs dans leurs usages de l’IA. Par exemple, nous utilisons une IA pour résumer une conversation ou un appel entre un client et un conseiller (qui dure en moyenne 10 minutes). Les conseillers disposent ainsi d’un historique exhaustif de la situation quand un client appelle, et sont donc en mesure de fournir rapidement une réponse qualifiée et adaptée. Ils peuvent ainsi se concentrer sur l’échange et la relation émotionnelle avec le client. C’est une innovation utile pour les collaborateurs, qui gagnent du temps et disposent d’une synthèse très précise de la relation avec le client, et pour le client, à qui nous pouvons apporter une solution adaptée rapidement », commente Olivier Heitz.
Pour minimiser les risques de rejet, la formation est essentielle en interne. « Dans certains cas, l’acceptation des solutions d’IA passe aussi par la formation des collaborateurs. Cela concerne les entités qui travaillent avec nous sur la conception des solutions, comme le marketing, et celles qui les utilisent. Quand les programmes de formations sont là, il est beaucoup plus facile de travailler sur des cas d’usage et de les passer à l’échelle », précise Michel Delbecq. « Nous avons lancé un grand plan de formation à l’IA générative. Il s’agissait avant tout d’évangéliser, de faire en sorte que les salariés s’approprient le sujet, mais aussi de faire émerger de nouvelles idées. La formation est incontournable car, quoi que nous fassions, les collaborateurs y vont en mode ‘shadow AI’. Il faut donc les accompagner dans leurs usages pour pouvoir offrir les outils répondant aux besoins, sur les cas d’usage qui apportent une réelle valeur ajoutée », commente Christophe Boulaire, CIO / Executive Vice-President, Information Systems chez Sagemcom. Un point de vue que partage Christophe Huerre, VP CIO Group de Thales : « La formation valorise les utilisateurs, tout comme le fait de leur fournir des outils d’intelligence artificielle leur permettant d’être plus efficaces dans leur travail. Et dans tous les cas, il faut sensibiliser les collaborateurs au fait que, s’ils sont un jour remplacés, ce ne sera pas par une IA, mais par des professionnels maîtrisant les outils IA ».
Shadow AI : une vraie réalité ?
Sur la question précise du shadow AI (utilisation non contrôlée ou non autorisée d’outils d’IA par les salariés), Raphaël Marichez, Regional Chief Security Officer (France & Southern Europe) chez Palo Alto Networks, partage un avis qui peut paraître paradoxal : « En tant qu’expert en cybersécurité, je sais qu’on ne devrait pas se reposer uniquement sur la gouvernance des données pour éviter que les données ne ‘fuitent’ au travers du shadow AI. Encourager des expérimentations de l’IA en groupe, grâce à la force du collectif, en associant les différentes strates de l’entreprise, permet de détecter très tôt ces initiatives, de les faire sortir de l’ombre et de les accompagner », analyse-t-il.
Cela étant, pour plusieurs participants, à partir du moment où la couche de données est maîtrisée, le shadow AI ne porte pas à conséquence. « Quand vous disposez d’une plateforme de données globale et centralisée, le shadow AI ne doit pas vous inquiéter car, pour réaliser de vrais cas d’usage, les utilisateurs ont besoin de faire appel à vous. S’ils font du shadow AI sur des gains de productivité, les risques de fuite de données sont extrêmement faibles », déclare Thomas Masurel. Un avis qu’Olivier Heitz valide pleinement : « Je ne suis pas à l’aise avec la notion même de shadow AI. Chez Bouygues Telecom, nous croyons vraiment en l’apport de l’IA générative pour bouleverser nos métiers, comme un outil au service de l’humain. C’est pourquoi nous avons mis en place l’été dernier une IA Factory, au sein de notre Technopôle de Meudon. Cet espace accueille une trentaine de collaborateurs de différentes directions de l’entreprise (juridique, sécurité, data, achats, SI…) pour qu’ils puissent collaborer, innover et accélérer la mise en production de projets ambitieux en IA Générative, sur les technologies actuelles ou à venir. Tout cela dans un cadre sécurisé ».
Les cas d’usage actuels constituent-ils de réels investissements rentables ?
Par ailleurs, les participants au workshop ont évoqué l’augmentation du prix des licences comme potentiel frein au déploiement à l’échelle des projets d’IA. Pour un DSI, la moitié de l’augmentation de son budget en 2025 est due à l’augmentation des coûts de licences provenant d’éditeurs de solutions ERP, CRM… « Certains éditeurs, de manière très opportuniste, nous font payer les investissements qu’ils ont réalisés récemment sur l’intégration de l’IA dans leurs logiciels. Je vais donc devoir être encore plus attentif aux roadmaps IA en interne et sélectif dans le choix des fournisseurs », lance-t-il.
Enfin, la durée de vie des cas d’usage déployés peut également être source d’inquiétude : « Quand nous payons pour un projet d’IA qui est mis en production, nous avons pour le moment une idée très imprécise de sa durée de vie et de sa rentabilité. Les choses vont par ailleurs très vite : il faut constamment vérifier et mettre à jour les modèles, ce qui a un coût. Et de manière plus globale, nous déployons peut-être des cas d’usage que des éditeurs nous fourniront demain sur étagère. Je suis donc inquiet sur la durée de vie des investissements, qui ne sont probablement pas des investissements à proprement parler », conclut Michel Delbecq.