En organisant l’édition 2025 de son événement Excellence Sprint Data, Alliancy a interrogé une trentaine d’organisations sur leurs priorités en matière d’implémentation de l’intelligence artificielle générative et agentique. Un sujet qui a de nouveau fait ressortir l’importance des enjeux de relation « IT-métier », mais aussi de savoir gérer les attentes et les promesses.
Le 3 juin 2025, Alliancy organisait son Excellence Sprint Data 2025, un événement confidentiel réunissant une trentaine de décideurs Data et IT de grandes organisations. L’objectif : identifier les leviers d’impact pour passer de l’expérimentation à l’industrialisation de l’IA, à travers un dialogue de fond entre pairs. Le format, construit en ateliers suivis d’un dîner-débat, a permis une confrontation directe des visions, retours d’expérience et convictions de terrain. Les échanges ont été nourris par quatre Team Leaders : Caroline Connan (Forvia), Christophe Bonnefoux (BNP Paribas Factoring), Jean-Loup Loyer (Eramet) et Caroline Fischer (Bristol Myers Squibb). Les réflexions des participants ont également été alimentées par les expertises apportées par les partenaires de l’événement : Elastic, Scality et le groupe Open. Après une session de pitch dévoilant leurs convictions sur le sujet, les représentants de ces spécialistes ont tourné entre les différentes tables lors du dîner-débat pour se confronter aux questions et visions des Chief Data Officers réunis.
Comprendre les modèles
En préambule, les deux ateliers se sont concentrés sur deux angles d’analyse complémentaires : les méthodes pour favoriser l’innovation et l’engagement des métiers dans les projets IA d’une part, et les priorités pour passer l’IA à l’échelle. Dans les deux cas, les partages d’expériences avaient vocation à mettre en exergue les priorités d’investissement, les bonnes pratiques à recommander et les écueils ou questionnements qui persistaient. Comme l’ont prouvé les discussions à table avec tous les participants, de nombreux sujets se retrouvent à l’intersection des deux thématiques des ateliers. Par exemple, l’implication des métiers dès le début des projets paraît être une condition sine qua non à la fois pour favoriser l’innovation et l’industrialisation. « Si les métiers ne comprennent pas le modèle, ils ne l’utiliseront pas », a ainsi insisté l’un des participants.
Éviter les sur-promesses
Parmi les défis à relever identifiés par les intervenants pour favoriser l’engagement des métiers, l’un s’est par ailleurs particulièrement démarqué : la gestion des attentes créées par la démocratisation de l’IA générative. En la matière, éviter les sur-promesses paraît essentiel. Ne pas survendre les capacités de l’IA, que ce soit en interne ou du fait de l’action de consultants externes, demande un effort particulier pour éviter les déceptions et la défiance. De même, acculturer et former pour mieux expliquer les contraintes et les limites de l’IA est nécessaire pour faire face aux effets « wahou » des usages grand public. Au risque, sinon, d’avoir de forts effets déceptifs lors des premières erreurs du système.
Qualité des données et robustesse des plateformes data
Plus généralement, les participants ont appelé à un pilotage plus fin des projets IA. « L’innovation IA ne se pilote pas avec des KPI financiers, mais avec des indicateurs de transformation », a par exemple fait remarquer l’un d’entre eux. Les organisations ont donc tout intérêt à développer un argumentaire autour des projets qui dépassent les seuls axes de réduction de coûts, pour se concentrer sur la valeur créée et les nouvelles capacités fournies par l’IA. Parmi les exemples mis en avant : la supervision avancée de situations complexes, par exemple de cyberattaques, pour filtrer et analyser un volume d’information ingérable humainement, ou encore la facilitation de l’appropriation d’autres technologies et de montées en compétences des collaborateurs.
Enfin, tous les acteurs ont reconnu que la capacité d’une organisation à innover et à industrialiser ses projets dépendait très fortement de sa maturité en matière de gouvernance des données. La qualité des données, leur accessibilité, mais aussi plus globalement la robustesse de la plateforme data sur laquelle pourront s’appuyer les métiers sont autant de points décisifs pour pouvoir réaliser un passage à l’échelle. Et sur le sujet, de nombreuses organisations estiment avoir des marges de progression importantes. Reste une question : à quelle vitesse seront-elles capables d’amener des changements qui leur ont posé des difficultés depuis des années ? Peut-être que les attentes créées par l’IA au niveau des directions générales créeront enfin l’électrochoc nécessaire pour affronter ces problématiques sur lesquelles les Chief Data Officers appellent à une prise de conscience depuis des années.
Des partenaires engagés :
Sophie Troistorff, directrice générale France d’Elastic a trouvé important de débattre avec les participants des enjeux de souveraineté, d’efficience opérationnelle et de la réversibilité technologique. Sa posture : « Proposer une IA gouvernable, explicable, et économiquement soutenable. » Elastic a partagé des cas concrets dans différent secteur illustrant la vision de l’entreprise d’une IA pragmatique, intégrée à la production, sans dépendance opaque.
Jérôme Lecat, CEO de Scality a mis en avant les enjeux de résilience technologique et de maîtrise des données critiques. Avec un message : « Penser l’architecture comme un levier stratégique et non comme une simple commodité » pour insister sur les principes de souveraineté numérique non comme posture, mais comme capacité effective à décider où sont les données, qui y accède et à quelles conditions.
Pour le groupe Open, Manuel Pennequin et Stéphane Lefevre ont détaillé la nécessité d’une approche de confiance dans le cloud et l’IA. Ils ont partagé leurs réflexions sur l’importance de la sécurité embarquée dès l’amont des projets IA, et sur la montée en compétence progressive des écosystèmes clients, en donnant des exemples d’initiatives sur lesquelles leur entreprise était engagée.