retour d'expérience

La Poste mise sur Databricks Genie pour démocratiser l’accès aux données clients en langage naturel

Présenté lors des AI Days 2026 de Databricks, le projet “Talk-to-Data” illustre la stratégie Data/IA de La Poste autour d’un accès plus simple et plus rapide aux données de connaissance client.  

Publié le 13 avr.

Lecture 3 min.

Adobe Stock

À l’occasion des AI Days 2026 de Databricks, organisés au 28 George V à Paris, Elisabeth Stirling, directrice stratégie innovation Data/IA & culture connaissance clients de La Poste, et Eliott Legendre, principal AI engineer chez OpenValue, ont présenté un cas d’usage concret d’IA générative appliquée à la donnée métier. Baptisé “Talk-to-Data”, le projet s’appuie sur Databricks Genie pour permettre aux équipes du groupe d’interroger en langage naturel les données de connaissance client, sans passer par des requêtes techniques. Cette initiative s’inscrit dans le programme Data Cloud, l’un des piliers de la transformation Data/IA du Groupe La Poste. L’objectif est de rendre l’exploitation de la donnée plus intuitive et plus accessible aux équipes métiers. La première version de l’outil couvre les acheteurs professionnels 2023-2024, avec des analyses par offre, canal, zone géographique et segmentation par persona. Plusieurs démonstrations ont illustré ce positionnement. L’outil permet notamment d’identifier les gammes les plus achetées, d’analyser la répartition des acheteurs par persona ou encore de suivre l’évolution du volume de clients et du chiffre d’affaires. L’ambition n’est donc pas seulement d’accélérer la recherche d’information, mais de faire de la donnée un support direct à la décision.

Elisabeth Stirling, directrice Stratégie Innovation Data/IA & Culture Connaissance Clients chez La Poste et Eliott Legendre,  Principal AI Engineer chez OpenValue

Elisabeth Stirling, directrice Stratégie Innovation Data/IA & Culture Connaissance Clients chez La Poste et Eliott Legendre, Principal AI Engineer chez OpenValue

Tiago Gil / Alliancy

Des performances revendiquées au-delà des attentes, avec un enjeu fort de confiance 

Selon les intervenants, les premiers résultats dépassent les objectifs initiaux. Elisabeth Stirling et Eliott Legendre ont évoqué un taux d’exactitude supérieur à 95 %, des réponses obtenues en quelques secondes sur les requêtes simples, ainsi qu’un gain de temps estimé à environ 15 %. Les équipes parlent aussi d’un outil 10 à 20 fois plus rapide que d’autres solutions internes ou plus traditionnelles pour certaines analyses. La conférence a aussi insisté sur un point clé pour l’adoption : éviter l’effet “boîte noire”. L’interface reformule les questions, contextualise les réponses et permet de vérifier le périmètre exact d’une analyse. L’accès au SQL généré a également été mis en avant, notamment pour les data analysts, afin de comprendre le raisonnement de l’outil et d’ajuster la sémantique si nécessaire. Les intervenants ont par ailleurs rappelé que l’IA générative ne corrige pas les faiblesses structurelles de la donnée. Au contraire, elle tend à les rendre plus visibles. La qualité des jeux de données, la formalisation des définitions métier et la coopération entre équipes métiers et techniques ont ainsi été présentées comme des conditions essentielles au succès du projet. 

Une approche incrémentale avant l’industrialisation et l’extension des usages 

Sur la méthode, Elisabeth Stirling et Eliott Legendre ont décrit un développement mené “à petits pas”, avec un périmètre initial limité mais à forte valeur immédiate. Cette logique incrémentale vise à maintenir un rythme rapide, sécuriser la confiance des utilisateurs et valider chaque extension fonctionnelle par des tests humains, ensuite réutilisés pour constituer des jeux de tests automatisés. Le projet entre désormais dans une phase de pré-industrialisation, avec un travail sur les processus d’upload, d’ingestion, de contrôles de cohérence (“sanity checks”) et de rafraîchissement régulier des données. L’objectif est de faire basculer l’outil vers un véritable mode run, avec des données fiables et un cadre opératoire stabilisé. Les prochaines étapes portent sur l’élargissement du périmètre fonctionnel : intégration des clients particuliers, expérimentation sur des données issues de sondages, passage à une granularité journalière et développement de fonctionnalités d’automatisation pour les profils plus techniques. Les équipes ont aussi indiqué travailler sur un agent orchestrateur destiné à connecter Genie à d’autres outils internes, comme un GPT maison ou Jira.