Dans le domaine du décisionnel, de nouveaux majors sont apparus ces dernières années qui ont largement bousculé Teradata. Depuis, la société a fait sa mue et propose des offres « managées » pour l’analytique à grande échelle, on-premise, mais de plus en plus dans le Cloud. Entretien avec Jean-Marc Bonnet, directeur technique de Teradata France.
Alliancy. De plus en plus d’entreprises cherchent à profiter des avantages de l’analyse de données, mais le chemin pour y parvenir semble difficile et les désillusions nombreuses… Qu’en pensez-vous ?
Jean-Marc Bonnet. Il faut une plateforme data de qualité pour faire de l’analytique ! Et, dans ce domaine, il y a eu trop de mots « magiques » à la mode ces dernières années… « Datalake » en fait partie par exemple : on va le mettre en place, y rentrer des données et cela répondra aux questions métiers… Sur les promesses de ces approches, il y a eu une désillusion totale, car la gestion de la donnée a été complètement négligée.
Un problème qui s’est encore amplifié avec la vague d’adoption d’outils en open source… qui n’ont pas la même robustesse en termes de multi-usages, multi-requêtes. C’est très bien pour travailler sur des nouveaux types de données (non structurées par exemple), sur lesquels on va aller développer de nouveaux modèles… Mais ce sont des systèmes complémentaires des modèles traditionnels ou structurés.
Chacun avait donc mis ces outils d’analyse en place, mais reste encore à trouver la cohérence entre ces systèmes utilisés par des milliers d’utilisateurs… Le Data Management, c’est autre chose… Il faut disposer de données de qualité et savoir ce que l’on va en faire, qu’elles soient structurées ou non. Cela nécessite d’y porter de nombreux efforts, car c’est compliqué notamment quand on a de nombreux silos d’informations dans l’entreprise…
En est-il de même pour l’intelligence artificielle ?
Jean-Marc Bonnet. Il y a eu beaucoup de succès pour prototyper de nouveaux algorithmes dans les laboratoires… mais là où il y a eu de nombreux échecs chez nos clients, c’est dans l’industrialisation de cette intelligence… Comment je l’inscris dans des processus… Comment je l’actionne dans la relation client, dans la gestion des stocks ou dans la détection de la fraude par exemple…
Et comment ce problème se résout-il aujourd’hui ?
Jean-Marc Bonnet. Pour mieux gérer cette donnée et y mettre de l’ordre, il faut disposer d’une plateforme fonctionnelle, dans le cloud ou hybride en fonction de ses besoins, afin d’éviter les silos de données…
C’est donc un retour au basique que vous prônez…
Jean-Marc Bonnet. En effet. Il y a tout un chantier à mettre en place pour revenir au basique. A partir d’une base de données correctement structurée, je vais factoriser mes usages sur cette même version de données. L’idée étant de mettre en cohérence les données entre elles… Le chantier n’est pas technologique, mais peut-être de reconverser sur des bases plus saines autour de cette donnée. L’analytique ne sera efficace pour les métiers qu’à cette condition.
Une étude réalisée par Vanson Bourne pour Teradata auprès de 700 responsables technologiques de grandes entreprises mondiales affirme que 69 % des organisations envisagent de réaliser toutes leurs analyses de données dans le cloud d’ici à 2023. Et 91 % des répondants estiment que la migration des analyses vers le cloud public n’est pas assez rapide.
Par rapport à cette problématique, où se situent les entreprises françaises ?
Jean-Marc Bonnet. Mondialement, y compris en Europe, les entreprises reconnaissent que la gestion de la donnée (ou data management) a été négligée. Elles remettent donc un effort là-dessus, avec une gouvernance plus forte, mais qui reste très agile. C’est-à-dire que la data platform fonctionnelle doit servir à la recherche, mais une fois que les bons algorithmes sont trouvés, il faut pouvoir les déployer rapidement à l’échelle. Il faut pouvoir démocratiser vite cette connaissance dans l’entreprise.
C’en est donc fini du data lake ?
Jean-Marc Bonnet. Non, ce n’est pas qu’il n’a pas sa place… Mais il n’est pas la réponse suffisante aux besoins des grandes entreprises. Il y a une architecture de la donnée et des fonctions à mettre en place qui nécessitent une certaine cohérence et organisation. Il faut faire en sorte que cette data platform soit suffisamment agile et accessible pour que l’on puisse innover. Il faut aboutir à un outil bimodal qui permette l’innovation et donne l’autonomie aux métiers.
Qui pilote cette data platform ?
Jean-Marc Bonnet. Le Chief Data Officer et la DSI évidemment. Mais, à la fin, il ne faut pas oublier qu’elle est faite pour les métiers également. Il faut en sortir de la valeur… On doit donc permettre le dialogue avec cette data platform avec tous types d’outils pour réduire la distance entre les métiers et les data scientists… Robuste, elle doit donc être permissive au maximum pour mener l’analytique et obtenir de la valeur métiers. C’est là où l’écosystème partenaires est très important.
Teradata est un acteur américain qui évolue sur le marché de la donnée décisionnel depuis 40 ans. A l’origine sur du hardware, c’est aujourd’hui une société software (données, requêtes, analyses…), dont les solutions sont de plus en plus proposées sur le Cloud public (AWS, Teradata Cloud, Microsoft Azure, Google Cloud).