Pour Yves Darnige et Denis Skalski de Kyndryl, le data mesh, combiné à une data fabric, est l’opportunité pour les métiers de construire une cogestion des usages de la donnée avec l’IT et le CDO. Cependant, l’ownership métier ne se décrète pas.
>> Cet article est extrait du carnet d’expériences à télécharger : Modernisation des plateformes de données : les meilleurs accélérateurs des grandes entreprises
En quoi le concept de data mesh peut-il intéresser Kyndryl ?
Denis Skalski. Les lectures du data mesh et de ce qu’il recouvre sont assez diverses. Pour nous, il s’agirait plutôt d’un sous-système d’une data fabric. Pour disposer d’un data mesh fonctionnel, il est nécessaire de bâtir des fondations, maîtrisées par l’IT, et sur lesquelles s’appuient les différents mesh.
Comment définissez-vous cette data fabric ?
Denis Skalski. C’est un système à part entière, que nous considérons comme une couche fédératrice des données d’entreprise. Si on se projette, à terme, ce sont toutes les données qui transiteront par la data fabric, pour être notamment qualifiées, documentées, gouvernées, etc.
Pour cela, la data fabric est construite sur une architecture urbanisée qui intègre toutes les fonctions de transport, de stockage, d’expérimentation, d’exploitation et de maîtrise de la donnée, dont celle d’intégrité fonctionnelle, à mon sens, un prérequis capital pour le data mesh, notamment pour son pilier de la data as a product.
Outre l’intégrité fonctionnelle, toutes les fonctions de la data fabric s’appuient sur un métadictionnaire, qui est le reflet de la vérité de l’entreprise, encapsulé par des processus de gouvernance. Au global, data mesh et data fabric constituent donc des systèmes et sous-systèmes autonomes, mais interdépendants.
A lire aussi : Avec le Data Mesh, Suez réconcilie innovation et legacy
Le data mesh peut-il dès lors représenter une première étape d’une transformation data ?
Yves Darnige. Aucune organisation ne débute par un projet qui se nommerait data mesh. Le point de départ, c’est toujours une data fabric, susceptible de devenir protéiforme ou modulaire pour répondre à des besoins propres à certains métiers.
Le data mesh s’inscrit dans le prolongement du déploiement d’une fabric réunissant les différentes caractéristiques et capacités citées par Denis : gouvernance, qualité, règles métier, etc.
Quelle est la valeur d’un combo data mesh + data fabric pour Kyndryl et ses clients ?
Denis Skalski. Nous tenons compte à la fois des innovations technologiques et conceptuelles. Or, le data mesh relève de cette seconde catégorie. Son intérêt, sur un plan opérationnel, est de permettre la fourniture de nouveaux services à très forte valeur ajoutée à nos clients.
Nous y voyons en particulier un intérêt pour structurer l’agilité métier, un besoin exprimé depuis des années déjà au cours des ères de l’infocentre, du datawarehouse, du big data, etc.
Dans ce cadre, nous développons des services managés de type data as a service, par exemple des services cogérés : allocation de ressources IT, apport d’expertise, cogestion de processus de gouvernance des données… Cela va dans le sens des innovations et développements récents de Kyndryl, tels que Kyndryl Bridge par exemple.
Cette approche offre aussi l’opportunité de mettre à disposition des entreprises des environnements agiles à destination des métiers et de leurs expérimentations, avec l’appui ou non d’hyperscalers. Kyndryl a également la capacité de fournir des data mesh externalisés embarquant un espace métier, un conteneur d’agilité, des processus, potentiellement cogérés avec le client.
Le data mesh, c’est aussi un volet très métier des usages de la donnée…
Yves Darnige. Oui. C’est une approche qui vise à permettre aux métiers de gagner en flexibilité et en autonomie. Le data mesh constitue par conséquent aussi un point d’entrée à un niveau plus stratégique auprès des métiers. L’efficacité de cette démarche ne peut se cantonner à la définition d’une roadmap technique. Les directions métier ont également besoin d’être accompagnées sur les enjeux stratégiques de la donnée.
Quel est le mode d’emploi appliqué par Kyndryl pour passer d’une gouvernance des données purement IT à une gouvernance métier ?
Yves Darnige. La notion d’espace d’agilité réservé aux métiers favorise justement une gouvernance par ces derniers. Dès lors que le métier dispose de flexibilité pour agir et expérimenter, il est impliqué dès l’amont dans la construction de ses produits data. Il sera ainsi plus enclin à adopter des pratiques de gouvernance.
Denis Skalski. Kyndryl ne prône pas le passage d’une gouvernance IT à un gouvernement métier. Notre recommandation, c’est plutôt de s’extraire d’un modèle dans lequel le métier est le client avec un fournisseur qui est l’IT. La cible est un modèle de gouvernance partagée et une coresponsabilité.
D’ailleurs, cette gouvernance implique potentiellement trois acteurs. Le métier gère ses données, processus, son organisation et expérimentations au sein du data mesh. L’IT se doit d’assurer la maîtrise des systèmes et la non-prolifération du shadow IT, tout en étant le garant du fonctionnement et de la performance. Le troisième acteur, c’est le CDO. Il garantit la cohérence fonctionnelle de l’ensemble, ainsi que le respect du processus de gouvernance.
Plus d’ownership des métiers sur les données, par quoi cela passe-t-il selon vous ?
Denis Skalski. L’implication signifie responsabilisation. Le métier doit, dans cette optique, maîtriser ses données, c’est-à-dire les connaître : où sont-elles ? Quelle est leur définition ? Qui les utilise ? Quel est leur niveau de qualité ?
Un certain nombre d’aspects de gestion des données sont souvent délégués, comme leur sécurité. Les métiers, pour s’impliquer davantage, gagneraient à prendre la main aussi sur ces questions. Enfin, l’expérimentation sur le terrain, collaborative entre toutes les parties et très en amont, favorise également l’implication.
Quelles sont les tendances en matière de data platform, ainsi que les fonctionnalités ou capacités indispensables ?
Denis Skalski. Le data mesh étant indissociable de la data fabric, celle-ci va nécessairement embarquer toutes les capacités de connexion requises. Transfert, transport et transformation des données, souvent par des ESB ou ETL, sont des fonctions à intégrer à la plateforme, comme celle de gestion de la qualité.
J’ajouterais les fonctionnalités liées au data management, au sens large. C’est aussi un cœur qui porte l’intégrité fonctionnelle des données, plus encore si la cible c’est la data as a product. La fabric facilite aussi l’usage et la consommation, par exemple via des briques décisionnelles ou analytics.
Les fonctions d’observabilité de la plateforme sont, elles aussi, nécessaires. Celle-ci se doit d’être extrêmement performante. Ces différentes capacités sont aujourd’hui plus souvent réunies par les hyperscalers. Ce modèle me semble utile à répliquer pour le déployer en on-premise.
Chez Kyndryl, nous travaillons sur la conception urbanisée de ces deux systèmes avec nos clients. Tous les sous-systèmes, blocs et fonctions sont prévus dès le départ pour avoir une garantie d’interopérabilité, de potentiel et de pérennité mais ils sont activés au fur et à mesure de la montée en puissance et du déploiement.
Quelles étapes suivre pour gagner en maturité ? Quelles sont celles qui font véritablement la différence ?
Yves Darnige. La démarche est à penser de manière progressive. C’est un travail à mener de manière concertée avec les métiers, notamment afin d’identifier les processus dont l’optimisation est source de gains importants. Il est donc indispensable en amont, avant de démarrer, de pré-identifier des cas d’usage, tout comme leur ROI. Et pour avancer, le sponsoring de la direction constitue un prérequis.
Denis Skalski. Il faut commencer petit et définir comment, à travers l’optimisation d’un processus majeur, déployer les notions de data fabric et de data mesh. Toutes les fonctions ne seront pas disponibles au début. En revanche, des fondations, un embryon non jetable, seront établies pour permettre, dans un temps limité, de démontrer la valeur de ce type de démarche.
La réussite dépend d’un couplage stratégie, fonctionnel, organisationnel, culturel, technologique et méthodologique, notamment sur la gouvernance de la donnée. Y seront associées la modernisation des processus et l’acculturation, des métiers certes, mais sans oublier l’IT. L’acculturation est à la fois de la théorie, du coaching et de la pratique. Les trois volets doivent être réunis.
Les entreprises qui réussissent sont celles qui ont intégré les parties prenantes, mais qui ont aussi su expliquer le pourquoi, le comment, les gains. Finalement, si elles parviennent à se transformer, c’est parce qu’elles ont appris à travailler différemment.