Quels sont les choix structurants au niveau du Système d’Information qui permettent de faire entrer les entreprises dans l’ère de la data et de sa valorisation ? Guillaume Bourdon, co-fondateur et codirigeant du spécialiste de la valorisation des données Quinten, partage son expérience, et insiste sur les sujets essentiels dont les entreprises doivent se saisir.
Alliancy. A quel point la coopération entre la DSI et les métiers est-elle effective dans les entreprises autour des nouvelles stratégies d’analyse et de valorisation des données ?
Guillaume Bourdon. Les experts métier se sont emparés du big data et de l’intelligence artificielle depuis plusieurs années. Après la vague des usages révolutionnaires, des « preuves de concept » et des solutions sur étagère, le phénomène est en train de s’ancrer dans le quotidien des entreprises. Les réticences des uns reculent tandis que les attentes des autres se font plus réalistes avec la montée en maturité des équipes internes. A présent, les experts métier les plus mûrs veulent reprendre la main et inscrire ces innovations au cœur de l’activité de l’entreprise. Cette internalisation est marquée par des changements organisationnels structurants, par l’implication directe des décideurs métier et IT dès l’amont des projets, et par une valorisation tangible des usages déployés.
Quel impact cela a-t-il au niveau du système d’information ?
Guillaume Bourdon. Jusqu’à présent, la majorité des DSI s’est tenue à l’écart des initiatives big data préemptées par les métiers. Tant que ces « preuves de concept » concernaient de petits échantillons de données et n’avaient pas de réelles ambitions de déploiement dans l’organisation et donc d’industrialisation impactant de fait les infrastructures IT, les DSI étaient en effet peu sollicitées par ces projets. Après la période du « tout datalake », c’est-à-dire une BI centralisé pour tous les métiers avec une belle interface pour y accéder poussée par de nombreux éditeurs, la magie est vite retombée, car sans finalité.
Comment cela ?
Guillaume Bourdon. Quel est l’intérêt pour un acteur métier, par exemple un directeur marketing, d’accéder à la donnée de l’entreprise de manière indifférenciée ? C’est d’autant plus un problème quand il s’avère que la plupart du temps la data est mal définie, mal collectée, mal utilisée ou très ancienne : la plupart du temps 50% de ce que l’on déverse dans un datalake s’avère peu exploitable. C’est l’antithèse d’une plateforme structurée autour d’une vision et d’un projet métier. Pour chaque donnée collectée, un expert métier doit être capable de dire pourquoi et en quoi elle apporte, ou pourrait apporter de la valeur en éclairant ses décisions pour de meilleures performances. Le rôle de la DSI devient évidemment clé dans la garanti d’une bonne collecte, d’un bon stockage et d’une bonne accessibilité des données.
Les logiciels utilisés par l’entreprise ont-ils une influence sur la capacité à mettre en place une telle plateforme ?
Guillaume Bourdon. Les contraintes techniques sont beaucoup moins fortes que ce que l’on peut entendre dire. Ainsi, l’immense majorité des logiciels peuvent voir leurs données extraites et réutilisées sans trop de difficultés. Souvent la méconnaissance d’un outil de type ERP par les équipes techniques internes est due à un manque de transfert de connaissance de la part de la SSII qui l’a installé et en assure la maintenance. Un data scientist aura simplement besoin de l’aide d’un expert IT pour lui donner accès aux données et apporter les solutions opérationnelles aux métiers.
Faut-il alors constituer un laboratoire de data scientists en interne ?
Guillaume Bourdon. Longtemps, les directions générales ont pensé qu’il suffisait de constituer son propre datalab en recrutant des data scientists et en investissant sur des infrastructures big data de type Hadoop, Spark… pour réussir sa transformation digitale. Ces expériences se sont souvent soldées par un constat d’échec, car coûteuses et non rentables. Pourquoi ? Parce que la plupart de ces entreprises se sont lancées dans cette aventure peu ou mal préparées, d’une part sans visibilité sur les projets les plus rentables et les plus simples à réaliser, et d’autre part sans expérience dans le recrutement et le management de data scientists. L’amélioration des performances par la donnée, qui est une composante de la transformation digitale, suppose une manière tout à fait nouvelle d’aborder les problématiques de l’entreprise et une dynamique qui est très difficile à créer ex-nihilo au sein d’une entité.
Que doit-on attendre d’une équipe que l’on va chercher auprès d’un prestataire ?
Guillaume Bourdon. Le rôle d’une équipe de data scientists est à la fois de s’ancrer en amont sur les enjeux stratégiques de l’entreprise – ce qui suppose préalablement de bien les comprendre – et en aval sur la réalité des usages métiers dont il est chargé d’améliorer la performance. En effet, l’outil le plus performant est inutile s’il n’est pas utilisé. Le Data Scientist doit donc non seulement veiller à générer la valeur attendue, mais aussi et surtout à ce que les outils qu’il met entre les mains des métiers soient simples et agréables à utiliser.
Certaines technologies peuvent-elles faciliter la vie des entreprises ?
Guillaume Bourdon. Il n’y a pas de technologies idéales dans l’absolu, tous les outils sont intéressants, qu’ils soient propriétaires ou open source. C’est justement aux data scientists de choisir les meilleures technologies en fonction de l’objectif recherché. Partir de l’outil pour lancer sa réflexion est vraiment une mauvaise idée.
Quels sont les principaux points de blocages ?
Guillaume Bourdon. Les dirigeants ont parfois une certaine appréhension à faire sortir leurs données de l’entreprise pour les faire analyser par un tiers. La seule solution en cas de blocage, est d’installer une infrastructure de calcul en interne. Cela engendre de la complexité et un facteur du simple au triple en termes de coût. Pour faciliter l’accès aux données en interne, on voit de plus en plus de groupes français se doter d’une data fabric, c’est à dire d’une plateforme permettant d’une part de centraliser les données à l’instar d’un data lake, et d’autre part de développer des chaines de transformation, de modélisation, et de visualisation des données. D’un point de vue technique, de tels outils harmonisent et simplifient les pratiques, mais ils peuvent parfois poser des questions de souveraineté lorsqu’il s’agit d’éditeurs étrangers et que les données se trouvent dans un cloud hébergé en dehors de notre territoire.