Alors qu’une meilleure analyse des données et une connaissance client plus précise, se retrouvent au cœur de la stratégie de transformation digitale de nombreuses entreprises, passer à la vitesse supérieure avec des projets big data s’avère séduisant. Les écueils peuvent cependant être nombreux. Trois questions à Vianney de Raulin et Olivier Lacôte, directeurs associés chez Oresys, cabinet de conseil en management, organisation et système d’information, sur cette tendance 2016.
Où en sont les entreprises en matière de big data en 2016 ?
Vianney de Raulin : De nombreux projets Proof of Concept (PoC) big data ont vu le jour dans les entreprises l’année passée, mais nous sommes encore loin des définitions que les puristes peuvent avoir en la matière. Le premier problème auquel sont confrontées les entreprises quand elles souhaitent se lancer n’est en fait pas très glamour, mais il est très ancien : c’est la qualité des données à disposition. Si celle-ci est mauvaise, rien ne sert de vouloir à tout prix voir plus grand.
Olivier Lacôte : C’est malheureusement un sujet qui est encore loin d’être résolu aujourd’hui. D’ailleurs, la capacité à avoir une forte qualité des données est un bon indicateur de la maturité d’une entreprise. Ce n’est pas un sujet très séduisant, cela ne permet pas de communiquer largement auprès de tous ses clients sur son expertise… mais cela reste la fondation qui permet de faire toute la différence ensuite ! Les entreprises ont cependant une opportunité qui doit leur permettre d’avancer. La démocratisation de l’open data, en grande partie poussée par l’Etat, est une occasion de faire la différence : le travail sur la qualité y est déjà fait.
A quel point les entreprises peuvent faire mieux que le datamining qui leur est proposé depuis déjà des années ?
V. R : Il est moins nécessaire de travailler aujourd’hui sur des échantillons en amont, puis d’extrapoler statistiquement. Il est dorénavant possible d’utiliser directement l’intégralité des données disponibles ou presque. Cela permet de monter des modèles ayant une prise directe sur la réalité, et non plus seulement de représenter une perception tronquée. De plus, les détections statiques ont laissé place à des analyses dynamiques : l’enseignement tiré de la connaissance obtenue est immédiat. Par exemple, les segmentations clients ont toujours été très nombreuses… mais en fait, elles étaient assez rustiques. Aujourd’hui la finesse qu’il est possible d’obtenir est impressionnante : nous sommes dans une segmentation de masse mais qui est presque individualisée.
O. L : Ce changement se traduit notamment par l’avancée majeure des Data Management Plateform (DMP*). De plus en plus d’entreprises vont se lancer sérieusement dans les mois à venir. Les banques notamment vont se lancer dans de grandes vagues de projets sur le sujet en 2016. Les entreprises doivent cependant être vigilantes : la prise de conscience de l’importance des données, notamment personnelles, se jouent aussi chez les individus. Si cela s’accompagne de plus en plus de défiance, alors l’effort à fournir pour tirer parti de la vague DMP sera d’autant plus difficile.
Les entreprises ont-elles toutes les cartes en main pour surfer sur cette vague ?
V. R : Pour changer ce que l’entreprise fait de ses données et de sa « connaissance client », elle doit se mettre en ordre de marche. Et pas la peine d’attendre un acteur providentiel comme un super datascientist pour tout changer. En fait, il y a tout simplement trop de compétences différentes à réunir en une seule personne pour espérer avoir rapidement ce datascientist en interne. C’est aussi pour cela que l’on entend beaucoup parler de la pénurie de ces profils ! Mieux vaut qu’une direction métier prenne l’initiative et collabore avec la DSI, qui a la main sur les données. Une équipe transverse a plus de chance de réunir le panel de talents nécessaires pour vraiment faire avancer l’entreprise.
O. L : Le problème est que culturellement, les entreprises sont nombreuses à souffrir pour mettre en place de telles équipes transverses efficacement et à les faire fonctionner à la bonne échelle. C’est d’ailleurs un problème qu’elles peuvent rectifier en 2016. Pour accélérer, mieux vaut ne pas voir trop gros et entrer dans une approche de « data labs » liés aux directions métiers, avec une petite
équipe qui va faire émerger les vrais questions et les quelques analyses qui comptent. En offrant un peu de liberté à ce data labs pour prendre du recul sur les données et la connaissance qui va faire la différence, plutôt que de se lancer directement dans des projets extrêmement ambitieux et des analyses massives, l’entreprise pourra se recentrer et gagner en efficacité. En seulement 3 mois, deux personnes en mode « data labs » peuvent déjà provoquer des changements jamais vus dans une organisation… et ce, sans même avoir besoin de technologies big data, en leur laissant juste le loisir d’accéder aux bonnes données !
*Les plateformes de gestion des données permettent une gestion centralisée des données clients. Héritières de l’analyse de la navigation web, elles intègrent aujourd’hui tous les points de contact, off- comme online, mais aussi des enrichissements par le biais de données récupérées auprès de tiers, tout en étant accessible en mode SaaS.