Ils sont portés au pinacle par l’ensemble de l’économie numérique pour leurs connaissances si rares à trouver. Ils ont des parcours académiques exceptionnels qui leur permettent de prétendre à des salaires mirobolants. Ils trouvent des corrélations là où d’autres n’y voient qu’une suite de nombres abscons et insipides. Ce sont les Data Scientists et tout le monde se les arrache.
À en croire le cercle encore très fermé des Chief Data Officer et Digital Officer, ces super héros des projets Big Data sont indispensables à la réussite de ces nouveaux types de projets informatiques. Oui certes, ils sont importants pour transformer en monnaie sonnante et trébuchante ces gisements de données, mais ce ne sont pas les seuls.
En effet, mener avec succès une initiative Big Data porteuse de valeur par l’innovation est une affaire de pluridisciplinarité des compétences, de mise en place d’un dispositif idoine et d’un travail d’équipe où les uns ne sont pas plus importants que les autres.
C’est tout d’abord une question de méthode.
Procéder par cycles itératifs et incrémentaux
La créativité est une affaire d’empirisme. L’organisation projet idéale pour tirer pleinement partie d’un projet Big Data, s’appuie sur des hypothèses destinées à être sans cesse remises en causes, confrontées à la réalité du terrain par des feedbacks nombreux, des prototypes qui seront jetables et des cycles de livraison courts. Cette approche, les anglo-saxons l’ont baptisée « Lean Startup ». Elle permet d’avancer à petit pas, d’expérimenter en se trompant, d’apprendre à faire et défaire jusqu’à parvenir à une solution économiquement viable, techniquement réalisable et répondant à un besoin au ROI identifié.
Beaucoup d’entreprises se jettent à corps perdu dans les projets Big Data avec des paradigmes de conduite de projets désuets et parfaitement inadaptés au monde mouvant des projets numériques de demain. La réussite passe par la remise en cause des méthodes traditionnelles et l’acceptation de travailler en mode « Startup ».
Un regroupement de profils hétéroclites
La deuxième recette du succès des projets Big Data réside dans la complémentarité des compétences nécessaires à leur réalisation.
Voici, le dispositif minimal à mettre en place pour exploiter pleinement le gisement des données de votre entreprise :
Commençons par le métier puisqu’il est, en général, le commanditaire des travaux.
Il devra déléguer à ce que certains appellent un Product Owner ou bien un Business Analyst en charge d’apporter la vision du produit dont l’équipe a la charge. Orienté résultats, il sera le garant de KPIs qui attesteront de la valeur apportée par le projet.
Il sera la hotline fonctionnelle de l’équipe technique, capable de prioriser les fonctionnalités attendues selon leur importance, de spécifier à la volée un besoin et de concevoir des tests d’acceptance pour les équipes techniques.
Ce mouton à 5 pattes est tout aussi important que le Data Scientist et aussi difficile à dénicher sur le marché.
Viennent ensuite les Data Engineers et Data Architects qui ont les compétences techniques nécessaires à l’extraction et à la collecte des données, à la conception d’un système impliquant des briques technologiques complexes et au développement logiciel.
Les concepts et les technologies impliqués sont si nouveaux que là aussi, il y a une très forte pénurie sur le marché. Il faudra probablement plusieurs années avant que nos écoles d’ingénieurs ou universités soient aptes à nous délivrer les contingents nécessaires à garder notre pays dans la course mondiale de la Data.
Il faut également un administrateur de la solution mise en place, garant de la disponibilité, de la performance du système lorsque celui-ci devient critique et de sa sécurité, tant les données manipulées peuvent parfois être sensibles.
Là aussi, il est très difficile de trouver des personnes compétentes car les premières mises en place de ces solutions en France n’ont pas plus de 5 ans.
Enfin, bien entendu, le Data Scientist a son rôle à jouer. Il est en charge de concevoir des algorithmes de programmation pour l’analyse des données. Statisticien dans l’âme, il est capable d’élaborer des hypothèses en interprétant des séries de chiffres sans signification pour le pékin lambda et de concevoir des algorithmes auto apprenants (le Machine Learning). Il est clef dans le dispositif.
Il ne l’est pour autant ni plus ni moins que les autres comme nous avons tenté de vous le démontrer.
Comme le disait Alexandre de Saint-Exupéry « La pierre n’a point d’espoir d’être autre chose qu’une pierre. Mais, de collaborer, elle s’assemble et devient temple. »