Estimation du prix, détection des défauts de carrosserie, supply chain, marketing… Les usages de la Data et de l’intelligence artificielle sont nombreux et créateurs de valeur. Témoignage d’Anne-Claire Baschet, Chief Data Officer d’Aramis Group.
De quelles compétences se compose votre équipe Data ?
Nous disposons d’une équipe de 15 personnes regroupant l’ensemble des compétences. Depuis 2015 environ, nous avons voulu réunir l’ensemble des compétences Data au sein d’un même pôle, piloté par un chief data officer placé au niveau Comex de l’entreprise. La finalité était d’être véritablement au contact des enjeux business et de pouvoir assez vite adapter ce que nous délivrons.
A lire aussi :
Il y a 5 ans, l’équipe comptait des profils BI, data science et aussi déjà data engineer et architecte. Aujourd’hui, les compétences ont changé sur les aspects techniques, mais nous avons aussi introduit de nouveaux rôles. Nous comptons par exemple un data product manager et un UX data. Par ailleurs, nos data scientists sont bien plus des ML engineers.
Quelles évolutions cette appellation traduit-elle ?
Ces profils, en travaillant avec les data engineers, vont jusqu’à créer les API sur lesquelles leurs modèles sont exposés.
Avez-vous changé vos recrutements ou fait évoluer vos compétences existantes ?
Un peu des deux. Notre conviction est que les produits que nous allons délivrer, pour les collaborateurs en interne ou les clients, doivent venir de l’équipe. Nous avons pour cela structuré une approche produit Data en faisant travailler ensemble des profils de l’équipe Data, des utilisateurs et des profils business.
Au fur et à mesure, nous avons réalisé que nous avions besoin de nous muscler sur certaines technologies. Les profils ont ainsi évolué naturellement. Des recrues orientées data science sont montées en compétences sur la technique et émettent ainsi des recommandations de technologies bénéficiant à la performance de leurs algorithmes.
Pour collaborer avec les métiers, vous appuyez-vous sur des référents Data dans les départements ?
La collaboration repose sur deux axes principaux. D’abord, nous essayons aussi de créer des API entre les humains. Pour chaque équipe métier, un membre de la Data est le point d’entrée. Cela nous assure une connexion et une bonne prise en compte de leurs problématiques.
Par ailleurs, la Data remplit différents rôles. En tant que contributeur, nous assurons un rôle assez classique de support pour les aider sur les challenges que le métier cherche à relever. Dans d’autres cas, nous sommes en position de lead. Nous intégrons alors des utilisateurs business. Nous avons ces deux modes de fonctionnement. Mais dans tous les cas, la collaboration s’organise autour d’un challenge créateur de valeur pour nos clients.
Dans une logique produit, le défi est souvent de synchroniser les agendas entre les experts Data et les experts métier. Comment y avez-vous répondu ?
C’est un chemin et nous nous améliorons. Notre solution a consisté, au niveau de chaque département, à clarifier les challenges à craquer. Bien sûr, s’y ajoutent également des combats communs à l’ensemble de l’entreprise.
Dans l’écriture de ces challenges, nous avons des discussions entre équipes. L’objectif est de préciser pour chacun différents points, et notamment la valeur recherchée et les personnes clés qui participeront au projet. La formalisation permet d’identifier les interlocuteurs et les interactions à mener.
Lors de Big Data & AI World Paris, vous preniez la parole. Le sujet de la gouvernance et de la qualité des données n’était pas évoqué. Cela signifie-t-il que ce n’est pas un thème pour Aramis ?
Il n’y a pas une entreprise qui ne doive consacrer des efforts à cette problématique. Bien sûr, parler gouvernance des données a tendance à faire fuir les gens. Nous traitons néanmoins cet enjeu, en commençant par la sécurité, avant la qualité.
En ce qui concerne la qualité des données, nous l’abordons par les usages. Le travers en matière de gouvernance est souvent de produire des efforts sur des pans de données qui in fine auront peu de valeur.
Nous entrons donc par l’usage. Cela nous amène à réfléchir aux données utiles et à celles qui ne le sont pas. Dans une approche LEAN, nous utilisons donc le concept du 5S : quelle est la bonne donnée utile et à quel endroit ? Pour la donnée dont nous n’avons pas besoin, la réponse est assez simple. On la supprime et on en profitera pour rendre la donnée utile plus accessible.
Quel est l’intérêt de cette approche par l’usage ?
Nous intégrons généralement des utilisateurs finaux ou des porteurs business. Cela nous permet immédiatement d’identifier des problèmes de qualité de données et donc aussi l’incapacité à résoudre tel ou tel problème.
On ne va alors pas parler de qualité des données. L’objectif sera ici de changer le geste métier, le système qui peut être mal conçu, la saisie manuelle… Nous avons par exemple été confrontés à un problème de qualité de données sur les images. Or, nous souhaitions les exploiter pour saisir automatiquement des informations en appliquant de l’OCR. Les images ne le permettaient pas. Nous avons donc fait évoluer le geste, la prise d’images pour permettre cet usage.
Si on pose la question aux utilisateurs, ils reconnaîtront pouvoir mieux travailler aujourd’hui et plus facilement. Ils ne déclareront pas se réjouir d’avoir amélioré la qualité des données, même si in fine c’est ce qui a été réalisé.
Un tout autre sujet, celui du monitoring des modèles. Comment le traitez-vous ?
Nous le prenons en compte avant même la livraison en production de l’algorithme. S’il doit être exposé sous forme d’API sur le site web, nous devons notamment nous poser des questions de temps de réponse et d’action à mener en cas d’indisponibilité. Le monitoring de ces éléments doit être anticipé.
Par ailleurs, le monitoring doit couvrir la qualité de la réponse de l’algorithme, mais aussi la valeur. Au quotidien, le monitoring est visible par les équipes. Cela nous permet d’être alertés et vigilants quant au fonctionnement et aux résultats produits par l’algorithme. C’est clé pour réagir rapidement en cas de dérive d’un modèle.
A cette fin, nous définissons un rôle dans l’équipe de owner produit, dont une des missions sera de monitorer régulièrement ce produit. Tout le challenge est de le ritualiser.
Combien de produits Data avez-vous mis aujourd’hui en production ? Et quels seront vos principaux chantiers en 2022 ?
Plus de 50 tournent en production tous les jours, toutes les minutes même. Quant à notre chantier permanent, c’est d’apporter de la valeur à nos clients. Un objectif continu est ainsi de diviser par quatre le temps que doit passer chaque collaborateur pour visualiser la donnée qui lui est utile pour prendre une décision. C’est un chantier permanent et qui guide différents cas d’usage tout en établissant la confiance entre l’équipe data et le reste de l’entreprise.
Le pricing de véhicule est aussi un challenge important pour le pôle Data, tout comme le matching. L’idée ici est de toujours proposer le meilleur prix de revente et aussi d’achat aux clients, et pour les véhicules demandés. Ces chantiers sont dans l’ADN de l’entreprise.
Comment parvenir à diviser par 4 le temps d’accès et d’exploitation des données ?
Cela s’obtient au travers d’une approche de type “go and see”. Cela signifie aller continuellement sur le terrain, que ce soit moi ou mes équipes. Nous passons du temps avec différents métiers, des collaborateurs achats ou marketing, des conseillers commerciaux ou des managers d’agence. Nous cherchons à comprendre ce qui leur pose des difficultés.
Cette présence terrain nous permettra par exemple d’identifier que la solution n’est pas un analytique dans un outil de data visualisation, mais plutôt une alerte. Ce travail d’écoute proactive a permis d’instaurer un dialogue, dans les deux sens. Des managers viennent ainsi directement solliciter notre aide.
C’est aussi à nous de nous adapter à des évolutions du marché, comme la hausse des livraisons à domicile, qui concerne aujourd’hui 4 clients sur 10. C’est à présent un enjeu pour le métier et auquel nous cherchons à apporter des réponses via la Data. Il faut être flexible et ne pas rester ancré sur des plans à 3-5 ans.
Vous parliez de reconnaissance d’image. Mettez-vous en œuvre de la computer vision ?
Oui, notamment dans nos usines de reconditionnement, en France, en Belgique, en Espagne et au Royaume-Uni. Une de nos problématiques est d’accélérer la reconnaissance des défauts carrosserie sur un véhicule pour identifier le niveau de reconditionnement nécessaire. Un des cas d’usage est donc d’implémenter de la computer vision pour faciliter le travail de l’expert humain.
Pour ces applications d’IA, vous appuyez-vous sur des développements internes ou des prestataires ?
Les deux. Des use cases sont développés en interne avec les équipes data science et data engineering. Et d’autres sont travaillés avec des partenaires, comme sur notre usine de reconditionnement avec Tchek.ai.
Vos activités combinent de l’industrie et du Web, ce qui potentiellement multiplie les cas d’usage…
La richesse est énorme en termes de création de valeur par la Data. Nous sommes dans un modèle verticalement intégré, du sourcing de véhicule à la supply, en passant par le site et la livraison à domicile. Nous mêlons online et offline, ce qui offre par conséquent un vaste terrain en matière d’exploitation des données et de l’IA.