Chez Pierre Fabre, l’IA booste la R&D, mais pas seulement

Le groupe pharmaceutique et de dermo-cosmétique français Pierre Fabre réalise trois milliards d’euros de chiffre d’affaires, avec 95 % de sa production localisée en France, et 70 % de son chiffre à l’export. Après une importante transformation IT menée depuis une décennie, il s’est engagé dans un nouveau plan stratégique, dont Olivier Siegler, son directeur des systèmes d’information, dévoile les contours.

Qu’est-ce qui vous a le plus marqué dans la transformation numérique de Pierre Fabre depuis votre arrivée dans l’entreprise ?

À mon arrivée il y a neuf ans, j’ai endossé un rôle de transformation assez transverse. Il faut reconnaître qu’à cette période, l’entreprise avait besoin de mener un rattrapage, car elle avait sous-investi dans la technologie depuis plusieurs années. Nos concurrents changeaient vite et j’ai donc dû mettre en œuvre un schéma directeur approprié pour que nous ne soyons pas dépassés. Il a notamment fallu repenser entièrement notre approche ERP pour la rendre plus évolutive. Nous avons dès lors construit un système d’information vraiment international, avec des « core models » globaux déployés dans tous les pays. Sur le customer relationship management, le réglementaire, la sérialisation, l’entreprise performance management… Nous avons investi fortement pour tout remettre à niveau. Les efforts ont été d’autant plus importants que l’entreprise a traversé une importante crise de cybersécurité en 2021. Mais le travail sur les fondations a payé et c’est ce qui nous permet aujourd’hui de nous projeter bien différemment sur un nouveau plan stratégique IT pour aller plus loin.

Au niveau des actualités, le groupe Pierre Fabre annonce la construction en 2026 d’une nouvelle plateforme logistique internationale dans le sud de la France. Quels en sont les enjeux IT ?

Cette annonce s’inscrit dans un large programme de transformation de nos capacités de distribution. Celle-ci implique à la fois une automatisation renforcée et une connexion de flux encore plus forte, notamment à des fins de traçabilité. Nous transformons aussi nos usines de manière soutenue, en investissant 250 millions d’euros sur cinq ans, afin d’en renforcer la sécurité et de mettre en œuvre des capacités propres à « l’usine 4.0 ».

Au-delà de la transformation de la distribution, quels sont les projets structurants sur lesquels votre direction des systèmes d’information sera impliquée en 2025 ?

Nous allons déjà continuer à travailler sur des fondamentaux comme le réseau au niveau mondial, afin de l’amener à des niveaux de sécurité et de performance bien supérieurs. La transformation ERP continue, cette fois-ci au niveau des filiales.

Mais un sujet qui va sans doute être très visible également sera celui de l’intelligence artificielle. Notre action se décline sur trois niveaux en parallèle. D’abord, l’IA pour tous les collaborateurs. Un tiers d’entre eux utilisent déjà l’IA mais nous voulons que 100% soient sensibilisés au sujet d’ici fin 2024. Nous avons aussi mis entre leurs mains notre plateforme GPT PLA.I.GROUND, qui s’appuie sur Microsoft Azure et Mistral, afin de donner accès à des usages contrôlés d’IA générative. Elle compte aujourd’hui plus de 3000 utilisateurs et a accueilli plus de 100 000 conversations.

Cependant, la DSI va aussi devoir se mobiliser à un autre niveau, celui de la prise en compte des impacts de l’IA intégrée dans tous les logiciels. Cette partie « embarquée » se généralise très vite dans les stratégies de tous les éditeurs : comment peut-on exploiter cela au mieux ? Nous voyons l’opportunité notamment en termes de cybersécurité, mais c’est un chantier important.

Enfin, nous allons devoir contribuer au développement de nos propres modèles. Nous avons d’ores et déjà engagé des tests dans certaines de nos usines afin d’optimiser la production de principes actifs chimiques. Nous allons aussi mettre un focus très important sur les apports de l’IA en matière de R&D. C’est un moyen pour nous de proposer une nouvelle valeur sur les étapes d’« early innovation ».

Avez-vous un exemple précis ?

Oui, en médecine translationnelle. Pour simplifier le concept, il faut comprendre qu’il existe des molécules, des principes actifs, qui sont déjà bien connus et maîtrisés, et que l’on cherche à réutiliser sur de nouvelles cibles thérapeutiques. Ces principes existants sont déjà sûrs, donc les avantages sont évidents plutôt que d’en développer de nouveaux. Mais l’orientation sur une nouvelle cible est un travail complexe : l’IA peut permettre de gagner un temps considérable pour mieux sélectionner les travaux qui ont du sens et mieux exploiter la masse d’informations disponibles pour trouver les bonnes opportunités.

De manière générale, l’IA va apporter beaucoup de valeur sur nos enjeux de time to market. On voit bien également à quel point elle peut aider à accélérer le ciblage des tests cliniques par exemple, où les délais sont toujours un facteur très important.

Qu’est-ce qui vous a le plus aidé à relever le « challenge data » dans votre organisation ?

L’un des changements les plus importants a été la construction de l’infrastructure data et la mise en place d’une gouvernance appropriée. Nous avons tout fait pour avoir une source unique de vérité pour nos données et en parallèle, l’entreprise a créé un « Data Office » de plein exercice. Nous avons donc pu mettre en place un hub d’interconnectivité et des master data au niveau transverse de l’entreprise. Nos flux sont maintenant bien mieux connectés, que ce soit en interne, ou vis-à-vis des partenaires externes : patients, clients, autorités réglementaires, prestataires logistiques…

Nous formons un binôme avec le Data Office, qui dépend directement de la direction générale, comme nous. C’est donc ensemble que nous animons la roadmap globale de l’intelligence artificielle. Celle-ci implique une approche data driven. Mais au-delà de la théorie, c’est surtout un engagement de tous les jours. Nous connaissons tous les concepts bien documentés, de la data centricity jusqu’au data mesh… Mais cela ne veut pas dire qu’ils sont simples à faire vivre dans une organisation. Quand je suis arrivé, les métiers se plaignaient de tout ce qui n’allait pas en matière de gestion de la donnée, plutôt que de voir les opportunités. Nous avons mené un travail de fond en définissant des data owners et du stewardship tout autour. Ce ne sont pas des rôles très séduisants, mais s’ils n’existent pas, tout le reste sera d’une grande fragilité.

Au fil du temps, nous avons réussi à convaincre et nous sommes au contraire entrés dans une période d’enthousiasme sur la data, où tout le monde créait son reporting, son analyse, ses KPI… Maintenant, il est nécessaire de rationaliser cette profusion. Je dénombre environ 7 500 types de rapports de business intelligence et d’analytique. Je pense qu’il est nécessaire de diviser ce nombre par trois ! Cela implique d’arrêter de vouloir valoriser tout et n’importe quoi, pour se concentrer sur les fondamentaux stratégiques. Aller vers des données moins abondantes mais plus normées et surtout mieux partagées : un passage à l’échelle des communs. Ensuite, il sera toujours possible de faire des analyses ad hoc selon les besoins, mais il ne faut pas confondre cette possibilité avec ce qui relève vraiment de nos fondations en termes de données. Ce n’est que comme cela que nous arriverons ensuite à ajouter de l’intelligence pour mieux les exploiter.

Quelle est la plus grande difficulté dans les rapports IT-métier sur cette question ?

Ce qui nous préoccupe le plus, ce sont les conditions du passage à l’échelle. Les projets sont portés par les métiers et ils nécessitent des rôles pérennes. Or, bien souvent, un chef de projet peut avoir une très bonne idée et la lancer… avant de passer quelques semaines ou moins plus tard à un autre sujet. Avoir une bonne gouvernance data et IA, c’est donc penser aussi cet accompagnement dans la durée et le contrôle des pratiques. Le Data Office joue cette carte de l’accompagnement et de la formation. De notre côté, nous nous concentrons sur le data engineering : nous assurer d’avoir les bonnes données et d’en assurer la cohérence transverse.

À l’avenir, où les directeurs des systèmes d’information auront-ils le plus d’opportunités d’apporter de la valeur à leur organisation selon vous ?

Dans notre plan stratégique, l’un des principaux défis identifiés est celui de la difficulté à tenir le rythme de la transformation technologique, alors que les technologies changent vite et que l’obsolescence de beaucoup d’entre elles n’est jamais loin. Il faut pouvoir s’engager vers des innovations, mais aussi être particulièrement vigilant à ne pas se bloquer dans des impasses. Cette compréhension de ce qui sera le plus pérenne est rendue d’autant plus difficile que nous sommes sursollicités de toutes parts par le marché : nous sommes dorénavant dans un monde de profusion technologique. Or, nous ne pouvons pas tout tester et encore moins tout implémenter. Travailler sur le « rationnel du choix » va devenir encore plus important demain. Notre ligne de conduite est de nous dire que l’on doit avant tout agir sur le cœur de métier de Pierre Fabre : produire, distribuer, vendre.

En parallèle, je dirais que les DSI ont énormément de valeur à apporter sur l’appropriation des solutions. Nous sommes tous confrontés au cas de solutions qui sont très performantes, mais utilisées de façon très parcellaire par les collaborateurs. À l’heure où tous les éditeurs ajoutent de l’IA dans leurs logiciels, qu’est-ce qui va vraiment nous permettre de maximiser les usages de ces solutions ? Je pense que le DSI est idéalement placé pour répondre à cette question, car elle nécessite à la fois une fine compréhension des outils et des usages. C’est un moyen de s’engager pour que les métiers perçoivent bien que le rôle de l’IT n’est pas seulement technique. Cela nécessite de mieux identifier où sont les manques côté métier : là où il y a parfois un manque de maturité, où personne ne joue ce rôle de lien avec la technologie… afin de monter au créneau.

Derrière cela, il y a un enjeu majeur de compétences. Ces dernières années, j’ai à plusieurs reprises effectué le travail de cartographier toutes les technologies que l’on avait dans l’entreprise et toutes les compétences à disposition en face… la combinatoire est affolante. Je vois en permanence de nouveaux déséquilibres à combler, alors que 70 % environ des compétences IT sont externalisées. Et même si nous cherchons à internaliser des compétences, nous ne pourrons jamais tout avoir en interne. C’est un travail permanent à mener avec la direction des ressources humaines pour se demander quels postes doivent s’ouvrir, quels autres doivent évoluer… J’ai la chance d’avoir un turnover assez limité. Mais cette question des bonnes compétences à maîtriser au sein de l’entreprise m’obsède plus que jamais.

Numérique responsable : une nécessaire proactivité

Pierre Fabre a été l’une des premières entreprises au monde à être labellisée Numérique Responsable niveau 2 par l’INR (Institut du Numérique Responsable). Olivier Siegler, le directeur des systèmes d’information de l’entreprise, explique que ce n’est que le début du chemin. « C’est une traduction sur la partie numérique des engagements de l’entreprise en matière de RSE. Mais la certification correspond à un engagement sur trois ans qui nous oblige à continuer à avancer, avec plusieurs étapes de contrôle ».

En la matière, Pierre Fabre entend limiter l’impact direct qu’a son IT sur l’environnement, « notamment au niveau des terminaux et de l’hébergement de nos téraoctets de données de R&D, en perpétuelle augmentation ». Mais l’entreprise a aussi lancé son Green Impact Index, pour mesurer l’impact de chacun de ses produits et mettre cette information à disposition des consommateurs dans une vingtaine de pays. Une transparence qui implique un important travail sur le recueil de données clés, un calcul de score et une mise à disposition de l’information… grâce au numérique.

« Ce n’est pas toujours facile d’être audible sur le concept de sobriété numérique, alors que notre entreprise veut être au rendez-vous de l’IA comme tout le monde », note le DSI. Parmi les expérimentations retenues pour trouver le bon équilibre : la mise à disposition d’une option « Eco » sur sa plateforme GPT PLA.I.GROUND. « Nous offrons la possibilité de limiter l’impact des requêtes en utilisant un modèle moins consommateur proposé par Mistral, qui reste pertinent pour 80 % des cas. Mais il faut également mener un important travail de pédagogie et de communication. Nous voulons être proactifs, avec une « task force » Numérique Responsable et des porteurs d’engagements bien identifiés pour que l’on puisse faire bouger les lignes, notamment sur la partie data et IA ».