A l’instar de nombreux secteurs, l’industrie pharmaceutique est en chasse perpétuelle contre les coûts. Dans la R&D, comme dans la logistique, le big data bouleverse les pratiques face à la complexité grandissante de leurs données..
Propos recueillis par Guillaume Mollaret, avec Alain Clapaud
Tous les industriels de la pharmacie n’en sont pas au même point du développement, ni même de la réflexion quant à la façon d’intégrer le big data dans le processus stratégique de décision. Tour d’horizon dans un secteur avare de confidences… Ainsi, pour réfléchir un cran plus loin sur le sujet, Orange et des partenaires viennent de lancer un think tank dédié, le Healthcare Data Institute. « Son objectif est de réaliser des études, de partager des expériences concrètes mais aussi d’être un lieu d’échanges et de réflexions », avance sa vice-présidente, Isabelle Hilali. Parmi les membres du conseil d’administration, on trouve Sanofi, Vitalia (le numéro 3 français de l’hospitalisation privée), IBM, McKinsey, le cabinet d’avocats spécialisé Desmarais et, bientôt, un assureur. « Beaucoup de laboratoires demandent à adhérer. Certains ont déjà une certaine maturité. A ce titre, les échanges entre grands groupes et start-up promettent d’être intéressants », précise Isabelle Hilali. Pour susciter ces discussions, une conférence-débat, réservée aux membres, est ainsi organisée toutes les six semaines. D’un point de vue purement industriel, la pharma est notamment confrontée à la surveillance de ses approvisionnements. « Quand on fabrique des médicaments sur différents sites avec plusieurs sources d’approvisionnement, il est essentiel pour nous d’identifier au plus vite d’où vient le potentiel défaut de qualité, explique, sous couvert d’anonymat, le représentant d’un des plus importants groupes du secteur. Le big data peut nous aider à résoudre ce genre de problème. Il implique cependant une remise en question de notre système actuel. C’est un choix lourd qui n’est pas sans conséquence sur nos organisations. C’est pour cela que nous n’avons, à ce jour, rien acté sur la stratégie à opérer. » C’est ainsi que le processus de décision dans le basculement vers une technologie big data met parfois près de trois ans avant d’aboutir à la signature d’un contrat. « Sur ce secteur, nous sommes d’une lenteur qui ne serait, je crois, pas tolérée dans un autre service », poursuit notre interlocuteur.
Démultiplier les puissances de calcul
Comme la R&D engloutit des dizaines – voir des centaines – de millions d’euros dans le développement de molécules, qui ne verront peut-être jamais le jour sous la forme de cachets ou d’injectables, évaluer au plus vite, lors des phases cliniques, si la molécule sur laquelle les chercheurs travaillent, aboutira à la création d’un médicament, relève d’une nécessité économique cruciale. Chez GSK, le numéro 5 mondial, les outils mis en place dans le Data Lab « permettent l’exploration rapide des hypothèses d’assem-blage de molécules avec une assistance informatique minimale », plaide Brad Donovan, responsable de l’innovation analytique chez GSK. L’analyste réitère ainsi quelques exemples parlants, déjà présentés l’an dernier dans Alliancy, le mag (lire n° 6) : des cycles d’analyses de 130 heures sont ainsi réduits à 5 heures seulement. Pour certains processus de calculs allant de six à dix mois, GSK se pose à présent un objectif à deux mois et demi. Une économie de temps par ailleurs synonyme de moyens…
L’efficacité des médicaments en question
Une fois en vente, se pose la question de l’efficacité du médicament. « Le big data peut clairement aider à justifier le prix d’un traitement* », soutient Joy King, consultant pharma et sciences de la vie chez Teradata. Contrairement à la France, où le patient a le libre choix de sa pharmacie pour acheter ses médicaments ; aux Etats-Unis, les médecins ont la capacité grâce au « e-prescribing » de diriger directement le patient vers une officine. Ces données, anonymisées, sont vendues aux laboratoires pharmaceutiques, qui grâce au big data, peuvent analyser les prescriptions des médecins saisies par cette voie informatique.
« Cela permet de recouper les associations de prescriptions, mais également de plaider sa cause auprès des assureurs qui refusent de rembourser un médicament qu’ils estiment trop cher », affirme Joy King, citant le cas d’un client préférant conserver l’anonymat. Il s’agissait d’un médicament injectable. Toute la finesse du laboratoire a été de démontrer que si le traitement était effectivement plus cher à l’unité, son efficience se mesurait sur un temps plus court que celui de ses concurrents… Les assureurs ont donc été amenés à réviser leur jugement puisqu’au final, le traitement s’est révélé moins cher à rembourser. »
En France, Quinten, qui préfère parler de data science que de big data travaille en collaboration avec les laboratoires Roche et les Hôpitaux de Paris sur l’analyse de données visant à améliorer la recherche sur le cancer colorectal. « Lors d’une précédente étude réalisée sur 121 personnes atteintes d’un cancer du poumon et traitées à l’institut Gustave-Roussy à Villejuif, nous avons pu démontrer grâce à une analyse plus fine qu’il y avait une différence d’efficacité du traitement entre les personnes traitées par chimiothérapie en adjuvant suivant le génome de la tumeur. Or, avec les analyses conventionnelles, aucune différence n’était mise à jour », explique Alexandre Templier, directeur général de la PME francilienne.
Autre possibilité offerte par le big data, la prévention des effets secondaires sur certaines populations, puisque les essais cliniques portent rarement sur une cohorte représentative de la population. HealthCore, un organisme américain de recherche spécialisée pharmaco-épidémiologie, effectue ainsi des tests de données sur certaines catégories – notamment sur critères ethniques, ce qui est possible aux États-Unis, mais impossible en France – après mises sur le marché des médicaments. Le but : surveiller si la prescription d’un ou plusieurs médicaments n’entraîne pas d’effets secondaires indésirables auprès de certaines populations. Rose Cintron-Allen, consultante industrie santé de Teradata, prétend ainsi que si ce type de calcul avait été possible voilà une dizaine d’années, « on aurait pu se rendre compte indépendamment, et beaucoup plus tôt, que l’anti-inflammatoire Vioxx pouvait provoquer des infarctus du myocarde ». Côté rapidité, Joy King ajoute qu’une requête croisée sur l’ensemble de la base de « e-prescribing » pour deux médicaments permet une réponse dans un laps de temps de « trois minutes contre 45 heures auparavant. »
* En France, le prix d’un médicament est le résultat d’une négociation entre l’entreprise exploitant ledit médicament et le comité économique des produits de santé (CEPS), un organisme interministériel. Les prix des médicaments non remboursables sont déterminés librement par les pharmaciens d’officine.
Des supercalculateurs pour créer de nouvelles molécules En 2011, à l’occasion des premiers essais de Curie, le plus puissant supercalculateur en France, une simulation numérique est exécutée sur les 92 000 cœurs de processeurs dans le cadre de la lutte contre la maladie d’Alzheimer. Michel Caffarel, chercheur du CNRS et de l’université Paul Sabatier de Toulouse a pu simuler, au niveau atomique, le rôle du cuivre dans la dégénérescence des neurones. Un calcul qui illustre l’avancée de la recherche médicale dans le domaine de la simulation numérique. La puissance des supercalculateurs permet d’accélérer la recherche des laboratoires pharmaceutiques avec des tests virtuels qui servent à sélectionner les molécules avant de passer aux tests in vitro et in vivo. La simulation multi-échelles recrée sur ordinateur le comportement d’une molécule sur des cellules au niveau de ses atomes et de leurs électrons, de ses peptides, protéines et supramolécules jusqu’au niveau mésoscopique et macroscopique. Une approche qui demande une puissance de calcul colossale. Autre piste extrêmement prometteuse pour l’avenir, le big data. L’idée est d’analyser toutes les données du patient pour établir un traitement totalement personnalisé, donc plus efficace et avec moins d’effets secondaires. Les traitements de données porteront sur ses analyses en laboratoire, le séquençage de son ADN, mais aussi des informations collectées par les objets connectés, voire même sur les réseaux sociaux. C’est l’approche 4P (personnalisée / prédictive / préventive / participative), fondement de la médecine du futur selon les chercheurs. |