Qualité des données, évaluation, facteur humain… Les conditions pour que l’IA réussisse en santé 

La mise en œuvre d’IA dans le secteur de la santé, pose de nombreuses questions, notamment en raison des risques pour les patients. L’accès aux bonnes données est un élément clé, mais l’adoption de l’IA par les professionnels pour les assister est un autre facteur majeur de réussite. 

Détecter une tumeur cancéreuse grâce à une intelligence artificielle (IA) à travers une image de radiologie est désormais possible. À travers son projet Disrumpere, l’Ircad (l’Institut de recherche contre les cancers de l’appareil digestif), développe notamment une solution pour doper les échographies à l’IA afin d’aider les médecins à définir un diagnostic. Mais cette technologie investit également le secteur public. Rattachée aux ministères chargés de la santé, la Délégation du numérique en santé (DNS) définit et pilote les stratégies numériques en santé publique, dans lesquelles cette technologie est désormais omniprésente. Selon Aymeric Perchant, directeur des projets au sein de la DNS, elle représente même aujourd’hui, près de la moitié des sujets financés par l’organisme. 

Si l’intelligence artificielle séduit à ce point le secteur de la santé, Manuel Géa, qui dirige Bio-Modelling System, entreprise spécialisée dans la modélisation de mécanismes biologiques destinée à la recherche médicale, deux types d’IA et d’usages : « Celles utilisées par un médecin pour l’aide au diagnostic, et celles mises en place par les industriels dans la gestion de données ». Dans les deux cas, des problématiques identiques émergent, notamment autour de la donnée, socle du fonctionnement d’une intelligence artificielle, afin de garantir la confiance dans ces technologies. 

Accès, qualité, sécurité… La donnée reste la clé 

« Il faut que les données soient cohérentes », note tout d’abord Manuel Géa. C’est-à-dire représentatives à la fois du problème posé mais également des individus touchés. « Si on entraîne des IA sur des données provenant d’hôpitaux différents, la solution sera mauvaise car les protocoles changent selon les établissements », poursuit-il. La question de la provenance des informations est une des premières pierres posées pour obtenir des IA pertinentes dans le secteur. « Il faut savoir si les données utilisées pour l’apprentissage viennent de France ou des États-Unis. Si elles sont composites, cela peut ne pas être représentatif de la population française », ajoute Aymeric Perchant de la DNS. Il assure par ailleurs que l’IA Act, mis en place par l’Union Européenne cette année, imposera que les données utilisées pour entraîner des IA soient représentatives des populations ciblées. Pour y parvenir, les acteurs du secteur de la santé devront se mobiliser afin de participer à la mise en place d’un cadre profitable pour tous. 

À lire aussi : Health Data Hub : L’autorisation de Microsoft par la CNIL, un choix par défaut mais pas sans risque 

En effet, pour les concepteurs de solutions numériques, l’accès aux données de santé est souvent ralenti par la réticence de ceux qui les détiennent à les partager. « Il faut rendre accessibles les informations concernant la population française », appelle Aymeric Perchant. C’est un sujet actuellement piloté par la DNS, qui espère ainsi favoriser les usages IA par la santé française à tous les niveaux, une fois ces conditions remplies. « Il existe aujourd’hui des problématiques juridiques, d’hébergement, d’infrastructure et d’accès », développe le directeur des projets.  

Selon Manuel Géa, le problème d’accès réside également dans la confiance que la population a dans les autorités et certaines entreprises. « Les Français ne veulent pas qu’on utilise leurs informations à leur encontre, notamment par les sociétés d’assurance », développe-t-il. Il ajoute qu’il serait important de préciser que ces données appartiennent aux individus et que ces derniers doivent pouvoir choisir qui peut y avoir accès, en ayant la certitude qu’il n’y ait aucun préjudice pour eux. « Ce système aiderait à libérer les données de santé », juge Manuel Géa, et permettrait de produire des IA de qualité. 

L’humain donne confiance dans l’IA 

« La qualité de la data ne fait pas tout », souligne cependant Manuel Géa. En particulier pour les IA implantées dans les établissements de santé, au contact des patients. « Les équipes métiers doivent comprendre les besoins et définir une réponse adaptée à ces besoins et non par l’outil », juge-t-il. Le CEO de Bio-Modelling System estime que l’utilisation des IA par les professionnels de la médecine est une combinaison de plusieurs gestes, y compris celui de l’humain. « L’outil ne fait évidemment pas tout, tout seul », affirme Manuel Géa. Pour répondre à cette problématique, la DNS propose par exemple des formations auprès des professionnels de santé et paramédicaux. « Il faut démystifier l’usage de l’IA », estime Aymeric Perchant. « Ce n’est pas une boîte magique et il faut expliquer ce qu’il y a dedans ». 

Selon lui, l’aspect humain est essentiel pour garantir de la confiance dans l’intelligence artificielle et la DNS planche même sur la création de nouveaux métiers permettant d’utiliser cette technologie dans le domaine des soins. L’intelligence artificielle d’usage « hybride » est, selon Manuel Géa, la solution : « Il faut que ce soient des humains qui s’occupent des patients et pour cela, ils doivent comprendre le développement de ces outils ». Dans ce changement des pratiques médicales, le médecin va s’entourer de nombreux assistants numériques, auquel il devra se confronter afin de prendre les bonnes décisions. « Dans cette équation bénéfice-risque que doit résoudre le professionnel de santé, de nombreux paramètres sont à prendre en compte et l’IA doit être simplifiée pour comprendre les compositions », précise le spécialiste. 

Comment s’assurer de la qualité du système ? 

Reste une question : qui doit in fine évaluer les technologies d’intelligence artificielle dans la santé et trancher sur la qualité des conditions technologiques et d’usage réunies ? Pour Aymeric Perchant, ce doit être une entité indépendante. La Haute Autorité de Santé (HAS) se met d’ailleurs en place pour réaliser un premier travail d’évaluation et conclure de la performance des IA dans le cadre d’un service rendu. « Ce n’est qu’une technologie qui a une finalité. Et cette finalité doit être jugée », résume Aymeric Perchant. Ce dernier note d’ailleurs une différence entre les IA utilisées comme dispositif médical, comme la détection de tumeur à travers une imagerie médicale, et celles aidant le médecin dans sa pratique, comme le résumé de consultation avec un patient. « Pour les dispositifs médicaux, il existe un trou dans la raquette », reconnait-il. En effet, ils ne sont pas évalués par la HAS mais par les fabricants eux-mêmes. « L’évaluation n’est pas indépendante. Elle est pourtant un point très important dans la confiance de ces IA », se désole le directeur de projet au sein de la DNS. 

Mais malgré ces quelques accrocs, le responsable se veut rassurant. « L’IA ne prend aucune décision, c’est le médecin qui en prend », assure-t-il. En effet, la responsabilité de la solution face à un diagnostic ou un traitement ne manque pas d’être posée par les patients comme par les spécialistes. Et en la matière, une réponse claire doit s’imposer pour libérer les usages et les esprtis : « Il faut se prémunir d’un usage dans lequel le médecin pourrait donner systématiquement raison à l’IA », poursuit Aymeric Perchant. L’éthique « by design », c’est-à-dire dès la conception de la solution, doit être promue. C’est ce que contient la réglementation des dispositifs médicaux qui encadre ainsi déjà certaines IA. « Dans cette réglementation, on doit se prémunir du risque lié à un mauvais usage non intentionnel ». Mais selon le niveau d’implication de cette technologie, le risque médical doit pouvoir être pris en considération de manière plus précise. « Si l’intelligence artificielle pilote un pacemaker, le risque est important et la balance bénéfice-risque doit être analysée », illustre par exemple l’expert. La réalisation du potentiel très important de la technologie ne pourra donc passer que par une implication toute aussi importante des décideurs humains pour trouver les bonnes pratiques dans la prise des décisions clés et l’analyse des risques.