Alors que l’intelligence artificielle se développe de jour en jour, les bases de données sont primordiales pour tester les modèles. Avec le projet Fantastyc, le CEA-List veut créer un écosystème de confiance sous la forme d’apprentissage fédéré.
Pour entraîner les IA et créer les modèles les plus fiables, de l’entraînement est nécessaire. Cela nécessite souvent de grandes bases de données qui sont parfois sensibles, venant d’acteurs de l’industrie ou de la santé. “Mais des constructeurs gardent les données lorsqu’ils travaillent sur des IA”, indique Cédric Gouy-Pailler, directeur de laboratoire au CEA-List, branche du CEA spécialisée dans les systèmes numériques intelligents. “Cette approche est mise en cause d’un point de vue réglementaire avec des enjeux de confidentialité”, poursuit-il. Avec le projet Fantastyc, le centre de recherches veut créer les conditions de confiance permettant à tous les acteurs de travailler dans une approche en écosystème.
Un apprentissage fédéré
“L’objectif est de créer une grande plate-forme où n’importe qui pourrait proposer des IA à entraîner et où d’autres pourraient valoriser leurs données”, explique William Boitier, ingénieur-chercheur au sein du CEA-List. Cette approche fédérée, où plusieurs acteurs partageraient des informations, permettrait à chaque constructeur d’IA de réaliser un apprentissage local, en transmettant ensuite les paramètres de ce qu’ils ont appris aux membres de la plate-forme. “Ce fonctionnement est utilisé dans la santé. C’est un secteur dans lequel ils ont beaucoup de mal à partager leurs données qui sont particulièrement sensibles”, souligne Cédric Gouy-Pailler.
“Un comité central valide l’entrée des données dans la plate-forme », assure William Boitier, “celles-ci sont ensuite dispersées dans plusieurs serveurs pour ne pas qu’on puisse les reconstituer”. Mais ce fonctionnement seul ne garantit par leur sécurisation parfaite. La faiblesse réside dans le transfert des connaissances acquises par les IA. “Il a été montré qu’en Machine learning, lorsqu’on partage uniquement de la connaissance, les personnes ayant accès à ses paramètres peuvent remonter par inversion aux données”, relate Cédric Gouy-Pailler.
Une sécurisation par bruitage
“Avec cela, il n’y a plus besoin de sortir des données et en perdre la maîtrise”, assure Alexandre Bounouh, CEO du CEA-List. Il évoque par-là, la solution de bruitage mise en place pour conserver la confidentialité de tout ce qui est transmis dans la plate-forme. “Ce bruitage a pour but de ne transmettre qu’une partie des paramètres d’apprentissage des IA”, développe Cédric Gouy-Pailler, “cette proportion suffit à valoriser les données, mais complexifie la tâche d’un attaquant qui veut les remonter”. Cette solution est couplée avec de la statistique pour s’assurer de la véracité des informations transmises.
“Le système compare les informations données par un participant avec les autres informations. Il peut ainsi repérer celui qui transmet des données très différentes des autres”. Ce projet s’inscrivant dans le cadre du label Carnot obtenu par le CEA-List, donné par l’État aux laboratoires faisant de la recherche pour les industriels, est actuellement en cours de déploiement. “On prépare un test grandeur nature dans la santé pour confronter le modèle et s’assurer qu’il fonctionne sur des données scalables”, indique le CEO du CEA-List. Il pourrait ensuite être étendu à d’autres domaines concernés par une certaine sensibilité des données, comme l’industrie.