L’intelligence artificielle (IA) est un sujet à la fois ancien et nouveau, technologique et sociétal, qui a beaucoup évolué avec l’arrivée de ChatGPT… Aussi, pour mieux cerner de quoi on parle, le Conseil départemental des Pyrénées-Atlantiques organisait une table-ronde le 24 avril à Biarritz sur les grands enjeux liés à ces technologies.
Pour y réfléchir, un cycle de conférences a été initié sur les grands champs prospectifs, que sont la démographie et la société ; l’environnement, le climat, les énergies ; les communications, les réseaux, la mobilité ; l’agriculture et l’alimentation.
Après une réflexion sur la cohésion sociale, puis le climat, la conférence, organisée la semaine dernière à Biarritz, s’intitulait : « Intelligence artificielle : pour le meilleur ou pour le pire ? ». Pour y répondre, étaient présents Jean-Jacques Lasserre, le président du département, aux côtés de quatre experts :
- François Pellegrini (Université de Bordeaux et vice-président de la Cnil – Libertés à l’ère numérique, informatique et société) – du droit des technologies numériques. Il est occasionnellement missionné comme expert international sur les questions de développement, de contenus numériques et d’éducation. Ses publications portent notamment sur « Les données à caractère personnel, carburant du capitalisme de surveillance » et « La portabilité des données et des services ».
- Patrice Duboe, Capgemini – Evolution et tendances et accélération (robotisation) de l’IA – Evolution de l’IA éthique. Capgemini est une entreprise de services du numérique française créée par Serge Kampf en 1967. Acteur majeur du conseil et de la transformation numérique, Capgemini propose des services combinant technologie et expertise sectorielle.
- Lauren Boudard, diplômée en économie de l’Université Paris Dauphine, elle a travaillé dans le milieu des start-up à Londres et en France. Elle a cofondé TechTrash, un collectif qui décrypte la manière dont les nouvelles technologies bouleversent notre quotidien. Elle a publié l’ouvrage « Les Possédés, ou comment la nouvelle oligarchie de la tech a pris le contrôle de nos vies ». Elle a participé au documentaire France TV : « invisibles les travailleurs du clic ».
- Thierry Colin, Sophia Genetics (biotechnologie séquençage ADN) et participant à la Commission Big Data en Santé à l’Académie française de Médecine. C’est l’un des pionniers de l’application de l’AI en médecine en France. Sophia Genetics croise l’intelligence artificielle et la médecine.
Déjà présente dans de nombreux secteurs tels que la santé, l’industrie, l’agriculture, les services financiers, l’éducation, la recherche scientifique…, les technologies d’IA offrent des avantages significatifs en termes d’efficacité, de précision et de rapidité. Cependant, l’IA soulève également des préoccupations et des défis importants : questions éthiques liées à la responsabilité, la sécurité et la vie privée des individus ; dépendance technologique ; impact sur l’emploi ; contrôle de l’IA… Tout cela implique également de former des professionnels qualifiés dans le domaine de l’IA afin de garantir une utilisation efficace et responsable de cette technologie.
Pour voir le replay de la soirée
Des défis de l’IA largement évoqués lors de la table-ronde du 24 avril, autant sur le plan technologique et de sa mise en pratique, qu’au niveau des risques qu’elle représente.
A commencer par ce que l’on entend par « intelligence artificielle », terme que les spécialistes autour de la table s’accordaient pour ne pas apprécier… Il faut parler d’algorithmes et de puissance de calcul, jusqu’ici inégalés, ont-ils expliqué. Car tout ceci n’a rien à voir avec « l’intelligence », qui ne peut être qu’humaine.
Patrice Duboe de Capgemini a poursuivi en faisant une démonstration en live du dernier outil conversationnel appelé ChatGPT, qui fait la une de nombreux journaux et publications depuis sa sortie fin 2022 et bouleverse la vision de ces technologies dans les entreprises. Depuis, les concurrents d’OpenAi, propriétaire de ChatGPT, ont annoncé en rafale leur propre outil, que ce soit Google, Amazon, Alibaba, Samsung…
A la question posée « Donner les principes d’une IA éthique », l’outil a sorti un texte rédigé en plusieurs points… « L’appliquer dans les Pyrénées-Atlantiques »… « Donner des exemples dans le tourisme et l’agriculture »… Rien de très approfondi au final, mais une « base de travail », de quoi voir la puissance de l’outil autant que ses limites, avec toutes les craintes que cela posent en matière de disparition de certains emplois.
A ce propos, pas un des intervenants n’a risqué de chiffres. On voit trop de prédictions rocambolesques. Pour autant, la réalité des « travailleurs du clic » et de la précarisation de certains emplois n’est plus à prouver. « Ces travailleurs ressemblent aux enfants durant la révolution industrielle. Ils font face à la tacheronisation », a résumé Lauren Boudard.
Il ne faut surtout pas avoir une croyance magique dans la technique, a rappelé François Pellegrini, qui ne croit pas au solutionnisme technologique : « La machine ne décide pas. Elle calcule. » Et de citer l’exemple du marché des chatbots en plein développement… mais, pour autant, qui ne règle pas tout.
A lire aussi sur Alliancy : Impact AI s’intéresse à l’IA positive et à l’inclusion
A poursuivi le mathématicien Thierry Colin, qui travaille pour la société Sophia Genetics basée à Bidart, à quelques kilomètres de Biarritz. L’expert a ainsi expliqué comment la technologie d’intelligence artificielle de la société combine génomique et radiomique pour combattre le cancer. Ce dernier voit d’ailleurs deux utilisations de l’IA dans la santé. Soit elle sert à gagner du temps. En radiologie par exemple, l’IA peut aujourd’hui détecter une fracture d’os. Le radiologue peut donc se consacrer à des tâches plus difficiles en matière de diagnostic à réaliser…
L’autre usage de l’IA concerne le diagnostic, comme en cancérologie par exemple. Elle peut aider les médecins à intégrer d’autres sources de données et de les corréler pour trouver le meilleur traitement pour le patient… C’est ce que fait Sophia Genetics, leader mondial de la médecine basée sur les données, en apprenant sur les datas existantes et en proposant des traitements. Grâce à l’outil de la société en cours de développement, les cliniciens disposeront bientôt d’un outil complet intégrant les dimensions spatiale et temporelle obtenue par l’imagerie médicale et la compréhension profonde de la nature biologique de la tumeur issue de son profil génomique. Une avancée très attendue.
Concernant le futur et leur vision du déploiement de l’intelligence artificielle, Patrice Duboe de CapGemini se veut « optimiste » : « Si on veut être productif, il faut amener des idées dans l’autre sens. Il faut surtout éduquer pour ne pas créer une nouvelle fracture sociale et c’est valable en continu » La collectivité doit donc se poser la question de ce qu’est une éducation « en continu » de son public ? Sachant que rien ne se fera sans éthique.
Lauren Boudard a également insisté sur le fait qu’une IA éthique passe par former les développeur.e.s en ce sens. A commencer par « féminiser les emplois de la tech », un chiffre encore inférieur à 20%…
François Pellegreni a lui indiqué « ne pas savoir de quoi on parle en matière d’IA ». Oui, pour la santé, non pour la voiture autonome… « La technologie n’est pas neutre. Le choix de développer tel ou tel outil a un impact sociétal. La question est donc de savoir quel est le modèle sociétal que nous voulons promouvoir ? Que veut-on faire de l’IA ? Comment la réguler ? Oui à la reconnaissance faciale par exemple, mais pour quoi faire ? »
Un rapide rappel de l’« IA Act » en préparation à Bruxelles a ensuite été fait, ce projet de règlement visant à encadrer l’usage et la commercialisation des intelligences artificielles dans le futur, afin d’aider à l’innovation tout en garantissant la sécurité et les droits des utilisateurs.
La Commission européenne a notamment pris le parti de la neutralité technologique et d’une approche par les risques. Ainsi, que le système d’IA soit utilisé dans les secteurs de la banque, de l’automobile ou du luxe, sa classification est opérée selon les risques que le système peut présenter pour la santé, la sécurité, les droits fondamentaux… des personnes (interdits, à risques moyens, à hauts risques, etc.).
« L’IA est un outil et ne reste qu’un outil, poursuit François Pellegrini, mais qui peut être positif. Prenons le cas du télétravail, il permet de ramener de l’emploi sur tous les territoires. »
En conclusion, ce panel d’experts est revenu sur l’importance de l’explicabilité des grands systèmes et le coût énergétique de l’IA générative notamment. « A l’école, on n’apprend pas comment conduire une voiture, mais la physique. Dans le domaine du numérique, c’est la même chose. Il faut arriver à des notions de base, de ce qu’est tout simplement le calcul ». D’où l’importance d’éduquer sur l’IA, tout comme de légiférer.
Pour répondre aux travaux de la 6ème commission du département, ces experts se sont également projetés en 2040 à l’échelle d’un territoire : quelle influence l’IA pourrait-elle avoir sur la cohésion sociale et la solidarité ?
Leurs réponses :
- Eduquer le plus grand nombre sur les usages de l’intelligence artificielle et légiférer ;
- Garantir un usage éthique de l’IA
- Usage des données personnelles (à quoi serviront-telles ? A contrôler ou au bénéfice de tous ?)
- Le progrès technique est toujours perçu comme une menace. L’IA ne doit pas détruire le travail, mais va le reconfigurer.