Alliancy

IA : optimiser les modèles pour atténuer l’impact d’une démocratisation 

 

L’utilisation de l’intelligence artificielle (IA) générative à grande échelle pose la question de l’impact écologique de ces solutions. Outre une alimentation électrique grâce à de l’énergie bas carbone, un dimensionnement plus adapté des différents modèles pourrait permettre de réduire la facture.

 

La consommation d’énergie est l’une des principales préoccupations liées à l’entraînement et au fonctionnement des modèles d’IA sur le plan climatique. Plusieurs aspects interviennent, dont la source d’énergie. « Entraîner un programme aux États-Unis plutôt qu’en France peut causer l’émission de 11 fois plus de CO2 », assure Damien Lucas, CEO de l’hébergeur français Scaleway, durant un événement sur l’IA et le climat, au siège parisien de Salesforce. La raison ? Le mix énergétique de l’Hexagone, qui produit 97 % d’électricité non carbonée, notamment grâce au nucléaire. « La question doit se poser de migrer les modèles vers des zones plus décarbonées pour optimiser leur bilan », indique Jérémie Verza, co-fondateur d’EcoLLM, spécialisé dans la mesure des impacts écologiques des IA génératives et leur optimisation. Mais l’évaluation des impacts reste encore à démocratiser et des données manquent concernant les consommations d’énergie futures liées à l’IA. « J’ai du mal à cerner comment évolue l’état de l’art », confesse Sasha Luccioni, responsable IA Climat chez Hugging Face, qui centralise des solutions d’IA en open source. « Les programmes deviennent de plus en plus grands et demandent de plus en plus d’heures d’entraînement », poursuit-elle en évoquant les LLM (grands modèles de langage) les plus célèbres du marché. « La croissance de la consommation liée à l’intelligence artificielle est exponentielle », s’inquiète Sasha Luccioni. Une inquiétude que réfute Julien Villeret, Chief Innovation Officer chez EDF. 

 

Un décalage entre les délais du nucléaire et les besoins de l’IA

 

« La consommation d’énergie liée à l’intelligence artificielle ne deviendra pas hors de contrôle », affirme-t-il. Selon lui, cette interrogation, déjà survenue lors de la démocratisation des ordinateurs puis d’internet, ne s’est jamais vérifiée dans les faits. « La consommation électrique sur ces 20 dernières années est assez stable », indique Julien Villeret. En effet, l’efficacité énergétique, notamment celle des datacenters, s’est considérablement améliorée. Leur consommation représente 1,5 % de la consommation électrique mondiale, mais celle-ci devrait passer à 2,5 % d’ici 2030. « C’est un chiffre qui va doubler, mais qui restera faible par rapport aux transports et à la climatisation », souligne-t-il, estimant que la priorité n’est pas la consommation des modèles d’IA : « Concentrons-nous sur l’électricité bas carbone nécessaire pour les faire tourner ».  Une théorie que ne partage pas Sasha Luccioni. En effet, pour répondre aux besoins en énergie bas carbone liés à l’IA, la construction de centrales nucléaires est nécessaire à travers le monde, notamment aux États-Unis. C’est un challenge que tentent de relever les GAFAM comme Amazon ou Microsoft, qui souhaitent créer des SMR (petits réacteurs modulaires) pour le premier et réhabiliter une ancienne centrale pour le second. « Mais les délais du nucléaire ne sont pas alignés avec les besoins de l’IA », réagit la responsable IA Climat chez Hugging Face. 

 

Des modèles de langage plus adaptés 

 

Pour faire fonctionner certains grands modèles de langage (Learn Language Machine – LLM) , des dizaines, voire des centaines de milliards de paramètres sont parfois nécessaires. Une quantité qui engendre une consommation d’énergie très importante, face aux types de demandes, parfois très classiques, faites sur des programmes génériques comme ChatGPT, par exemple. « Il faut les réduire et arrêter de déployer des grands modèles génériques », indique Sasha Luccioni. « Il est rare que les gens souhaitent tout faire avec une même IA. Ils demandent souvent des tâches spécifiques. » En effet, utiliser des petites technologies spécifiques, selon le besoin, permet de réduire la consommation liée à leur utilisation. « Un grand modèle peut consommer 1 000 fois plus qu’un petit modèle spécifique », assure Boris Gamazaychikov, AI Sustainability Lead chez Salesforce. Dans cette multiplication de petites solutions, l’open source peut jouer un rôle clé. « L’IA est déjà assez démocratisée pour ne plus avoir à entraîner des modèles à partir de zéro », assure Sasha Luccioni, dont l’entreprise Hugging Face héberge près d’un million de solutions en open source. « Je crois au partage », ajoute-t-elle. En effet, dans l’open source, chaque membre de la communauté apporte son expertise pour tirer les solutions vers le haut, tant sur le plan de l’efficacité que sur celui de la responsabilité. La frugalité en fait partie. « Il faut adapter à son usage des programmes déjà entraînés. » 

 

Développer la mesure de l’impact 

 

Une vision présente dans la stratégie nationale pour l’IA. Selon Guillaume Avrin, coordinateur national pour l’intelligence artificielle, « l’IA frugale permet de gagner sur tous les volets ». En effet, elle permet de répondre, de manière maîtrisée, au déploiement de cette technologie de rupture dans l’ensemble de la société. « Des secteurs ont besoin de solutions embarquées, locales, qui ne peuvent pas être déportées dans le cloud. Ils ont besoin d’IA moins énergivore et d’inférence », ajoute-t-il. Une question que la mesure de l’impact de certains programmes pourrait permettre d’objectiver. « Nous voulons démocratiser la mesure », indique Jérémie Verza, co-fondateur d’EcoLLM. Pour évaluer des modèles, la prise en compte de nombreux points est primordiale. « Il n’y a pas que l’électricité, mais également les terres rares ou encore l’eau », poursuit-il. En effet, toutes ces informations doivent permettre de faire le choix de la solution d’IA la plus adaptée et la plus responsable. Selon Jérémie Verza, la prise en compte de tous ces aspects doit permettre de poursuivre l’utilisation de l’IA le plus longtemps possible : « On ne sait pas si on va dans le mur avec cette technologie, mais on doit avoir un principe de précaution pour l’implanter de la meilleure façon », conclut-il.

 

 

Quitter la version mobile