Alors qu’un premier référentiel sur l’Intelligence Artificielle (IA) frugale est paru en juin 2024, il reste désormais un enjeu à en faire adopter massivement les principes. Mais d’ailleurs peut-on réellement parler de frugalité face à une technologie adoptée à la hâte par le plus grand nombre et qui n’a de cesse de faire grimper l’empreinte environnementale du numérique au sein des entreprises ? Pour l’heure aucune réponse évidente n’émerge.
« IA Frugale ? C’est un dangereux oxymore ! » exprime Eric Boniface, directeur de l’association Labelia Labs qui travaille depuis 2019 sur les enjeux d’IA responsable. L’IA frugale incarne un cadre pour les principes d’une IA plus sobre. L’ambition : contrer l’empreinte environnementale galopante de l’IA. Mais même dite frugale, la technologie pourrait rester gourmande en ressources et la course est lancée tous azimut par les entreprises pour faire de l’IA un levier de performance.
Dans ce contexte, il n’est pas certain que les principes de frugalité, qui visent aussi à questionner la place de la technologie, trouvent un écho suffisamment large pour modifier la trajectoire prise en matière d’IA. Pourtant, une IA non-maîtrisée pourrait bien s’avérer être un facteur de risque important pour les entreprises.
La notion d’IA frugale a notamment été mise en lumière en juin 2024 grâce à la sortie d’un travail conjoint d’expertes et experts du numérique responsable et spécialisés sur les questions d’impacts de l’IA sous l’impulsion du CGDD (Commissariat Général au Développement Durable) et de l’Afnor. C’est ainsi que le référentiel pour une IA frugale, l’AFNOR Spec 2314, est sorti avec 31 bonnes pratiques et un cadre méthodologique pour évaluer l’empreinte de l’IA embarquée dans les services numériques : un premier jalon pour espérer à termes pousser ces principes à un échelon européen d’une part et à les imposer comme une norme à respecter d’autre part.
Des entreprises volontaires
Parmi les expertes et experts qui ont contribué à ce référentiel, il y a celles et ceux de l’association Impact AI, spécialiste depuis 2018 de l’IA responsable. Cette association regroupe plus de 80 entreprises et d’après Roxana Rugina, déléguée générale d’Impact AI, les entreprises sont de plus en plus demandeuses d’IA responsable. « Chez Impact AI, on parle plutôt d’IA responsable, respectueuse de l’environnement et il nous paraît essentiel d’avoir une démarche holistique », explique-t-elle, car chez Impact AI, la démarche responsable n’implique pas que l’environnement. Impact AI travaille également sur les enjeux d’éthique, d’inclusion par exemple.
Sur la frugalité, les entreprises que Roxana Rugina côtoie sont volontaires même si elle concède qu’il n’est « pas évident d’engager tous les adhérents vers une IA frugale ». « Impact AIencourage ses adhérents à avoir une approche responsable dans le choix de modèle » précise-t-elle, « par exemple, on les interroge pour savoir s’il est nécessaire dans leur cas d’utiliser des modèles de langage très larges et de se poser ainsi les bonnes questions en amont ».
Pour favoriser l’engagement des entreprises, Impact AI valorise celles qui font déjà de l’IA frugale. « On a des start-up qui peuvent montrer le retour sur investissement à aller vers plus de frugalité » détaille Roxana Rugina, « on invite ces entreprises à exposer leurs cas d’usage ». Convaincu qu’il est possible de limiter l’empreinte de l’IA, Impact AI met la question environnementale au premier ordre des sujets à traiter en cette rentrée.
Vers une meilleure quantification
La quantification des impacts fait aussi partie des points à maîtriser pour limiter l’impact de l’IA, mais pour Roxana Rugina il faudra l’aide des producteurs des modèles de langage : « il y a un rôle de la communauté de contribuer ensemble à obtenir plus de transparence de la part des principaux fournisseurs d’IA ; c’est important leur mettre la pression ».
Alice Drahon, experte indépendante, spécialiste de la data responsable et de l’IA frugale confirme l’enjeu de quantifier : « il faut apprendre à piloter et intégrer dans les arbitrages les impacts environnementaux de l’IA ; comprendre où sont les impacts ce n’est pas si simple ». À ses yeux, l’AFNOR Spec, à laquelle elle a contribué, fournit le bon cadre méthodologique : « si tout le monde l’utilise, on pourra mutualiser les informations sur les bonnes pratiques qui fonctionnent le mieux pour réduire l’empreinte de l’IA. »
Pour Labelia Labs et son directeur Eric Boniface, la quantification est également un enjeu central : « je ne suis pas très à l’aise avec la notion d’IA Frugale, deux termes potentiellement antagonistes, voire même qui pourrait relever du greenwashing face à l’usage démesuré de la technologie. “Frugal” n’est pas un terme neutre qu’on peut quantifier. » détaille-t-il, « je préfère parler de la quantification de consommation énergétique et de quantité de gaz à effet de serre pour pouvoir ensuite raisonner sur ces chiffres. »
Des risques encore peu identifiés
D’ailleurs, difficile d’aller vers la frugalité lorsque les risques ne sont pas encore complètement identifiés. Par exemple, pour Labelia Labs, comme pour Impact AI, le risque climatique est encore peu pris en compte. « Les entreprises sont pragmatiques dans la majorité. Aujourd’hui et dans les années à venir avec l’AI Act et la pression publique, entre autres, les entreprises auront à cœur de montrer qu’elles ont travaillé sur ces sujets, pour mieux convaincre les partenaires, clients, candidats à recruter, etc. » explique Eric Boniface, « et pour l’instant, par exemple, sur la consommation énergétique, elles ne voient pas les risques climatiques qui pourraient contraindre leur développement. »
« Pour l’heure, le business de la plupart des entreprises ne dépend pas encore de l’IA. Elles s’attellent plutôt à sécuriser l’approvisionnement » ajoute le directeur de Labelia Labs, « à moyen terme, à 10 ans, quand on navigue dans les univers de la transition écologique, on voit bien qu’on peut se poser de grandes questions sur notre capacité à continuer à faire tout ça ! ».
Ce moyen terme risque d’arriver vite, mais l’experte indépendante Alice Drahon, cumulant plus de 15 ans d’expérience dans les entreprises de conseil, confirme : « ces risques paraissent encore très abstraits pour les entreprises ». « Aujourd’hui, c’est très étonnant qu’il n’y ait pas de plan de continuité d’activité autour des systèmes d’IA alors que pourtant, il y a de grandes questions qui vont se poser en matière de consommation d’eau, de consommation d’électricité par exemple » poursuit-elle, « tout le monde fait comme si ça allait fonctionner alors que dans le futur il n’y a pas de garantie ».
La course avant l’effondrement ?
Pour Alice Drahon, la priorité des priorités serait de remettre en question les business models pour une transformation en profondeur et faire ainsi face à la transition écologique : « mais on en n’est pas là ! Tout le monde sait que l’IA générative va être une catastrophe écologique, notamment à cause des énormes datacenters nécessaires à son fonctionnement, mais à cause de la concurrence, la peur de se faire distancer par les autres, toutes les grandes structures s’y mettent. »
Et pourtant, les signaux sont de moins en moins faibles. En Uruguay, Google créait la polémique en 2023 en voulant implanter un datacenter, gourmand en eau, en pleine pénurie d’eau potable. À Londres en 2022, des serveurs d’Oracle et de Google tombaient sous la chaleur écrasante. Et l’été 2024 a encore été le plus chaud jamais enregistré au niveau mondial.
Dans ce contexte, Google et Microsoft ont révélé qu’ils n’avaient pas tenu en 2023 leurs engagements en matière de réduction de leur empreinte environnementale à cause, entre autres, du développement de l’IA. Au sein des autres entreprises, la sentence risque d’être la même alors que la CSRD pourrait bien interrompre cette fuite en avant à coups d’obligations légales.
Dangereux oxymore ou non, l’IA frugale, notamment à travers l’AFNOR Spec, ouvre une voie vers une remise en cause de la systématisation de l’IA dans les innovations numériques qui s’opère depuis près de 2 ans. L’IA frugale ouvre aussi une voie vers une remise en cause de la maximisation de la taille des modèles de langage et base de données utilisées pour mettre en œuvre ces innovations.
Alice Drahon rappelle, qu’en matière d’IA comme en matière d’innovation numérique, le premier réflexe doit être de questionner l’usage : « C’est une question très présente au cœur de la spec : se demander dès le départ s’il y a vraiment besoin d’IA ». Un premier pas bien utile, qui devra être suivi d’encore beaucoup d’actions pour entrer dans les habitudes des entreprises et dans le champ légal, et espérer ainsi contenir l’empreinte du numérique face à des innovations toujours plus voraces en énergie.