Interview

« Annoter chaque pixel » : la révolution IA de l’IGN 

À la tête de 15 pétaoctets de données géographiques, Charles-Pierre Astolfi, DSI de l’IGN développe sa stratégie data et IA. 

Publié le 7 mai

Lecture 5 min.

IGN

Quelle est la mission principale de l’IGN ?  

L’IGN est l’Institut national de l’information géographique et forestière, un établissement public dont la mission principale est de produire la connaissance du territoire français. L'institut génère des données géographiques et forestières, disponibles en open source, via notre infrastructure de diffusion, la Géoplateforme. Le grand public et les professionnels ont accès à nos cartes ou celles de nos partenaires, ainsi qu’à nos images aériennes. Nos avions, basés à Beauvais, survolent chaque mètre carré de France métropolitaine une fois tous les trois ans. En ce qui concernent les DROM-COM (NDLR : groupement de toutes les collectivités et territoires français situés hors de l’Europe), nous passons principalement par des sous-traitants. L'IGN a également une mission spécifique axée sur la connaissance des forêts, le développement d’indicateurs de gestion durable et d'autres sujets liés à l'écosystème forestier. 

Quels choix technologiques avez-vous faits pour traiter et stocker vos données à très grande échelle ? 

Nous opérons 15 pétaoctets de données avec une stratégie hybride. Cette quantité n’est pas anodine, même pour une organisation de notre taille. Il s’agit de nos archives. Nous manipulons énormément de photos aériennes ou de données LiDAR (NDLR : la technologie LiDAR utilise des faisceaux laser pour mesurer des distances et des mouvements précis, permettant de créer des cartes topographiques détaillées et des modèles 3D). Le prix des offres cloud étant en partie basés sur le stockage nécessaire, c’est totalement rédhibitoire pour nous d’être entièrement sur le cloud. Nous avons donc nos propres datacenters et pour certains usages nécessitant de la haute disponibilité et une diffusion extérieure, comme c’est le cas de la Géoplateforme, nous utilisons OVHCloud. 

Comment est opérée la Géoplateforme ?  

Depuis l’année dernière, la DSI opère, exploite et fait tourner cet ensemble de services numériques d’API. Tout cela était auparavant fait par des prestataires que nous pilotions. Nous avons fait ce changement pour des raisons économiques et de souveraineté. Cette internalisation nous permet d’économiser des millions d’euros par an, mais aussi de maîtriser les compétences sur la mise à disposition des données qui est notre cœur de métier. L’IGN s’occupe aussi de l’actualisation des données fournies par notre institut, en se fondant sur des photos aériennes, pour que la représentation géographique de la France soit la plus à jour possible. 

Comment l’IA participe-t-elle à mettre à jour ces données ?  

L’une de nos utilisations consiste à annoter les photos aériennes, pixel par pixel. Chacun représente une surface de 20 cm sur 20 cm. L’IA permet de définir ce qui se trouve sur cette surface, du bâti ou une forêt, parmi une vingtaine de possibilités. Nous n’aurions jamais pu faire ça avec des opérateurs humains. Or, c’est très utile aux professionnels, de la recherche à l’aménagement du territoire. Cet outil, nommé OCS-GE pour occupation du sol à grande échelle, se place progressivement au cœur de nos processus métier. Nous avons pu la développer en lien avec nos laboratoires de recherche, directement liés à l’école d’ingénieur de l’IGN, Géodata Paris.  

Où en êtes-vous aujourd’hui dans l’intégration de l’IA au sein de l’IGN ? 

Nous avons engagé sur les quatre à cinq dernières années une quarantaine d’experts IA, ce qui a permis une réelle montée en compétence de l’IGN. Nous avons également lancé un groupe de travail sponsor IA qui repère des cas d’usages pour optimiser le temps des agents de l’IGN. L’un d’eux est la détection du non-changement. Le modèle compare deux photos aériennes et, si aucune évolution n’est trouvée, les opérateurs humains ne repasse pas dessus pour vérifier la même chose. C'est important pour nous de faire un écrémage et de laisser nos opérateurs travailler sur des choses à plus forte valeur ajoutée, à savoir les modifications constatées comme la dégradation d’une route, l’apparition d’un bâtiment... 

Quels challenges avez-vous identifiés lors de cette mise à l’échelle ?  
Notre groupe de travail est transverse, il travaille avec les différents métiers pour intégrer l’IA au cœur des process. Le risque, c’était que l’on construise quelque chose à côté de la chaîne de production, qui restera à jamais un POC. Nous avons donc dû repenser des process, ce qui est un enjeu de transformation organisationnelle avant d’être technique. Un autre challenge, paradoxalement, c’est l’enthousiasme des agents qui réalisent que l’IA permet de faire des choses que l’on ne pouvait pas faire avant. Trop d’idées émergent par rapport au nombre d’experts capables de les développer. Mais c’est bon signe, selon moi.  

Sur quel modèle sont développés vos cas d’usage ?  

Nous avons quelques abonnements chez les leaders du marché : Mistral, OpenAI ou encore Anthropic pour rester à la pointe de ce qui se fait mais c’est minime. Pour tout ce qui concerne les chatbots et l’IA agentique, nous utilisons le portail des IA génératives (PIAG), fourni par le ministère de l’environnement. Enfin, pour nos besoins métiers, nous développons nos propres modèles de fondation, qui sont réutilisables sur plusieurs usages. L’un d’eux s’appelle Maestro. C’est un commun que nous mettons à disposition de tous, en open source. Nous l’avons notamment utilisé pour faire de la détection d’espèces d’arbres pour mettre à jour notre base de données forêt de manière quasiment automatisée.