De nouveaux usages de mobilité et logistique, qui s’appuient sur l’IA, pourraient aider les villes à s’adapter à la crise sanitaire et à anticiper les prochaines crises. Mais les écueils pour les mettre en œuvre sont nombreux.
En la matière, les regards se tournent rapidement vers les capacités d’intelligence artificielle. Avec l’idée que vu les progrès fait par l’IA ces dernières années, il serait tout simplement possible de mieux canaliser les flux et organiser les systèmes des villes et des territoires. Les cas d’usages semblent innombrables alors que les vertus des Smart City sont martelées depuis longtemps.
Comprendre le territoire et aider à la décision
A lire aussi : La crise sanitaire accélérateur des territoires numériques ?
Et ces façons de faire demeurent valables pour mieux gérer l’impact des travaux urbains, mais aussi potentiellement les alertes attentats, les crises liées au dérèglement climatique… « avec des moteurs de règles qui permettent de recommander des mesures à J-2 ou J-1, ou le cas échéant en réaction rapide à un évènement » illustre l’expert. Les possibilités sont nombreuses notamment grâce à la capacité à utiliser les images et vidéos de la ville avec le numérique, la « computer vision », pour mieux comprendre les interactions entre de multiples systèmes.
Prévoir les infrastructures futures de la ville
En matière de mobilité, c’est la gestion des pistes cyclables, avec des capteurs permettant de récupérer les informations sur l’intensité de leur usage qui est mis en avant, pour préparer la reprise. « Cela va guider la pérennisation des équipements. Il nous faut acquérir une vision qui facilite la construction des prochaines infrastructures et évite le stress urbain, y compris pendant les crises » résume-t-il.
Les aspects spécifiquement liés à la santé ne sont cependant pas un domaine de compétences des villes, difficile donc d’imaginer pouvoir faire des liens directs entre ces améliorations d’usages et de véritables mesures de prévention sanitaire, au-delà de ce qui relève déjà du bon sens en matière de politique publique, comme la mise à disposition de lieux et d’équipements pour les équipes de santé en cas de besoin.
Un enjeu avant tout logistique
Alors qu’est-ce qui coince pour généraliser des mises en œuvre et que ces villes « post-covid » émergent ? Les défenseurs de la smart city dénombrent en fait deux catégories de problèmes : la capacité opérationnelle à réunir et à gérer la donnée utile d’une part, et l’acceptabilité des services rendus d’autre part.
Le défi du partage efficace de la donnée
« C’est assez marrant d’entendre toutes les communications sur l’intelligence artificielle ces dernières années » reconnait Jean-Phillipe Clément. « L’IA arrive après plein d’autres enjeux beaucoup plus délicats autour de la gestion de la donnée. Une IA peut mettre en lumière quelques effets « waouh », mais avant cela et avant de recruter les datascientists qui vont travailler en ce sens, il faut déjà que les organisations pensent différemment la donnée, qu’elles soient capables de produire des données dont l’usage à termes dépassera celui qui a été prévu initialement.
C’est un enjeu d’état d’esprit des acteurs à tous les niveaux » souligne-t-il. Pour le chief data officer de la Mairie de Paris, « l’IA est une belle tête de gondole » mais le défi est celui de la mise en qualité des données et de sa disponibilité. « Dès que l’on a cela, on sait que l’on peut démultiplier les usages. La gestion du temps réel avec des algorithmes, on le fait déjà depuis les années 1980 avec les feux de croisement à Paris ! ». Autrement dit, un cas d’usage qui ne nécessitait pas une grande transversalité des données.
Cette problématique du partage de la donnée n’est pas un problème nouveau, c’est d’ailleurs l’une des raisons de la dynamique d’open data. « Les problèmes sont les mêmes qu’il y a cinq ans », juge Jean-Marc Lazard, CEO du spécialiste français Opendatasoft, qui travaille depuis longtemps avec la ville de Paris. Il estime que le « statut » de la data est heureusement en train de changer grâce à une acculturation de plus en plus forte dans les organisations. « Ce ne sont plus seulement les projets « rocket science » (de pointe, ndlr) qui sont mis en avant. Mais il reste toujours le défi d’organiser les flux de données, de gérer tous les prérequis » analyse-t-il.
Beaucoup d’organisations ne jouent pas encore le jeu
« Pendant la crise, on a à ce titre vu des témoignages différents entre les acteurs publics ou privés qui étaient déjà dans une logique de partage ouvert des données. Ceux-là sont allés beaucoup plus vite sur les actions en matière de commerce, de flux de déplacements, de santé… Et on a vu aussi ceux qui auraient vraiment aimé avoir mieux anticipé le sujet. Ce n’est pas qu’en France, nous avons ces mêmes exemples en Australie, en Espagne ou aux Etats-Unis », décrit le patron d’Opendatasoft. Pour lui, la caractéristique principale des crises est évidemment de générer de l’imprévu. C’est donc bien la capacité à avoir des routines résilientes de partage des données et de l’information qui permet de s’adapter.
A lire aussi : L’intelligence artificielle pour une gestion sanitaire plus résiliente ?
Un défi confirmé par Guillaume Vacher de Magellan Partners : « Le partage de la donnée, sa mise en commun, sa protection, mais aussi la définition de qui en est propriétaire, de qui s’en occupe opérationnellement… Tout cela pèse lourdement sur la faisabilité des projets. » D’autant plus alors que beaucoup d’organisations ne jouent pas encore vraiment le jeu. « On n’y est pas encore : les entreprises veulent encore faire tout de leur côté, avec leurs propres algorithmes, leurs propres modèles pour entrainer l’IA sur leurs propres données… » épingle Arnold Zephir. « A un moment, elles finiront par se rendre compte que c’est en se mettant ensemble qu’elles seront encore plus pertinentes et fortes. Et un jour il y aura sans doute des données avec une approche du bien public liées à la smart city, avec un flux que tout le monde alimentera pour élargir le spectre des usages » espère-t-il.
Le datascientist souligne d’ailleurs que des techniques se développent pour faciliter cette transversalité, comme l’apprentissage mutualisé (c’est-à-dire la capacité d’algorithmes à faire bénéficier différents acteurs d’un apprentissage croisé sur les données des uns et des autres sans les mettre en commun) ou le chiffrement homomorphique, pour analyser des données chiffrées.
Bad buzz et rétropédalages
Et par ailleurs, l’acceptabilité des usages proposés par les citoyens restent un point central qui a beaucoup fait parler. Preuve en est le rétropédalage de la RATP, qui avait installé des caméras équipés d’un logiciel pour analyser le port du masque dans le métro dans la foulée du premier confinement. Le regard désapprobateur de la Cnil et le potentiel délétère de l’initiative dans l’opinion publique a fait cesser l’expérimentation dès le mois de juin. « Comment communiquer ces nouveaux usages auprès du grand public est un sujet à part entière », reconnait Guillaume Vacher. « La ville de demain ne peut se construire que dans l’acceptation et il y a beaucoup d’aspects sur lesquels le citoyen n’est tout simplement pas prêt.
Nous avons vu le « bad buzz » à Saint-Etienne quand la municipalité a voulu installer des capteurs sonores pour détecter les pics anormaux de sons dans l’espace public. Dès que le citoyen n’est pas inclus à part entière dans l’expérimentation, il va y avoir un blocage. L’usage d’une caméra n’est à la base pas neutre en soi. Il faut trouver des usages qui n’agressent pas ». Et en la matière, si la crise peut être vu comme un moment unique pour justifier de nouveaux usages « exceptionnels », il est aussi clair que ceux-ci sont extrêmement surveillés, par les citoyens autant que par les autorités, comme le prouve la décision de la Cnil de faire du sujet un de ses points d’attention majeur pour 2021.