[EXCLUSIF] En septembre dernier, après un siècle d’attente, Paris a été choisie pour accueillir les Jeux Olympiques en 2024. Pour la première fois, la capitale française entre dans le cercle des métropoles les plus attractives au monde. L’objectif de la ville est maintenant de faire place à la préparation des Jeux !
Pour cette nouvelle édition, il ne s’agira pas uniquement de construire de nouveaux équipements et infrastructures. Paris a l’attention de se transformer en « smart city » en faisant concourir les nouvelles technologies comme l’IoT, l’intelligence artificielle ou encore le Big data pour pouvoir gérer les flux de citoyens, éviter la congestion pendant les Jeux, améliorer le confort urbain, connaître en temps réel la durée d’attente à l’entrée des activités et répondre aux défis énergétiques fixés lors de sa candidature.
Après l’appel à l’innovation lancé en 2016, de nombreuses start-up ont proposé des solutions pour répondre au mieux aux défis lancés par la ville. Une jeune pousse comme Placemeter par exemple, a dévoilé une technologie de vision par ordinateur qui permet de compter et différencier les voitures, motos, vélos et piétons et d’anticiper les flux de personnes. Une collaboration entre la ville et les grands groupes est également étudiée de près, notamment pour réduire et maîtriser la consommation d’énergie. Dans Paris transformé en ville intelligente, le mobilier urbain comme les réverbères par exemple pourraient être alimentés par l’énergie solaire et connectés aux autres infrastructures intelligentes de la ville. Ces derniers pourraient atténuer leur lumière pour indiquer aux conducteurs les places de parking disponibles et éviter les embouteillages.
Gérer et stocker un volume de données multiplié par huit d’ici 2025
Si s’appuyer sur les nouvelles technologies pour atténuer les désagréments engendrés par la tenue des Jeux demeure un choix judicieux, il reste encore à régler la problématique de la gestion de données. Cette année, IDC a publié une étude révélant le volume des données attendues à l’échelle mondiale d’ici à 2025. Le résultat est étonnant : en moins de dix ans, le volume total de données à analyser sera multiplié par huit, pour atteindre 163 Zettaoctets (163 milliards de Teraoctets). L’année dernière, un sondage mené par Data Genomics, qui a analysé des dizaines de milliards de fichiers et leurs attributs, à partir d’un grand nombre d’environnements de données non structurées, révélait déjà que les référentiels de données à l’échelle des entreprises avaient augmenté d’environ 50% à l’année, en raison de la prolifé-ration de nouvelles applications et des technologies comme l’Intelligence Artificielle et l’Internet des Objets (IoT). Et ce qui est saisissant dans ces révélations, ce n’est pas l’augmentation de la production de données à stocker, mais le rythme effréné de cette aug-mentation.
En effet, si les données continuent d’augmenter à ce rythme et que les entreprises ne trouvent pas un moyen de les stocker et de les gérer, ces dernières seront bientôt, dans le monde entier, confrontées à des dépenses de stockage de données s’élevant à des milliards de dollars. Pour remédier à cette problématique, les entreprises ont compris qu’elles devaient se tourner vers le cloud pour réduire la complexité et améliorer l’agilité. Mais l’objectif de cette adoption est également de réduire les coûts associés au stockage des volumes conséquents, et des données secondaires sur le long terme, et dans plusieurs cloud.
Dans ce cas de figure, les solutions de déduplication et de suppression des données en double constituent une alternative adéquate, car elles permettent de stocker leurs données dans le cloud à moindre coût et sans avoir à opérer de changement sur le réseau. De même, les sauvegardes sont exécutées plus rapidement et des économies peuvent donc être réalisées en migrant les données vers les cloud hybrides, privés et publics.
Partager les données publiques et personnelles de manière sécurisée
Un autre facteur clé pour assurer la pérennité de la transformation de Paris en ville intelligente réside également dans l’ouverture et le partage des données. Car ce sera sur la base des données que les actions et les décisions stratégiques seront prises. L’OpenData, qui désigne les données auxquelles tout le monde peut accéder, est primordial pour le bon fonctionnement d’une ville intelligente. Dubaï par exemple, est l’une des premières villes à avoir adopté cette initiative ambitieuse en 2015.
Aujourd’hui, les secteurs public, privé et le gouvernement partagent les données des citoyens de la ville. L’objectif à terme, n’est pas d’emmagasiner le plus de données possibles mais de créer de la valeur, des opportunités et des expériences améliorées pour la population.
En France, si les grands groupes, les start-up, les collectivités ou encore le gouvernement choisissent de partager les données pour créer de la valeur et des services pour les citoyens, il est impératif de les équiper d’une technologie leur permettant de protéger et de visualiser les données dont ils disposent, aussi bien sur site que dans le cloud. En effet, une meilleure visibilité leur permettrait de définir plus facilement les données nécessaires à conserver et à migrer, supprimer celles qui ne sont pas essentielles, mais aussi de récupérer rapidement les données critiques à un instant précis. Cela permettrait non seulement aux entreprises et au gouvernement d’assurer leur mise en conformité avec les réglementations autour des données (comme GDPR par exemple, qui entrera en vigueur le 25 mai prochain), mais surtout de constituer une structure sécurisée essentielle pour gagner la confiance des citoyens.
Les villes intelligentes portent en elles un écosystème complexe. Pour réussir sa transformation, Paris devra d’abord véhiculer une vision unique de la gestion et de la sécurisation des données aux différents acteurs. Mettre en place des solutions adéquates sera ensuite la priorité afin de se prémunir contre les cyberattaques ou tentatives d’usurpation d’identité et de matériel.