Alliancy

Vidéosurveillance algorithmique : un déploiement contraint, mais possible 

Une expérimentation de vidéosurveillance algorithmique, entamée à l’occasion des Jeux olympiques de Paris 2024, est en cours pour améliorer la sûreté des événements. Cependant, ce cadre contraint ne doit pas dissuader les entreprises et collectivités d’utiliser ces solutions, qui respectent la vie privée. 

Détection de mouvements de foule, de départs de feu ou encore de présence d’armes, tels sont les cas d’usage parmi les huit autorisés qui touchent à la vie privée, dans le cadre de la loi JO pour l’utilisation de la vidéosurveillance algorithmique (VSA). Un cadre « très contraignant », assume Elisabeth Sellos-Cartel, chef du bureau de la vidéoprotection et de la sécurité électronique au sein de la Direction des entreprises, des partenariats de sécurité et des armes du ministère de l’Intérieur. Mais cette loi, entrée en vigueur en 2023 et en place jusqu’à début d’année 2025, vise à réguler une technologie déjà présente sur le territoire, en l’absence de règles claires. 

Une technologie pour accompagner l’humain 

« C’était l’occasion d’une véritable expérimentation », poursuit Elisabeth Sellos-Cartel. L’État devait ainsi se doter de solutions éthiques et loyales, pour équiper les polices municipales et nationales, les gendarmeries ou encore les services de sécurité et de transport, lors de grands événements récréatifs et culturels exposés à des risques graves d’agression ou de terrorisme. « Il y avait une limite à des cas d’usage non intrusifs », confie-t-elle. 

« L’enjeu, c’est l’atteinte aux libertés et l’impact sur la vie des gens », estime Oriane Labruyère, qui juge indispensable qu’un humain soit toujours en charge des décisions prises via la technologie de vidéosurveillance algorithmique. « Dans l’ensemble des cas, le couple humain-IA donne de meilleurs résultats que l’IA seule », souligne-t-elle. Dans le cadre de l’utilisation de la VSA pour la sûreté, la sensibilité des données et des images manipulées laisse planer un risque élevé, qui doit être surveillé de près. 

Avec la RATP, la SNCF fait partie des acteurs autorisés à utiliser cette technologie. Et pour le pionnier ferroviaire français, l’expérimentation n’a pas attendu 2023. Les mises en œuvre, tant techniques qu’opérationnelles, avaient déjà débuté dès 2016. « Il est nécessaire d’avoir un paramétrage optimisé, et cette calibration prend du temps », explique Nicolas Despailles, responsable laboratoire innovation sureté à la SNCF, qui insiste également sur l’importance de former les opérateurs qui doivent intervenir en cas d’alerte émise par la solution. La SNCF a choisi une approche raisonnée, notamment dans les zones proches des événements à risque. 

La sûreté, mais pas que 

Ce sont 300 caméras intelligentes qui ont été installées dans les gares par la SNCF. « On ne veut pas noyer les opérateurs sous les alertes », indique Nicolas Despailles. « Il est inutile de détecter des incidents si personne ne peut intervenir. » En effet, cette approche raisonnée intervient dans un contexte où les caméras sont présentes dans les rues, sur les vélos des cyclistes et même sur les murs des maisons. Pour Thomas Dantieu, en charge de l’accompagnement juridique au sein de la CNIL (Commission nationale de l’informatique et des libertés), il s’agit de casser l’image de la CNIL en tant que gendarme, pour la présenter davantage comme un conseiller : « Il est évident que tout ne peut pas être filmé, il existe beaucoup de régulations complexes sur qui peut faire quoi. » 

« Ces solutions ont justifié une multiplicité de cadres juridiques », estime Elisabeth Sellos-Cartel. « Nous sommes submergés par de nombreuses questions, et ce que l’on remarque, c’est le besoin de réflexion des entrepreneurs qui souhaitent les utiliser. » Pour ceux qui envisagent de se munir de solutions de vidéoprotection, le respect des règles est primordial, alerte l’avocate Oriane Labruyère : « Il faut collecter les données correctement et légalement, sinon l’investissement n’a aucun sens. » 

En effet, huit cas d’usage sont possibles concernant la vidéosurveillance algorithmique, sans atteinte à la vie privée. Toutefois, les entreprises comme les collectivités peuvent se doter de VSA pour d’autres situations, qui peuvent être nombreuses. « Il ne faut pas faire de surinterprétation », souligne Thomas Dantieu, de la CNIL, car certains acteurs se sont freinés par peur de la législation. « Une loi ne régit qu’une situation spécifique », répond Oriane Labruyère. « Les cas d’usage sont possibles ailleurs », notamment pour la détection de dépôts sauvages, l’optimisation de l’éclairage public ou encore la régulation des feux tricolores. 

Quitter la version mobile