La régulation de l’intelligence artificielle avance en Europe. Les autorités de protection des données personnelles veulent leur mot à dire sur les futures règles. La Cnil insiste aussi sur la nécessité de tracer des lignes rouges en termes d’usages.
En avril, Parlement et Conseils européens faisaient des propositions visant à établir des règles harmonisées en matière d’utilisation de l’intelligence artificielle. Le texte provisoire du règlement prévoit notamment des interdictions en termes d’usages de l’IA. Celui-ci ne va pas assez loin cependant.
A lire aussi : [Tribune] Data : le RGPD, une opportunité pour repenser le marketing à la performance
C’est l’avis de la Cnil et de ses homologues européens. Si les autorités se félicitent de la volonté de la Commission européenne d’établir des règles communes concernant l’IA, elles appellent néanmoins à des améliorations. Les régulateurs estiment en particulier nécessaire de « tracer des lignes rouges aux futurs usages de l’IA ».
Déduire les émotions grâce à l’IA ? Interdiction de principe
Comité européen de la protection des données (CEPD) et Contrôleur européen de la protection des données jugeaient déjà les « garde-fous » du règlement comme insuffisants. La Cnil souhaite que les interdictions à l’égard des systèmes d’IA soient élargies et clarifiés. En l’état, certains usages échapperaient à la régulation et pourraient donc être mis en œuvre.
Dans leur avis, les autorités de protection préconisent que soient retirées les exceptions à l’interdiction générale. Une recommandation justifiée par « les risques extrêmement élevés posés par l’identification biométrique à distance des personnes dans les espaces publics. »
Ces technologies exploitent notamment la reconnaissance des visages, de la démarche, des empreintes digitales et de la voix pour identifier des personnes. Les régulateurs voient aussi d’un mauvais œil les usages de l’IA permettant de déduire les émotions d’un individu. Ce type de système est qualifié de « hautement indésirable ».
En conséquence, l’avis propose que cette utilisation de l’intelligence artificielle soit soumise à une interdiction de principe. Elle pourrait toutefois se voir autorisée dans des cas « très spécifiques », à des fins de santé par exemple. Quant à la notation sociale, comme elle peut être pratiquée en Chine, sa mise en œuvre sur la base de l’IA, mérite une interdiction systématique.
La Cnil profite par ailleurs de la publication de cet avis pour réitérer son appel en faveur d’un débat démocratique sur les usages de la vidéo pour la reconnaissance faciale. Dans ce domaine, les Etats se montrent réticents à légiférer afin de permettre des usages sécuritaires.
La Cnil pour contrôler les usages de l’IA en France
Etablir des lignes rouges n’est pas la seule trajectoire préconisée par les autorités de protection. Selon elles, la régulation de l’IA n’est pas un champ à part. Elle doit être pensée en articulation avec le RGPD, mais aussi la directive « Police-Justice ». Elles rappellent que les systèmes d’IA à « haut risque » exploitent largement des données personnelles.
Les futurs systèmes devront donc montrer aussi patte blanche en termes de conformité au RGPD. Pour cela, une instance de contrôle forte et indépendante sera indispensable. Le règlement européen prévoit la création du Comité européen de l’intelligence artificielle, le CEIA. Son statut reste vague toutefois.
Pour les gendarmes des données, la gouvernance du futur Comité mérite d’être précisée. Il s’agit ainsi de garantir son indépendance, mais aussi de renforcer ses pouvoirs. Ces conditions sont indispensables pour lui permettre « d’exercer un véritable contrôle », en particulier concernant les IA déployées à l’échelle de l’UE.
A cette instance centrale devraient de plus s’ajouter des autorités de contrôle nationales de l’IA. Pour la Cnil et ses homologues, elles sont toute désignées pour remplir cette fonction. D’ailleurs, soulignent-elles, elles interviennent déjà sur les IA impliquant des données personnelles. Une régulation efficace nécessite en outre un « régulateur compétent et expérimenté ».
Cette expérience contribuerait de plus à la « constitution d’un écosystème européen de l’intelligence artificielle favorable à l’innovation. » Le règlement de l’UE sur l’IA vise à fixer des règles et des limites, mais pas à interdire l’innovation. Garantir cet équilibre, ce sera un des grands enjeux de la future réglementation.
Celle-ci prévoit des mesures de soutien à l’innovation et notamment des bacs à sable réglementaires. Charge en reviendra aux autorités nationales. La Cnil n’est pas étrangère à une telle démarche. Elle précise en effet avoir déjà pour mission « d’accompagner les professionnels, et notamment les acteurs les plus innovants, vers la conformité. »