L’IA, une aide précieuse chez BNP Paribas lors de l’analyse de risque 

Avec près d’un quart de ses effectifs IT spécialisé dans l’IA et la data, BNP Paribas renforce son expertise dans l’identification des risques notamment grâce à leurs bases de données mieux triée. 

À l’occasion du salon Big Data & IA, BNP Paribas a exposé son expérience dans l’optimisation des processus bancaires par l’IA, notamment dans le cadre de la gestion des risques. Celle-ci est largement simplifiée par la capacité de calculs gigantesque de l’intelligence artificielle. BNP Paribas a choisi d’utiliser cette puissance pour mieux planifier ses ressources, détecter des anomalies qui pourraient peser sur la performance financière et prendre en compte des risques autrement durs à évaluer comme les conflits internationaux. Cette maîtrise repose sur une expertise métier forte. Le groupe emploie, en effet, 800 spécialistes en IA (Data Scientists ou Business Analyst), soit près d’un quart de l’effectif de sa division informatique, IT Group. L’organisation du travail joue également dans leurs résultats, puisque les personnes ayant des compétences complémentaires sont amenées à travailler ensemble, ce qui permet d’affiner les problématiques. 

“Sur le climat par exemple, il faut être capable de comprendre en quoi les taxations carbones, pour nos entreprises, vont peser sur la performance financière et la façon dont ça va rétroagir sur nos risques de crédit. Derrière, il y a des calculs avec beaucoup de données” explique Marc Irubetagoyena, membre du comité de direction de la fonction RISK de BNP Paribas, lors d’un retour d’expérience au salon DATA IA. 

Méthode clé : affiner la base de données 

Ces données sont justement la clé de voûte d’une bonne anticipation, et plus précisément, le tri de la base de données. Bien que BNP Paribas ait accès à un nombre considérable d’informations, toutes ne sont pas nécessaires lors des calculs effectués. Pouvoir utiliser des données précises dans certains cas est un gain de temps et permet également de mieux comprendre les résultats émis. Pour améliorer leur compréhension des conclusions fournies par leur logiciel, la banque recommande de trouver des liens de causalité entre risques et anomalies. Enfin, il est essentiel de combiner ces connaissances avec un suivi d’informations externes, comme celles de la banque centrale, et d’y chercher des correspondances ou des dissemblances, pour ensuite avoir des pistes d’audit.  

Rendre les processus de l’IA plus transparents 

Cette méthode offre un avantage imparable : elle permet de rendre le processus de l’IA moins opaque. Justifier les résultats obtenus par l’IA est d’ailleurs le prochain challenge des entreprises du numérique. Le Code de Conduite du European AI Office, dont la sortie est attendue en avril 2025, mentionne déjà une volonté de rendre plus transparent le fonctionnement de l’IA. Ce défi, BNP Paribas le relève grâce à des outils tels que l’élaboration de calculs test qui permettent de vérifier l’intégrité des résultats. La documentation sur les modèles d’IA est primordiale, pour pouvoir ensuite les challenger. Pour finir, un éventail d’action plus simple s’offre aux entreprises : Marc Irubetagoyena conseille “un contrôle des résultats auxquels on arrive pour voir s’il y a des biais évidents” et naturellement, vérifier que les données utilisées sont bien les mêmes que celles de l’entreprise et que le modèle d’IA ne s’est pas alimenté aussi sur Internet.