À l’occasion d’un colloque organisé par le Cigref (*), la responsable de la prospective du groupe d’assurances AXA, a présenté trois scénarios d’adoption de l’intelligence artificielle à l’horizon 2030. Selon ses conclusions, cette technologie ne sera acceptée et déployée à grande échelle que si elle est encadrée par un régulateur de confiance.
Alliancy. L’an dernier, dans le cadre des travaux de la Foresight Squad d’AXA, vous avez piloté pendant six mois une étude sur des scénarios d’avenir de l’intelligence artificielle (IA) à l’horizon 2030. Quelles en sont les conclusions ?
Cécile Wendling. Suite à nos travaux, basés sur des recherches documentaires et des échanges avec de nombreux chercheurs, entrepreneurs…, nous avons identifié trois scénarios de développement de l’IA. Le premier, qui reflète la tendance actuelle en Europe, correspond à une adoption limitée due au caractère monothématique des systèmes d’IA et à un faible niveau d’acceptation sociale : peurs du robot, craintes pour l’emploi, etc. Faute d’une utilisation étendue, se pose également un problème de coût. Dans ce scénario, contrairement aux deux autres, il n’y a pas de rupture massive. Dans le deuxième scénario, il est question d’une IA davantage encadrée et régulée, et de systèmes financièrement plus abordables. Ce contexte favorise l’acceptation sociale et une utilisation massive de la technologie dans des environnements directement en lien avec le client, avec l’individu. Enfin, le troisième scénario correspond à une IA fortement implantée, ce qui est le cas en Corée du Sud, au Japon et en Chine. Il s’agit d’une utilisation transsectorielle de l’IA et d’applications croisant les techniques et les compétences.
Comment ces scénarios se mettent-ils ou se sont-ils mis en place ?
Cécile Wendling. Tout dépend des pays et des secteurs d’activité. En Asie, et plus spécifiquement au Japon par exemple, le secteur de la santé est très avancé. Du fait d’une population vieillissante et du manque de personnel, les grands groupes y ont été les premiers à mettre en place des assistants artificiels pour aider les personnes âgées, à développer des robots chirurgicaux aux gestes plus précis et facilitant l’accès aux soins. Ailleurs dans le monde, le sujet est extrêmement sensible, pour des questions de protection des données ou de relation entre l’homme et la machine.
Qu’en est-il en Europe, et en France ?
Cécile Wendling. Nous sommes encore dans le premier scénario. Le recours à l’IA se limite aux secteurs de la défense, de l’aérien ou aux grands groupes industriels capables de supporter les coûts de la technologie. La mise en place d’un encadrement de régulation permettrait de basculer dans le deuxième scénario. Seulement, malgré la multiplication des rapports, rien n’est encore inscrit dans la loi.
Dans la bancassurance, et en particulier chez AXA, quelles sont les applications envisageables ou d’ores et déjà opérationnelles ?
Cécile Wendling. Nous travaillons dans trois directions. La première concerne l’évolution de notre offre, pour assurer les systèmes exploitant les technologies d’IA. En cas d’accident ou de dysfonctionnement, tout l’enjeu va être de déterminer la responsabilité. Cet enjeu est d’autant plus important qu’il y aura un risque d’accumulation, en cas de cyberattaque ou de bug à grande échelle, qu’un assureur seul ne pourra pas couvrir. La deuxième dimension tient au changement vis-à-vis de nos clients, autour des chatbots (lire en page 46), pour apporter une réponse automatisée à une question, et du robot advice, pour délivrer du conseil financier. À partir des caractéristiques communiquées par le client (situation, appétit pour le risque…), la technologie peut accompagner l’humain pour lui proposer les offres qui correspondent à son profil d’investissement. Enfin, nous travaillons sur une troisième dimension consistant à définir ce que l’intelligence artificielle peut apporter dans notre travail, dans une perspective d’excellence opérationnelle.
Comment cette dernière dimension se concrétise-t-elle sur le terrain, en termes d’organisation ou de méthodes de travail ?
Cécile Wendling. De nombreuses réflexions et expérimentations existent à l’échelle du secteur de l’assurance, par exemple autour des centres d’appels, pour travailler sur la voix des personnes qui nous contactent. Il s’agit d’utiliser l’IA pour identifier l’état émotionnel (inquiétude, stress, colère, etc.) du client, afin d’aider le collaborateur prenant l’appel à bien comprendre l’attente et le besoin. L’objectif est de donner une réponse plus adaptée dans le ton et la réponse. Nous développons chez AXA la smart fraud detection pour détecter, par exemple, les anomalies sur les ordonnances médicales falsifiées, et le smart underwriting pour simplifier la relation avec l’assuré au moment de la souscription d’un produit. Auparavant, pour connaître son profil et son besoin, une cinquantaine de questions étaient posées. L’IA nous permet d’identifier les questions qui ont du poids, celles qui vont vraiment être une variable de choix, ce qui aide à améliorer l’expérience client.
Parallèlement, de nombreuses expérimentations sont menées à travers le monde par nos entités et filiales. Dans le domaine du juridique, les équipes d’AXA en Belgique travaillent sur des outils de médiation en ligne basés sur l’IA. Autre exemple : aux États-Unis, pour le recrutement, AXA a expérimenté l’utilisation de Knack, un jeu en ligne dans lequel un système d’intelligence artificielle observe et analyse les prises de décision par les candidats. Cela nous sert à trouver des compétences que nous ne parvenons pas forcément à identifier avec nos process habituels de recrutement.
Pourquoi insistez-vous autant sur l’importance de la régulation ?
Cécile Wendling. La régulation sera clé pour l’adoption de l’IA ! Les systèmes ont besoin d’être encadrés pour être acceptés et pouvoir se développer. Par ailleurs, la bancassurance est un secteur extrêmement régulé, dans lequel il est impossible de lancer un produit, et donc une technologie associée, sans l’aval des régulateurs et superviseurs, l’Autorité de contrôle prudentiel et de sécurité (ACPR) et l’Autorité des marchés financiers (AMF) en France. Il existe aussi des organes de contrôle au niveau européen et mondial. Ils vérifient notamment la protection de la donnée personnelle et la cybersécurité.
Vous pointez un autre enjeu majeur : l’éthique des algorithmes…
Cécile Wendling. Aujourd’hui, les algorithmes en IA sont puissants et efficaces, mais il est parfois difficile d’en analyser les résultats. Or, comme c’était le cas avec les méthodes statistiques traditionnelles, il faut pouvoir expliquer clairement au client comment nous définissons nos tarifs. Il existe d’ailleurs différents modèles sociaux de confiance dans la technologie. Nous avons constaté que l’acceptabilité sociale de l’IA n’est pas la même partout, en fonction des cultures ou des modes de travail.
Où en est cet encadrement ?
Cécile Wendling. Nous sommes encore très en amont de la mise en place d’une législation dans ce domaine, qui ne s’opère pas uniquement à l’échelle française ou européenne. Mais la réflexion avance et le cadre se met en place. En France, dans son rapport sur l’éthique des algorithmes ((http://bit.ly/2nDBveZ), Axelle Lemaire émet des recommandations globales et sectorielles. Elle conseille notamment aux grands groupes de se doter d’un Chief Algorithms Officer (CAO). Un rapport du Parlement européen préconise pour sa part la création d’une Agence européenne sur le sujet. Enfin, l’Institute of Electrical and Electronics Engineers (IEEE) a publié, fin 2016, un guide sur l’éthique des algorithmes dans le domaine de l’IA**, et lancé une consultation auprès du marché.
Sur le plan technique, quels domaines de l’intelligence artificielle, en termes de données sources (voix, image, texte, etc.) ou de types de systèmes (moteurs de règles, réseaux neuronaux, etc.), sont-ils les plus porteurs ?
Cécile Wendling. Personne ne le sait ! Pour cette raison et parce qu’il y a eu beaucoup de fausses anticipations dans le passé, la stratégie des investisseurs est d’opter pour la diversification. Ils misent sur différentes technologies, et sur différents types d’applications. Ceci étant, certains domaines ont fait des progrès fulgurants, en linguistique par exemple, notamment en traduction. Cela, grâce à la sortie de nouveaux jeux de données, à l’innovation technologique, mais aussi à la baisse du coût d’industrialisation des systèmes.
Là encore, il est important de raisonner en termes de secteurs d’activité…
Cécile Wendling. En effet. Certains secteurs où l’on pensait que l’IA allait tout changer s’avèrent finalement peu pertinents. À l’inverse, d’autres auxquels on ne pensait pas il y a quelques années, ou qu’on imaginait protégés, sont de plus en plus impactés. Avec des conséquences techniques parfois inattendues. Ainsi, le secteur de l’assurance travaillait autrefois selon un modèle statistique, dont on connaissait parfaitement les limites qu’on savait compenser. Aujourd’hui, le passage à un modèle algorithmique nécessite une réflexion globale, sur les plans technique et épistémologique, pour identifier les nouveaux biais. Comme l’approche est relativement nouvelle, le recul n’est pas en encore suffisant. C’est pour cette raison que beaucoup de solutions ne sont pas en production, qu’il va encore falloir du temps pour comparer les résultats avec ceux des modèles statistiques et valider qu’il n’y a pas de déviation.
Est-ce à dire que nous n’en serions qu’aux prémices de l’adoption de l’IA ?
Cécile Wendling. Beaucoup d’aspects sont seulement en train de se structurer, mais l’IA existe depuis une quarantaine d’années. Il y a simplement eu différentes vagues. La vague actuelle est liée à de grands changements : la quantité d’information disponible, la puissance machine accessible, l’impact et la visibilité dans l’espace social. On faisait déjà de l’IA avant, mais en back-office. Aujourd’hui, ce sont des applications qui concernent directement le client, qu’il voit. Par ailleurs, quelle que soit la technologie, il y a toujours une courbe d’innovation. Nous sommes de nouveau dans une phase d’apprentissage, il y aura encore des creux et des pics. Je ne crois pas à la linéarité du progrès dans ce domaine. On peut en revanche parler d’un engouement pour l’IA au regard des investissements, notamment par les grands acteurs mondiaux des nouvelles technologies, et des recrutements de spécialistes par les entreprises dans de nombreux secteurs.
Selon plusieurs études, près d’un emploi sur dix serait menacé par la révolution digitale. Avez-vous étudié cet aspect ?
Cécile Wendling. Il est possible de miser sur l’IA pour réduire les tâches administratives et répétitives, pour que les collaborateurs puissent passer davantage de temps au service du client. Aujourd’hui, nous sommes dans une logique de réorientation des tâches pour dégager du temps au profit de la création de valeur. Dans le dernier plan stratégique présenté en juin 2016, plus de 300 millions d’euros sont consacrés à l’accompagnement des personnels dans cette évolution. Il faut néanmoins s’intéresser aux études sur les emplois destructibles. L’IA, et plus généralement les outils numériques vont être une révolution majeure.
Qu’est-ce que cela implique ?
Cécile Wendling. À long terme, il faut peut-être réfléchir à une nouvelle façon de concevoir la valeur, le travail, etc. Je peux comprendre les prévisions pessimistes. La question du revenu universel de contribution ou solidarité peut être posée. Cela s’inscrit dans la réflexion sur l’évolution du rôle d’assureur alors que le rapport au travail change, avec des individus qui ne sont plus forcément salariés. Si l’apparition de nouveaux métiers peut compenser en partie ceux qui disparaîtront, comme dans toutes les grandes révolutions, il faut savoir gérer la phase de transition. Mais le changement va bien au-delà. Plus globalement, il serait nécessaire de mener une réflexion autour de l’enseignement. Certaines compétences ne seront pas remplacées par l’IA, il faut miser dessus. Il faut aussi développer l’apprentissage à cette technologie pour éviter les pénuries d’experts des données, de cogniticiens, d’architectes big data…
Quelle est la suite de vos travaux ?
Cécile Wendling. Si notre étude sur les perspectives de l’intelligence artificielle s’est terminée juste mi-2016, nous restons en veille sur le sujet. L’objectif de ces études est triple : dresser un état des lieux, mener des pilotes, définir les positions qu’AXA pourrait avoir sur le sujet. La prochaine étape de nos travaux sur l’intelligence artificielle consiste à définir avec le Data Innovation Lab du groupe une roadmap du développement, puis de valider les choix d’investissement dans des projets pilotes. Enfin, nous travaillons avec des chercheurs sur l’éthique des algorithmes, pour identifier avec AXA Research Funds, un organisme financé par AXA à hauteur de 200 millions d’euros sur cinq ans, les types de programmes que nous allons soutenir pour avancer sur cette question, notamment autour des risques liés aux données, aux cyberattaques et à l’IA.
Parcours de Cécile Wending
Parcours de Cécile Wendling, 36 ans Formation : ESCP Sciences Po Paris. Doctorat en sociologie des risques à l’Institut universitaire européen de Florence (Italie).
- 2010 : analyste prospective des risques pour l’Irsem, ministère de la Défense
- 2011 : chercheuse au Centre de sociologie des organisations, CNRS-Sciences Po Paris
- 2012 : directrice d’études prospectives (sécurité, défense, risques, crises), Futuribles
- Depuis 2014 : responsable de la Prospective chez AXA
* Le Cigref, Réseau de grandes entreprises. Colloque « Gouvernance de l’Intelligence Artificielle dans les entreprises », septembre 2016, suivi d’un livre blanc (http://www.cigref.fr/wp/wp-content/uploads/2016/09/Gouvernance-IA-CIGREF-LEXING-2016.pdf).
** « Ethically Aligned Design » (IEEE), 136 pages, consultable ici : http://standards.ieee.org/develop/indconn/ec/ead_v1.pdf
Lire aussi : IA : le marché du décisionnel également à la pointe
>> Cet article est extrait du magazine Alliancy n°17 » Où en est l’IA dans l’entreprise ? » à commander sur le site.