« 5000 consommateurs ont été interrogés sur l’impact de l’intelligence artificielle (IA) sur la morale, l’éthique et l’empathie à l’échelle internationale. » La majorité n’ont pas confiance en l’IA et ne comprennent pas dans quelle mesure celle-ci améliore la qualité des interactions. »
Ces chiffres sont les résultats d’une étude présentée à l’occasion de PegaWorld qui se déroule à Las Vegas. Celle-ci a été conduite par le cabinet Savanta pour le compte de Pegasystems Inc. (NASDAQ : PEGA), l’éditeur de logiciels expert en transformation digitale. Pega a recueilli le point de vue de 5 000 personnes sur l’intelligence artificielle, le sens moral, le comportement éthique et l’empathie, parmi un panel de clients américains, britanniques, français, allemands et japonais.
A découvrir aussi sur Alliancy : « Cahier spécial, le futur du Retail : l’innovation à l’heure de l’excellence opérationnelle
« L’évolution de l’intelligence artificielle passera par l’adoption de directives intégrant les considérations éthiques au sein de machine learning. Ainsi, les décisions prises par les systèmes d’IA dans le cadre de l’engagement client intègreraient contextuellement l’éthique et seraient considérées comme tout aussi empathiques que celles prises par un individu. Ce n’est certes pas la panacée, mais en créant une culture de l’empathie dans l’entreprise, l’IA peut être utilisée comme un puissant outil de différenciation dans un environnement très concurrentiel. » a déclaré Rob Walker, Vice President, Decisioning and Analytics chez Pega.
Entreprises et intérêts des consommateurs :
68 % des personnes interrogées estiment que les entreprises ont une obligation morale vis-à-vis de leurs clients qui va bien au-delà de ce que prescrit la loi. Pourtant, ils sont 65 % à penser que les entreprises ne privilégient pas leurs intérêts ! Pourquoi ? N’ont-ils pas confiance en la technologie utilisée au cours de leurs interactions ? Ces questions sont légitimes car malgré un environnement qui se prétend « orienté client », les consommateurs sont persuadés que leurs intérêts ne sont pas une priorité pour les entreprises et qu’elles manquent totalement d’empathie vis-à-vis de leurs besoins individuels.
IA et capital confiance :
Moins de la moitié (40 %) des clients interrogés reconnaissent que l’IA permet d’améliorer le service client, et moins d’un tiers (30 %) n’est pas réfractaire à l’idée d’interagir avec une machine. Mais seuls 9 % y sont totalement réceptifs. Parallèlement, un tiers des clients sondés se disent préoccupés par la perspective de voir leurs emplois disparaitre au profit des machines et plus d’un quart (27 %) déclare que « la prolifération des robots et l’asservissement de l’homme » est source d’inquiétude.
IA et prise de décision :
Plus de la moitié (53 %) des clients sondés estiment que les décisions prises par l’IA sont potentiellement biaisées. 53 % pensent également que les décisions automatisées resteront influencées par les idées et les préjugés de la personne qui a écrit le programme d’où son manque d’impartialité.
Interaction : machine ou être humain ?
70 % des personnes interrogées préfèrent s’adresser à un conseiller et 69 % déclarent se confier avec plus de sincérité à une personne plutôt qu’à un système d’IA, chatbot… Ce pourcentage passe à 86 % dès lors que l’on aborde des questions d’ordre vital. L’homme reste le contact d’interaction privilégié.
IA : Empathie et Sens Moral
Seuls 12 % des clients sondés pensent que l’IA est capable de distinguer entre le bien et le mal et plus de la moitié (56 %) estime qu’il est impossible de développer des machines dotées de « sens moral ». Ils sont 12 % à peine à déclarer avoir perçu de l’empathie chez une machine lors d’une interaction.
Cette étude révèle ainsi que les clients accepteront de placer leur confiance en un système, des applications ou autre gérés par l’IA quand ces derniers auront la capacité de reproduire les interactions humaines y compris l’empathie. C’est pourquoi, il est primordial pour les entreprises de réfléchir à la façon dont elles vont intégrer le sens moral, l’éthique et l’empathie à leurs systèmes d’IA.