Joe Petro, Executive Vice President & Chief Technology Officer de Nuance, explique comment renforcer la confiance et la gestion des données afin de garantir la réussite des projets d’IA, sachant que la technologie IA a beau être encore récente, elle est incroyablement complexe et puissante.
Les prédictions vont bon train en ce qui concerne l’IA. Certains y voient la solution à tous les problèmes, d’autres craignent la fin du monde tel que nous le connaissons. Ces scénarios sont régulièrement mis en scène dans des productions hollywoodiennes comme Westworld, Carbon Black, Minority Report, Her et Ex Machina. Ils incitent les créateurs de technologies IA et les consommateurs à « choisir leur camp » : ont-ils confiance ou non en l’IA, et surtout en l’utilisation que le système fera des informations qu’on lui aura communiquées ?
Ils montrent aussi à ceux qui créent des applications IA que la confiance est un facteur déterminant de la réussite d’une solution à base d’IA. En effet, qui voudrait interagir avec un système en lequel il n’a pas confiance ?
L’inconnu engendre de la méfiance
La technologie IA a beau être encore récente, elle est incroyablement complexe et puissante par sa capacité de calcul et de détection rapide de patterns dans de gros volumes de données. Mais cette puissance, combinée à la perception commune de l’IA comme une « boîte noire » gourmande de données personnelles, induit de nombreuses variables, inconnues et conséquences potentielles. La confiance des utilisateurs finaux peut avoir une grande influence sur la façon dont sont perçues les solutions, mais aussi les entreprises, éditeurs et marques qui sont à l’origine de leur commercialisation.
Les avancées comme l’accès au cloud et la puissance de l’edge computing augmentent encore les capacités de l’IA tout en facilitant la création et le déploiement rapides d’applications. Depuis toujours, l’accent était mis sur le développement de logiciels et la conception d’interfaces utilisateur. Mais il n’est plus seulement question de concevoir un système en réponse à une problématique spécifique. Il s’agit désormais de créer une expérience engageante, sûre, personnalisée et fluide pour chaque utilisateur.
Utiliser les bonnes données
La performance du système, sa fiabilité et la confiance des utilisateurs dépendent autant de la qualité de conception du modèle IA que des données qu’il exploite. Les données sont le carburant du moteur IA, qui les convertit de façon intelligente en insights exploitables. De la même façon qu’un carburant médiocre ou impur dans une voiture de Formule 1 réduira ses performances et la compétitivité du pilote, un système IA se basant sur des données incorrectes ou inadéquates produira des résultats faux ou imprévisibles, mettant à mal la confiance de l’utilisateur. Et une fois perdue, celle-ci sera difficile à regagner. D’où l’importance pour les développeurs et éditeurs IA d’observer des pratiques rigoureuses de gouvernance des données pour créer des modèles IA efficaces et favoriser l’adhésion, la satisfaction et la rétention des clients.
A lire aussi : Navi Radjou : « Le numérique peut (aussi) aider à construire l’économie frugale »
Une gouvernance responsable des données établit une chaîne de confiance entre les consommateurs, les entreprises qui collectent les données des utilisateurs, et ceux qui développent des solutions optimisées par l’IA. Il est de notre responsabilité de connaître et comprendre les règles et politiques de confidentialité et de bien considérer les aspects de sécurité et de conformité lors de la première phase de conception. Nous devons comprendre finement la façon dont les données sont utilisées et qui y a accès. Il nous faut aussi pouvoir détecter et éliminer les biais cachés dans les données au moyen de tests.
Traiter les données comme un « code source » propriétaire
Il convient de traiter les données utilisateur comme une propriété intellectuelle sensible. Il s’agit du code source propriétaire utilisé pour construire des modèles IA capables de résoudre des problèmes spécifiques, de créer des expériences personnalisées et d’obtenir les résultats visés. Ces données proviennent d’interactions confidentielles, que ce soit entre des consommateurs et des agents téléphoniques, des médecins et leurs patients, des banques et leurs clients. Elles sont sensibles parce qu’elles génèrent des profils numériques ultra détaillés des utilisateurs sur la base de données privées, financières, biométriques, etc.
Les données des utilisateurs doivent être protégées et utilisées aussi consciencieusement que n’importe quelle autre propriété intellectuelle, surtout dans le cadre de solutions IA pour des secteurs hautement réglementés comme la santé et les services financiers. Les médecins utilisent l’IA vocale, la compréhension du langage naturel et des agents virtuels conversationnels pour documenter les soins et avoir accès à des aides au diagnostic en temps réel. Dans les services bancaires et financiers, les l’IA traite des millions de transactions client et utilise les données biométriques comme l’empreinte vocale, les mouvements des yeux et les données comportementales (par exemple : la rapidité de saisie, les mots employés, la main utilisée pour telle manipulation) pour détecter les possibles cas de fraude ou authentifier l’identité des utilisateurs.
Les entreprises du secteur de la santé créent leurs propres « portes d’entrée numériques » pour fournir à leurs utilisateurs des expériences haut de gamme personnalisées par SMS, web, téléphone, vidéo, applications et autres canaux. Les consommateurs optent eux aussi pour des interactions numériques qui leur font gagner du temps. Les entreprises veulent légitimement contrôler et protéger les relations avec leurs clients ainsi que leurs données, quel que soit le mode d’interaction, pour développer la réputation de leur marque, la personnalisation des services et la fidélisation des consommateurs.
Chaque fournisseur IA et développeur doit non seulement être conscient du caractère sensible des données des utilisateurs, mais aussi de la nécessité d’observer des standards éthiques élevés pour alimenter la chaîne de confiance.