Chercheur à l’Université de Neuchâtel (Suisse) et psychologue du travail, Adrian Bangerter s’intéresse aux entretiens de recrutement digitaux et asynchrones, quand le candidat s’exprime seul face à une caméra et que sa prestation passe ensuite au crible d’un algorithme.
Alliancy. Pourquoi confier à une intelligence artificielle ce type d’entretien ?
A lire aussi : [Alliancy Connect] Comment repenser recrutement et formation pour attirer les talents du numérique ?
On peut apprendre à un algorithme à analyser la façon de parler d’un candidat : les mots qu’il choisit, le sens général de son discours, son niveau de langue, son intonation, son débit, ses hésitations et ses silences… On peut lui apprendre également à décrypter le non-verbal : la manière de pencher la tête, de regarder (ou pas) la caméra, de bouger les mains, les émotions que reflètent les muscles du visage, etc.
C’est ainsi qu’on enseigne aux algorithmes à détecter les traits de personnalité, en croisant plusieurs disciplines : Natural Language Processing (NLP), reconnaissance d’images, psychologie, linguistique, Data Science… Il est possible enfin d’analyser les écrits des candidats, que ce soit leur CV ou leurs posts sur les réseaux sociaux.
En plus du gain de temps, ce type d’entretien peut pallier les défauts du test de personnalité « à l’ancienne », qui est limité par ce que les candidats affirment sur eux-mêmes. Bien sûr, tous les algorithmes ne sont pas au point. Et du point de vue du candidat, les bénéfices peuvent sembler plus minces que du côté de l’employeur, même si on lui promet que grâce à l’IA il y aura moins de biais dans son processus de sélection.
Le sujet de la transparence des algorithmes revient-il sur la table ?
Adrian Bangerter. Oui. On essaie d’améliorer « l’explainability », mais aussi la validité des algorithmes. Nous menons une étude expérimentale pour voir ce qui peut être prédit, et ce qui est plus aléatoire. Nous faisons venir des étudiants en management dans le laboratoire et les invitons à un jeu de rôle : ils sont managers et doivent licencier quelqu’un. L’actrice est une de nos collaboratrices, elle leur donne du fil à retordre. Nous mesurons la performance des étudiants : ont-ils bien mené ce licenciement ? Une semaine après, ils reviennent pour un entretien digital. C’est alors qu’on peut voir si leur attitude et leurs réponses, lors de cet entretien, correspondent à leur performance établie. Nous essayons de construire un socle factuel de prédiction de la performance.
N’est-ce pas inquiétant de passer les humains au tamis d’une machine ?
Adrian Bangerter. En réalité, cela n’a pas grand-chose de nouveau. Vous savez, cela fait plus d’une centaine d’années qu’on essaie de faire ce genre de prédiction. Le premier exemple, ce sont les tests d’intelligence réalisés en France lors de la scolarisation obligatoire massive. Le psychologue Alfred Binet a développé des tests pour classer les enfants selon leurs aptitudes intellectuelles. Et pendant la seconde Guerre mondiale avec la conscription de masse, le moyen de « tri » le plus simple était… un test de QI.
Le principal élément nouveau, c’est le Big Data et la puissance des algorithmes.
Est-ce que les humains s’adaptent et « rusent » face aux IA ?
Adrian Bangerter. En partie, oui bien sûr. Là non plus, ce n’est pas nouveau. On appelle cela l’accommodation, valable entre deux humains. Si je veux vous paraître sympathique, je vais essayer de vous ressembler, en utilisant le même vocabulaire que vous, le même accent, etc.
Dans les années 1990, quand on a commencé à trier les CV automatiquement, certains candidats se sont adaptés et ont glissé les mots de l’annonce dans leur CV. D’autres les ont même fait figurer en tout petit, ou en caractères blancs, pour que personne ne les voit sauf la machine. Avec les entretiens digitaux, certains fixent la caméra sans trêve, ce n’est pas naturel du tout, mais ils savent que ça leur apporte des « points ».
Les DRH et managers sont confrontés à un choix très larges d’outils SIRH. Qu’avez-vous envie de leur conseiller, au sujet des outils de prédiction, mêlant IA et sciences comportementales ?
Adrian Bangerter. Les outils peuvent amener des bénéfices, mais ils peuvent aussi cacher des biais de décision, et il faut garder à l’esprit que ces technologies sont très nouvelles. On dispose actuellement de peu de données sur leur validité. La prudence est de mise : interrogez les prestataires sur la validation de leurs outils. Et n’oubliez pas que les procédures de sélection traditionnellement valides le restent : test d’aptitude, assessment center, entretien comportemental.