Faut-il faire une confiance aveugle à logiciel de recrutement ?

Un petite minorité de recruteurs pensent que les logiciels de recrutement peuvent tout faire, ou tout du moins réaliser la sélection des 5 derniers candidats à examiner. L’avancée des technologies et des algorithmes alimentent largement cette idée.

En effet, aujourd’hui il est courant d’effectuer une première sélection à partir de tests en ligne proposés par différents opérateurs, voire de semi-automatiser le refus si les critères ne sont pas remplis.

L’émergence des chatbots dans le domaine des ressources humaines va aussi ouvrir un nouveau pan d’activité dans le secteur du recrutement. Certaines expérience sont en cours pour réaliser effectivement une première sélection par intelligence artificielle.

Et justement, Amazon est un des leaders dans les technologies de l’intelligence artificielle et de l’automatisation. Ce géant du commerce électronique utilise massivement des algorithmes pour gérer ses entrepôts ou pour l’adaptation en temps réel des prix proposés au public. Amazon est aussi un des leaders dans ce qui fait de plus sophistiqué dans le domaine de l’intelligence artificielle, l’interaction avec des humains via son enceinte intelligente Amazon echo.

Mais Amazon justement a fait une confiance aveugle dans ses technologies. Cet acteur incontournable du e-commerce a rêvé comme cette petite minorité de recruteurs de simplifier au maximum sa sélection des candidats grâce à l’informatique.

Amazon a développé et mis en place un algorithme de décision qui avait pour objectif de remplacer en grande partie toutes les décisions humaines dans la présélection.

Cet automate, car il s’agit simplement d’un programme informatique, examinait le contenu du curriculum vitae des candidats. Cette analyse avait pour but d’attribuer automatiquement une note à la candidature : de une à cinq étoiles selon les profils.

Seulement voilà, le logiciel avait des préférences sexuelles. Et d’une manière général, il préférait les hommes.

Selon l’article des Echos, après avoir été alimenté de CV en rapport avec les attentes de l’entreprise, l’intelligence artificielle a déduit que pour certains postes, les candidats masculins étaient préférables. Des candidatures où apparaissaient une référence aux « femmes « , par exemple « capitaine de club d’échecs féminin  » étaient donc rejetée. Le programme aurait même abaissé les notes de deux candidates diplômées d’universités exclusivement féminines.

En 2015, Amazon s’est cependant rendu compte du problème. Les équipes de développement ont modifié le programme pour qu’il ne prenne plus en compte les références féminines, mais cela n’a pas garantit  que le choix soit impartial. Amazon a fini par dissoudre l’équipe au début de l’année dernière.

En guise d’excuse, le département des ressources humaines d’Amazon a toutefois tenu à expliquer que le classement fourni par l’intelligence artificielle n’avait jamais été le principal critère pour la sélection.

A quoi servait-elle donc ?