top of page

L’IA réduit-elle les biais de sélection dans le recrutement ? Ce que dit la recherche

L’IA peut réduire certains biais si et seulement si elle est conçue, auditée et pilotée avec des métriques de fairness ; sinon, elle reproduit — voire amplifie — les discriminations historiques.


Les travaux académiques convergent : les systèmes IA appliqués au recrutement héritent des biais des données d’entraînement (CV historiques, évaluations, résultats d’entretiens) et des choix de modélisation.

`Des revues systématiques récentes documentent des biais dans le classement de candidatures, l’analyse vidéo/voix et les tests automatisés, et répertorient les métriques (demographic parity, equalized odds, calibration) et les techniques d’atténuation (re-pondération, débiaisage, post-traitement, audits) désormais considérées comme des pratiques incontournables. arXiv+2ScienceDirect+2


Cas d'Amazon :


Le cas d’Amazon (2014–2017) est devenu emblématique : un moteur de tri de CV entraîné majoritairement sur des profils masculins a défavorisé les candidatures féminines, conduisant à l’abandon du projet. L’épisode illustre un point central : supprimer un attribut (le genre) ne suffit pas si des variables corrélées (établissements, associations, formulation des expériences) restent présentes. euronews+1


Alors, l’IA est-elle « meilleure » que l’humain ? Les études nuancent : correctement paramétrée et auditée, l’IA peut uniformiser l’évaluation, documenter les décisions et appliquer des seuils constants — réduisant certains biais de process. Mais sans gouvernance, elle risque de les figer à grande échelle.


Les revues pluridisciplinaires appellent donc à :


  1. définir une notion de fairness compatible avec le droit local ;

  2. mesurer la performance et l’équité avec des tests A/B et jeux de données synthétiques;

  3. auditer en continu (pré-/post-déploiement) ;

  4. maintenir un « humain responsable » du choix final, traçable. arXiv+1


Implications pour les DRH

  • Exiger des fournisseurs un model card & un protocole d’audit de biais, avec métriques et résultats. arXiv

  • Constituer un jeu de test interne représentatif (par métiers, bassins d’emploi, langues) et monitorer les écarts de sélection et de réussite à chaque étape. ScienceDirect

  • Documenter les décisions, conserver la possibilité de revue humaine et de recours (cadre UE AI Act). Reuters

Commentaires


bottom of page