L’IA réduit-elle les biais de sélection dans le recrutement ? Ce que dit la recherche
- Paul Sensai
- 16 sept. 2025
- 2 min de lecture

L’IA peut réduire certains biais si et seulement si elle est conçue, auditée et pilotée avec des métriques de fairness ; sinon, elle reproduit — voire amplifie — les discriminations historiques.
Les travaux académiques convergent : les systèmes IA appliqués au recrutement héritent des biais des données d’entraînement (CV historiques, évaluations, résultats d’entretiens) et des choix de modélisation.
`Des revues systématiques récentes documentent des biais dans le classement de candidatures, l’analyse vidéo/voix et les tests automatisés, et répertorient les métriques (demographic parity, equalized odds, calibration) et les techniques d’atténuation (re-pondération, débiaisage, post-traitement, audits) désormais considérées comme des pratiques incontournables. arXiv+2ScienceDirect+2
Cas d'Amazon :
Le cas d’Amazon (2014–2017) est devenu emblématique : un moteur de tri de CV entraîné majoritairement sur des profils masculins a défavorisé les candidatures féminines, conduisant à l’abandon du projet. L’épisode illustre un point central : supprimer un attribut (le genre) ne suffit pas si des variables corrélées (établissements, associations, formulation des expériences) restent présentes. euronews+1
Alors, l’IA est-elle « meilleure » que l’humain ? Les études nuancent : correctement paramétrée et auditée, l’IA peut uniformiser l’évaluation, documenter les décisions et appliquer des seuils constants — réduisant certains biais de process. Mais sans gouvernance, elle risque de les figer à grande échelle.
Les revues pluridisciplinaires appellent donc à :
définir une notion de fairness compatible avec le droit local ;
mesurer la performance et l’équité avec des tests A/B et jeux de données synthétiques;
auditer en continu (pré-/post-déploiement) ;
maintenir un « humain responsable » du choix final, traçable. arXiv+1
Implications pour les DRH
Exiger des fournisseurs un model card & un protocole d’audit de biais, avec métriques et résultats. arXiv
Constituer un jeu de test interne représentatif (par métiers, bassins d’emploi, langues) et monitorer les écarts de sélection et de réussite à chaque étape. ScienceDirect
Documenter les décisions, conserver la possibilité de revue humaine et de recours (cadre UE AI Act). Reuters




Commentaires