Partager la publication "L’IA : accélérateur d’inclusion ou générateur d’inégalités ?"
1. L’IA, miroir grossissant de nos comportements
Des biais humains bien connus
Comme le soulignent les travaux de Daniel Kahneman (ouvrage Système 1 / Système 2 : Les deux vitesses de la pensée), nous savons que nos décisions sont influencées par des raccourcis mentaux. Le biais de confirmation nous pousse à privilégier ce qui conforte nos croyances. L’effet de halo agit comme une loupe : une caractéristique ou un événement prend toute la place et influence notre perception globale de la personne. Les stéréotypes de genre nous font associer inconsciemment certaines compétences aux hommes (leadership, assertivité) et d’autres aux femmes (écoute, organisation).
Ces biais impactent directement le recrutement et le management. Une étude américaine célèbre a montré qu’un CV identique reçoit plus de réponses quand il est signé d’un prénom masculin plutôt que féminin. Dans une autre, des feedbacks adressés à des femmes portaient davantage sur leur personnalité, alors que ceux destinés aux hommes concernaient leurs résultats.
… qui se propagent dans les algorithmes
L’IA apprend à partir de données passées. Or ces données reflètent nos biais et les inégalités systémiques persistantes. Résultat : les algorithmes ne corrigent pas les biais, ils les reproduisent.
Amazon en a fait les frais avec son IA de recrutement, qui défavorisait systématiquement les candidatures féminines, car les données historiques traitées par l’IA incluaient des biais de genre en défaveur des femmes. Le MIT a démontré que les logiciels de reconnaissance faciale sont bien moins fiables pour les femmes noires que pour les hommes blancs, soulignant ici les enjeux d’intersectionnalité. Et des outils génératifs comme Grok ou MidJourney ont récemment été pointés du doigt pour reproduire sexisme et stéréotypes culturels. La chanteuse Taylor Swift en a été victime, avec le partage sur l’IA d’Elon Musk, Grok Imagine, de photos d’elle topless générées grâce à l’option « Spicy » proposé par l’IA.
GPT-4, selon une étude publiée en 2024, a pu défavoriser des candidatures mentionnant un handicap, à compétences égales. Loin d’être anecdotiques, ces biais peuvent compromettre directement les politiques DEI des entreprises.
2. IA et QVCT : entre risques et opportunités
La QVCT est directement concernée par l’usage de l’IA. Si un collaborateur estime qu’un outil de scoring le juge de manière opaque ou injuste, c’est tout son sentiment d’équité organisationnelle qui vacille. Cela peut générer stress, démotivation et perte d’engagement.
Prenons l’exemple des outils de prédiction de performance. Si l’algorithme se fonde sur des données historiques biaisées — où les promotions étaient majoritairement accordées aux hommes diplômés de grandes écoles — il risque de reproduire ce schéma et de pénaliser les profils issus de la diversité ou de la reconversion. IBM a ainsi constaté que certains de ses premiers outils RH pouvaient reproduire des inégalités historiques, en valorisant davantage les profils masculins issus de grandes écoles. Ce constat a conduit l’entreprise à créer des outils d’audit des biais, comme AI Fairness 360, afin de corriger ces dérives.
Mais l’IA peut aussi être un formidable levier de QVCT quand elle est utilisée de manière responsable. Des entreprises du CAC 40 utilisent déjà des solutions comme Leena AI ou Workday Peakon pour analyser en temps réel des enquêtes anonymes et détecter les signaux faibles du mal-être : hausse du stress, sentiment d’exclusion, baisse de l’engagement. Les managers peuvent ainsi intervenir plus vite, avant que la situation ne se dégrade, et personnaliser leurs actions.
3. IA et politiques DEI : entre accélération et frein
Dans le recrutement, l’IA peut être un accélérateur d’inclusion. Unilever a intégré un système d’IA capable d’analyser des entretiens vidéo sur des critères liés aux compétences et à la communication, tout en minimisant l’influence de l’apparence, du nom ou de l’accent. Résultat : un temps de traitement réduit de 75 % et une diversité accrue dans les candidatures retenues.
Le géant tech LinkedIn a lui constaté que ses algorithmes de recommandation de jobs orientaient davantage les hommes vers des postes techniques et les femmes vers des fonctions support. Pour corriger ce biais, la plateforme a ajusté ses modèles de matching afin de neutraliser les termes genrés et d’assurer une visibilité plus équilibrée des offres entre candidats masculins et féminins.
IBM, de son côté, a développé la plateforme YourLearning, qui recommande des parcours de formation personnalisés à chaque collaborateur. L’objectif est clair : éviter que seuls les plus visibles ou les mieux connectés aient accès aux meilleures opportunités. Chacun peut ainsi progresser selon ses aspirations, ses compétences et ses disponibilités, dans une logique plus équitable.
Mais à l’inverse, des IA mal calibrées peuvent saboter les efforts DEI. Un algorithme de tri de CV formé sur des données biaisées risque d’écarter les candidats ayant un prénom perçu comme étranger ou une trajectoire atypique. Pire encore, l’opacité de certains outils érode la confiance. HireVue, qui utilise l’analyse vidéo pour évaluer les candidats, a été critiqué pour le manque de transparence de ses critères. Les candidats écartés sans explication claire vivent cette expérience comme une injustice, ce qui ternit la marque employeur.
4. Cinq règles pour une IA inclusive et responsable
Face à ces enjeux, certaines entreprises montrent la voie. Cinq pratiques se dégagent pour concilier innovation, QVCT et inclusion.
A. Instaurer une gouvernance claire
Les entreprises peuvent mettre en place une charte IA interne, à l’image d’Orange, qui définit les principes éthiques de l’usage de l’IA. Cette démarche peut être complétée par un comité de suivi pluridisciplinaire (RH, juristes, data scientists, managers, représentants du personnel) chargé d’évaluer régulièrement les projets IA. Ce dispositif garantit que l’IA ne soit pas déployée uniquement sous l’angle technologique mais qu’elle reste alignée avec la culture et les valeurs de l’organisation.
B. Garder l’humain dans la boucle (human in the loop)
Il est essentiel de s’assurer que les outils d’IA ne prennent jamais de décisions finales de manière automatique dans les processus sensibles comme le recrutement, la promotion ou l’évaluation. Certains grands groupes exigent ainsi que toute recommandation d’IA (matching de CV, scoring de performance) soit validée et justifiée par un manager. Dans cette approche, l’IA apporte un appui analytique mais la responsabilité de la décision reste humaine.
C. Auditer régulièrement les algorithmes
Les organisations doivent pratiquer des tests de non-discrimination afin de vérifier que leurs outils n’introduisent pas de biais systémiques (via les testings, par exemple). Ainsi, Unilever audite chaque année ses algorithmes de recrutement pour s’assurer qu’ils ne défavorisent pas certains groupes (genre, origine, parcours atypiques). Ces audits permettent de détecter des distorsions, comme le fait que des CV issus de certaines universités ou portant certains prénoms soient systématiquement moins bien notés.
D. Utiliser l’IA comme outil d’augmentation, pas de substitution
Chez Praxis Labs, la combinaison de réalité virtuelle et d’IA sert à plonger les managers dans des simulations de conversations difficiles (feedback sensible, biais en réunion). L’IA fournit un entraînement immersif, mais n’évalue pas à la place du manager : elle prépare et outille pour mieux agir ensuite dans la réalité. De la même manière, des assistants RH comme Leena AI peuvent aider à détecter des signaux faibles de mal-être, mais c’est au manager d’engager ensuite le dialogue.
E. Assurer transparence et redevabilité
IBM publie en interne un rapport trimestriel sur l’usage de l’IA dans le développement des talents, avec des chiffres mais aussi des témoignages de collaborateurs. Cette transparence permet d’expliquer pourquoi et comment l’IA est utilisée, de renforcer la confiance et d’éviter l’effet “boîte noire”. Dans la même logique, certaines start-up RH partagent ouvertement leurs méthodes de calibration des algorithmes pour permettre aux entreprises clientes de comprendre les limites et marges d’erreur.
Votre formation sur ce thème
L’IA AU SERVICE DE LA FONCTION RH
2 jours – En présentiel ou à distance
- Sélectionner les bons outils d’intelligence artificielle pour ses besoins RH.
- Identifier les enjeux éthiques, juridiques et organisationnels liés à l’intégration de l’IA dans les RH.
- Automatiser les processus RH stratégiques (recrutement, formation, GEPP, planification, reporting) grâce à l’IA.
- Construire des parcours d’accompagnement RH avec des assistants IA personnalisés.
- Générer des supports de présentation professionnels avec l’IA (réunions, managers, CODIR).
5. L’impact environnemental, un enjeu oublié
Un autre aspect essentiel complète ce tableau : la durabilité environnementale. L’entraînement d’un modèle comme GPT-3 aurait généré environ 500 tonnes de CO₂, soit l’équivalent de plusieurs centaines de voitures en circulation pendant un an. Une seule requête sur un grand modèle consomme l’équivalent de plusieurs verres d’eau nécessaires au refroidissement des serveurs. Et selon l’Agence internationale de l’énergie, l’IA pourrait représenter un quart de la consommation électrique des États-Unis d’ici 2030.
Si nous voulons une IA responsable, elle doit être pensée non seulement sous l’angle de l’inclusion et de la QVCT, mais aussi de la durabilité.
Ce qu’il faut retenir
L’IA n’est pas neutre. Elle amplifie nos biais humains si nous ne la cadrons pas, mais elle peut aussi renforcer nos stratégies de QVCT et de DEI si nous la pilotons avec vigilance.
En intégrant gouvernance, formation, audits et transparence, les entreprises peuvent transformer l’IA en un outil d’inclusion et de bien-être, plutôt qu’en générateur d’inégalités. Et en tenant compte de son empreinte environnementale, elles peuvent inscrire cette transformation dans une logique de durabilité.
En somme, l’IA est ce que nous en faisons : un risque, si nous la subissons ; une opportunité, si nous la maîtrisons.