IA en entreprise : pourquoi former les RH avant de former les managers

Le chiffre donne le vertige : l'utilisation de l'IA par les professionnels RH a triplé en un an, passant de 9 % à 28 % selon Focus AI.

Dans le même temps, 70 % des professionnels qui utilisent l'IA au quotidien déclarent que leur employeur ne leur propose aucune formation. Zéro accompagnement, zéro cadre, zéro filet.

Le paradoxe ne s'arrête pas là. 73 % des organisations considèrent l'IA comme un enjeu RH prioritaire, mais à peine 5 % intègrent réellement des briques d'IA dans leurs pratiques quotidiennes selon RH Magazine. L'intention est massive, l'exécution quasi inexistante.
Et c'est précisément dans ce fossé que se niche l'erreur la plus coûteuse.

IA en entreprise : pourquoi former les RH avant de former les managers
Former les managers à l’IA avant les RH est une erreur stratégique majeure : conformité, éthique, crédibilité et performance se jouent d’abord côté RH — et le compte à rebours réglementaire est déjà lancé.

Face à l’urgence, beaucoup d’entreprises choisissent de former les managers en premier ; ceux qui « font tourner la machine ». Logique en apparence. Sauf que cette approche revient à distribuer des clés de voiture sans avoir construit la route.

Car dans l’écosystème IA, ce sont les RH qui posent les fondations : conformité réglementaire, gouvernance éthique, architecture des compétences, dialogue social. Former les managers avant les RH, c’est bâtir sans fondations.

1. Les RH, premiers responsables légaux face à l’AI Act

Depuis le 2 février 2025, le compte à rebours est lancé. L’article 4 du Règlement européen sur l’IA impose aux entreprises de garantir un niveau suffisant de maîtrise de l’IA pour l’ensemble du personnel exposé à ces technologies. 

Et comme le précise le cabinet Capstan Avocats, si le texte ne crée pas une obligation de formation au sens strict, la formation reste l’outil le plus pertinent pour s’y conformer. Autrement dit : ne rien faire n’est plus une option.

Mais le vrai tournant arrive le 2 août 2026, avec l’entrée en vigueur des obligations renforcées pour les systèmes d’IA classés « à haut risque ». 

Or, quels processus figurent en tête de cette classification ? Le tri automatique de CV, le matching candidats-postes, l’évaluation de performance, les décisions de promotion assistées par algorithme. Bref, le cœur de métier RH.

La distinction est capitale. Quand un manager utilise Copilot pour synthétiser un compte-rendu ou rédiger un email, il optimise sa productivité.

Quand un processus RH recourt à l’IA pour présélectionner des candidatures ou noter des collaborateurs, il touche aux droits fondamentaux des personnes : droit à un recrutement équitable, droit à la non-discrimination, droit à l’explication. Le niveau de risque n’a rien de comparable.

Les obligations qui en découlent sont lourdes et concrètes : supervision humaine qualifiée, analyse d’impact spécifique, documentation technique, conservation des logs pendant au moins six mois, information-consultation du CSE.

Les sanctions aussi parlent d’elles-mêmes : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les infractions les plus graves, selon Leto Legal. Un RH qui ne maîtrise pas ce cadre ne peut pas le faire appliquer aux autres. Et un manager livré à lui-même face à ces enjeux, c’est un risque que l’entreprise ne peut tout simplement pas se permettre.

2. Architectes de la formation : on ne pilote pas ce qu’on ne maîtrise pas

Posons la question autrement. Qui, dans l’entreprise, décide des contenus de formation à l’IA ? Qui sélectionne les prestataires, calibre les parcours selon les niveaux (utilisateur, manager, décisionnaire) et mesure ensuite si tout cela a produit des effets concrets ? Les RH. Pas la DSI, pas le manager de proximité, pas le consultant externe. Les RH.

Ce rôle de pilote n’a rien de cosmétique. 

Comme le souligne EduGroupe, l’IA s’inscrit désormais pleinement dans le cadre de la GEPP et du plan de développement des compétences ; elle en devient un axe structurant, au même titre que la transition écologique ou la transformation digitale il y a dix ans. Et les chiffres confirment cette bascule : selon GPO Magazine, 58 % des entreprises ont engagé une démarche de Strategic Workforce Planning, et 55 % y intègrent déjà l’IA comme thématique prioritaire de transformation.

Le problème ? Un architecte qui ne comprend pas les matériaux qu’il utilise ne construit rien de solide. 

Un DRH qui n’a jamais expérimenté un outil d’IA générative, qui ne saisit pas la différence entre un modèle de langage et un système de scoring prédictif, ou qui ignore les limites concrètes de ces technologies, va inévitablement produire des plans de formation déconnectés de la réalité du terrain. Des modules trop théoriques pour les opérationnels. Trop génériques pour les experts. Trop timides pour les sceptiques.

Et c’est exactement ce qui se passe dans beaucoup d’organisations aujourd’hui. Les catalogues de formation IA fleurissent, les e-learnings se multiplient  mais le taux d’adoption réel des outils post-formation reste souvent décevant. 

Non pas parce que les salariés résistent, mais parce que les parcours ont été conçus par des équipes RH qui n’avaient pas elles-mêmes la maîtrise suffisante du sujet. Le serpent se mord la queue !

3. Le garde-fou éthique que personne d’autre ne peut jouer

Il y a un phénomène que les spécialistes appellent le biais d’automatisation,  et il devrait inquiéter toutes les directions RH. 

Lorsqu’un score ou un classement est présenté par un système d’IA, il tend à être perçu comme une forme de vérité. Le recruteur hésite à contredire la machine. Le manager valide la recommandation algorithmique par défaut. La supervision humaine, censée garantir l’équité des décisions, se transforme en simple tampon.

Qui peut briser ce mécanisme ? 

Pas le manager, qui n’a ni la formation juridique ni la vision transversale pour challenger un algorithme de scoring. Pas le collaborateur, qui subit la décision sans en connaître les ressorts. C’est au RH que revient ce rôle de filtre éthique ;  à condition qu’il ait les armes pour l’exercer. D’où la nécessité de former recruteurs et managers à la lecture critique des résultats algorithmiques. 

Reste la question qui fâche : qui conçoit et supervise ces formations ? Les RH, encore et toujours.

Mais le sujet va au-delà des biais. 

Un autre risque monte en puissance, encore largement sous-estimé : celui des shadow users. Des collaborateurs utilisent déjà massivement l’IA générative sans cadre ni validation :  ChatGPT pour rédiger des documents internes, générer des réponses à des appels d’offres, produire des analyses.

Les conséquences ? Fuites de données, non-conformité réglementaire, décisions prises sur la base de résultats non vérifiés. Cette dynamique touche désormais des collaborateurs non techniciens, ce qui la rend d’autant plus difficile à détecter.

Voilà pourquoi la séquence compte. Si les managers sont formés à l’IA avant que les RH n’aient posé le cadre (charte d’usage, règles éthiques, protocoles de contrôle) on ne régule pas les pratiques. On les légitime. Et le problème des shadow users ne se résorbe pas : il s’institutionnalise.

4. La crédibilité du DRH se joue maintenant

Le parallèle mérite d’être posé. 

Dans les années 2000, un directeur financier qui ne maîtrisait pas Excel perdait toute légitimité face à ses équipes. L’outil était devenu le langage commun de la fonction. l’IA est en train de suivre exactement la même trajectoire pour les RH. Demain (et demain, c’est déjà en cours) la valeur du professionnel RH ne résidera plus seulement dans sa connaissance du droit social ou sa capacité à gérer les relations humaines. Elle se mesurera aussi à sa capacité à paramétrer les outils, interpréter leurs résultats et en garder la maîtrise.

Un DRH qui arrive en comité de direction sans comprendre ce que fait réellement l’algorithme de matching utilisé dans ses propres recrutements, ou qui découvre l’existence du Règlement européen sur l’IA par la presse, envoie un signal dévastateur.

Face à des managers de plus en plus acculturés aux outils d’IA générative, face à une direction générale qui attend des réponses concrètes sur le retour sur investissement de ces technologies, le DRH non formé se retrouve marginalisé. Pas remplacé : marginalisé. Ce qui est, à certains égards, pire.

Cette crédibilité se joue aussi dans le dialogue social. 

L’information-consultation du CSE sur les nouvelles technologies n’est pas une option : c’est une obligation légale. Or, comme le souligne la CCI Paris Île-de-France, les représentants du personnel montent eux-mêmes en compétence sur les enjeux IA. Ils posent des questions de plus en plus précises, exigent des garanties documentées, challengent les choix technologiques. 

Le DRH qui porte ce dialogue doit être capable d’y répondre avec rigueur, pas avec des éléments de langage génériques.

C’est d’ailleurs dans cette logique que se construit le binôme stratégique entre DRH et DPO, identifié par le cabinet Silexo comme un levier clé de gouvernance.

L’un veille à la conformité des données, l’autre à la performance humaine. Ensemble, ils posent les bases d’une IA de confiance dans l’organisation. Mais ce binôme ne fonctionne que si le DRH parle le même langage que le DPO. Et pour cela, il faut former les RH en priorité,  avant de déployer quoi que ce soit vers les lignes managériales.

Votre formation sur ce thème

 L’IA AU SERVICE DE LA FONCTION RH 

2 jours – En présentiel ou à distance

  • Sélectionner les bons outils d’intelligence artificielle pour ses besoins RH.
  • Identifier les enjeux éthiques, juridiques et organisationnels liés à l’intégration de l’IA dans les RH.
  • Automatiser les processus RH stratégiques (recrutement, formation, GEPP, planification, reporting) grâce à l’IA.
  • Construire des parcours d’accompagnement RH avec des assistants IA personnalisés.
  • Générer des supports de présentation professionnels avec l’IA (réunions, managers, CODIR).

5. La logique en cascade : former dans le bon ordre

La conclusion s’impose d’elle-même. La formation à l’IA en entreprise n’est pas qu’une question de contenu : c’est d’abord une question de séquençage. Et ce séquençage obéit à une logique implacable.

D’abord les RH. Parce qu’ils portent la conformité réglementaire, conçoivent la gouvernance, structurent le dialogue social avec le CSE et construisent les plans de formation pour tous les autres.

Ensuite les managers. Parce qu’ils doivent appliquer un cadre qui existe déjà, superviser les usages IA de leurs équipes et exercer leur esprit critique face aux recommandations algorithmiques, dans un périmètre balisé.

Puis les collaborateurs. Avec des parcours adaptés à leurs cas d’usage métier, ni trop théoriques ni trop génériques.

Inverser cet ordre, c’est déployer des usages sans gouvernance, des outils sans garde-fous, des pratiques sans conformité. C’est aussi prendre le risque de transformer chaque manager formé en amplificateur de shadow IT plutôt qu’en relais d’une politique maîtrisée.

Le marché l’a d’ailleurs bien compris. 

Selon KPMG, 38 % des entreprises ont déployé ou testent actuellement l’IA pour la formation et le développement des compétences. Les briques existent. Les offres se structurent. L’urgence n’est plus de savoir s’il faut former les RH à l’IA, mais de ne pas laisser passer la fenêtre.
 

Qu'avez-vous pensé de cet article ?

Note moyenne de 0/5 basé sur 0 avis

Soyez le premier à donner votre avis

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *