Partager la publication "L’agentisation en entreprise, promesse d’autonomie ou nouvelle dépendance ?"

I. L’agentisation, une promesse séduisante d’autonomie renforcée
1. Automatiser pour mieux décider : l’IA comme alliée en entreprise
Selon une étude de l’INSEE réalisée en 2024, 10 % des entreprises françaises de 10 salariés ou plus se servent d’une technologie IA ; ce chiffre était de 6 % en 2023. L’argument numéro un en faveur de l’IA est simple : elle fait gagner du temps.
Aujourd’hui, de nombreux outils sont capables d’automatiser les tâches répétitives comme la mise en forme de tableaux ou la création de reportings (pour ne citer qu’eux). L’objectif ? Alléger l’esprit des collaborateurs et leur permettre de réinvestir ce temps gagné dans du travail à forte valeur ajoutée. Plus de stratégie, moins d’opérationnel.
Pour beaucoup d’équipes, il devient difficile de se passer de l’intelligence artificielle. Elle représente un soutien indispensable et donne l’impression d’être plus rapide et efficace.
L’agentisation repose ainsi sur une idée forte : celle que les outils numériques élargissent notre pouvoir d’action.
2. Le recrutement par IA, une théorie alléchante
Cette agentisation se joue à tous les niveaux de l’entreprise, même dans le recrutement. Lorsqu’un poste se crée ou se libère, la sélection de candidats est bien souvent une tâche chronophage et subjective. Face à ces CV reçus par dizaine (parfois plus !), l’arrivée de l’IA est perçue comme une véritable révolution. Et pour cause : la CCI de Paris affirme que près de 80 % des recruteurs utilisent l’IA générative.
Certains algorithmes sont spécialement conçus pour passer au crible les dossiers de candidature en évaluant les compétences, les expériences et les éléments clés des parcours. À partir des critères définis pour le poste, ils hiérarchisent les profils et génèrent des indicateurs de pertinence. La suite est prise en main par les RH.
Sur le papier, tout semble parfait. Ici, l’intelligence artificielle agit comme un assistant et c’est une véritable personne qui reste décisionnaire. C’est l’essence même de l’agentisation, où la technologie amplifie les capacités humaines sans les remplacer.
3. Les algorithmes comme médiateurs du dialogue managérial
Qu’en est-il alors des échanges entre managers et collaborateurs ? Là encore, l’agentisation prend de plus en plus de place : elleintroduit l’algorithme comme un « tiers médiateur ». Désormais, le dialogue ne repose plus uniquement sur le ressenti subjectif du manager, mais sur des données chiffrées collectées en continu par la machine. L’outil devient un intermédiaire : on ne parle plus seulement du travail tel qu’il est vécu, mais du travail tel qu’il est mesuré.
Ce passage au pilotage par la donnée promet d’assainir les échanges : le manager quitte son rôle de « contrôleur » pour intervenir uniquement lorsque l’outil détecte un besoin de soutien ou une baisse de régime. Pour le collaborateur, c’est ainsi la promesse d’un traitement plus équitable. Présenté comme un arbitre neutre de la performance, l’algorithme est censé réduire les tensions hiérarchiques et faciliter le dialogue.
Mais cette promesse d’objectivité ouvre aussi la voie à un basculement plus ambigu : en s’imposant comme référence centrale, les algorithmes ne se contentent plus de soutenir les échanges… Et commencent à les orienter. Le risque de dépendance grandit.
II.Quand l’autonomie apparente masque une dépendance algorithmique
1. Le danger du « pilote automatique »
Certes, l’IA possède de nombreux avantages… Mais les humains ont tendance parfois à suivre ses recommandations sans les remettre en question. C’est ce que l’on appelle le « biais d’automatisation », ou croire que la machine sait mieux que nous. Une étude de France Travail de 2023 a montré que 51% des établissements qui utilisent l’IA y voient une source de réduction des risques d’erreurs.
Pourtant, lorsqu’un algorithme propose une shortlist de candidats ou un plan d’action, le professionnel finit par s’habituer à ce que l’IA fournisse la « meilleure » solution. Il suffit d’un rien pour que l’on fasse confiance aux algorithmes à 100 % (plus simple, plus rapide…). Alors le jugement s’atrophie, la vigilance se relâche… et c’est là que se manifeste le danger du « pilote automatique ». Le savoir-faire se déplace progressivement du collaborateur vers la machine, au point que l’humain peut se retrouver incapable de réagir en cas d’imprévu ou de dysfonctionnement. Qui est alors le véritable décideur ?
2. La gestion de la performance et le risque de surveillance
Les outils de performance, bien qu’utiles, sont à double tranchant. Le danger ? Ils créent une traçabilité presque permanente. Chaque action peut être mesurée et comparée, au point qu’il devient difficile de distinguer accompagnement et contrôle. Ce qui devait aider les collaborateurs à progresser peut se transformer en pression constante : indicateurs suivis en continu, recommandations qui s’apparentent à des ordres, benchmarks et analyses qui se basent uniquement sur les chiffres et déconnectés du contexte réel, etc.
En se fiant uniquement à l’IA, le piège se referme sur l’humain. Chaque clic, mail ou pause est suivi, sous prétexte d’aide, mais cela crée une pression invisible et continue. Terminée la transparence promise, le collaborateur n’est plus évalué sur la qualité globale de son travail, mais sur sa capacité à répondre aux critères du système algorithmique. Alors l’autonomie s’efface.
3. L’illusion de contrôle
L’agentisation installe une illusion de contrôle qui piège autant la direction que les salariés. Grâce aux tableaux de bord, le manager a le sentiment de piloter son équipe avec une précision inédite, tandis que le collaborateur se sent sécurisé par un guidage permanent.
Cependant, cette clarté est souvent illusoire car les critères de l’algorithme restent opaques. C’est le phénomène de la « boîte noire » (source : HAL, 2022) : nous pouvons voir le résultat, sans comprendre le raisonnement que le système d’IA a utilisé pour y parvenir. En entreprise, cela crée une dépendance dangereuse : on finit par appliquer des recommandations dont on ne comprend plus la logique profonde. L’autonomie réelle nécessite de comprendre les raisons de ses actes… Mais si l’on suit l’algorithme parce qu’il a « forcément raison », on ne décide plus, on exécute une probabilité.
Alors que faire ? Face à ce constat, il ne s’agit pas de rejeter l’IA, mais de redéfinir les règles de la collaboration entre l’homme et la machine.
III. Comment réinventer l’agentisation à l’ère des algorithmes ?
1. Réhabiliter le jugement humain
Pour que l’agentisation redevienne un vrai levier de pouvoir, les entreprises doivent impérativement replacer le jugement humain au centre de leur stratégie. Cela commence par faire la part belle à l’esprit critique : chaque collaborateur, spécialiste de son métier, doit se sentir légitime de questionner (voire d’écarter) une recommandation algorithmique si son expérience ou le contexte l’exigent. Dans le recrutement, par exemple, l’IA doit être vue comme un simple appui et non pas comme un verdict définitif. Il est crucial que l’humain reste maître du choix final.
Cette exigence repose sur des formations internes qui vont au-delà du simple mode d’emploi.
L’enjeu est de comprendre comment l’outil fonctionne, savoir comment l’utiliser au mieux dans ses tâches quotidiennes, mais toujours en comprenant ses limites. Il s’agit ici de donner aux équipes toutes les clés pour rester actrices de leurs décisions, sans être de simples exécutantes.
Votre formation sur ce thème
L’IA AU SERVICE DE LA FONCTION RH
2 jours – En présentiel ou à distance
- Sélectionner les bons outils d’intelligence artificielle pour ses besoins RH.
- Identifier les enjeux éthiques, juridiques et organisationnels liés à l’intégration de l’IA dans les RH.
- Automatiser les processus RH stratégiques (recrutement, formation, GEPP, planification, reporting) grâce à l’IA.
- Construire des parcours d’accompagnement RH avec des assistants IA personnalisés.
- Générer des supports de présentation professionnels avec l’IA (réunions, managers, CODIR).
2. Encadrer les algorithmes
La transparence doit devenir une norme managériale primordiale. Les directions (managers, équipes RH…) ont la responsabilité de lever le voile sur le fonctionnement des outils algorithmiques qu’ils utilisent. Quelques exemples concrets : expliquer sur quels critères un candidat est sélectionné ou écarté, détailler la manière dont est calculé le score de performance de l’entreprise, citer quelles données sont prises en compte lors d’un feedback, etc.
Sans cette transparence, les collaborateurs ne sont pas en mesure de comprendre les décisions qui les concernent directement, et ainsi d’exercer une autonomie réelle.
3. Préserver le sens du travail
Au-delà de la performance, l’agentisation pose une question simple : à quoi sert encore le travail si tout est dicté par l’algorithme ? Lorsque chaque étape est guidée par la machine, le métier peut perdre son sens et se réduire à une exécution automatique. Or, le travail doit rester un espace où l’humain compte, avec son intuition, son empathie et sa capacité à juger les situations.
Pour que l’agentisation fonctionne, elle doit s’inscrire dans un projet d’entreprise compréhensible et partagé. L’IA ne doit pas être une fin en soi, mais un outil au service d’un objectif humain. Le rôle des managers est alors essentiel : rappeler que la réussite ne se résume pas à des scores ou des indicateurs, et donner du sens à l’usage des outils. Sans ce lien, le travail devient froid et mécanique, ce qui finit par démotiver les équipes et fragiliser le collectif.
Conclusion
L’agentisation en entreprise n’est ni une solution miracle, ni une menace en soi. Elle ouvre de réelles opportunités d’efficacité, à condition de ne pas confondre assistance et délégation totale. Sans esprit critique, sans transparence et sans cadre éthique, l’autonomie promise peut rapidement se transformer en dépendance algorithmique. L’enjeu n’est donc pas de choisir entre l’humain et la machine, mais de construire une collaboration équilibrée, où l’IA augmente les capacités sans jamais s’y substituer.



