Partager la publication "Droit du travail augmenté : que se passe-t-il quand l’IA devient manager ?"

1. Quand l’IA devient manager : un phénomène déjà bien réel
Dans certains entrepôts logistiques, les « productivity scores » générés automatiquement par des logiciels d’analyse pilotent déjà la cadence journalière des travailleurs. Dans des centres de relation client, ce sont généralement les logiciels qui répartissent les tâches, ajustent les plannings et identifient les écarts de discours par rapport aux scripts de vente. Au sein des entreprises de services, des outils prédictifs recommandent les collaborateurs à fort potentiel et proposent des projets de carrière.
Pour atteindre un certain niveau d’efficacité, ces systèmes s’appuient sur d’importants volumes de données numériques, telles que :
- le temps passé sur chaque tâche ;
- l’historique des performances de chaque salarié ou chaque équipe ;
- la géolocalisation des salariés (notamment pour les trajets professionnels) ;
- les communications professionnelles ;
- les interactions avec les clients ;
- etc.
L’objectif principal pour les entreprises est de :
- rationaliser l’organisation du travail ;
- réduire les coûts de production ;
- détecter les anomalies — qu’elles soient d’ordre technique (ex. : panne machine, logiciel non mis à jour) ou qu’elles proviennent des comportements des salariés (ex. : trajet professionnel plus long que l’itinéraire conseillé).
En soi, l’IA permet ainsi de continuer vers cette lancée de progrès technique. Cependant, ce progrès ne doit pas être synonyme d’abus à l’égard des salariés.
2. La responsabilité de l’employeur face aux décisions automatisées
A. Un principe fondamental : l’employeur reste responsable
Dans le droit français comme européen, le principe est clair : même lorsqu’il délègue une fonction à un outil numérique, l’employeur demeure pleinement responsable des décisions prises dans l’entreprise.
Autrement dit, une IA ne peut jamais devenir un « employeur » ou un « manager » responsable au sens juridique du terme. Cette nouvelle technologie peut assister les employeurs, mais elle ne peut pas se substituer au dirigeant concernant sa responsabilité civile et pénale. Cela vaut notamment pour ce qui concerne la santé, la sécurité, les conditions de travail ou bien encore les sanctions disciplinaires à l’égard des salariés.
Si une IA fixe des objectifs à peine tenables sans une fatigue physique et mentale excessive ou discrimine certains salariés, c’est l’employeur qui reste juridiquement responsable. L’utilisation d’un modèle algorithmique mal calibré reste une erreur de l’employeur qui en est l’utilisateur.
B. Le risque de manquement à l’obligation de sécurité
De nombreuses IA sont conçues pour optimiser la productivité. Le principal risque dans ce cas est de pousser les salariés à des cadences de travail effrénées et stressantes. Si une IA impose systématiquement des objectifs supérieurs aux capacités des salariés en situation réelle ou empêche un salarié de prendre une pause, cela peut être assimilé à un manquement à l’obligation de sécurité.
L’employeur doit donc s’assurer que :
- les algorithmes n’imposent pas des rythmes de travail dangereux et respectent la durée du repos journalier ;
- les scores de performance tiennent compte des capacités physiques des salariés en situation réelle ;
- les mécanismes de contrôle ne portent pas atteinte au droit à la déconnexion ni au respect à la vie privée du salarié.
C. Le risque de discrimination
Les IA apprennent à partir des données qu’on leur fournit. Elles peuvent donc reproduire, et parfois amplifier des biais préexistants. Il peut notamment s’agir de favoriser les salariés ayant le plus d’ancienneté, sanctionner ceux qui cumulent les arrêts maladie, pénaliser les temps partiels, etc.
Ici encore, l’employeur reste responsable en cas de discrimination, même si celle-ci est préconisée par un logiciel. En tant qu’utilisateur, c’est à l’employeur de vérifier que le traitement de ces données ne fait pas l’objet de discriminations sanctionnées au regard du Code du travail.
3. Le droit à la contestation d’une décision provenant d’une IA
Depuis le RGPD (article 22 du RGPD), toute personne a le droit de ne pas être soumise à une décision fondée exclusivement sur un traitement automatisé si cette décision a un impact significatif sur elle (ex. : suppression d’une prime, changement d’affectation, sanction disciplinaire contestable, refus de promotion).
Au sein des entreprises, cela signifie concrètement que :
- aucune décision importante ne peut être 100 % automatisée (ex. : un recrutement, une sanction disciplinaire…) sans qu’un responsable « humain » examine la situation et valide la décision ;
- chaque salarié a le droit de contester une décision provenant de l’IA, en demandant les critères utilisés pour l’IA ainsi que le nom du responsable ayant validé la préconisation de l’IA et — in fine — une révision de la décision.
Un contrôle humain devient dès lors quasiment indispensable.
4. RGPD, DSA, AI Act : quelles obligations pour l’employeur et les RH ?
Comme l’on pouvait s’en douter, les textes européens convergent vers un principe : plus un système d’IA impacte les droits fondamentaux, plus son usage doit être encadré.
A. Le RGPD : transparence et limites des traitements
Le RGPD en tant que tel intègre déjà un cadre défini concernant l’utilisation des logiciels au sein des entreprises avec l’obligation :
- d’une information claire concernant la collecte, le traitement et la conservation des données personnelles collectées ;
- d’une justification sur la finalité du traitement de ces données ;
- du droit d’accès, de rectification et d’opposition à la collecte de ses données personnelles ;
- d’un contrôle humain pour toute décision importante.
Les systèmes RH basés sur l’IA doivent donc être documentés (ex. : notice explicative sur la nature des données traitées), explicables (ex. : présenter l’utilisation de ces données) et proportionnés (ex. : conserver uniquement les données personnelles nécessaires à la bonne exploitation de l’entreprise).
B. Le Digital Services Act (DSA)
Le DSA vient renforcer les obligations de l’employeur pour limiter les dérives concernant la diffusion de contenus illicites ou préjudiciables ou de produits illégaux. Ces dérives peuvent notamment être favorisées par l’utilisation de l’IA au sein des entreprises. Pour encadrer l’utilisation des services numériques intégrant l’IA, le DSA impose :
- une obligation de transparence algorithmique (quel logiciel utilisé, comment et pourquoi…) ;
- la réalisation d’audits ;
- la traçabilité des décisions (origine de la décision, validation ou non par un responsable, date…) ;
- la lutte contre les contenus illicites ou préjudiciables (ex. : publication de fausses informations).
Bon à savoir : Cela concerne majoritairement les plateformes en ligne. Les entreprises qui gèrent des petites plateformes (moins de 50 salariés et moins de 10 millions d’euros de chiffre d’affaires annuel) sont généralement exemptées des principales obligations découlant du DSA.
C. L’AI Act : un cadre spécifique pour les IA
L’AI Act vise à encadrer l’usage, la vente et la mise en service des systèmes d’intelligence artificielle (IA) au sein de l’UE. L’objectif principal est de garantir que l’IA soit sécurisée et respectueuse des droits fondamentaux (sécurité, vie privée, non-discrimination, démocratie, etc.). La particularité de ce texte est de classer les IA selon 5 degrés de risque :
- le risque acceptable (manipulation inconsciente des utilisateurs, notation sociale…) ;
- le haut risque (les IA utilisées dans des secteurs sensibles tels que le secteur médical, l’éducation, la formation professionnelle…) ;
- le risque spécifique (les IA qui interagissent avec des personnes physiques et qui sont en capacité de détecter les émotions des utilisateurs) ;
- le risque d’usage général (ex. : les IA qui peuvent omettre des droits d’auteur) ;
- le risque systématique, c’est-à-dire l’ensemble des risques communs à l’utilisation d’une IA tels que la cybersécurité ou bien encore leur consommation d’énergie.
Au-delà de cette classification, l’AI Act impose aux employeurs qui présentent ou développent des produits intégrant une IA à haut risque :
- une inscription dans la base de données de l’Union européenne ;
- un marquage CE ;
- la mise en place d’un système de gestion des risques ;
- une documentation sur le fonctionnement de l’IA dans un souci de transparence et de traçabilité ;
- un contrôle humain sur le système IA avant la mise en service du produit intégrant l’IA sur le marché ;
- la mise en place d’un registre sur la protection des données et l’évaluation du niveau de conformité de l’utilisation de l’IA ;
- l’intégration de mesures techniques et organisationnelles pour garantir la bonne utilisation de l’IA au niveau de l’exactitude des données générées et de la cybersécurité.
Les entreprises qui souhaitent intégrer un ou plusieurs logiciels RH intégrant une IA devront ainsi veiller à ce que ces logiciels respectent ces obligations. De même, une analyse d’impact IA permet de vérifier la conformité de ces logiciels au regard du respect des droits des salariés.
5. Vers un nouveau cadre du management : quel rôle pour les RH et les managers ?
Les managers ne semblent pas voués à disparaître, mais leurs missions vont inéluctablement évoluer. Au regard des performances actuelles de l’IA, les managers et RH vont devoir être capables :
- de comprendre le fonctionnement des IA utilisées au sein de leur entreprise ;
- de détecter les anomalies les plus visibles (ex. : logiciel d’aide au recrutement appliquant des critères discriminatoires) ;
- d’expliquer aux équipes les décisions et leurs fondements pris en utilisant l’IA ;
- d’exercer un contrôle humain avant toute validation d’une décision prise par un logiciel ;
- de prendre conscience de l’étendue de leur responsabilité vis-à-vis de l’utilisation de l’IA ;
- d’arbitrer entre les recommandations de l’IA et les réalités sur le terrain.
Les services RH devront ainsi renforcer leurs compétences en matière de data governance, de conformité RGPD et de gestion des risques algorithmiques.
Afin d’intégrer dès à présent l’IA de manière responsable et en conformité avec les réglementations actuelles et à venir, venez découvrir notre formation « Intégrer le cadre juridique de l’Intelligence Artificielle à ses projets ».
Votre formation sur ce thème
INTEGRER LE CADRE JURIDIQUE DE L’INTELLIGENCE ARTIFICIELLE A SES PROJETS
1 jour – En présentiel ou à distance
- Analyser les différents impacts du nouveau Règlement Européen sur l’Intelligence Artificielle (IA).
- Évaluer la conformité juridique des pratiques de son organisation en matière d’intelligence artificielle.
- Développer des projets autour de l’IA dans le respect de la règlementation européenne.
Bonus : 5 questions à se poser avant de laisser une IA manager vos équipes
1. Est-il possible d’appliquer une décision générée par une IA au sein d’une entreprise ?
Toute décision ayant un impact significatif sur un salarié (ex. : changement de poste, changement des horaires de travail…) doit impérativement être supervisée et validée par un humain.
2. Sur quelles données l’algorithme peut-il se baser pour obtenir des réponses pertinentes et conformes au regard des réglementations applicables ?
Autrement dit, les données fournies à l’IA sont-elles pertinentes ? Minimales ? Non discriminatoires ? Respectent-elles le RGPD ? Sinon, ces données sont à retirer de la base de données accessible à l’IA.
3. Comment identifier rapidement un biais ou une anomalie algorithmique ?
Il est conseillé de réaliser des audits réguliers et d’appliquer des indicateurs d’alerte.
4. Les salariés peuvent-ils comprendre, contester et obtenir une révision d’une décision générée par l’IA ?
Oui, c’est un droit à respecter obligatoirement au sein des entreprises.
5. Qui dans l’entreprise est responsable en cas d’erreur ?
L’utilisateur d’une IA est seul responsable. C’est à lui d’arbitrer la réponse générée par une IA.

