25 Jun 2025

Intelligence artificielle (« IA ») et droit du travail : encadrer l'essor de l'IA en entreprise

Point de vue par Leslie Nicolaï, Avocate associée et Sabrina Haddad Avocate of Counsel - D.O Actu. 27 févr. 2025/9, n° 30 

 


L'intelligence artificielle constitue un levier d'innovation et de compétitivité pour les entreprises, mais son déploiement doit être réalisé dans un cadre juridique strict. 

Le respect des obligations réglementaires, la transparence vis-à-vis des salariés et la mise en place de garde-fous pour éviter toute dérive sont essentiels pour garantir une utilisation éthique et conforme aux principes du droit du travail. 

Leslie Nicolaï, avocate associée et Sabrina Haddad, avocate of Counsel au sein du cabinet Factorhy font le point sur les enjeux liés à l'introduction de systèmes d'IA dans les entreprises et aux obligations qui leur incombent, notamment au regard du droit du travail. 

L'entrée en vigueur du Règlement européen sur l'intelligence artificielle ou « IA Act », le 1er août 2024 marque une évolution majeure pour les entreprises souhaitant intégrer des systèmes d'IA dans leurs processus internes, en particulier, dans la gestion des ressources humaines. 

Ce règlement vise à encadrer l'usage de ces technologies en imposant de nouvelles obligations en matière de transparence, de supervision humaine, d'adaptation et de prévention des risques. 

Face à ces nouvelles obligations, les employeurs doivent rapidement adapter leurs pratiques pour assurer une mise en conformité efficace tout en garantissant un usage responsable et éthique de l'IA dans leurs processus RH. 

Définir l'intelligence artificielle 

 L'intelligence artificielle peut être définie comme un ensemble de technologies permettant à des systèmes informatiques d'analyser des données et capable de générer des résultats sous forme de contenu, prédictions, recommandations ou décisions influençant les environnements avec lesquels il interagit. 

L'IA repose sur des algorithmes d'apprentissage automatique et peut être utilisée dans divers contextes professionnels, notamment la gestion des ressources humaines. 

 

Obligations nouvelles et échelonnées dans le temps en application de l'IA ACT 

 Le Règlement européen sur l'intelligence artificielle impose aux employeurs, en tant que déployeurs de systèmes d'IA, plusieurs obligations spécifiques. 

Chaque entreprise, en fonction du type d'IA utilisé, devra, selon le calendrier arrêté au sein de l'IA Act, mettre en place des structures de gouvernance, des mesures de transparence et de protections nécessaires pour se conformer aux nouvelles réglementations européennes en matière d'IA. 

L'IA Act considère le système d'IA comme un produit et classe les systèmes d'IA en quatre niveaux de risque, chacun impliquant des obligations spécifiques pour les employeurs : 

 

Préparer l'arrivée de l'IA dans l'entreprise 

Depuis le 2 février 2025, les systèmes d'IA jugés inacceptables par l'IA Act, comme les logiciels de « notation sociale », privés ou publics, les IA de « police prédictive individuelle » visant à « profiler » des personnes en estimant leur propension à commettre des infractions ou encore les systèmes de reconnaissance des émotions au travail ou à l'école, sont interdits. 

Désormais, les employeurs doivent anticiper les échéances suivantes : 

  • 2 août 2025 : mise en conformité des systèmes d'IA à risque limité. 
  • 2 août 2026 : mise en conformité des systèmes d'IA à risque élevé. 

Retrouvez l’intégralité de l’article, les tableaux d’évaluation des risques par niveau sur Lexis+