Une photo, un flou juridique.
Ce quatrième numéro de Zone grise s’intéresse à l’incursion de l’intelligence artificielle (IA) dans le monde du travail, son impact sur les employeurs et les salariés…
Zone blanche, ce que dit la loi.
En France, comme ailleurs, le sujet de l’IA interroge, sociétalement et juridiquement. C’est au niveau européen que la législation est la plus avancée. Promulguée en juillet 2024, la loi européenne sur l’intelligence artificielle, ou “IA Act” (règlement (UE) 2024/1689) s’est donnée pour but d’encadrer les systèmes d’IA mis en vente sur le marché européen en les classant en trois catégories de risques : inacceptable, élevé et faible. L’encadrement se concentre majoritairement sur les systèmes d’IA à risque élevé comme les applications de balayage de CV permettant de classer les candidats futurs salariés. Lorsque la sécurité et la santé des salariés sont en jeu, les systèmes concernés sont jugés inacceptables donc interdits, à l’instar des systèmes de notation sociale… Pour les catégories restantes, des règles de transparence et d’information s’appliquent et devront être implémentées d’ici 2026, graduellement, dans les États membres.
Zone d’ombre, ce qui se cache.
L’IA Act pose des bases théoriques nécessaires. En pratique, tout est à prévoir. Si l’IA ne va pas détruire l’emploi, elle va néanmoins grandement le modifier. Opérationnellement, certains secteurs professionnels vont confier à l’IA des tâches répétitives pour se concentrer sur des missions à plus grande valeur ajoutée et permettre in fine d’augmenter la productivité par l’automatisation. En matière de recrutement, l’IA peut assister les procédures de classifications de CV et déterminer l’employabilité du candidat. Finalement, l’IA peut avoir une incidence accrue sur le contrôle de l’activité des salariés.
Quels sont les risques ? Côté employeur, un des risques les plus importants est la fuite de données stratégiques confidentielles lorsqu’elles transitent par une IA non contrôlée et externe à l’entreprise. Côté salarié, plusieurs cas de figure sont à envisager. A commencer par le risque de discrimination au niveau du processus de recrutement car, oui, l’IA peut être biaisée. Récemment Amazon a été condamnée pour discrimination basée sur le genre. Son système d’IA, entraîné sur un historique de recrutement comportant essentiellement des hommes, écartait plus aisément les profils féminins. Cela va de pair avec le risque pesant sur la protection des données personnelles, puisque les règles qui régissent ou qui régiront bientôt l’IA devront être articulées avec celles du RGPD.
Zone grise, aide à la navigation.
La clef, c’est l’anticipation puisqu’en l’absence de cadre, salariés comme employeurs sont livrés à de potentielles mésaventures. La mise en place d’une charte sur l’IA, avec consultation des représentants du personnel, peut s’avérer salutaire que ce soit pour l’introduction de systèmes d’IA au sein de l’entreprise ou pour la gestion disciplinaire en cas de fautes liées à ces derniers. Cette charte se justifie d’autant plus au regard de l’obligation de formation de l’employeur et à celle de loyauté et de confidentialité du salarié. Pour faciliter sa mise en place, les autorités ont déjà pris les choses en main : la Commission nationale de l’informatique et des libertés (CNIL) met à disposition des lignes directrices et le site dédié à l’IA Act offre un outil permettant d’estimer les obligations applicables aux parties prenantes.