Il n’a pas de bureau. Pas de badge. Pas de voix. Il ne convoque pas, ne hausse pas le ton, ne signe pas d’avertissement.
Et pourtant, il attribue les courses, calcule le prix, suit les trajets, note les performances, suspend parfois l’accès à l’activité, organise la rencontre entre l’offre et la demande, et décide de ce qui est rentable ou non.
Le management algorithmique ne concerne déjà plus uniquement les livreurs ou les chauffeurs. On le retrouve dans les entrepôts — où les systèmes de gestion pilotent les cadences et les déplacements des préparateurs de commandes —, les centres d’appels, les services de livraison, certaines activités de maintenance, la relation client, voire le recrutement et l’évaluation des performances au moyen d’outils de scoring automatisés.
Le patron invisible pourrait rapidement sortir de l’économie des plateformes pour entrer dans le code du travail.
Ce chef virtuel peut même générer des risques psycho-sociaux, comme l’ont souligné plusieurs rapports institutionnels, tant il sait mettre la pression sur la cadence, la faiblesse de la rémunération ou la mise à l’écart sans justificatif. Il échappe aux codes relationnels qui structurent traditionnellement le lien de subordination, et à l’empathie nécessaire au maintien d’une relation de travail saine et équilibrée.
Est-ce un patron (sans visage) ? Telle est la question.
Un salarié qui s’ignore ?
Depuis plusieurs années, le droit du travail tente de répondre à une question en apparence simple : un chauffeur VTC, un livreur, ou plus largement un travailleur de plateforme, est-il vraiment indépendant lorsqu’il exerce son activité dans un environnement entièrement organisé par un algorithme ?
La réponse n’est pas évidente. Évidemment, le code du travail n’a pas imaginé le patron virtuel. Mais la jurisprudence a posé de façon constante (Cass. Soc., 13 nov. 1996, n° 94-13187, Bull. V n° 386, Société générale), les critères du contrat de travail et du lien de subordination, caractérisés par l’exécution d’un travail sous l’autorité d’un employeur qui a le pouvoir de donner des ordres et des directives, d’en contrôler l’exécution et de sanctionner les manquements de son subordonné.
La jurisprudence applique encore ces critères pour qualifier la nature de la relation de travail avec une application.
Diriger sans dire : les rouages du pouvoir algorithmique
Les directives de l’algorithme ne sont pas frontales. Ce sont des incitations…
Le contrôle est réalisé par la note du client…
La sanction est la discontinuité de l’accès à l’outil…
Quant à la rémunération, elle est fixée par l’application.
Uber, acte I et acte II : la Cour de cassation face à l’algorithme
Dans un arrêt Uber de 2020, il a ainsi été jugé qu’un chauffeur intégré dans un service organisé par la plateforme, ne constituant pas sa propre clientèle, ne fixant pas librement ses tarifs et pouvant être déconnecté dans certaines hypothèses, pouvait être regardé comme ayant la qualité de salarié. (Cass. Soc. 4 mars 2020, n° 19-13.316)
Alors la plateforme a évolué… et la jurisprudence a pu écarter l’application du code du travail : dans une autre affaire Uber de 2025, la Cour de cassation a refusé de requalifier la relation en contrat de travail, relevant plusieurs éléments de liberté : absence d’exclusivité, possibilité de se constituer une clientèle personnelle, faculté de refuser une course, évolution de l’application permettant au chauffeur de connaître certains éléments de la course avant de l’accepter, et absence de démonstration d’ordres ou de directives pendant l’exécution de la prestation (Cass. Soc. 9 juillet 2025, n° 24-13.504, non publié au Bulletin). Cet arrêt, rendu sur la base de circonstances factuelles spécifiques et non publié au Bulletin, ne saurait toutefois être lu comme un revirement de la jurisprudence de 2020 : il illustre davantage la méthode d’appréciation au cas par cas du lien de subordination.
Du règlement intérieur au code source : le pouvoir a changé de forme
Hier, le pouvoir de l’employeur passait par le supérieur hiérarchique, l’horaire affiché, le règlement intérieur, l’ordre direct. Aujourd’hui, il peut passer par une interface, une note moyenne, une géolocalisation, une priorisation dans l’accès aux missions, une suspension de compte, une modulation du prix, une architecture numérique qui rend certains choix théoriquement libres mais économiquement contraints.
L’Europe entre en scène
L’Union européenne s’en mêle, avec la Directive (UE) 2024/2831 du Parlement européen et du Conseil du 23 octobre 2024 relative à l’amélioration des conditions de travail dans le cadre du travail via une plateforme, qui doit être transposée d’ici le 2 décembre 2026 — soit dans moins de huit mois, alors que le législateur français n’a pas encore engagé de processus de transposition visible — et introduit deux évolutions majeures : d’une part, une présomption réfragable de relation de travail, selon les règles nationales, lorsque des faits indiquent un contrôle et une direction — présomption que la plateforme peut renverser en démontrant l’absence de lien de subordination — et, d’autre part, les premières règles européennes encadrant le management algorithmique dans le travail. Ces dispositions s’inscrivent dans un mouvement réglementaire plus large, le Règlement européen sur l’intelligence artificielle (AI Act) classant d’ores et déjà les systèmes d’IA utilisés en matière d’emploi et de gestion des travailleurs parmi les systèmes à haut risque soumis à des exigences renforcées de transparence et de contrôle humain.
Pouvoir réel, responsabilité réelle
La question est donc moins de savoir si l’algorithme ressemble à un employeur que de savoir s’il exerce, en pratique, un pouvoir d’employeur. Jusqu’où une entreprise peut-elle organiser, contrôler et sanctionner une activité humaine par des systèmes automatisés sans assumer les responsabilités attachées au pouvoir qu’elle exerce ? Sur le plan civil, la requalification en contrat de travail emporte des conséquences considérables en termes de charges sociales, de protection du salarié et de responsabilité. Sur le plan pénal, le recours à des algorithmes de gestion pourrait, selon les circonstances, caractériser un travail dissimulé par dissimulation d’emploi salarié, un prêt de main-d’œuvre illicite, voire un harcèlement moral systémique lorsque l’architecture même du système algorithmique soumet les travailleurs à des conditions de travail dégradantes de manière répétée et structurelle — autant de qualifications que la généralisation du management algorithmique invite à ne pas négliger.



