IAMédia

France Travail : le profilage des demandeurs d’emploi

Le profilage algorithmique de France Travail :

Enjeux Éthiques et Sociétaux de l’IA dans le Service Public de l’emploi

Introduction

Le recours à l’intelligence artificielle dans le cadre des politiques publiques connaît une montée en puissance marquée. En France, l’accentuation du contrôle algorithmique exercé par l’organisme France Travail (anciennement Pôle Emploi) suscite des débats houleux. De la notation des chômeur·euses via des « scores de suspicion » à la classification des demandeur·euses d’emploi selon leur potentiel de retour au travail, la numérisation à marche forcée du service public de l’emploi interroge nos valeurs fondamentales. Quels sont les enjeux éthiques de cette automatisation croissante ? Quelles menaces plane sur les droits et libertés individuelles des personnes les plus précaires ? Cet article propose une analyse critique et nuancée de l’essor du profilage algorithmique au sein de France Travail.

I. Les promesses affichées de l’IA : rationalisation et accompagnement personnalisé

France Travail justifie l’intégration de l’intelligence artificielle par des promesses ambitieuses. L’IA serait utilisée pour améliorer l’efficacité opérationnelle tout en offrant des solutions « d’accompagnement personnalisé ». Ces dispositifs s’appuient sur des algorithmes capables de détecter des « signaux faibles » pour diagnostiquer des besoins spécifiques : perte de motivation, décrochage ou redynamisation de la recherche d’emploi.

Un exemple concret est le Journal de la Recherche d’Emploi (JRE), actuellement en phase expérimentale. Cet outil génère des scores pour évaluer l’état psychologique des demandeur·euses : « perte de confiance », « dynamique de recherche faible », etc. Présenté comme un tableau de bord, il propose des recommandations automatisées aux conseiller·ères pour « ajuster l’intensité » de l’accompagnement. À première vue, ces outils offrent des opportunités de modernisation. Cependant, à quel prix ?

II. Les risques d’un contrôle algorithmique étendu

1. Une atteinte à la vie privée

Le fonctionnement des systèmes de profilage repose sur la collecte d’un large éventail de données personnelles : historique professionnel, données financières, habitudes numériques (via cookies ou adresses IP) et même des indicateurs psychologiques. L’ampleur de cette collecte soulève de légitimes inquiétudes sur le respect du Règlement général sur la protection des données (RGPD). Peut-on garantir que ces outils ne deviendront pas intrusifs ou qu’ils ne donneront pas lieu à un usage détourné ? Cette opacité, soulignée par le refus de France Travail de divulguer son code source, alimente la méfiance.

2. Le ressurgissement de biais discriminatoires

Les algorithmes, bien qu’en apparence neutres, reproduisent et amplifient souvent les préjugés inscrits dans les données utilisées pour leur entraînement. À France Travail, des variables telles que la nationalité ou l’âge pourraient indirectement nourrir des discriminations contre des populations vulnérables. Si un score d’employabilité favorise, par exemple, les candidat·es possédant un historique professionnel fluide, les personnes éloignées de l’emploi ou issues de minorités risquent des classements systémiquement défavorables.

3. Une déshumanisation de l’accompagnement

L’automatisation de fonctions clés, bien qu’elle promette de libérer du temps pour les personnels, tend à standardiser l’interaction entre les conseiller·ères et les usager·ères. Ce processus se traduit par une diminution de l’écoute contextuelle et une accentuation des obligations administratives imposées aux allocataires, provoquant frustration et exclusion. Selon plusieurs associations, cette robotisation accroît le « non-recours aux droits », car les populations les plus fragiles (non connectées ou mal à l’aise avec le numérique) peinent à interagir avec ces systèmes.

III. Réguler pour éviter le « techno-solutionnisme »

1. Encadrement réglementaire et transparence

Pour minimiser les dérives potentielles, une transparence accrue dans le développement et l’usage des algorithmes publics est impérative. Cela implique non seulement la publication des codes sources et des critères de décisions, mais aussi l’intégration de mécanismes d’audit externe réguliers.

Le directeur de France Travail a évoqué l’existence d’une charte éthique et d’un comité d’éthique externe. Cependant, ces engagements restituent une image de contrôle « auto-régulé », insuffisante. Un cadre législatif robuste, inspiré de propositions comme l’IA Act européen, pourrait protéger davantage les usager·ères d’abus.

2. Une place pour l’humain

Les algorithmes ne devraient jamais remplacer la prise de décision humaine dans des processus aussi sensibles que l’insertion professionnelle. Le rôle des conseiller·ères devient alors non négociable : contextualiser et regarder au-delà des métriques générées par les machines.

3. Approche participative

Associer les usager·ères aux processus de décision paraît essentiel pour anticiper les impacts sociétaux des outils numériques, notamment au sein d’organismes publics. Pourquoi ne pas imaginer des espaces de co-création entre développeur·ses, représentant·es d’usager·ères, et expert·es juridiques pour garantir une IA sociale et éthique ?

IV. Études de cas internationales

Pour analyser les dérives potentielles des algorithmes de gestion publique, plusieurs exemples internationaux méritent d’être évoqués.

  • Aux Pays-Bas, le scandale du système SyRI (System Risk Indication), utilisé pour détecter la fraude sociale, montre les dangers d’une surveillance algorithmique poussée. Utilisant des corrélations douteuses, SyRI a injustement ciblé des personnes issues de milieux socio-économiques défavorisés et a été jugé illégal pour atteinte au droit à la vie privée.
  • Aux États-Unis, les outils de prévision de récidive utilisés dans le système judiciaire (tels que COMPAS) ont été accusés de biais raciaux, renforçant la méfiance envers les systèmes algorithmiques dans le domaine public.

Ces exemples renforcent la vigilance nécessaire autour des dispositifs implantés par France Travail.

V. Perspectives pour un futur éthique

La numérisation du service public s’inscrit dans une évolution inéluctable, mais l’automatisation ne doit jamais devenir synonyme de déshumanisation ou de contrôle abusif. Pour éviter que l’utilisation des algorithmes à France Travail ne se transforme en outil d’oppression numérique, plusieurs recommandations peuvent être formulées :

  1. Formation des conseiller·ères à la lecture critique des recommandations générées par l’IA.
  2. Renforcement des contre-pouvoirs via des comités d’audit citoyens capables d’évaluer l’impact des décisions algorithmiques.
  3. Artefacts explicables, c’est-à-dire des systèmes capables de clarifier leurs méthodes de décision à la fois pour les experts et pour les usager·ères concernés.

Conclusion : Une réflexion collective urgente

L’usage d’algorithmes de profilage au sein de France Travail illustre les tensions entre promesses technologiques et enjeux de justice sociale. Si l’IA est aujourd’hui présentée comme une solution miracle pour rationaliser les politiques publiques, cette notion de « rationalisation » ne peut se faire au détriment de la vie privée et de la dignité des citoyen·nes.

La technologie, aussi fascinante soit-elle, ne doit pas être utilisée comme une excuse pour renforcer des mécanismes de contrôle social et exacerber les inégalités. Quels garde-fous collectifs voulons-nous mettre en place pour que ces outils restent au service des humains et non l’inverse ? Une question à laquelle notre société, aujourd’hui, se doit de répondre de manière exigeante et éclairée.

Partagez l'article avec vos réseaux sociaux