Dans un mouvement de contestation contre le système d’évaluation déployé par la Caisse nationale des allocations familiales (CNAF), une quinzaine d’organismes de bienfaisance ont introduit une action en justice devant le Conseil d’Etat, le mercredi 16 octobre. Selon eux, l’approche de la CNAF pour cibler ses vérifications est en violation des droits.
Depuis 2010, l’institution sociale a mis en œuvre l’utilisation d’algorithmes pour identifier les bénéficiaires à vérifier en priorité, se basant sur un risque d’erreur potentiellement plus élevé dans leurs dossiers. Les dossiers sont notés de 0 à 10 en fonction des données personnelles, plus le score est élevé, plus le risque de vérification est grand. Cependant, ce système qui se base sur le profilage des bénéficiaires plutôt que la détection d’actes suspects, a été critiqué. Le Monde a démontré cela dans une enquête publiée en 2023, révélant que cette évaluation est basée principalement sur l’âge des enfants, le niveau de revenu et le nombre récent de déménagements.
Ce système a été accusé de discrimination envers les personnes les plus vulnérables par diverses organisations, y compris La Quadrature du Net, Amnesty International France et le collectif Changer de cap, qui ont tous initié la plainte. En juillet, ils ont fait part de leurs préoccupations à la CNAF par lettre, appelant à mettre un terme à son système de notation. En raison de l’absence de réponse, la décision a été prise de saisir le Conseil d’État. Selon Le Monde, la principale préoccupation évoquée dans la requête est l’injustice présumée de l’algorithme.
Certaines pratiques de calcul associées à l’âge des bénéficiaires ou de leur famille sont perçues comme étant directement discriminatoires. D’autres pourraient entraîner des discriminations de manière indirecte. Par exemple, le critère ciblant les parents célibataires peut en fait contrôler de manière excessive les femmes qui sont plus susceptibles d’élever des enfants seules. Les femmes, ainsi que les personnes à revenus faibles ou précaires et les jeunes, qui sont sur-représentées parmi les vérifications, pourraient être victimes de discrimination, selon les associations.
La CNAF, de son côté, a toujours nié toute discrimination. Selon l’institution, le système ne fait que chercher les profils les plus susceptibles de faire des erreurs. Et si le score de risque est par la suite utilisé pour cibler les contrôles, chaque affaire est traitée manuellement : donc, les bénéficiaires qui sont en règle ne sont pas pénalisés, assure l’administration.
Possibles violations de la protection des données
Katia Roux, de Amnesty International France, conteste cette argumentation, arguant que la question est de savoir si cet outil respecte ou non les droits de l’homme. Elle souligne que les discriminations doivent être interdites, d’autant plus que des systèmes de ce type sont en train d’être déployés dans de nombreuses autres administrations, en France et dans toute l’Europe.
Les associations accusent également la CNAF de violer le Règlement Général sur la Protection des Données (RGPD). Tout d’abord, parce que la quantité de données recueillies serait excessive au regard de l’objectif visé. Le système recueille des informations sur plus de 32 millions de personnes pour mener environ 90 000 contrôles sur place chaque année, selon les chiffres de la CNAF.
La méthodologie du système de score de risque pourrait se heurter à l’article 22 du RGPD. Selon ce dernier, les résolutions individualisées entièrement automatisées basées sur le traitement des données privées sont généralement interdites. Dans ce contexte, le verdict de la Cour de justice de l’Union européenne du 7 décembre 2023 établit qu’un dispositif d’évaluation employé par une entreprise allemande pour approuver ou refuser une sollicitation de prêt immobilier contredit le RGPD. Pour des associations, une logique similaire pourrait être invoquée en ce qui concerne le système de la CNAF.
L’absence de clarté de la part de la CNAF
Jusqu’à maintenant, la CNAF a cherché à atténuer les critiques à propos de son score de risque. « Nous n’avons pas à être honteux ou à présenter des excuses pour la manière dont nous utilisons ces dispositifs », affichait le directeur de l’agence, Nicolas Grivel, dans un message interne transmis en décembre 2023, à la suite de l’enquête du Monde.
M. Grivel a également assuré qu’une réflexion sur l’utilisation des algorithmes à la CNAF comprendrait divers experts et délivrerait les « premières déductions dès le printemps 2024 ». D’après nos sources, le sujet a été discuté lors de la réunion du conseil d’administration de l’entité sociale au début de l’été. « Le but était essentiellement de justifier l’emploi de ce dispositif et de parler des plans de consultations pour l’avenir. Il n’y avait pas beaucoup de substance », observe Joël Raffard, représentant de la CGT dans l’entité.
Bien que la CNAF ait réussi à contourner le débat jusqu’à présent, la sollicitation du Conseil d’Etat pourrait la forcer à être plus transparente. Elle pourrait avoir à donner plus de détails sur son choix de certains critères de calcul de son score de risque. Les associations espèrent également que l’institution partagera des statistiques détaillées sur le type de public surveillé par l’algorithme, afin de déterminer qui est visé ou non par ce dernier. Contribuer et réutiliser ce contenu.