C’est un geste rare, presque inédit dans l’administration française. Le jeudi 15 janvier, la Caisse nationale des allocations familiales a décidé de lever le voile sur un outil longtemps accusé d’opacité : son algorithme de datamining utilisé pour cibler une partie des contrôles d’allocataires. Code source, variables utilisées, critères écartés, pondérations… tout est désormais public. La CAF parle de DMDE 2026, pour DataMiningDonnées Entrantes, et assume une démarche de transparence totale.
L’enjeu est de taille. Chaque année, l’institution verse plus de 108 milliards d’euros de prestations à près de 14 millions de foyers. Dans ce contexte, la moindre suspicion de contrôle automatisé injuste alimente la défiance. Consciente de cette fragilité, la CAF a décidé de répondre frontalement aux critiques. Depuis mars 2025, un comité d’éthique indépendant réunit juristes, experts du numérique et représentants des usagers. Son rôle n’est pas symbolique : il examine chaque algorithme, identifie les risques de biais et peut imposer des corrections. Une charte encadre l’ensemble, avec un principe central : l’outil doit assister la solidarité, pas surveiller les allocataires. « Ouvrir, oui, mais avec méthode et responsabilité », résume Nicolas Grivel, directeur général de la CAF.
À la lecture des documents publiés, un point frappe immédiatement : l’algorithme ne concerne qu’une part infime des contrôles. En 2024, sur 31,5 millions de vérifications, moins de 1 % ont mobilisé ce système. Son rôle est simple : produire un score de risque lorsqu’un trop-perçu potentiel dépasse 600 euros sur six mois. Rien de plus. La décision finale revient toujours à un contrôleur humain. « Ces dossiers restent minoritaires dans notre activité », insiste Thomas Desmoulins, responsable du contrôle à la CNAF. Autre élément clé : ce que l’algorithme ne regarde pas. Les données sensibles — nationalité, sexe, adresse précise, quartier — sont exclues. Les comportements aussi : fréquence de connexion, appels à la CAF, retards administratifs ou contrôles passés n’entrent pas en ligne de compte. L’objectif est clair : éviter toute stigmatisation ou effet boule de neige.
Ce que le modèle analyse, en revanche, ce sont des éléments factuels : situation professionnelle, composition du foyer, montants perçus, changements récents de statut. Le tout repose sur une méthode statistique classique, la régression logistique, compréhensible et explicable. Pas de boîte noire, donc. Pour la première fois, chacun peut consulter le code et comprendre comment un score est calculé.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.