Chasse à la fraude sociale : l’Assurance maladie accusée de fliquer les plus démunis, notamment les mères précaires et les personnes handicapées
L’algorithme de l’Assurance Maladie attribuerait une note à chaque bénéficiaire de la Complémentaire santé solidaire gratuite, soit 6 millions de personnes parmi les plus pauvres de France.
Après la CAF, place à la CNAM. Dans un article publié le 5 décembre dernier, La Quadrature du Net épingle la Caisse nationale de l’assurance maladie (Cnam) et son programme de "data mining" qui ciblerait directement les femmes en situation de précarité.
Depuis 2018, "un algorithme développé par l’Assurance Maladie attribue une note, ou un score de suspicion, à chaque foyer bénéficiant de la Complémentaire Santé Solidaire gratuite (C2SG), soit 6 millions de personnes parmi les plus pauvres de France". Cette note servirait à sélectionner les foyers devant faire l’objet d’un contrôle.
Les mères précaires sont délibérément ciblées
L’association affirme que les mères précaires, présentées comme "les plus à risques d’anomalies et de fraudes" dans les documents officiels de la CNAM, sont les premières visées par les inspections de la Cnam. Des contrôles qui aboutiraient trop souvent à "des suspensions abusives de couverture santé entraînant des ruptures d’accès aux sons aux conséquences particulièrement graves, et ce, pour l’ensemble des ayants droit du foyer dont les enfants".
En outre, un modèle expérimental développé en vue d’évolutions futures ferait apparaître qu’en plus des mères précaires, la Sécurité sociale ambitionnerait d’ajouter aux critères venant augmenter le score de suspicion d’un assuré le fait d’être en situation de handicap, d’être malade ou encore d’être "en contact avec l’Assurance Maladie".
Ce modèle n’a pas été abandonné, bien au contraire : début 2020, "son efficience fut au contraire vantée dans des documents distribués lors de sa présentation en Comité de direction Fraude". Problème : l’utilisation de ce nouvel algorithme serait purement et simplement illégale. Pour pouvoir mettre en place ce modèle expérimental, les équipes de développement "chercheraient à appâter les dirigeants de la CNAM afin de gagner leur appui pour obtenir le changement réglementaire nécessaire à la mise en place de ce croisement de données".
Partageant l’inquiétude des associations de défense des droits, le Haut Conseil pour le financement de la protection sociale préconise, dans un rapport publié en juillet 2024, de "procéder à des audits externes des algorithmes pour éviter des biais de discrimination". Il recommande de mettre en place "des chartes ou/et des comités d’éthique" pour assurer "la transparence" qui entoure de tels algorithmes publics.
J'ai déjà un compte
Je me connecteVous souhaitez suivre ce fil de discussion ?
Suivre ce filSouhaitez-vous recevoir une notification lors de la réponse d’un(e) internaute à votre commentaire ?