Pôle emploi : 10 % d’annonces illégales sur le site
L’opérateur public travaille à renforcer son arsenal de lutte contre les annonces frauduleuses.
Avec 7,4 millions d’offres d’emploi publiées en 2016, pole-emploi.fr est le premier site d’annonces d’emploi en France. Le résultat d’un changement de stratégie en 2013 : plutôt que de continuer à concurrencer les autres sites, l’opérateur public a choisi de développer des partenariats avec eux - il y en a autour d’une centaine aujourd’hui - et d’héberger leurs offres. S’en est suivi un changement d’échelle, avec le passage de 120.000 à 600.000 offres disponibles, qui a rendu plus difficile leur contrôle.
Lire aussi :
En mars, la CGT avait tiré la sonnette d’alarme , jugeant à partir d’un échantillon de 1.298 annonces qu’une sur deux était incohérente ou mensongère, voire malhonnête ou illégale. Pôle emploi vient de procéder à sa propre enquête qu’il a rendu publique ce mercredi et aboutit à des conclusions beaucoup moins alarmantes, mais tout de même. Sur les 4.770 offres disponibles le 20 juin sur son site, il évalue à un peu moins de 10 %, la proportion d’offres s’avérant « illégales ». Pour l’essentiel il s’agit d’incohérences (par exemple demande d’une expérience mais débutants acceptés). Dans plus de 8 % des cas, cependant, il s’agit du non respect de la réglementation sur les CDD, et dans 7,5 % de clauses discriminantes. Parmi les 4% d’« autres causes », figureraient notamment les fausses offres, qui s’avèrent être en réalité par exemple des formations, selon l’opérateur.
Un outil d’intelligence artificiel en préparation
Pôle emploi n’est pas non plus à l’abri des offres frauduleuses qui visent à extorquer de l’argent ou des informations personnelles. « Sur les 30 derniers jours, nous avons évité 2.000 tentatives », a souligné Catherine Poux, directrice des services aux entreprises de Pôle emploi. Mais certaines réussissent à passer entre les mailles du filet car elles sont correctement rédigées et que les escrocs s’adaptent sans cesse aux filtres. Pôle emploi utilise des algorythmes par mots clefs, mais cela n’est pas suffisant. L’opérateur travaille pour l’automne à « un outil d’intelligence artificiel auto-apprenant pour détecter les contenus et surtout les comportements suspects », a annoncé Catherine Poux. Un livre blanc des bonnes pratiques devrait être publié en septembre et une démarche de labellisation est à l’étude.