Soho, Piccadilly Circus, Leicester Square. Si vous vous trouviez dans l’un de ces hauts lieux touristiques du centre de Londres lundi 17 et mardi 18 décembre, votre visage a peut-être été “scanné”. Ou peut-être avez-vous simplement croisé un policier en uniforme distribuant des prospectus sur l’expérimentation en cours, comme l’annonçait un communiqué de la Metropolitan Police.

Depuis deux jours, huit heures par jour, la police britannique teste une technologie de reconnaissance faciale en temps réel. L’objectif ? Identifier des personnes recherchées par la justice à partir d’images numériques. Selon la Metropolitan Police, cette technologie pourrait à terme contribuer à la prévention des crimes. Dans le contexte de cette expérience grandeur nature, The Telegraph souligne qu’“en cas d’identification présumée d’une personne, les policiers étaient tenus de faire des vérifications supplémentaires avant de procéder éventuellement à une arrestation”.

Cette expérimentation est cependant très décriée. D’une part, parce qu’elle n’est pas aussi transparente qu’annoncée, comme le dénonce le groupe de protection des droits humains et des libertés civiles Liberty. Il révèle que les caméras utilisées étaient disposées sur des camions qui n’avaient pas l’apparence de véhicules de police.

D’autre part, Big Brother Watch déplore dans un tweet :

“En public, la police déclare que tout le monde peut refuser d’être scanné par les caméras de reconnaissance faciale en temps réel.

En interne, les responsables de la police ont indiqué aux agents que toute personne détournant son regard des caméras serait jugée suspecte et pourrait être arrêtée.”

L’organisation de défense des libertés civiles et de protection de la vie privée insiste :

“Nous nous opposons à cette mesure au nom de tous ceux qui refusent d’être des cartes d’identité ambulantes dans une nation sous surveillance.”

Elle juge cette technologie “autoritaire, dangereuse et contraire à la loi”, rapporte BBC News.

Cette expérimentation dans les rues de Londres n’est pas une première. C’est la septième de ce type depuis 2016 et trois autres devraient être programmées. En mai, des résultats publiés par la police du pays de Galles du Sud montraient que cette technologie avait conduit à identifier par erreur des milliers de personnes comme des potentiels délinquants.