Aller au contenu principal

Bientôt, les intelligences artificielles fabriqueront des « fake news » indiscernables de la réalité

Déjà très répandues, les Fake news parviennent à tromper des milliers de personnes à travers le monde. Si des actions concrètes sont menées pour lutter contre ces informations erronées, un nouveau procédé pourrait à terme rendre impossible la différenciation entre le vrai et le faux. Bientôt, une technologie à reconnaissance faciale pourrait tromper le public en faisant dire à des célébrités de fausses informations, et cela inquiète les spécialistes.

COMMENT FONCTIONNE CETTE TECHNOLOGIE ?

Face2Face est un logiciel de reconnaissance faciale qui enregistre les mouvements réalisés par une personne. Nul besoin de capteurs ou de dispositifs coûteux : un peu à la manière de FaceApp, il suffit d’avoir un ordinateur ou un téléphone équipé d’une caméra. Ensuite, via l’intelligence artificielle, vous pouvez faire bouger en temps réel le visage d’une célébrité en quelques secondes.

Comme des marionnettes numériques, un utilisateur peut faire ce qu’il veut avec n’importe qui, et c’est bien là que se trouve le problème. Lyrebird, une entreprise canadienne, a ainsi développé un logiciel permettant de synthétiser la voix d’une personne juste avec quelques minutes d’enregistrement. Si ces deux logiciels sont couplés pour créer une fausse info, il serait très difficile de déterminer si elle est vraie ou non.

UN FLÉAU PRATIQUÉ PAR TOUS

Les Fake News peuvent survenir à n’importe quel moment, et il reste toujours difficile de dire si leur contenu est vrai ou non. Le pire, c’est que même les plus hautes institutions créent de fausses informations. L’institut technologique d’Oxford a ainsi prouvé cette année que la moitié des comptes Twitter parlant de politiciens russes étaient faux et alimentés par des intelligences artificielles.

LES FAKE NEWS BIENTÔT INDÉTECTABLES ?

Le souci, c’est est que les créateurs de ces logiciels ne pensent pas que leurs produits pourraient être utilisés à de mauvaises fins. Même Adobe, leader du secteur, travaille sur VoCo, un logiciel qui serait comme un Photoshop destiné aux voix. Photoshop fait déjà parti de ces outils qui ont « popularisé » les Fake News et autres photos truquées, omniprésentes dans certains médias et sur Internet.

Pour le moment, il peut être assez facile de détecter de fausses photos en observant de plus près certains détails. La basse résolution des photos et la présence de flous sont de bons indices, mais ces derniers sont en train de se perfectionner. Même des graphistes confirmés habitués à retoucher des photos peuvent eux aussi être dupés par de faux clichés. Les fausses informations sont encore un phénomène contre lesquels les internautes luttent mais la méfiance reste de mise.

Partager cet article

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *