Les tueries d’Orlando, d’El Paso et de Christchurch ont un point en commun : elles ont été commises par des tueurs actifs dans les groupes haineux en ligne. Or, bannir ces groupes « les rend plus forts », et les réseaux sociaux devraient plutôt s’unir pour les combattre, explique Neil Johnson, professeur au département de physique de l’Université George Washington et coauteur de l’étude « Hidden resilience and adaptive dynamics of the global online hate ecology », publiée dans la revue Nature. La Presse lui a parlé.

Vous écrivez que bannir un groupe extrémiste d’un réseau social rend ce groupe plus fort et plus efficace, ce qui est plutôt contre-intuitif. Comment cela fonctionne-t-il ?

Bannir les groupes haineux d’une plateforme (Facebook, par exemple) les oblige à tourner leurs efforts vers une autre plateforme, par exemple VKontakte [un réseau social établi en Russie]. Les membres du groupe peuvent se retrouver très rapidement, car ils concentrent leurs efforts au même endroit. Vous venez de les aider à se trouver les uns les autres. Nous avons démontré cela avec un modèle mathématique – ce n’est pas simplement mon opinion.

Donc le problème ne fait que changer de place.

Tout à fait. Imaginez qu’un quartier ait un problème d’infestation, et que chaque terrain représente un réseau social. Si Facebook utilise le meilleur traitement possible sur son terrain, ça va tout simplement déplacer le problème sur les autres terrains, où l’infestation n’en sera que plus forte et mieux adaptée aux contraintes. L’infestation pourra ensuite revenir dans Facebook, mais sous une nouvelle forme qui pourra passer inaperçue.

Notre étude montre que c’est bien pire qu’une infestation de terrain : on démontre que la haine en ligne est comme un immense système écologique interconnecté à travers les plateformes, les continents, les langues et les discours narratifs. Alors, c’est comme si tous les terrains de la ville étaient interconnectés par un nombre gigantesque de trous de ver qui agissent comme des raccourcis.

Avez-vous été surpris par ces résultats ?

Oui. Nous nous attendions à ce que chaque terrain (chaque réseau social) ait un problème d’infestation qui lui soit propre, que ces organismes soient séparés et agissent de façon indépendante. Aussi, nous nous attendions à ce que les usagers soient séparés naturellement selon les différents continents, les différentes langues et les divers héritages culturels. Mais ce n’est pas ce que nous avons trouvé. L’« autoroute de la haine » est un immense système interconnecté d’attrape-mouche qui peut capturer n’importe quel individu (un adolescent, par exemple) et lui offrir en quelques clics une saveur de haine spécialement adaptée à sa culture, à ses intérêts, etc.

Comment peut-on s’attaquer au problème ?

Les réseaux sociaux travaillent en vase clos et ont leurs propres politiques. Pour avoir du succès, ils devraient adopter et faire respecter des politiques uniformes contre la haine, qui pourraient agir et bloquer ces « autoroutes de la haine ». De plus, les réseaux sociaux peuvent réduire l’influence et le nombre des grands groupes de haine en bannissant les plus petits groupes qui les alimentent. Une autre politique pourrait être de bannir une petite fraction d’individus très actifs à travers les plateformes, ce qui affaiblirait les réseaux mondiaux. On pourrait penser que de tout simplement bannir les plus gros groupes ferait l’affaire, mais notre étude démontre qu’ils sont remplacés rapidement par d’autres groupes de taille similaire.