Bannir un troll avant qu’il n’aille trop loin? Quand Minority Report inspire des chercheurs

Haters gonna hate

Que vous soyez gestionnaire de communauté ou simple usager de l’autoroute de l’information, vous avez certainement déjà été confronté à un troll plutôt persistant.

Est-il possible de repérer un troll avant qu’il ne ruine une conversation en ligne? C’est à cette question qu’ont voulu répondre Justin Cheng et ses collègues des universités Stanford et Cornell. Tel que le rapporte cette semaine Big Browser du quotidien Le Monde, ces chercheurs ont élaboré un algorithme qui permet de prédire si un utilisateur sera banni par un modérateur dès les cinq à dix premiers commentaires.

«Selon nos observations, ces utilisateurs ont tendance à concentrer leurs efforts sur un petit nombre de discussions, sont plus susceptibles de publier des commentaires hors sujet, et réussissent mieux à faire réagir les autres utilisateurs.»

Bien entendu, cet outil n’est pas une fin en soi. Non seulement il est possible qu’un utilisateur au comportement intempestif se calme de lui-même, mais nous pouvons jouer au troll à notre tour en critiquant le fait que cet algorithme est totalement inefficace contre le troll ultime : celui qui trollera inévitablement dès le premier commentaire. Néanmoins, les chercheurs évaluent son taux d’efficacité à 80%.

Financée en bonne partie par Google, l’étude a analysé 18 mois de discussions qui se sont déroulées sur le site de la chaîne CNN, sur celui du réseau conservateur Breitbart, et sur le portail de nouvelles spécialisées en jeux vidéo IGN. Au total, 1,7 million d’utilisateurs ont ainsi été observés, ayant généré près de 40 millions de commentaires.

Sur cet échantillon, les chercheurs ont compilé une liste de 10 000 utilisateurs ayant été bannis pour leur comportement antisocial. Viennent alors trois questions visant à classer ces candidats :

  • Était-il troll dès le début de ses activités dans cette communauté, ou est-il devenu troll que vers la fin?
  • Est-ce la réaction de la communauté qui a accentué son comportement antisocial?
  • Aurait-il pu être rapidement identifié comme troll avec succès dès ses premiers commentaires?

«Selon nos observations, ces utilisateurs ont tendance à concentrer leurs efforts sur un petit nombre de discussions, sont plus susceptibles de publier des commentaires hors sujet, et réussissent mieux à faire réagir les autres utilisateurs», ont déclaré les chercheurs.

Toujours selon Cheng et son équipe, la différence entre les messages publiés par des utilisateurs qui seront tôt ou tard bannis du service et les messages des autres membres de la communauté est si évidente qu’elle confère à l’algorithme son taux d’efficacité élevé : «Nous avons seulement besoin d’observer de cinq à dix messages avant d’être en mesure de faire une prévision fiable.»

Il va de soi que les trolls nuisent à l’évolution harmonieuse d’une discussion liée à un article, et que certains d’entre eux peuvent essentiellement «tuer» celle-ci à coups de haine. Haters gonna hate. Mais l’idée d’automatiser la modération en empruntant le concept du film Minority Report n’est pas immunisée contre les potentielles dérives.