Facebook veut combattre la «revenge porn» avec l’assistance de la reconnaissance d’image

facebook
Facebook
Twitter
LinkedIn
Reddit
WhatsApp
Email

Le phénomène grandissant de la revenge porn, pratique qui consiste à publier des photos ou vidéos intimes d’une personne sans sa permission dans le but de l’humilier publiquement, pourrait bientôt être plus rare sur Facebook, Instagram et Messenger. C’est du moins le souhait Facebook, qui a annoncé ce matin le déploiement de nouvelles fonctions qui permettront de mieux combattre ce fléau.

Si un utilisateur tente de partager une image préalablement signalée, il recevra une alerte l’avisant que l’image en question est en violation avec les politiques du service.

Dès aujourd’hui, il est possible de signaler à Facebook toute image intime soupçonnée d’avoir été partagé sans autorisation par le biais de la fonction de signalement déjà intégrée à sa plateforme. Concrètement, la notion de revenge porn est désormais prise en charge par l’outil de signalement : le vocabulaire à son sujet est plus claire et «très spécifique à ce type d’images intimes» selon Antigone Davis, responsable de la sécurité mondiale de Facebook.

«Nous nous sommes concentrés sur cela en raison du dommage exceptionnel que ce genre de partage cause aux victimes», a-t-elle déclarée en entrevue avec TechCrunch. Selon une étude menée auprès des victimes américaines ayant été l’objet de la propagation d’images intimes non consensuelles, 93% de ces personnes démontrent une détresse émotionnelle significative, et 82% manifestent une déficience significative dans leurs interactions sociales, professionnelles, et dans d’autres aspects importants de leur vie.

Ce faisant, le système ne bloquera pas l’image en question, mais la soumettra à une équipe de spécialistes qui pourra en faire l’évaluation. Si celle-ci ne respecte pas les Standards de communauté du service, elle sera retirée. Dans bien des cas, le compte de la personne ayant partagé l’image sera suspendu. Il sera possible de faire appel de la décision si quelqu’un croit qu’une image a été retirée par erreur.

Enfin, la technologie de reconnaissance d’image de Facebook viendra analyser les images téléversées sur Facebook, Instagram et Messenger, et si un utilisateur tente de partager une image préalablement signalée, il recevra une alerte l’avisant que l’image en question est en violation avec les politiques du service. La publication sera automatiquement rejetée.

Facebook s’est associée avec des organismes spécialisés, dont la Cyber Civil Rights Initiative et Revenge Porn Helpline, afin de soutenir les personnes dont l’image intime a été signalée puis identifiées par un membre de son équipe.

Rappelons que ce n’est évidemment pas la première fois que Facebook se prononce contre le phénomène du revenge porn. En mars 2015, le réseau social avait nuancer sa politique déjà en vigueur pour mieux tenir compte de ce type de publication.

«Afin de protéger les victimes et les survivants, nous retirons également les photographies et les vidéos mettant en scène des actes de violence sexuelle, ainsi que les images mises en ligne à des fins de vengeance ou sans l’autorisation des personnes impliquées», peut-on lire dans les Standards de la communauté sous la rubrique Violence et exploitation sexuelles de la section Garantir votre sécurité.

Dernier articles

Abonnez-vous à nos réseaux sociaux