Comment Facebook traque la violence, la nudité et la pornographie

Comment Facebook traque la violence, la nudité et la pornographie

Ils sont 4.500 modérateurs à travailler pour Facebook, et 3.000 devront prochainement être embauchés pour faire face aux commentaires et autres statuts des presque deux milliards d’utilisateurs du plus grand réseau social du monde. C’est le Guardian qui dévoile ces centaines de règles jusque-là tenues secrètes.

Il est ainsi interdit de dire ou de faire certaines choses dans la vie réelle, comme tuer, se montrer nu, maltraiter des gens et/ou des animaux. Mais Facebook, c’est le monde virtuel et c’est pour cette raison qu’il a développé ses propres règles d’intervention, définissant les interdits et mettant en œuvre les actions à effectuer pour sévir. D’où l’armée de modérateurs qui n’ont souvent « qu’une dizaine de secondes pour prendre une décision », expliquent les responsables du réseau.

En fait, Facebook a créé une réglementation dont l’objectif premier est de se dégager de toute responsabilité dans le vrai monde. L’objectif est de mettre de l’ordre dans un réseau qui semble fonctionner dans le désordre. « Nous allons simplifier le signalement des problèmes, accélérer la réponse de nos équipes sur les publications qui ne respectent pas nos standards et faciliter le contact avec les autorités si quelqu’un a besoin d’aide », annonce ainsi Monika Bickert, directrice de la politique des contenus de Facebook.

Pour autant, les règles morales ne sont pas toujours bien définies, ni complètes ; ce qui est immoral ou interdit dans la vie réelle ne l’est pas forcément dans le monde virtuel du réseau de Mark Zuckerberg. Echantillon.

  • Vidéos de mort violente : on peut les laisser car elle serait susceptible d’alimenter des débats sur les maladies mentales ;
  • Vidéos de violence (non-sexuelle) contre un enfant : on peut les laisser tant qu’elles ne vantent pas ce type de violence.
  • Vidéos « live » de personnes se


    faisant du mal : on les tolère car les supprimer reviendrait à « punir des individus vulnérables ».

Par ailleurs, dans le monde bleu de Zuckerberg, il est interdit de s’en prendre à une personnalité publique, mais pas vraiment à des inconnus. Ainsi, un appel au meurtre lancé contre le président Trump sera censuré car le milliardaire bénéficie d’une protection des services publics, alors qu’écrire « pour rompre le cou d’une sal*pe, appuyez bien sur son thorax » ou « je vais te tuer » à un autre internaute sont des messages tolérés.

« La plupart du temps, les propos violent ne sont qu’à l’image d’un état émotionnel passager. Nous les tolérons sauf quand ils cessent d’être l’expression d’une colère et laissent entendre un passage à l’acte », explique le management de Facebook.

Et il y a les avertissements ou protections diverses, afin de tolérer des vidéos qui devraient être censurées… Ainsi,  on peut poster des photos et vidéos d’animaux maltraités, ou d’autres images violentes, mais il faut préalablement prévenir l’internaute sur ce qu’il s’apprête à voir. De même que les vidéos d’avortement sont autorisées à condition qu’il n’y ait aucune nudité apparente.

Les décisions prises par les modérateurs et administrateurs du réseau sont évidemment régis sous la contrainte de la logique et de la règle, mais dans le système Facebook, seul le juge connaît la loi. Cette asymétrie permet au géant de se justifier de tout et de botter en touche dès que sa responsabilité est engagée. Toutefois, cette somme de règles ne constitue pas en soit une réglementation qui viendrait se substituer à loi nationale, elle s’ajoute au contraire à celle-ci, comme un socle commun international des bons comportements exclusif au réseau.