*
MontbaZine 2018



















"L’origine du monde" de Gustave Courbet
  modéré par Facebook









Les règles de modération de Facebook

Critiqué pour son manque de transparence, Facebook l’est aussi pour ses choix de modération.

le YouTubeur Paul Logan provoquait un tollé en se filmant aux côtés d’un cadavre en plein cœur de la célèbre «forêt des suicidés» japonaise. Vue plusieurs millions de fois avant d’être effacée par son auteur, la vidéo n’avait pas été retirée par YouTube. Pour une intelligence artificielle, la présence d’un cadavre dans un tel lieu n’avait rien d’aberrant. La décence, notion uniquement perceptible par un être humain, en aurait pourtant décidé autrement.

Marzuki Darusman, qui travaille auprès de l’ONU dans le cadre d’une mission d’information sur les droits humains, a directement accusé le réseau social d’avoir joué un "rôle déterminant» dans la propagation des messages de haine contre les Rohingyas, groupe ethnique musulman de Birmanie".

Où commence la censure et où s’arrête la modération ? L’artiste américaine Illma Gore a vu son compte Facebook être brutalement supprimé, à cause de son portrait de Donald Trump affublé d’un micro-pénis [voir], une image devenue virale depuis. En France, on se rappelle l’émoi suscité en 2011 par la censure de "L’origine du monde" de Gustave Courbet sur le réseau social.

Chez Facebook les instructions de "content moderation" appliquent les règles de base suivantes concernany par exemple la nudité : si c’est "fait à la main" (handmade», ndlr), c’est autorisé, si c’est numérique, il y a de fortes chances que ce soit jugé pornographique.

Par exemple, si on peut critiquer n’importe quelle religion, on n’a pas le droit de s’en prendre à ses croyants: "Le catholicisme/l’islam/le bouddhisme, c’est de la merde" sera ok, "Les catholiques/les musulmans/les bouddhistes sont des cons" ne passera pas.

Après avoir sciemment maintenu dans l’opacité la question de leur politique de modération, les géants du web sortent peu à peu de leur silence. Monika Bickert, directrice de la politique des contenus chez Facebook, apporte un éclairage sur les "standards de la communauté" rendus publics depuis avril dernier et consultables par chacun depuis son compte Facebook. Rappelant la masse considérable de données à traiter quotidiennement, elle confie que le plus difficile reste leur mise en contexte:

"C’est difficile de juger de l’intention d’une publication ou du risque induit par une autre. Quelqu’un poste une vidéo particulièrement violente d’une attaque terroriste. Est-ce que cela va créer des émules ou encourager les gens à dénoncer de tels actes ?"

Source : www.slate.fr (13-08-2018)