- Michelle Blanc, M.Sc. commerce électronique. Marketing Internet, consultante, conférencière, auteure. 18 ans d'expérience - https://www.michelleblanc.com -

Les mystères de la modération de Facebook

Pin It [1]

La semaine dernière, j’ai fait un statut qui a beaucoup fait réagir [2] :

L’ironie des conditions d’utilisation de Facebook est de permettre la diffusion d’une photo d’une femme avec la tête décapitée d’un enfant mais d’interdire celles d’allaitement

Par ailleurs, je connais de nombreuses personnes (dont votre humble serviteure) qui ont eu des contenus Facebook « barrés » de la plate-forme. Comme je l’ai mainte fois mentionné, les conditions d’utilisation que personne ne lit (sauf les avocats spécialisés et les observateurs aguerris) changent continuellement et sans préavis. Vos contenus peuvent être barrés s’ils ont d’abord été signalés par un ou plusieurs usagers. Vous êtes alors incapable d’être sur Facebook pour une durée de temps qui variera en fonction du nombre de fois qu’on vous aura signalé. Ça va de 24 heures, à une semaine, à l’interdiction totale d’accès pour votre compte.

Il faut aussi comprendre qu’en plus du signalement d’un contenu inapproprié par un autre usager (qui peut être totalement pertinent ou qui n’aime tout simplement pas votre gueule, vos contenus pour des raisons politiques, religieuses, racistes, sexistes ou autre, votre contenu sera analysé par l’un des modérateurs de Facebook. Or ces modérateurs sont sous-payés et sont répartis aux quatre coins du globe. Plusieurs articles pointent vers les Philippines pour les contenus anglophones et le Maghreb, pour les contenus francophones. Il faut aussi comprendre que les conditions d’utilisations de Facebook sont une éloquente transposition de la culture de Facebook qui est américaine. Cependant, les modérateurs eux ont aussi leur propre culture et leur propre « vision » de l’interprétation d’un contenu. Ainsi, ce qui est scandaleux ici, peut ne pas l’être aux États-Unis ou dans la tête du modérateur (ou vice-versa). De surcroit, même chez des modérateurs issus d’une même culture, des biais basés sur l’âge, le niveau de scolarité ou le sexe et des usagers qui ont posté les contenus et des modérateurs qui les jugent auront aussi un impact déterminant sur le jugement du contenu. En outre, certains patois linguistiques, expressions ironiques et références culturelles permettant de comprendre adéquatement la nature d’un contenu, peuvent aussi créer des interférences et incompréhensions affectant le jugement de celui qui modère. Et tout cela, dans la plus grande opacité imaginable et sans recours direct pour l’usager qui pourrait être affecté d’une décision et voir disparaître son compte.

Voilà donc un autre argument qui milite en faveur de présences médias sociaux sur plusieurs plates-formes et surtout, pour une présence qui vous soit propre. Sur votre site web, vous êtes chez vous et l’on ne vous imposera pas le jugement de valeur et l’arbitraire de quelqu’un qui est à l’autre bout du monde.

Par ailleurs, j’ai aussi vu passer un article du Columbia Journalism Review, Facebook is eating the world [3]. On y présente que certains éditeurs (tout comme certaines entreprises) peuvent décider de capitaliser massivement sur Facebook (ou autres médias sociaux). Mais cette stratégie est extrêmement risquée.

This is a high-risk strategy: You lose control over your relationship with your readers and viewers, your revenue, and even the path your stories take to reach their destination.

With billions of users and hundreds of thousands of articles, pictures, and videos arriving online everyday, social platforms have to employ algorithms to try and sort through the important and recent and popular and decide who ought to see what. And we have no option but to trust them to do this.

In truth, we have little or no insight into how each company is sorting its news. If Facebook decides, for instance, that video stories will do better than text stories, we cannot know that unless they tell us or unless we observe it. This is an unregulated field. There is no transparency into the internal working of these systems.

C’est grâce à Gawker et son article Inside Facebook’s Outsourced Anti-Porn and Gore Brigade, Where ‘Camel Toes’ are More Offensive Than ‘Crushed Heads’ [4], que nous pouvons avoir une idée du protocole de modération des contenus que Facebook présente à ses modérateurs. Voici la version 6.2 de ce document.

Abuse Standards 6.2 – Operation Manual [5] by Gawker.com [6]

Sur Scribd, on peut aussi trouver le processus de traitement d’une plainte que Facebook met en place

Facebook Reporting Guide [7] by Facebook Washington DC [8]

Finalement, c’est chez whoishostingthis.com [9] qu’on retrouve une infographie particulièrement révélatrice du traitement qu’offre Facebook à ses modérateurs.

La vie des modérateurs Facebook

Vous pourriez aussi aimer

L’article de Gismodo The horrifying lives of Facebook Content moderators [10]
L’article de Wired The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed [11]
L’article de LeMonde Facebook précise pourquoi, et comment, il supprime des photos et messages litigieux [12]
L’article de 20minutes.fr Vis ma vie de modérateur de l’extrême pour Facebook, Twitter et YouTube [13]
Mon billet : Rapport sur la cyberagression sexuelle au Canada [14]
Les articles de ma catégorie Cyberintimidation [15]
Les articles de ma catégorie Facebook [16]