Modération : face aux critiques, Facebook exhibe ses chiffres

Facebook continue de montrer patte blanche et inaugure pour la première fois son rapport de transparence sur la modération des contenus publiés sur sa plateforme. Il y a trois semaines, Facebook avait ainsi révélé les règles de modérations diffusées en interne à l’attention des employés chargés de veiller au respect du code de conduite. Aujourd’hui, Facebook persiste en publiant pour la première fois un rapport compilant les chiffres des différents contenus retirés par la plateforme.

 

En se penchant sur ce document, on apprend ainsi que le principal problème rencontré par la plateforme reste le spam : les modérateurs ont en effet retiré un peu plus de 837 millions de contenus apparentés à du spam sur le seul premier trimestre 2018. La plupart de ces contenus sont automatiquement détectés et bloqués par les outils mis en place par le réseau social : à l’instar de ses concurrents, Facebook croit beaucoup au potentiel de l’intelligence artificielle et du machine learning pour la modération.

L’autre cible mise en avant par Facebook reste la lutte contre les faux comptes : ceux-ci sont en effet considérés comme la principale source du spam et Facebook explique en avoir désactivé 583 millions sur le premier trimestre 2018.

Les machines ont leurs limites

Mais ce n’est pas sur le spam ou sur les faux comptes que se concentrent les critiques qui visent Facebook. Le réseau social est plus généralement épinglé pour ses règles assez variables et peu claires en matière de nudité (le débat autour de la censure de l’origine du monde de Gustave Courbet en est un bon exemple) ou pour sa lenteur à supprimer des contenus faisant l’apologie du terrorisme.

Selon Facebook, les contenus retirés au premier trimestre pour nudité adulte ou pornographie s’élèvent à 21 millions. Là aussi, Facebook en profite pour rappeler l’efficacité de ses outils de détection automatisée en précisant que 96% de ces contenus ont été détectés et retirés avant d‘être signalés par la communauté.

Concernant la propagande terroriste, Facebook tient à rappeler qu’elle est comparativement « extrêmement faible » face aux autres catégories. En effet, le nombre de contenus retirés de ce type s’élève à 1,9 million au premier trimestre 2018. Facebook concède que ceux-ci sont en augmentation depuis le trimestre dernier, mais explique que cette tendance est avant tout due à l’amélioration de leurs outils de détection.

Dans le cas des contenus haineux néanmoins, Facebook reconnaît que ses outils de détection automatisée ne sont pas suffisants pour identifier correctement les contenus. Dans ce cas spécifique, Facebook explique que les signalements des utilisateurs de la plateforme sont sa source principale pour identifier les contenus de ce type : les modérateurs ont ainsi procédé au retrait de 2,5 millions de contenus, et ceux-ci ont été signalés dans 62% des cas par la communauté.

Go to Source


bouton-devis