Youtube : 8 millions de vidéos supprimées en 3 mois

Article mis à jour à 16h

Comme beaucoup de société de la Silicon Valley, Youtube a connu son lot de polémiques au cours des derniers mois. La modération des contenus diffusés par la plateforme reste un problème de fond que Youtube tente de résoudre depuis plusieurs années. Dans un post de blog, l’équipe de la filiale de Google revient sur les promesses avancées par sa directrice Susan Wojcicki au moins de décembre 2017. Youtube publie ainsi un premier rapport rassemblant plusieurs statistiques clefs sur la modération mise en place par la plateforme.

Nos amis les robots veillent sur nos vidéos

On y apprend par exemple que le machine learning reste l’arme préférée de Youtube pour repérer et bloquer les vidéos allant à l’encontre des règles. Sur 8,2 millions de vidéos retirées de la plateforme au cours du dernier trimestre, 6,6 millions d’entre elles ont été signalées de manière automatique grâce aux outils de machine learning mis en place par Youtube. La plate-forme croit en l’efficacité de ces méthodes et explique ainsi que 76% des vidéos retirées grâce à ces outils automatisés n’ont été visionnées par aucun internaute.

 

Youtube compte néanmoins une équipe de modérateurs humains chargés de se pencher sur les cas plus complexes que les outils automatisés ne parviennent pas forcément à identifier correctement. Susan Wojcicki expliquait ainsi en 2017 que Youtube comptait augmenter le nombre de modérateurs humains sur la plateforme afin d’atteindre le chiffre de 10.000 en 2018.

Outre les modérateurs professionnels, Youtube a également recours à un programme Trusted Flagger, un programme regroupant des associations et organisations ayant passé un accord avec Youtube afin de signaler les vidéos allant à l’encontre des règles. Durant le dernier trimestre, les membres de ce programme ont ainsi permis le retrait de 1,1 million de vidéos sur la plateforme. Les vidéos retirées suite à des signalements provenant d’utilisateurs lambda s’élèvent à un peu plus de 400.000.

 

Youtube présente également les vidéos supprimées selon le type de contenu. « La majeure partie de ces 8 millions de vidéos était principalement composée de spams ou de personnes qui tentaient de télécharger des contenus pour adultes  ».

La plus grosse proportion concerne donc les vidéos à caractère sexuel, qui représente 30,1% des retraits, suivie de près par les vidéos apparentées à du spam ou à des escroqueries, qui représente 26,1%. Les contenus haineux retirés représentent 15,6%, les contenus violents 13,5% et les vidéos montrant des individus s’adonnant à des activités dangereuses s’élèvent à 7,6%. Enfin, les contenus pédopornographiques représentent 5,2% et les vidéos faisant l’apologie du terrorisme 1,6%. Ces statistiques correspondent au dernier trimestre 2017.

De nouveaux outils pour les utilisateurs

Dans l’optique de proposer une plus grande transparence sur ces questions, Youtube propose également l’ouverture au grand public de son service permettant de suivre les actions prises par Youtube à l’encontre d’une vidéo ayant été signalées comme abusive. Cette fonctionnalité n’était auparavant disponible que pour les membres du programme « Trusted Flaggers », mais Youtube entend ouvrir celle-ci à l’ensemble des utilisateurs afin de leur permettre d’avoir une meilleure visibilité sur l’effet de leurs signalements sur la plateforme.

Le rapport de transparence sera publié chaque trimestre. La démarche ainsi que la forme du rapport s’inspirent largement de ce que Google avait déjà mis en place pour son rapport de transparence sur les retraits de contenus dus au droit à l’oubli.

En 2017, Youtube avait perdu la confiance de nombreux annonceurs importants qui avaient découvert que leurs publicités s’affichaient sur des contenus offensants. La grogne avait conduit Youtube à revoir ses méthodes en matière de régie publicitaire, mais l’effort s’étend aujourd’hui à la modération globale de la plateforme.

Go to Source


bouton-devis