YouTube, propriété de Google, révèle une nouvelle statistique de modération de contenu

YouTube apporte un nouvel éclairage sur la façon dont il modère sa vaste plate-forme vidéo, qui enregistre des milliards de vues chaque jour.

Mardi, la société a publié pour la première fois une statistique appelée «taux de vue non conforme», un nouveau point de données que YouTube prévoit d’inclure dans ses rapports d’application des directives communautaires. Fondamentalement, pour 10000 vues sur son réseau social – ou du moins au cours du dernier trimestre de 2020 – environ 16 à 18 de ces vues sont des vidéos qui enfreignent les règles de YouTube, qui interdisent actuellement tout, du discours de haine à la désinformation médicale sur Covid-19. au spam.

Dans un article de blog publié mardi, YouTube fait valoir que ces statistiques sont un signe de progrès et a déclaré que le «taux de vues violées» était en baisse de 70% depuis 2017 grâce aux améliorations apportées par la société à son intelligence artificielle axée sur la modération de contenu. “Nous avons fait une tonne de progrès, et c’est un chiffre très, très faible”, a déclaré Jennifer Flannery O’Connor, directrice de la gestion des produits de YouTube pour la confiance et la sécurité, “mais bien sûr, nous voulons qu’il soit plus bas, et c’est ce que mon équipe travaille jour après jour pour essayer de faire. »

YouTube a partagé ces nouvelles informations alors que les politiciens et les utilisateurs sont de plus en plus préoccupés par la façon dont les entreprises technologiques modèrent leurs plates-formes au milieu d’une «infodémie» de désinformation sur Covid-19, et après l’insurrection au Capitole des États-Unis et un cycle d’élection présidentielle l’année dernière qui a été marqué par les théories du complot.

Dans le même temps, les statistiques de YouTube sur les contenus violents renforcent un récit que certains dirigeants de YouTube ont promu dans le passé: que ses systèmes font généralement un bon travail pour attraper le mauvais contenu, et que dans l’ensemble, le problème des vidéos néfastes sur son site est relativement petit. . YouTube a également déclaré mardi qu’il était capable de supprimer 94% du contenu qui enfreignait ses règles avec des systèmes de signalement automatisés, et que la grande majorité de ces vidéos étaient capturées avant d’avoir 10 vues. Dans l’ensemble, YouTube affirme avoir supprimé plus de 83 millions de vidéos depuis qu’il a commencé à publier des rapports sur la transparence de l’application il y a trois ans.

“Nous avons un grand dénominateur, ce qui signifie que nous avons beaucoup de contenu”, a déclaré la PDG Susan Wojcicki à Recode en 2019. “Quand nous y regardons, quelles sont toutes les nouvelles, les préoccupations et les histoires à propos de ce fraction de un pour cent.”

Mais les chiffres publiés par YouTube mardi ont des limites. Voici comment il les a calculés: YouTube échantillonne un certain nombre de vues, c’est-à-dire des cas dans lesquels un utilisateur regarde une vidéo particulière (YouTube n’a pas publié le nombre de vidéos pris en compte dans cette statistique). Ensuite, YouTube regarde les vidéos qui obtiennent ces vues et les envoie à ses réviseurs de contenu. Ils étudient toutes les vidéos et déterminent celles qui enfreignent les règles de l’entreprise, ce qui permet à YouTube de produire un pourcentage estimé de vues sur les “vidéos violentes”.

Gardez à l’esprit que les propres réviseurs de YouTube – et non des auditeurs indépendants – décident de ce qui constitue une violation des directives de YouTube. Alors que Facebook s’était engagé l’an dernier à un audit indépendant de ses mesures d’application des normes communautaires, Flannery O’Connor a déclaré lundi que la plate-forme vidéo n’avait pas encore pris un engagement similaire.

YouTube tarde souvent à décider quels types de contenu controversé il interdira. La plate-forme n’a changé sa politique de discours de haine pour interdire les néonazis et la négation de l’Holocauste qu’en 2019. Alors que les chercheurs avaient mis en garde contre la propagation de la théorie du complot de droite QAnon pendant des années, YouTube a seulement décidé d’interdire «le contenu qui cible un individu ou un groupe avec les théories du complot qui ont été utilisées pour justifier la violence dans le monde réel »en octobre de l’année dernière.

Il y a aussi beaucoup de contenu que YouTube ne supprime pas – et ne viole pas les règles de l’entreprise – mais contourne la ligne, et qui, selon certains critiques, ne devrait pas être autorisé sur la plate-forme. YouTube qualifie parfois ces types de vidéos controversées de «contenu limite». Il est difficile d’étudier à quel point ce contenu limite est répandu, compte tenu de l’énorme taille de YouTube. Mais nous savons que c’est là. La société a gardé des vidéos contenant de la désinformation électorale et n’a étendu ses règles de harcèlement et de haine que pour interdire le contenu qui cible des groupes et des personnes ayant des théories du complot utilisées pour justifier la violence, à savoir QAnon, en octobre de l’année dernière.

Un exemple majeur de YouTube qui n’a pas carrément supprimé le contenu offensant et préjudiciable est venu en 2019 lorsque YouTube a été confronté à un tollé après que la société ait décidé de laisser le contenu du conservateur YouTuber Steven Crowder qui comprenait le harcèlement raciste et homophobe du journaliste de l’époque Vox Carlos Maza (sous une pression intense, YouTube a finalement enlevé la capacité de Crowder à diffuser des publicités). Plus tard cette année-là, Wojcicki a déclaré aux créateurs que “[p]le contenu roblematic représente une fraction d’un pour cent du contenu sur YouTube », mais a eu un« impact extrêmement démesuré ».

YouTube supprime les publicités pour les créateurs qui publient du contenu qui enfreint les règles de monétisation de la plate-forme, et il réduit le contenu limite, mais YouTube ne publie pas de statistiques similaires sur la prévalence de ce type de contenu ou le nombre de vues qu’il obtient généralement.

Quant à savoir pourquoi YouTube publie cette statistique particulière en ce moment, Flannery O’Connor a déclaré que la société avait utilisé ce numéro en interne pendant plusieurs années pour étudier les progrès de YouTube en matière de sécurité et les pics de vues de vidéos violentes, et pour définir des objectifs pour son équipe d’apprentissage automatique. . «Nous nous sommes sentis comme [it’s] mieux vaut simplement être transparent et utiliser les mêmes paramètres en interne et en externe », a-t-elle déclaré.

L’annonce de YouTube fait partie d’un modèle plus large d’entreprises de médias sociaux affirmant que leurs plates-formes ne sont en fait pas dominées par un contenu néfaste – tandis que les critiques, les chercheurs et les journalistes continuent de souligner le grand nombre de vues et de clics que ce contenu attire souvent. Même lorsque YouTube supprime ces vidéos, ils ont parfois déjà réussi à partager des idées nuisibles qui se propagent hors de la plate-forme – par exemple, la vidéo Plandemic, qui diffusait de faux complots Covid-19 l’année dernière, a capturé des millions de vues sur la plate-forme avant qu’elle ne soit prise. vers le bas.

L’Open Sourced est rendu possible par Omidyar Network. Tout le contenu Open Sourced est éditorialement indépendant et produit par nos journalistes.

Des millions de personnes se tournent vers Vox pour comprendre ce qui se passe dans l’actualité. Notre mission n’a jamais été aussi vitale qu’elle ne l’est en ce moment: autonomiser par la compréhension. Les contributions financières de nos lecteurs sont essentielles pour soutenir notre travail gourmand en ressources et nous aident à garder notre journalisme gratuit pour tous. Veuillez envisager de faire une contribution à Vox dès aujourd’hui à partir de 3 $ seulement.