Les différends de Facebook rapportent que son IA ne peut pas détecter systématiquement les discours de haine ou de violence

Le vice-président de l’intégrité de Facebook, Guy Rosen, a écrit dimanche dans un article de blog que la prévalence des discours de haine sur la plate-forme avait chuté de 50 % au cours des trois dernières années, et qu’« un récit selon lequel la technologie que nous utilisons pour lutter contre les discours de haine est inadéquate et que nous déformons délibérément nos progrès » était faux.

« Nous ne voulons pas voir de haine sur notre plate-forme, ni nos utilisateurs ou annonceurs, et nous sommes transparents sur notre travail pour la supprimer », a écrit Rosen. «Ce que ces documents démontrent, c’est que notre travail d’intégrité est un voyage de plusieurs années. Bien que nous ne soyons jamais parfaits, nos équipes travaillent continuellement à développer nos systèmes, à identifier les problèmes et à créer des solutions. »

Le message semblait être une réponse à un article publié dimanche dans le Wall Street Journal, selon lequel les employés de Facebook chargés de garder le contenu offensant hors de la plate-forme ne pensent pas que l’entreprise est en mesure de le filtrer de manière fiable.

Le rapport du WSJ indique que des documents internes montrent qu’il y a deux ans, Facebook a réduit le temps pendant lequel les examinateurs humains se concentraient sur les plaintes pour discours haineux et a effectué d’autres ajustements qui ont réduit le nombre de plaintes. Cela a à son tour contribué à donner l’impression que l’intelligence artificielle de Facebook avait mieux réussi à faire respecter les règles de l’entreprise qu’elle ne l’était en réalité, selon le WSJ.

Une équipe d’employés de Facebook a découvert en mars que les systèmes automatisés de l’entreprise supprimaient les publications qui généraient entre 3 et 5 % des vues de discours de haine sur la plate-forme sociale, et moins de 1 % de tout le contenu qui enfreignait ses règles contre violence et incitation, a rapporté le WSJ.

Mais Rosen a fait valoir que se concentrer uniquement sur les suppressions de contenu était « la mauvaise façon de voir comment nous combattons les discours de haine ». Il dit que la technologie pour supprimer le discours de haine n’est qu’une méthode que Facebook utilise pour le combattre. « Nous devons être sûrs que quelque chose est un discours de haine avant de le supprimer », a déclaré Rosen.

Au lieu de cela, a-t-il déclaré, la société pense que se concentrer sur la prévalence des discours de haine que les gens voient réellement sur la plate-forme et comment elle les réduit à l’aide de divers outils est une mesure plus importante. Il a affirmé que pour 10 000 vues d’un contenu sur Facebook, il y avait cinq vues de discours de haine. « La prévalence nous dit quel contenu violant les gens voient parce que nous l’avons manqué », a écrit Rosen. « C’est ainsi que nous évaluons le plus objectivement nos progrès, car cela fournit l’image la plus complète. »

Mais les documents internes obtenus par le WSJ ont montré que certains éléments de contenu importants ont pu échapper à la détection de Facebook, notamment des vidéos d’accidents de voiture montrant des personnes avec des blessures graphiques et des menaces violentes contre des enfants trans.

Le WSJ a produit une série de rapports sur Facebook sur la base de documents internes fournis par la dénonciatrice Frances Haugen. Elle a témoigné devant le Congrès que l’entreprise était consciente de l’impact négatif que sa plateforme Instagram pourrait avoir sur les adolescents. Facebook a contesté le signalement sur la base des documents internes.

Share