Facebook suspend son IA après avoir qualifié les hommes noirs de « primates »

Nouvelles connexes

Facebook s’est excusé pour ce qu’il appelle une « erreur inacceptable » de son intelligence artificielle. Le système a recommandé aux utilisateurs une vidéo où elle est apparue les hommes noirs comme contenu sur les primates. Un nouvel exemple de technologie avec des préjugés racistes comme beaucoup d’autres qui se sont fait connaître en Espagne ces dernières années.

Le 27 juin, l’erreur s’est produite avec une vidéo du journal britannique Daily Mail, selon le New York Times. Face aux critiques, Facebook a dû s’excuser et suspendre la fonction de recommandations pour revoir le fonctionnement de votre intelligence artificielle.

Cet événement s’ajoute ainsi à la longue liste d’échantillons racistes et sexistes que réplique l’intelligence artificielle. Chez OMICRONO, nous avons parlé à plusieurs reprises de la façon dont les réseaux sociaux mettent en valeur les photographies de personnes blanches et discriminent les autres races.

Vidéo sur les « primates »

La vidéo en question montrait une dispute entre un homme noir et un homme blanc. Selon les médias britanniques, l’homme blanc harcelait l’autre et à la fin la police doit intervenir. Mais quel que soit le sujet de la vidéo, Facebook a recommandé de publier sous le message « Voulez-vous continuer à regarder des vidéos sur les primates ?

Erreur facebook raciste

Erreur Facebook raciste Daily Mail Omicrono

Les critiques ne se sont pas fait attendre, mais Facebook n’a pas signalé l’erreur dans un premier temps au Daily Mail. Désormais, le réseau social s’excuse auprès du New York Times et assure qu’il s’agissait d’une erreur inacceptable. « Comme nous l’avons dit, bien que nous ayons apporté des améliorations à notre IA, nous savons qu’elle n’est pas parfaite et nous avons encore des progrès à faire », assurent-ils auprès de la société de Mark Zuckerberg.

La société qui possède également WhatsApp et Instagram a désactivé les recommandations figurent sur votre réseau social principal pour enquêter sur ce qui s’est passé et essayer d’empêcher que cela ne se reproduise.

Autres erreurs

«Chaque jour, nous voyons les limites, les préjugés et la pure idiotie de se fier uniquement à l’intelligence artificielle. Et pourtant, nous continuons à nous permettre d’être des cobayes », a tweeté la journaliste de cybersécurité du New York Times Nicole Perlroth à propos de cette affaire.

Il y a peu de moments où l’intelligence artificielle s’est avérée en proie à biais hérités des humains eux-mêmes. Ce dernier mois Twitter a également fait face à cette réalité, ses algorithmes intelligents préfèrent les photos de jeunes et de blancs.

Ces tendances découlent de processus d’entraînement dans lesquels l’intelligence artificielle reçoit un certain nombre d’échantillons ou de paramètres qui servent d’exemples pour entraîner ses fonctions. Si l’échantillon est peu varié et comprend un plus grand nombre d’images d’une race ou d’un sexe, il sera difficile pour l’intelligence artificielle de reconnaître d’autres personnes qui ne répondent pas à ces caractéristiques.

Tu pourrais aussi aimer…

Share