in

Les chercheurs développent une nouvelle façon d’aider les systèmes de langage générés par la machine à réduire le langage toxique

(Photo AI2)

La capacité d’un jeune enfant à acquérir la langue est tout simplement étonnante. Mais parfois, un enfant en bas âge ramassera un mot inapproprié, souvent sans comprendre sa signification. Heureusement, avec les bons conseils, l’enfant peut être dissuadé d’utiliser le terme offensant.

Une situation similaire peut se produire avec la génération de langage naturel (NLG) dans l’apprentissage automatique, même si le processus est très différent de la façon dont les gens utilisent les mots. Les systèmes NLG comme le modèle de langage GPT-3 d’OpenAI sont des réseaux de neurones qui ont été pré-entraînés sur un corpus – une énorme collection d’écrits. À l’aide de méthodes d’apprentissage en profondeur, le modèle est utilisé pour créer automatiquement un texte de type humain à partir d’une simple invite de saisie. Les résultats peuvent être incroyablement réalistes et parfois difficiles à discerner à partir de quelque chose écrit par une personne réelle.

Malheureusement, l’approche conduit aussi fréquemment à la génération de langage toxique, ce qui rend difficile de faire confiance à de tels systèmes pour des utilisations commerciales automatisées. Comme le jeune enfant, le système ne comprend pas les mots qu’il utilise; il sait seulement que les gens les ont utilisés dans un contexte similaire antérieur.

Aujourd’hui, des chercheurs de l’Institut Allen pour l’intelligence artificielle (AI2) et de l’Université de Washington ont développé une nouvelle façon de guider ces systèmes d’apprentissage automatique, notamment en réduisant leur potentiel de langage toxique.

Précédemment: La malédiction de la toxicité neurale: les chercheurs AI2 et UW aident les ordinateurs à regarder leur langage

«DExperts: Génération de texte contrôlée à la volée avec des experts et des anti-experts» est un nouveau document rédigé par un groupe de chercheurs travaillant sur ce problème. L’équipe voulait comprendre s’ils pouvaient contrôler les attributs de texte générés par les modèles de langage (LM) au moment du décodage, sans sacrifier la fluidité ou la diversité. Le résultat a été une approche qui utilise deux LM plus petits qui modélisent le texte ayant des attributs souhaitables et indésirables afin de «diriger» des LM plus grands comme GPT-3.

«Ces méthodes basées sur le réglage fin modifient elles-mêmes le modèle de langage d’origine. Ainsi, au moment du décodage, ils peuvent générer directement à partir du modèle », a déclaré Alisa Liu, auteur principal de l’article. «Nous ne modifions pas du tout le modèle de langue d’origine. Au lieu de cela, nous peaufinons ces petits experts. »

L’approche de l’équipe s’appuie sur une technique traditionnelle d’apprentissage automatique connue sous le nom de «produit d’experts», qui permet de combiner une série de sorties plus simples pour déterminer la sortie d’un système plus grand et plus complexe. Cette méthode permet à chaque modèle plus petit de se spécialiser dans l’analyse d’un aspect particulier du problème.

Au lieu d’utiliser uniquement des experts, l’équipe DExperts a ajouté un anti-expert au mélange. Les chercheurs de l’étude pensent que le leur pourrait être la première utilisation d’une combinaison de LM experts et anti-experts, deux modèles de langage contrastés qui ont été affinés sur certaines données d’attributs spécifiques à un domaine. En les combinant, le signal spécifique au domaine peut être annulé tout en dirigeant le LM cible vers un certain sentiment ou loin d’un résultat, tel qu’un langage toxique.

Cette approche se produit au moment du décodage, ce qui présente un certain nombre d’avantages. Il n’est pas possible pour les utilisateurs finaux de télécharger d’énormes ensembles de données tels que GPT-2 et GPT-3 pour s’exécuter sur leur propre ordinateur ou appareil. Au lieu de cela, ces modèles de langage d’apprentissage en profondeur doivent fonctionner sur de grands clusters d’ordinateurs et sont généralement accessibles via une API (interface de programmation d’application). Pour cette raison, le grand LM ne peut pas être modifié directement, c’est là que les plus petits LM entrent en jeu.

«Nous opérons dans cet espace de modèles de langage qui sont si grands que nous ne pouvons même pas les exécuter nous-mêmes», a déclaré Maarten Sap, l’un des auteurs de l’article. «Et pourtant, étonnamment, notre méthode fonctionne toujours sur ce gros modèle. Ainsi, en utilisant des experts plus petits, nous pouvons réellement piloter un modèle comme GPT-3, ce qui est vraiment cool. »

Selon les chercheurs, DExperts surpasse les méthodes de pilotage des sentiments existantes, ainsi que les méthodes de désintoxication existantes. Bien que l’étude n’ait exploré que la direction vers ou loin d’un seul attribut, le cadre est suffisamment général pour s’étendre à un certain nombre d’experts et d’anti-experts. Vraisemblablement, cela lui permettrait de bénéficier davantage de la méthode multi-attributs du «produit d’experts» qui est largement utilisée dans l’apprentissage automatique.

Cela réduit l’empreinte carbone et s’inscrit dans l’esprit de l’IA verte, ce qui nous intéresse également beaucoup dans l’IA2.Bien que de nombreuses entreprises développent actuellement des produits utilisant GPT-3, le potentiel de sortie inexacte ou inappropriée le rend toujours difficile de se fier à ces derniers pour obtenir des résultats fiables, en particulier dans certains contextes commerciaux. Des améliorations telles que DExperts pourraient conduire à une plus grande confiance et utilité lors de l’utilisation de ces modèles. De la rédaction d’une lettre ou d’une proposition à l’automatisation des critiques de films et de livres en passant par la création d’assistants virtuels, être en mesure de diriger de manière plus ciblée la génération de langage naturel ne peut que profiter à ses nombreuses applications.

Mais bien que des développements tels que DExperts conduiront probablement à de nombreuses nouvelles avancées et avantages, il existe également un potentiel d’utilisation abusive qui ne doit pas être ignoré. Les chercheurs reconnaissent qu’il est possible que leurs méthodes soient utilisées pour générer automatiquement des textes haineux ou extrémistes. Au fur et à mesure que la génération automatisée de langage naturel devient plus puissante, elle pourrait également être utilisée par des escrocs et des pirates pour manipuler les imprudents. Les chatbots textuels et les escroqueries par e-mail basées sur l’IA sont déjà devenus de plus en plus répandus ces dernières années. L’extension de ces capacités à des interactions plus sophistiquées, y compris les communications vocales synthétisées, n’est pas loin derrière.

Ces préoccupations ne sont pas nouvelles. Étant donné que chaque nouvelle technologie entraîne des utilisations inattendues et des conséquences imprévues, il est bon de réfléchir à la manière dont les sauvegardes pourraient être intégrées au début du cycle de développement.

Comment la génération du langage naturel pourrait-elle devenir plus résiliente et fiable à l’avenir? À l’avenir, nous pourrions voir une méthode comme le raisonnement algorithmique neuronal jouer un rôle. Récemment décrite dans un article de chercheurs de DeepMind, cette approche fusionne des réseaux de neurones comme ces modèles de langage avec un calcul algorithmique basé sur des règles pour créer un pipeline de raisonnement plus fiable qui bénéficie des forces des deux.

La capacité de DExperts à diriger des LM puissants comme GPT-3 au moment du décodage pourrait avoir un énorme potentiel pour les entreprises et les consommateurs, en automatisant de nombreuses tâches administratives répétitives et en simplifiant les routines quotidiennes dans notre vie quotidienne. Il a également le potentiel de rendre ces applications plus respectueuses de l’environnement.

«Étant donné que cette approche fonctionne au moment de la génération et que vous n’entraînez pas tout le modèle, vous effectuez beaucoup moins de calculs», a noté Sap. «Donc, cela réduit l’empreinte carbone et est dans l’esprit de l’IA verte, qui est quelque chose qui nous intéresse aussi vraiment dans l’IA2.»

On devrait parler de la mort de Mikayla Miller

Jamie Vardy “ destiné ” à marquer le vainqueur contre Chelsea et à soulever la FA Cup alors que Leicester est surnommé une équipe “ élite ” par la légende des Foxes Andy King