Twitter teste plus d’options pour aider les utilisateurs à éviter les interactions négatives dans l’application

Les abus ont toujours été un problème sur Twitter, la toxicité de la plateforme étant une source de débats constants et d’accusations, à peu près depuis sa création.

Mais Twitter a travaillé pour résoudre ce problème. Après des années d’action apparemment limitée, au cours des 12 derniers mois, Twitter a déployé une gamme de nouvelles options de contrôle, y compris des contrôles de réponse pour limiter les commentaires indésirables, des avertissements sur les réponses potentiellement nuisibles et/ou offensantes, et le mode de sécurité qui alerte les utilisateurs lorsque leur les tweets reçoivent une attention négative.

Collectivement, ces nouvelles fonctionnalités pourraient avoir un impact important – et Twitter n’est pas encore terminé. Cette semaine, Twitter a présenté quelques nouvelles options de contrôle supplémentaires qui pourraient aider les utilisateurs à éviter les interactions négatives et le stress mental qui peut les accompagner, lorsque vos tweets deviennent la cible d’abus.

Tout d’abord, Twitter développe de nouvelles options « Filtre » et « Limite », qui, comme le note Twitter, seraient conçues pour aider les utilisateurs à exclure le contenu potentiellement dangereux – et les personnes qui le créent – ​​de leurs réponses.

Comme vous pouvez le voir ici, la nouvelle option vous permettrait de filtrer automatiquement les réponses contenant des remarques potentiellement offensantes, ou des utilisateurs qui vous tweetent à plusieurs reprises avec lesquels vous ne vous engagez jamais. Vous pouvez également empêcher ces mêmes comptes de répondre à vos tweets à l’avenir.

Mais encore plus important, l’option Filtre signifierait également que toutes les réponses que vous choisissez de masquer ne seraient pas non plus visibles pour personne d’autre dans l’application, à l’exception de la personne qui les a tweetées, ce qui est similaire à l’option « Masquer » de Facebook pour les commentaires de publication. .

C’est un changement d’approche important. Jusqu’à présent, Twitter permettait aux utilisateurs de masquer le contenu de leur propre vue dans l’application, mais d’autres peuvent toujours le voir. Le contrôle de filtre augmenterait le pouvoir des utilisateurs individuels de masquer totalement de tels commentaires – ce qui est logique, dans la mesure où ce sont des réponses à vos tweets. Mais vous pouvez aussi imaginer qu’il pourrait être utilisé à mauvais escient par des politiciens ou des marques qui souhaitent faire taire les mentions négatives.

C’est probablement une considération plus importante sur Twitter, où la nature en temps réel de l’application invite à la réponse et à l’interaction, et dans certains cas, des défis à ce que les gens disent, en particulier sur des questions d’actualité ou d’actualité. Si les gens pouvaient alors mettre fin à cette discussion, cela pourrait avoir ses propres impacts potentiels – mais encore une fois, le tweet original serait toujours là pour référence, et les utilisateurs pourraient théoriquement toujours citer le tweet qu’ils veulent.

Et vraiment, avec les contrôles de réponse déjà présents dans l’application, ce n’est probablement pas très long, et cela pourrait bien permettre aux utilisateurs de se débarrasser de certains des trolls et des creeps qui se cachent dans leurs réponses, ce qui pourrait améliorer l’engagement global dans l’application.

En plus de cela, Twitter développe également une nouvelle invite d’alerte « Attention », qui avertirait les utilisateurs des sections de commentaires potentiellement conflictuelles avant de plonger.

Twitter en tête

Cela pourrait vous éviter de vous tromper dans un bourbier de toxicité et de devenir involontairement un foyer d’abus. Comme vous pouvez le voir sur la deuxième capture d’écran, l’invite inviterait également les utilisateurs à être plus prévenants dans leur processus de tweet.

Je ne pense pas que cela aurait un impact important sur le comportement des utilisateurs, mais cela pourrait au moins aider à inciter davantage à prendre en compte le processus.

Twitter développe également de nouveaux « filtres de mots », qui sont une extension de ses outils de blocage de mots clés existants, et s’appuierait sur les systèmes de détection automatisés de Twitter pour filtrer les commentaires plus potentiellement offensants.

Filtres de mots Twitter

Comme vous pouvez le voir ici, l’option inclurait des bascules distinctes pour filtrer automatiquement les discours haineux, les spams et les grossièretés, sur la base de la détection du système de Twitter, offrant un autre moyen de limiter l’exposition indésirable dans l’application.

Ceux-ci semblent être des ajouts utiles, et bien qu’il y ait toujours des inquiétudes que les gens utilisent ces outils essentiellement comme des œillères pour bloquer tout ce qu’ils ne veulent pas traiter, ce qui pourrait limiter un discours utile et une perspective importante, si c’est ce qui donne aux gens un meilleure expérience dans l’application, pourquoi ne pourraient-ils pas le faire ?

Bien sûr, l’idéal serait un débat intelligent éclairé sur toutes les questions, où les gens restent courtois et respectueux en tout temps. Mais c’est Twitter, et ça n’arrivera jamais. En tant que tel, fournir plus d’options de contrôle pourrait être la meilleure voie à suivre, et il est bon de voir Twitter prendre davantage de mesures pour traiter ces éléments clés.

Share