Agencias / Ciudad de México.- Twitter pondrá a prueba una nueva opción que alertará a los usuarios acerca del uso de lenguaje ‘dañino’ en sus respuestas a otros tuits antes de que estas sean publicadas.

La plataforma dio a conocer que está “llevando a cabo un experimento limitado al [sistema operativo] iOS con un aviso que da la opción de revisar su respuesta antes de que se publique si utiliza un lenguaje que podría ser perjudicial”.

Es decir, con el fin de evitar comentarios que inciten al odio o la violencia, la red social de microbloggin ha creado una herramienta de moderación para advertir a los usuarios antes de publicar una respuesta a un ‘tuit’ que contenga lenguaje que la compañía considere ofensivo o dañino.

A pesar de que el anuncio no especifica las palabras que entrarían en esa categoría, la política relativa a las conductas de incitación al odio de la compañía, ya establece la prohibición del uso de imágenes o lenguaje que incite a la violencia o fomente la discriminación por motivos de género, ideología, raza u orientación sexual.

Del mismo modo, la red social tampoco indicó si los mensajes que reciban la advertencia serán publicados o eliminados. Según la plataforma, esta opción permitirá “repensar una respuesta” que tal vez exprese “cosas que no quieres decir”.

Según explicó a Reuters Sunita Saligram, directora global de políticas de confianza y seguridad de Twitter, se trata de “alentar a las personas a repensar su comportamiento y repensar su lenguaje antes de publicar porque a menudo están en el calor del momento y podrían decir algo de lo que se arrepientan”.

Plataformas como Instagram ya hacen uso de este tipo de herramienta al advertir a los usuarios antes de realizar una publicación con el lema: “El texto se parece a otros que han sido reportados”.

Comentarios desactivados en Habilita Twitter opción para contrarrestar lenguaje de “odio” en plataforma