Twitter avisará a usuarios si sus respuestas podrían ser ofensivas
Agencias
Twitter Inc probará enviar a sus usuarios un aviso cuando respondan a un mensaje utilizando “lenguaje ofensivo o dañino”, en un esfuerzo por sanear las conversaciones en la red social, dijo la compañía el jueves en un tuit.
Cuando los usuarios presionen “enviar” su respuesta, se les avisará si las palabras en su tuit son similares a las de textos que han sido denunciados, y se les preguntará si quieren revisarlo o no.
Twitter lleva desde hace tiempo bajo presión para eliminar el contenido abusivo y de odio de su plataforma, que es fiscalizada por usuarios que advierten de tuits que rompen las normas y por medios tecnológicos.
“Estamos intentando alentar a la gente a repensar su comportamiento y su lenguaje antes de publicar, porque frecuentemente pasan por un momento crispado y podrían decir algo que lamentan”, dijo la jefa global de política para confianza y seguridad de Twitter, Sunita Saligram, en una entrevista con Reuters.
La políticas de Twitter no permiten que los usuarios ataquen a individuos con temas racistas, sexistas o agraviantes, o con contenido degradante.
La compañía tomó medidas contra casi 396.000 cuentas bajo sus políticas de abusos y más de 584.000 cuentas bajo sus políticas de conducta de odio entre enero y junio del año pasado, según un reporte de transparencia.
Cuando se le preguntó si el experimento dará a los usuarios una forma de encontrar nuevas formas de hallar lagunas en las normas de Twitter sobre lenguaje ofensivo, Saligram dijo que está dirigida a la mayoría de quienes violan las normas y no lo hacen de forma reiterada.
Twitter dijo que el experimento, el primero de su tipo para la compañía, comenzará el martes y se prolongará al menos durante cinco semanas. Se realizará a nivel global, pero sólo para los mensajes en inglés.