La multinacional estadounidense insiste en que no revisará el contenido de los mensajes provocadores anticipándose así a las denuncias previas para darle menor visibilidad a estos tuits.

Graciosos de turno que meten cizaña a diestro y siniestro para echarse unas simples risas. Groseros que se pasan de listos. Otros seres más violentos que, además de provocar, se dedican a molestar y a acosar a otros usuarios, muchos de ellos personalidades famosas. A todos ellos se les puede meter en el cajón de «trolls». Una figura dentro de los tipos de usuarios de redes sociales que ha ganado peso en los últimos años por la permisividad de las plataformas digitales.

Lo más curioso es que lo que buscan esta clase de usuarios provocadores por naturaleza es notoriedad. Visibilidad. Darse a conocer. Su mayor enemigo es pasar desapercibido y acabar en el ostracismo más residual. El problema radica en que si se borran de un plumazo miles de cuentas de esta calaña puede que una red social, cuyo modelo de negocio es el crecimiento constante de su audiencia, se resienta. Y en esa línea roja se ha situado ahora Twitter.

La conocida red de micromensajes ha revisado su estrategia para combatir a los abusivos «trolls» y ha llegado a una solución. Se guiará a partir de una serie de patrones y señales de comportamientos de los usuarios para identificar a los acosadores, aunque en lugar de suspenderlos o pasar a una pena más drástica como eliminarlos se optará por limitar la visibilidad de sus tuits.

«Encontramos algunos comportamientos que pueden ser divertidos, irónicos o humorísticos. Pero hoy nos referimos a esos otros comportamientos ‘tipo troll’ que distorsionan y restan valor a la conversación pública en Twitter, en especial en áreas comunes como conversaciones y búsquedas», apuntan en un comunicado David Gasca y Del Harvey, directivos de la compañía estadounidense. En su opinión, algunas de estas cuentas y tuits violan las políticas de la plataforma y, en esos casos, se tomarán medidas. «Hay otros que, sin infringirlas, se comportan de una manera que puede llegar a distorsionar la conversación».

En la actualidad, las normas de Twitter ya prohíben el acoso y el abuso, pudiendo así suspender o bloquear a este tipo de usuarios en el momento en el que han recibido denuncias de ellos. Pero, a partir de ahora, el comportamiento también delatará a los «trolls» gracias a sistemas basados en «machine learning» o «aprendizaje automático» que cruzará un centenar de «señales» o parámetros para ocultar los mensajes de estos usuarios que, sin embargo, representan solo el 1% de la audiencia global. En concreto, la plataforma alberga a más de 336 millones de usuarios en todo el mundo.

«Estamos abordando los comportamientos que distorsionan y restan valor a la conversación pública en esas áreas, integrando nuevas señales de comportamiento para determinar la forma en que se presentan estos tuits. Utilizando nuevas herramientas para atajar estas conductas desde una perspectiva de comportamiento somos capaces de mejorar la salud de la conversación y la experiencia de todos en Twitter, sin necesidad de esperar a que los usuarios nos reporten potenciales problemas», agregan las mismas fuentes.

Un centenar de señales

Esas señales que delatarán a los «trolls» son variadas y van desde si una cuenta no ha confirmado su dirección de correo electrónico, si la misma persona inicia sesión en múltiples cuentas de manera simultánea, cuentas que repetidamente tuitean y mencionan a cuentas que no les siguen, o comportamientos que podrían indicar un ataque coordinado. También están analizando cómo están conectadas las cuentas con aquellos que violan nuestras reglas y cómo interactúan entre sí. Desde Twitter advierten, sin embargo, que no se analizará el contenido sino los patrones de comportamiento. Este nuevo enfoque provocará que los tuits de estos usuarios tengan menor visibilidad y aparezcan, además, en una posición más abajo en ciertas áreas como los resultados de búsqueda o en las menciones.

El objetivo es reducir su impacto, pero los tuits no se eliminarán por completo en función de las señales de comportamiento, reconocen desde la compañía que estima que durante las pruebas se ha logrado reducir en un 4% las denuncias de abusos y en un 8% menos de reportes de abuso de conversaciones. «La mayoría de los abusos provienen de una pequeña cantidad de cuentas que tienen un impacto desproporcionado», explica Del Harvey, vicepresidenta de seguridad de Twitter. «El resultado es que las personas que contribuyen a una conversación saludable serán más visibles en conversaciones y búsquedas».

Las empresas de medios sociales como Twitter y Facebook están bajo presión para eliminar a los acosadores, muchos de los cuales se dirigen a mujeres y grupos (étnicos, religiosos, sexuales). En ocasiones, muchas mujeres no pueden ni siquiera expresarse libremente sin temor a recibir mensajes cargados de odio y violencia. Si tiene un impacto positivo, la reducción del abuso también ayudará ayudar a potenciar el negocio de Twitter, dado que puede incentivar a más personas a registrarse y a pasar más tiempo en el servicio.

Vía

http://www.abc.es

Categorías: Tecnología

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: