Cómo acabar con los bots que contaminan internet
El País
En 2014, Filippo Menczer se vio metido en el ojo del huracán, en el centro de una envenenada controversia política, por un modesto proyecto de investigación que dirigía en la Universidad de Indiana. Algunos políticos republicanos cargaron con todo contra la financiación pública de su proyecto, Truthy, dedicado a investigar el papel de los bots de las redes sociales en la manipulación política. “Fuimos atacados por poderosos legisladores que etiquetaron nuestra investigación como políticamente motivada y contraria a la libertad de expresión, y trabajaron activamente para tumbarla”, recuerda Menczer. Hoy esos políticos republicanos tienen un presidente en la Casa Blanca y todo el mundo se pregunta cómo parar la intoxicación política de los bots, publica El País.
Twitter detecta en torno a 3,3 millones de cuentas sospechosas a la semana y algunos cálculos señalan que habría unos cincuenta millones de bots. ¿Cómo frenar la amenaza de estas cuentas fraudulentas, usadas para influir en procesos democráticos, sin interferir en el funcionamiento de redes con millones de usuarios legítimos? Menczer, cuya investigación sigue dedicada al diseño de mejores algoritmos de detección (con un éxito del 75%-95%), aplaude que las plataformas ya estén tomando medidas para suspender cuentas que violan sus términos de servicio. “Pero no anuncian sus algoritmos de detección, ni comparten datos sobre estas acciones, por lo que no hay forma de que los investigadores evalúen de forma independiente la efectividad de sus métodos”, critica.
EL PAÍS ha contactado a media docena de especialistas, además de la propia Twitter, para analizar qué puede hacerse para afrontar este problema y sugerir posibles mejoras. Algunas son sencillas, otras podrían chocar contra el modelo de negocio de la multinacional y otras serían controvertidas, como las que sugiere Menczer: “Dado que los usuarios propagan información de baja calidad como noticias falsas, la plataforma podría limitar las actividades de publicación de cuentas automáticas y dificultar a los usuarios compartir artículos que no han leído”.
Twitter detecta en torno a 3,3 millones de cuentas sospechosas a la semana y algunos cálculos señalan que habría unos 50 millones de bots
Otro especialista, el investigador de Wellesley y Harvard Takis Metaxas, no niega que “Twitter debería ser más agresivo para detener bots maliciosos”, pero considera injusto que se carguen las tintas en esta plataforma, precisamente porque es más abierta. “El verdadero problema vino a través de Facebook. Es una red mucho más grande y popular y tiene control total sobre lo que sus usuarios ven y lo que no ven. Me parece irónico que nos estemos centrando en Twitter, que permite ver sus datos, e ignorar Facebook, que los oculta todos”, critica. Como Facebook no deja trastear en su motor, se publican muchos menos estudios que le saquen los colores por su opaco papel en la intoxicación política.
Metaxas propone una medida clara: exigir la verificación a través de un número de teléfono, que podría ralentizar el crecimiento de bots, aunque es una opción que podría chocar con otros aspectos como la privacidad. La mayoría de los especialistas señala una posibilidad que podría ser muy útil: del mismo modo que hay una marca para identificar a los usuarios verificados, podría incluirse otra que etiquete los bots como cuentas automatizadas para que, al menos, todos puedan reconocerlas de inmediato.
Para ello, Twitter podría dejarse ayudar por los propios usuarios, como propone Ben Nimmo, del laboratorio de investigación forense digital del Consejo Atlántico, aunque también propone que se contrate más personal. “Algunos son absurdamente fáciles de detectar a simple vista, pero son suficientemente inteligentes como para superar las barreras automáticas”, señala este investigador citado por ProPublica por su trabajo cazando bots. “Por eso se debería facilitar que los usuarios reporten bots, no solo spam”. Además, sugiere, la plataforma debería encontrar alguna forma de señalar las publicaciones individuales que se han publicado automáticamente, “de modo que los usuarios puedan detectar los bots por sí mismos”.
Los especialistas también señalan que se utilicen durante el registro sistemas de verificación tipo reCAPTCHA, que detectan si es un humano quien abre la cuenta o es un proceso automatizado con intenciones aviesas. Desde Twitter responden que han creado sistemas para identificar intentos sospechosos de iniciar sesión, incluidos los que podrían ser automatizados. Estas técnicas permiten a la compañía detectar unos 450.000 inicios de sesión sospechosos cada día gracias a sistemas de inteligencia artificial contra el spam. Además, desde junio de 2017 han suspendido más de 117.000 aplicaciones maliciosas por abusar de su API (interfaz para programar aplicaciones ajenas), responsables de más de 1.500 millones de tuits “de baja calidad” solo este año.
Siga leyendo en El País