Una herramienta puede «extraer» las emociones del lector
EFE
Una herramienta computacional, diseñada por investigadores de varias instituciones europeas, permite detectar y «extraer» las emociones que siente una persona al leer textos digitales utilizando un sofisticado sistema basado en la inteligencia artificial.
Nada tiene que ver con «espiar», han observado a EFE los investigadores, que han asegurado que la extracción de emociones es un paso importante hacia una inteligencia artificial «completa» y capaz de pensar como lo haría un ser humano, y sus utilidades abarcan desde el descubrimiento rápido de mensajes de odio o el análisis de la propaganda hasta la detección de problemas importantes como una depresión.
La herramienta, bautizada como «DepecheMood++», ha sido diseñada por investigadores de la Universidad Politécnica de Madrid (UPM), de la Fundación Bruno Kessler de Italia, de la Universidad de Twente (Países Bajos) y de la compañía francesa Recital, y utiliza modelos de procesamiento de lenguaje natural e inteligencia artificial para realizar mediciones precisas de las emociones que se expresan al leer un texto, ofreciendo un informe completo que puede ser analizado posteriormente.
El Grupo de Sistemas Inteligentes de la UPM ha colaborado en este proyecto que permite detectar las emociones en la red de una manera automática y está además implicado en la iniciativa europa «Participation» que utiliza también la inteligencia artificial para estudiar cómo se distribuyen los contenidos extremistas en internet y cómo llegan a afectar a la sociedad.
¿En qué consiste la herramienta? El investigador Óscar Araque ha explicado que es «un léxico», un vocabulario anotado que expresa la emoción que se le asocia a cada palabra, y ha detallado que se trata de un recurso muy extendido en el campo del Procesamiento del Lenguaje Natural para aportar una subjetividad, necesaria, pero de la que el ordenador carece.
«Enseñamos al sistema cómo expresamos las emociones los humanos», ha precisado a EFE Óscar Araque, y ha detallado que para ello su equipo utiliza algoritmos de aprendizaje -que están en todos los dispositivos conectados y analizan toda la información que genera un usuario en internet- y redes neuronales .
Pero ha insistido en que se trata de un recurso que se está utilizando sólo para investigación y que incluso han rechazado propuestas de empresas para obtener un beneficio económico.
«Nada se usa para espiar», aunque se puede usar para conocer las emociones que expresan los usuarios por ejemplo en las redes sociales, ha corroborado el investigador de la UPM, y ha alertado del riesgo que siempre tienen los sesgos (de raza o género) en todos los sistemas de inteligencia artificial y en las consecuencias que pueden tener en la vida cotidiana de las personas.
Analizar de una forma automática las emociones que los usuarios expresan, sin necesidad de que haya una persona haciendo específicamente esa labor, es especialmente relevante, según Areque, y ha citado como ejemplo una empresa que tenga una gran actividad en redes sociales y quiera saber lo que opinan sus clientes sin necesidad de recurrir a un resumen para analizar los miles de comentarios que puede recibir cada día; eso lo haría esta herramienta.
«DepecheMode+++» es capaz de detectar hasta seis emociones diferentes (miedo, diversión, felicidad, tristeza, molestia y enfado) con un recurso que de momento se ha desarrollado en dos idiomas (inglés e italiano).
Óscar Araque ha explicado que el proyecto «Participation» estudia la radicalización y su expansión en internet, sobre todo entre los usuarios más jóvenes, ha señalado que los estudios psicológicos y sociales apuntan que las emociones desempeñan un rol básico a la hora de diseminar ese tipo de contenidos, y ha incidido en que este tipo de recursos pueden ser muy útiles para detectar y frenar esos contenidos no deseados.
«Generar una pieza de desinformación es relativamente fácil, pero analizar y argumentar por qué esa información es falsa es mucho más costoso», ha aseverado el investigador, pero ha insistido en que, más allá de la utilidad que pueda tener para detectar lenguaje de odio o para analizar la propaganda, la herramienta puede servir para analizar los mensajes de personas que están padeciendo una depresión e incluso para recomendarle buscar un tratamiento.
«Hay muchas aplicaciones; algunas ni siquiera somos capaces de imaginarlas todavía, pero creo que herramientas como esta pueden servir para ayudarnos entendernos a nosotros mismos y así avanzar como sociedad», ha manifestado el investigador del Grupo de Sistemas Inteligentes de la UPM. EFE