Robots aprenderán sobre interacciones humanas con la televisión | 800Noticias
800Noticias
Tecnología

Fuente: elcolombiano.com

Investigadores del Instituto Tecnológico de Massachusetts piensan que los robots del futuro pueden aprender una o dos cosas de Steve Carell y de otros comediantes de televisión.

El MIT dice que una computadora que observó durante mucho tiempo videos de YouTube y programas de televisión como The Office, Big Bang Theory y Desperate Housewives aprendió cómo predecir si los actores estaban a punto de abrazarse, besarse o saludarse de manos, avances que podrían ayudar a que la siguiente generación de inteligencia artificial funcione con menos torpeza.

“Podría ayudar a un robot a moverse más fluidamente por una vivienda”, dijo el investigador líder Carl Vondrick a The Associated Press en una entrevista. “El robot no va a comenzar a verter leche si piensa que uno está a punto de retirar el vaso”.

Vondrick ve además potenciales aplicaciones en AAatención médica. “Si se puede predecir que alguien está a punto de caer o de iniciar un incendio o de herirse a sí mismo, podría proporcionar una ventaja de unos segundos para intervenir”A.

Los hallazgos, tras dos años de investigación en el Laboratorio de Informática e Inteligencia Artificial del MIT- serán presentados la próxima semana en la Conferencia Internacional sobre Visión Artificial y Reconocimiento de Modelos, en Las Vegas.

Vondrick, un candidato a doctorado enfocado en visión artificial y aprendizaje de máquinas, y quien tiene subvenciones de Google y de la Fundación Nacional para la Ciencia, trabajó con el profesor del MIT Antonio Torralba y con Hamed Pirsiavash, quien ahora está en la Universidad de Maryland. El trío quería ver si podía crear un algoritmo que pudiera imitar la intuición de un ser humano y prever qué sucederá después que dos personas se encuentran.

Para refinar los hallazgos en estudios de inteligencia artificial como “visión de predicción”, expusieron su sistema de aprendizaje para máquinas a videos que mostraban a humanos saludándose, y videos al azar de YouTube.

Los investigadores descargaron los videos y los convirtieron en representaciones visuales, una especie de interpretación numérica de pixeles sobre una pantalla que el algoritmo pudiera leer y buscar modelos complejos.

Luego mostraron a la computadora fragmentos de programas de comedia de televisión que nunca había visto y pedían al algoritmo que predijera un segundo después si los dos se iban a abrazar, besar, saludar de mano o golpear las palmas de sus manos con el brazo levantado.

La computadora acertó más de 43 % de las veces. La cifra podría no sonar alta, pero es mejor que algoritmos existentes con una tasa de éxito de 36 %. Los humanos aciertan un 71%.A

Síguenos por @800noticias