Investigadores del Instituto Tecnológico de Massachusetts piensan que los robots del futuro pueden aprender una o dos cosas de Steve Carell y de otros comediantes de televisión.
El MIT dice que una computadora que observó durante mucho tiempo videos de YouTube y programas de televisión como «The Office», «Big Bang Theory» y «Desperate Housewives» aprendió cómo predecir si los actores estaban a punto de abrazarse, besarse o saludarse de manos, avances que podrían ayudar a que la siguiente generación de inteligencia artificial funcione menos torpemente.
«Podría ayudar a un robot a moverse más fluidamente por una vivienda», dijo el investigador líder Carl Vondrick a The Associated Press en una entrevista «El robot no va a comenzar a verter leche si piensa que uno está a punto de retirar el vaso».
Vondrick ve además potenciales aplicaciones en atención médica. «Si se puede predecir que alguien está a punto de caer o de iniciar un incendio o de herirse a sí mismo, podría proporcionar una ventaja de unos segundos para intervenir».
Los hallazgos —tras dos años de investigación en el Laboratorio de Informática e Inteligencia Artificial del MIT— serán presentados la próxima semana en la Conferencia Internacional sobre Visión Artificial y Reconocimiento de Modelos, en Las Vegas.
Vondrick, un candidato a doctorado enfocado en visión artificial y aprendizaje de máquinas, y quien tiene subvenciones de Google y de la Fundación Nacional para la Ciencia, trabajó con el profesor del MIT Antonio Torralba y con Hamed Pirsiavash, quien ahora está en la Universidad de Maryland. El trío quería ver si podía crear un algoritmo que pudiera imitar la intuición de un ser humano y prever qué sucederá después que dos personas se encuentran.
Los investigadores descargaron los videos y los convirtieron en representaciones visuales, una especie de interpretación numérica de pixeles sobre una pantalla que el algoritmo pudiera leer y buscar modelos complejos.
Luego mostraron a la computadora fragmentos de programas de comedia de televisión que nunca había visto —interacciones entre los protagonistas de la serie «Big Bang Theory» Jim Parsons (Sheldon Cooper) y Kaley Cuoco (Penny), por ejemplo— y pedían al algoritmo que predijera un segundo después si los dos se iban a abrazar, besar, saludar de mano o golpear las palmas de sus manos con el brazo levantado.
La computadora acertó más de 43% de las veces. La cifra podría no sonar alta, pero es mejor que algoritmos existentes con una tasa de éxito de 36%. Los humanos aciertan un 71% de las veces.
Fuente: Frontera.info