Investigadores del Instituto de Tecnología de Massachusetts (MIT) han incorporado ciertas interacciones sociales en un marco para la robótica, permitiendo que las máquinas comprendan lo que significa ayudarse u obstaculizarse entre sí, y aprender a realizar estos comportamientos sociales por sí mismas.
A la vez, demostraron que su modelo crea interacciones sociales realistas y predecibles, cuando mostraron videos de estos robots simulados interactuando entre sí a los humanos, los espectadores humanos estuvieron de acuerdo en su mayoría con el modelo sobre qué tipo de comportamiento social estaba ocurriendo.
Permitir que los robots exhiban habilidades sociales podría conducir a interacciones humano-robot más fluidas y positivas, señala el escrito de Adam Zewe de la Oficina de Noticias del MIT.
Boris Katz, científico investigador principal y director de InfoLab. Grupo en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL) y miembro del Centro de Cerebros, Mentes y Máquinas (CBMM), dijo que “los robots vivirán en nuestro mundo muy pronto y realmente necesitan aprender a comunicarse con nosotros en términos humanos.
Junto a Katz en el artículo están el coautor principal Ravi Tejwani, asistente de investigación de CSAIL; el coautor principal Yen-Ling Kuo, estudiante de doctorado de CSAIL; Tianmin Shu, postdoctorado en el Departamento de Ciencias Cognitivas y Cerebrales; y el autor principal Andrei Barbu, científico investigador de CSAIL y CBMM.
Para ver cómo se compara su modelo con las perspectivas humanas sobre las interacciones sociales, crearon 98 escenarios diferentes con robots en los niveles 0, 1 y 2. Doce humanos vieron 196 clips de video de los robots interactuando, y luego se les pidió que estimaran el nivel físico y social. objetivos de esos robots.
En la mayoría de los casos, su modelo estaba de acuerdo con lo que pensaban los humanos sobre las interacciones sociales que estaban ocurriendo en cada cuadro. “Tenemos este interés a largo plazo, tanto para construir modelos computacionales para robots como para profundizar en los aspectos humanos de esto”.
Los investigadores están trabajando en desarrollar un sistema con agentes 3D en un entorno que permita muchos más tipos de interacciones, como la manipulación de objetos domésticos. También planean modificar su modelo para incluir entornos donde las acciones pueden fallar.
Los investigadores también quieren incorporar un planificador de robots basado en redes neuronales en el modelo, que aprende de la experiencia y funciona más rápido. Finalmente, esperan realizar un experimento para recopilar datos sobre las funciones que usan los humanos para determinar si dos robots están participando en una interacción social.
La investigación se presentará en la Conferencia sobre aprendizaje de robots en noviembre, que fue por el Centro de Cerebros, Mentes y Máquinas; la Fundación Nacional de Ciencias; la Iniciativa MIT CSAIL Systems that Learn; el MIT-IBM Watson AI Lab; el programa DARPA de Inteligencia Social Artificial para Equipos Exitosos; el Laboratorio de Investigación de la Fuerza Aérea de los Estados Unidos; el Acelerador de Inteligencia Artificial de la Fuerza Aérea de EE. UU.; y la Oficina de Investigaciones Navales.
Fuente: MIT