¿Es capaz un robot de intuir lo que hará otro robot?

Redacción

Cuando dos primates pasan juntos el suficiente tiempo, aprenden rápidamente a predecir las acciones a corto plazo del otro. Eso se aplica también a los humanos, en casos como miembros de la familia, amigos o compañeros de trabajo o de estudios. Nuestra capacidad de anticipar las acciones de los demás nos facilita el vivir y trabajar juntos con éxito. En cambio, incluso los robots más inteligentes y avanzados han venido siendo notoriamente ineptos en este tipo de comunicación social, experimentando grandes dificultades o incluso una total imposibilidad para intuir qué está a punto de hacer otro robot con el que han pasado mucho tiempo juntos. Esto puede estar comenzando a cambiar.

Boyuan Chen, Carl Vondrick y Hod Lipson, de la Universidad de Columbia en la ciudad de Nueva York (Estados Unidos), han creado un robot que aprende a predecir visualmente cómo se comportará su compañero robot, mostrando así un atisbo de intuición. Al igual que una pareja con un largo tiempo de convivencia a cuestas, en la que cada miembro puede predecir cada uno de los movimientos del otro ante situacines típicas, el robot mencionado ha aprendido a predecir las acciones y objetivos futuros de su compañero robot mirando fugazmente la situación en la que se encuentra.

Esta capacidad del Ser Humano y algunos animales complejos de suponer estados mentales a otros individuos se conoce como Teoría de la Mente. En la versión robótica de dicha capacidad, esos estados mentales abarcan intenciones, conocimientos y creencias. En la versión humana, también abarcan emociones y deseos. En humanos, esta habilidad se desarrolla durante los primeros cuatro o cinco años de vida.

La versión robótica de esta habilidad podría ayudar a los robots a interactuar con mayor eficiencia y seguridad con otros robots y con humanos.

[Img #63016]

Un robot (actor) deambula por el tablero buscando manchas verdes (Food) para desplazarse a ellas, mientras que un robot observador (Observer) aprende a predecir el comportamiento del robot actor exclusivamente a través de observaciones visuales. Aunque el robot observador siempre puede ver las manchas verdes desde su posición por encima del tablero, el robot actor, desde su perspectiva visual, no siempre puede, debido a obstáculos en su línea visual, como por ejemplo la caja roja (Obstacle). (Imagen: Creative Machines Lab / Columbia Engineering)

El avance ahora logrado, descrito por sus autores en un informe titulado “Visual Behavior Modelling for Robotic Theory of Mind” y publicado en la revista académica Nature Scientific Reports, es parte de un esfuerzo más amplio para dotar a los robots de la capacidad de comprender y anticiparse a los objetivos de otros robots, puramente a partir de observaciones visuales.

Primeramente, los investigadores colocaron en un tablero el robot a ser observado. Programaron el robot para que buscara con su sistema óptico manchas verdes y se desplazase hacia cualquier mancha verde que pudiera ver. Sin embargo, debía afrontar un problema: aunque a veces podía ver una mancha verde y moverse directamente hacia ella, en otras ocasiones su línea de visión entre él y una mancha verde quedaba bloqueda por una caja de cartón roja alta, lo que hacía que el robot se moviera hacia una mancha verde diferente, o hacia ninguna si no veía otra.

Luego entró en escena el robot observador. Este, después de observar a su compañero dando vueltas por el tablero durante dos horas, comenzó a anticipar el objetivo de su compañero y el camino que tomaría. El robot observador fue capaz de predecir el objetivo y el camino de su compañero 98 de cada 100 veces, en diferentes situaciones.

Noticias

Síguenos en redes