Los robots podrán agarrar objetos transparentes y reflectantes

Redacción

Los robots que puedan operar en la cocina son una visión popular del futuro, pero si un robot de hoy en día intenta agarrar un instrumento básico de cocina como una taza de medir transparente o un cuchillo brillante, es probable que no sea capaz de hacerlo. Los objetos transparentes y reflectantes son una pesadilla para los robots.

Unos robotistas de la Universidad Carnegie Mellon (CMU), sin embargo, han informado del éxito de una nueva técnica que han desarrollado para enseñar a los robots a coger estos objetos problemáticos. La técnica no requiere sensores avanzados, un entrenamiento exhaustivo o una guía humana, sino que se basa principalmente en el uso de una cámara a color.

David Held, profesor asistente del Instituto de Robótica de la CMU, dijo que las cámaras de profundidad, que hacen brillar luz infrarroja sobre un objeto para determinar su forma, funcionan bien para identificar objetos opacos. Pero la luz infrarroja pasa a través de los objetos claros y se dispersa en las superficies reflectantes. Por lo tanto, las cámaras de profundidad no pueden calcular una forma exacta, lo que resulta en formas en gran parte planas o con agujeros para objetos transparentes y reflectantes.

Pero una cámara de color puede ver tanto objetos transparentes y reflectantes como opacos. Así que los científicos de la CMU desarrollaron un sistema de cámara a color para reconocer formas basadas en el color. Una cámara estándar no puede medir las formas como una cámara de profundidad, pero los investigadores fueron de todas maneras capaces de entrenar el nuevo sistema para imitar el sistema de profundidad e implícitamente inferir la forma para captar los objetos. Lo hicieron usando imágenes de cámaras de profundidad de objetos opacos emparejados con imágenes en color de esos mismos objetos.

Una vez adiestrado, el sistema de cámara de color se aplicó a objetos transparentes y brillantes. Basándose en esas imágenes, junto con la escasa información que una cámara de profundidad podía proporcionar, el sistema podía captar estos desafiantes objetos con un alto grado de éxito.

[fusion_builder_container hundred_percent=

Unos investigadores de la Universidad Carnegie Mellon han utilizado aprendizaje automático y cámaras de color para enseñar a los robots a captar mejor los objetos transparentes y reflectantes. (Foto: Carnegie Mellon University)

“A veces fallamos”, reconoció Held, “pero en su mayor parte el robot hizo un buen trabajo, mucho mejor que cualquier sistema anterior para captar objetos transparentes o reflectantes”.

El sistema no puede captar objetos transparentes o reflectantes tan eficientemente como los opacos, dijo Thomas Weng, estudiante de doctorado en robótica. Pero es mucho más exitoso que los sistemas de cámaras de profundidad por sí solos. Y el aprendizaje de transferencia multimodal utilizado para entrenar al sistema fue tan efectivo que el sistema de color demostró ser casi tan bueno como el sistema de cámara de profundidad para captar objetos opacos.

“Nuestro sistema no solo puede captar objetos individuales transparentes y reflectantes, sino que también puede agarrar tales objetos situados en montones desordenados”, añadió.

Otros intentos de agarre robótico de objetos transparentes han dependido de sistemas de adiestramiento basados en intentos de agarre repetidos exhaustivamente – del orden de 800.000 intentos – o en el costoso etiquetado de los objetos por parte de humanos.

El sistema de la CMU utiliza una cámara comercial RGB-D que es capaz de obtener tanto imágenes en color (RGB) como imágenes de profundidad (D). El sistema puede usar este único sensor para clasificar los objetos reciclables u otras colecciones de objetos, algunos opacos, otros transparentes, otros reflectantes.

[/fusion_builder_column][/fusion_builder_row][/fusion_builder_container]

Noticias

Síguenos en redes