Cómo Google quiere resolver el agarre robótico dejando que los robots aprendan por sí mismos

Noticias

Es probable que seas bastante bueno para aprender cosas. Eso es bueno. Parte de la razón por la que eres bastante bueno para aprender cosas es que, cuando eras pequeño, pasabas mucho tiempo intentando y sin poder aprender de tus experiencias. Para los robotistas que no quieren esperar el equivalente a una infancia robótica completa, hay formas de agilizar el proceso: en Google Research, han configurado más de una docena de brazos robóticos y los han dejado trabajar durante meses para recoger objetos pesados, livianos, planos, grandes, pequeños, rígidos, blandos y translúcidos.  Hablamos con los investigadores sobre cómo su enfoque es único y por qué 800.000 captaciones. Es solo el comienzo.

Parte de lo que hace que los animales sean tan buenos para agarrar cosas son nuestros ojos, en lugar de solo nuestras manos. Puedes agarrar cosas con los ojos cerrados, pero eres mucho mejor si observas cómo tu mano interactúa con el objeto que estás tratando de levantar. En robótica, esto se conoce como servo visual, y además de mejorar la precisión de agarre, hace posible agarrar cuando los objetos se mueven o cambian de orientación durante el proceso de agarre, algo muy común que sucede en esos molestos “del mundo real situaciones “.

Enseñar a los robots esta habilidad puede ser complicado, porque no hay necesariamente conexiones obvias entre los datos de los sensores y las acciones, especialmente si tiene una gran cantidad de datos de sensores ingresando todo el tiempo (como ocurre con los sistemas de visión). Una forma más inteligente de hacerlo es dejar que los robots aprendan por sí mismos, en lugar de intentar enseñarles en absoluto. En Google Research, un equipo de investigadores, con la ayuda de colegas de X, encargó a un brazo robótico de 7-DoF que recogiera objetos en el desorden utilizando servo visual monocular, y utilizó una red neuronal convolucional profunda (CNN) para predecir el resultado del agarrar. La CNN se estaba capacitando continuamente (comenzando con muchos fallos pero mejorando gradualmente), y para acelerar el proceso, Google lanzó 14 robots al problema en paralelo. Esto es completamente autónomo:

Con 14 robots trabajando en este problema, se recopilan muchos datos mucho más rápido, pero al mismo tiempo, se introducen muchas variaciones involuntarias en el experimento. Las cámaras están colocadas de manera ligeramente diferente, la iluminación es un poco diferente para cada robot y cada una de las pinzas de dos dedos que cumplen con las normas y que no se activan exhibe diferentes tipos de desgaste, lo que afecta el rendimiento:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *