Catorce brazos cogiendo cosas sin parar, así quiere Google que sus robots aprendan

Una fila de catorce brazos robóticos, uno dispuesto al lado de otro, con bandejas y multitud de objetos diferentes a los que enfrentarse. Y probando a coger sin parar se encuentran. Así es como Google está haciendo aprender a un sistema de inteligencia artificial basado en el reconocimiento de elementos.

¿Cómo aprenden los bebés? Pues combinando habilidades motoras y de visión, a base de ensayo y error, y al fin y al cabo, reconociendo los elementos. Pues esos mecanismos son con los que trabajan en Google para que sus robots vayan acertando con la mejor forma de asir los objetos que les ponen delante.

No es lo mismo coger un lápiz que una esponja, si el sistema los tiene bien reconocidos, la forma de actuar será más eficiente
Lo que es el robot, es bastante sencillo, formado por un brazo con tres partes móviles, y una pinza con dos dedos.

Lo interesante del asunto está en la cámara que registra la información y un primer sistema o ‘cerebro’ que se encarga de predecir la mejor forma de coger el objeto dependiendo de todo lo que ha estado aprendiendo desde que fue creado el sistema.


La otra parte importante es la llamada ejecución, o la coordinación de los elementos motores para que se coja la pieza. En conjunto tenemos dos sistemas trabajando al unísono para que unos robots sean capaces de ‘ver’ y reaccionar en consecuencia.

Los robots diferencian entre un objeto duro o blando, cambiando los puntos y formas de apretar
Durante la fase de ejecución el propio robot observa lo que está haciendo para realizar correcciones en tiempo real. Es muy interesante ver cómo tiene comportamientos previos al agarre, como intentar aislar el elemento que quiere coger.

El equipo de robots lleva más de 3.000 horas de práctica en las que se han realizado más de 800.000 operaciones. Los investigadores de Google dicen que el porcentaje de error en la primera tanda de 30 ejecuciones es del 34%, una vez entrenados, se baja al 18%.

Hay competencia, como el DeepGrasping de la Universidad de Cornell, que analiza los objetos y en base a ese análisis intenta cogerlo uno y otra vez. Parece tener una tasa de fallo inferior, pero el sistema de Google es más flexible al estar continuamente analizando la forma de cogerlo.


Más información | Google

Ver todos los comentarios en https://www.xataka.com.mx

VER 0 Comentario

Portada de Xataka México