Recevez chaque jour toute l'actualité du numérique

x

Nvidia a développé un modèle d'IA qui permet à un bras robotique de saisir un objet tendu par un humain

Dans une étude, des chercheurs de Nvidia décrivent un modèle d’intelligence artificielle pour fluidifier la collaboration entre opérateurs humains et robots. Grâce à cette méthode d’apprentissage par visualisation, les robots voient leur fiabilité et leur rapidité améliorées sans être dangereux pour autant.
Twitter Facebook Linkedin Flipboard Email
×

Nvidia a développé un modèle d'IA qui permet à un bras robotique de saisir un objet tendu par un humain
Les robots se saisissent d'objets en reconnaissant une poignée de gestes humains. © Nvidia / Wei Yang, Chris Paxton, Maya Cakmak, Dieter Fox

Nvidia a développé une nouvelle approche pour favoriser l’échange d’objets entre robots et humains. Dans un article paru jeudi 12 mars 2020, qui n’a pas encore été revu par des pairs, des spécialistes de la robotique de l’entreprise américaine décrivent une technique d’intelligence artificielle à même d’améliorer considérablement la manière dont la machine se saisit de ce qu’un opérateur lui tend. Particulièrement adapté pour les cobots en entrepôts.

PLUS COMPLEXE Que ça N’EN A L’AIR

Si cette opération peut paraît simple, tant elle est naturelle chez l’homme, elle reste complexe pour un engin dans l’impossibilité de visualiser l’entièrement de l’objet dont il doit se saisir – partiellement caché par une main. Qui plus est, dans une usine, un opérateur n’a souvent pas le temps de veiller à faire le bon geste dans le but que l’engin reconnaisse ce qui lui est tendu. La technique mise au point par Nvidia s’appuie sur l’apprentissage par visualisation. Le robot rejoint l’humain à mi-chemin, analyse comment ce dernier tient l’objet qu’il veut donner. Il calcule alors précisément la trajectoire à adopter dans le but d'optimiser ses facultés de préhension.

Les chercheurs de la société américaine ont catégorisé les différentes façons de tenir un objet : cela pourrait se faire la "paume ouverte", avec un "pincement du fond" ou un "pincement du dessus ou du dessous" ou alors par "soulèvement". Filmés sous toutes les coutures pendant 20 à 60 secondes par une caméra Kinect Azure de Microsoft, ces gestes ont été compilés près de 152 000 fois pour entraîner le système. Les spécialistes sont, d’ailleurs, toujours plus nombreux à estimer que cette méthode, que l’on appelle l’"observation", fait ses preuves. Pour leur part, les experts de Nvidia ont ainsi modélisé les transmissions d’objet – action à laquelle ils font référence sous le nom quelque peu barbare de "système logico-dynamique robuste" dans le cadre de l’étude.
 


RÉPONDRE À UNE DIVERSITÉ DE CAS D’APPLICATION

Si le robot ne parvient pas à déterminer l’approche à adopter, il reste en sommeil et inactif. Un cas de figure devenu très rare, selon les dires des scientifiques, qui assurent que leur essais ont été "concluants". Deux robots "Panda" de la marque allemande Franka Emika ont embarqué leur brique d’IA et seraient ainsi parvenus à se saisir quasi-naturellement des pièces de couleurs différentes.

Les auteurs de l’étude notent que leur modèle "fait passer le taux de transaction réussies de 80 à 100%", le tout pour un temps d’exécution réduit : "17,83 secondes contre 20,93" pour les engins qui n’en sont pas équipés. De quoi envisager une hausse importante de la productivité en entreprise à bien des égards, selon les chercheurs, qui disent désormais vouloir apprendre aux robots à composer avec davantage de gestes pour répondre à des cas d’usage extrêmement diversifiés.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media