L'Université de Singapour développe les capacités tactiles des robots avec Intel
Des chercheurs de l'Université nationale de Singapour viennent de publier une étude dans laquelle ils démontrent que l'association de la vision et du toucher pour un robot permet d'obtenir une précision de 10% supérieure dans la classification des objets par rapport à un système uniquement fondé sur la vision. Ils utilisent la puce neuromorphique Loihi développée par Intel.
Développer le toucher chez les robots pourrait permettre d'étendre considérablement leur cas d'usage. Cette avancée permettrait par exemple de faire un pas de plus vers l'automatisation des tâches chirurgicales en donnant aux robots chirurgicaux la sensibilité tactile qui leur fait défaut aujourd'hui. Des chercheurs de l'Université nationale de Singapour (NUS), membre de la communauté de la recherche neuromorphique d'Intel, travaillent activement sur cette problématique. Ils présentent leurs recherches dans la revue scientifique Robotics : Science and Systems le 15 juillet.
Associer toucher et vision pour obtenir une grande précision
Dans cet article, ils montrent que l'association d'une vision et d'un toucher dynamiques – réagissant aux sollicitations extérieures à l'aide d'un réseau de neurones – permet d'obtenir une précision 10 % supérieure dans la classification des objets par rapport à un système uniquement fondé sur la vision.
En effet, la majorité des robots actuels effectuent des tâches en utilisant uniquement la vision mais ne sont pas dotés d'une capacité tactile leur permettant, par exemple, de différencier deux objets par leur texture. Pour doter les machines du toucher, l'équipe de l'Université nationale de Singapour utilise une peau artificielle. Récemment développée, cette membrane est capable de détecter les touchers plus de 1000 fois plus vite que le système nerveux humain et peut identifier la forme, la texture et la dureté des objets 10 fois plus vite qu'un clignement de l'œil.
Ces recherches nécessitent de recourir à des puces neuromorphiques pour traiter les données sensorielles du toucher, informations infiniment plus complexes que des data classiques. Les scientifiques ont choisi la puce Loihi du fabricant américain de semi-conducteurs Intel (photo ci-dessous). Ainsi, dans leur première expérience, ils ont utilisé une main robotisée recouverte de peau artificielle pour lire le braille en transmettant les données tactiles à Loihi. Le processus a atteint une précision de plus de 92 % dans la classification des lettres en braille, tout en utilisant 20 fois moins de puissance qu'un processeur standard. Ils ont décidé d'aller encore plus loin dans leur recherche en combinant le toucher et la vision dans un réseau de neurones de pointe.
Une étape dans la construction d'humanoïdes
Pour ce faire, les chercheurs ont chargé un robot de classer divers récipients opaques contenant différentes quantités de liquides en utilisant la peau artificielle et une caméra dynamique réagissant à son environnement. Et la conclusion est la suivante : en combinant vision et toucher, le robot a une précision de 10 % supérieure dans le classement des objets. "Nous sommes enthousiastes par ces résultats, s'est réjoui le professeur Harold Soh du département d'information de la NUS. C'est une étape dans la construction d'humanoïdes efficaces et robustes, capables de réagir rapidement et manière appropriée dans des situations inattendues."
SUR LE MÊME SUJET
L'Université de Singapour développe les capacités tactiles des robots avec Intel
Tous les champs sont obligatoires
0Commentaire
Réagir