
Au laboratoire de robotique de l'Université de Brown, Stéfanie Tellex planche sur la collaboration homme-machine. Ses premiers travaux consistaient à utiliser les interactions vocales pour améliorer la coopération entre les humains et les robots, l'instauration d'un mini-dialogue permettant à la personne de s'assurer que l'automate a bien compris la tâche qui lui a été assignée.
Désormais, ses équipes entendent combiner la réalité augmentée aux commandes vocales grâce à l'utilisation d'un casque HoloLens. David Whitney, un étudiant doctorant, a fait la démonstration du nouveau dispositif lors de la Emtech Next Conference organisée par la MIT Technology Review. Celui-ci permet de visualiser en réalité augmentée les mouvements que le robot prévoit de réaliser de manière à les anticiper, voire de les corriger si nécessaire. "Ici l'objectif est de se mettre dans l'esprit du robot", a-t-il expliqué sur scène. De lire dans ses pensées en quelque sorte.
Une méthode d'interaction plus naturelle et intuitive que les méthodes existantes, qui nécessitent de configurer les automates en amont sur des écrans classiques (et donc pas en trois dimensions).
Réagir