Actualité web & High tech sur Usine Digitale

Le minibus autonome Olli pourrait (aussi) parler la langue des signes

Twitter Facebook Linkedin Google + Email
×

Vu ailleurs IBM et Local Motors planchent d'ores et déjà sur une deuxième version du minibus autonome Olli. Techniques de vision par ordinateur, capteurs haptiques, hologramme, réalité augmentée... Cette V2 pourrait embarquer une batterie de technologies pour faciliter la vie des usagers malvoyants, malentendants ou à mobilité réduite.

Le minibus autonome Olli pourrait (aussi) parler la langue des signes
Le minibus autonome Olli pourrait (aussi) parler la langue des signes © Local Motors

En juin 2016, IBM et Local Motors présentaient Olli, un minibus électrique, autonome et personnalisable car (en grande partie) imprimé en 3D. Le coup d'envoi de la production est prévu pour l'été 2018, mais les deux partenaires planchent déjà sur une deuxième version, baptisée Accessible Olli, rapporte un article de la MIT Technology Review

 

Vision par ordinateur, Capteurs Haptiques et Hologramme 

Cette déclinaison pourrait embarquer une large palette de technologies pour répondre aux besoins des personnes présentant un handicap. Les deux entreprises envisagent ainsi de développer toutes sortes de fonctionnalités, comme l'utilisation d'algorithmes de vision par ordinateur pour identifier les sièges vides, couplés à des messages audio pour guider les personnes malvoyantes vers les places disponibles. Pour répondre au même besoin, le tandem réfléchit également à déployer des réseaux de capteurs haptiques sur les sièges. De cette manière, les personnes malvoyantes qui circuleraient dans l'allée centrale ressentiraient des vibrations au niveau de leurs bras à l'approche d'un siège disponible.

 

Pour les personnes malentendantes, les deux entreprises envisagent d'exploiter les technologies de vision par ordinateur et de réalité augmentée pour délivrer des informations en langue des signes via des écrans embarqués ou le smartphone des usagers. Interviewé par la MIT Technology Review, Drew LaHart, en charge de la division accessibilité d'IBM, détaille le procédé : Olli pourrait apprendre à reconnaître la langue des signes grâce aux algorithmes d'apprentissage automatique et aux capacités de reconnaissance d'images de Watson, l'ordinateur cognitif de Big Blue. Ensuite, un dispositif de réalité augmentée permettrait de répondre via un hologramme d'une personne parlant la langue des signes.

 

Un minibus à 250 000 dollars

Les techniques de vision par ordinateur permettraient aussi à Olli de détecter les usagers qui patientent en déambulateur ou en fauteuil roulant à un arrêt de bus, de manière à déployer automatiquement la rampe d'accès.

 

Dès juillet 2017, Local Motors élaborera l'ingénierie du véhicule autonome et sélectionnera les fournisseurs. L'entreprise espère pouvoir commercialiser l'engin 250 000 dollars et vise, en premier lieu, les opérateurs de transports publics.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

media

Les cookies assurent le bon fonctionnement de nos sites et services. En utilisant ces derniers, vous acceptez l'utilisation des cookies.OK

En savoir plus
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale