Tout le dossier Tout le dossier
-
Révolution de la data
Quand l'Armée carbure à la donnée
-
Révolution de la data
Comment Starbucks a réinventé son programme fidélité grâce à l'IA
-
Révolution de la data
[Étude Capgemini] L'IA pourrait faire économiser 300 milliards de dollars aux entreprises du retail
-
Révolution de la data
[NRF 2019] 5 tendances qui vont bouleverser le retail cette année
-
Révolution de la data
"Ensemble, robots et humains augmentent l’efficacité des marques dans la résolution des problèmes clients", selon Grégory Renard
-
Révolution de la data
[Tribune] 6 tendances pour l'intelligence Artificielle en 2019
-
Révolution de la data
I’M OK, le service d’intelligence artificielle qui met fin aux "coups de feu" et aux files d'attente
-
Révolution de la data
Les courtiers d'assurances explorent (timidement) l'intelligence artificielle
-
Révolution de la data
Schneider met l'internet des objets au cœur de son offre
-
Révolution de la data
Dix pépites de l'IA au service de l'industrie
-
Révolution de la data
Les équipementiers à l'assaut de l'usine du futur
-
Révolution de la data
[Infographie] Conduite autonome... mais encore accompagnée
-
Révolution de la data
Comment l'IA Watson d'IBM a transformé l'assureur Generali
[Infographie] Conduite autonome... mais encore accompagnée
L’IA veut prendre le volant. Mais malgré les avancées du deep learning, rouler en autonomie dans un milieu aussi complexe que la ville reste un défi.
par Manuel Moragues
Mis à jour
10 avril 2019
Fini volants et pédales, les voitures autonomes vont débarquer en ville. Du moins si l’on en croit la surenchère de communication des géants de la tech et des constructeurs. Waymo (Google), Ford, BMW, Daimler et General Motors promettent des voitures pleinement autonomes entre 2019 et 2021 avec Uber et Lyft. L’intelligence artificielle (IA) qui pilote ces véhicules serait-elle donc prête à passer son permis ? Rien n’est moins sûr.
De plus en plus de spécialistes appellent à garder les roues sur terre, à l’image de Steven Shladover, de l’université de Berkeley. Ce pionnier de la voiture autonome dénonce à l’envie un engouement déconnecté de la réalité et pointe la confusion entretenue par les entreprises. Si les progrès réalisés ces dernières années sont plus qu’impressionnants, l’IA ne sait pas encore conduire en vraie autonomie n’importe où, ni en sécurité. "Nous sommes au début de l’histoire et encore loin de la navigation autonome en milieu urbain !", tranche Fawzi Nashashibi, chercheur à la tête de l’équipe Rits de l’Institut national de recherche en informatique et en automatique (Inria) et auteur du Livre blanc de l’institut sur le sujet.
Les démonstrations en cours, sous le vernis de succès autoproclamé, dévoilent les limites de l’IA au volant. "Waymo, l’un des rares à rouler en ville, revendique rien que pour 2017 en Californie, plus de 800 000 kilomètres parcourus et une moyenne de quelque 14 500 kilomètres entre deux reprises en main par un chauffeur de secours. C’est impressionnant", concède Fabien Moutarde, professeur à l’université Paris Sciences & Lettres (PSL) et chercheur au centre de robotique de Mines ParisTech.
Mais il pointe l’opacité de ces chiffres : "De quels miles parle-t-on ? S’il s’agit surtout de route comparable au périphérique parisien, ce n’est guère concluant !" Cela fait vingt ans que l’IA sait conduire sur un circuit fermé et le niveau 4 sur autoroute est déjà prêt techniquement, selon le chercheur. Rester dans sa voie, avec une IA maintenant le véhicule entre les lignes, et réguler sa vitesse en s’adaptant à celle du véhicule qui est devant, via un radar, sont deux fonctions déjà commercialisées. Ne reste que le changement de voie et le dépassement, relativement simples à réaliser sur autoroute et déjà en prototype chez les constructeurs.
La ville, ses cyclistes, ses motards et ses piétons
Certes Waymo circule aussi dans les rues, mais, comme Uber, il privilégie les tranquilles banlieues américaines. Un environnement très simplifié au regard des villes européennes, avec de larges voies, souvent multiples et à sens unique, comptant très de peu de cyclistes, motards et piétons. "Je ne pense pas que Waymo puisse rouler dans Paris", tacle Fabien Moutarde. En outre, Waymo ne circule que dans des zones restreintes entièrement numérisées en 3D, et évite des voies, intersections ou quartiers trop difficiles pour son IA. General Motors, qui a au contraire décidé de s’attaquer à des situations plus complexes, dans le nord-est de San Francisco, fait face à de nombreuses difficultés, pointait le site "The Information" en mars, citant notamment la circulation dans des rues étroites à double sens, le passage d’intersections embouteillées et le dépassement de cyclistes.
Moins de morts sur les routes, voilà la promesse première des voitures autonomes. Elle reste à tenir. L’accident mortel causé par une voiture d’Uber en mars 2018 est venu le rappeler, mettant en lumière l’enjeu du compromis retenu entre le risque de faux positifs – la détection erronée d’un objet causant une action non nécessaire voire un arrêt d’urgence – et celui de non-détection d’un vrai problème. L’IA d’Uber, suspectée d’être paramétrée de façon "agressive" afin de ne pas être sans cesse bloquée, a jugé qu’une cycliste n’était qu’un objet insignifiant comme un sac plastique avant qu’il ne soit trop tard pour l’éviter. Waymo, qui n’a pas connu d’accident mortel, revendique une conduite prudente. Mais cache le revers de la médaille. Car si la filiale de Google affiche n’avoir besoin d’une reprise en main par un humain que tous les 14 500 kilomètres, elle ne compte que les cas dont elle a vérifié, par simulation, qu’ils auraient conduit à un accident. "Qu’en est-il des fois où la voiture a simplement été paralysée par sa prudence ou par des situations qu’elle ne savait pas gérer ?", s’interroge Fabien Moutarde. "The Information" a rapporté en octobre 2017 que les chauffeurs de Waymo devaient parfois intervenir pour débloquer une voiture dans une intersection ou une impasse.
La ville est un milieu ouvert, peuplé d’une grande variété d’objets et d’acteurs souvent imprévisibles, régi par de nombreuses règles - explicites et implicites – et une signalisation complexe. Y circuler représente encore un défi extraordinaire pour l’IA alors que la robotique sort à peine de l’usine. Le deep learning permettra-t-il de le dépasser ? L’accélération phénoménale de ces dernières années a été déclenchée par cette technique à base de réseaux de neurones profonds qui a donné un coup de fouet à l’IA. "En faisant bondir les performances de la vision par ordinateur, le deep learning a ouvert de nouvelles perspectives, c’est lui qui permet d’envisager les véhicules autonomes", souligne Fawzi Nashashibi. La capacité étonnante du deep learning à apprendre, via des données, à réaliser des tâches inaccessibles à l’IA traditionnelle fondée sur des règles semble idéale pour traiter la complexité de la navigation en milieu urbain. Au point, peut-être, d’aveugler ses aficionados. "Certains prennent le deep learning pour de la potion magique, dénonce Fawzi Nashashibi. C’est faux, il ne peut pas tout résoudre." Pour Vanessa Picron, la directrice de la recherche sur l’assistance à la conduite chez Valeo, "la perception passera par le deep learning, cela fait consensus. Ensuite, les avis divergent sur l’étendue des tâches qui basculeront en deep learning".
De la perception à la compréhension de l’environnement
Pour passer son permis, l’IA devra progresser sur trois principaux fronts. D’abord la perception, "le premier enjeu, car sans la perception, rien n’est possible", relève Vanessa Picron. Mieux détecter et identifier objets et êtres vivants s’impose. Y compris par mauvais temps. Cela passera notamment par un travail sur la fusion des données issues des différents capteurs – caméra, lidar (scanner laser), radar –, qui apportent chacun des informations complémentaires. "La difficulté vient notamment de l’hétérogénéité des capteurs, du volume important de données et de l’exigence de temps réel", explique Paul Labrogère, le directeur du programme transport autonome de l’institut de recherche technologique SystemX. "Les techniques sont variées, mais si l’on veut gagner en performance et en fiabilité, il faut se rapprocher des données brutes", prône-t-il. Plutôt que de fusionner les informations digérées par l’intelligence de chaque capteur – par exemple, pour une caméra, la liste des objets vus, leur vitesse, position… –, il s’agirait de fusionner les pixels, scans laser et échos radar avant de faire analyser le tout par un logiciel. Le deep learning est le candidat tout désigné à cette opération.
Une deuxième difficulté, peut-être plus fondamentale, réside dans la compréhension de la scène perçue et de l’intention des acteurs. Un camion est arrêté sur une voie à double sens. L’humain voit le hayon baissé, y associe une personne portant une caisse et comprend : il s’agit d’un déchargement, le camion ne va pas redémarrer, on peut – on doit même, sous peine de bloquer la circulation – le dépasser. La machine, elle, en est incapable. Ce piéton à l’arrêt sur le trottoir de la voie dans laquelle je m’apprête à tourner, est-il en train d’attendre quelqu’un ou va-t-il traverser ? Ce conducteur qui s’engage à l’intersection, va-t-il me laisser passer ou forcer le passage ? Ce cycliste m’a-t-il vu ? Ce motard va-t-il griller le feu ?
Autant de questions auxquelles l’humain répond grâce à la prise en compte du contexte, l’interprétation d’un geste ou d’un regard. Une espèce de "sens commun" qui constitue précisément un lointain Graal pour l’IA en général. Peut-on s’en approcher avec le deep learning ? "Nous pensons que le deep learning va permettre de s’attaquer à cet enjeu majeur qu’est la compréhension de scènes en saisissant la complexité des situations", avance Vanessa Picron. Une opinion appuyée par l’avalanche de prouesses réalisées avec les neurones profonds. "Le deep learning avance très vite et d’énormes progrès sont à venir. L’analyse en temps réel des postures des piétons, de l’orientation de leur tête pourrait par exemple permettre d’interpréter leur intention", illustre Fabien Moutarde. Reste une limite, selon Fawzi Nashashibi : "Le deep learning seul ne suffira pas pour prendre en compte globalement les situations et reproduire l’ensemble des raisonnements de l’humain."
Quid de la planification des trajectoires
Le débat sur la place du deep learning se retrouve dans le troisième grand défi : la planification des trajectoires. Comment se faufiler entre les obstacles pour tourner à gauche à une intersection encombrée ? Pour Fawzi Nashashibi, les méthodes classiques de robotiques intégrant les modèles dynamiques et cinématiques de la voiture, la cartographie et la modélisation des autres acteurs sont indispensables : "C’est d’ailleurs ce que Waymo et consorts utilisent." Mais la complexité de la ville pousse ces méthodes, gourmandes en calcul, à leurs limites. "Peut-être n’est-ce pas la bonne approche", suggère Fabien Moutarde, qui vient de lancer une thèse sur un modèle de deep learning qui apprendrait, par renforcement et sur simulation, à piloter directement et seulement à partir des images de la caméra.
Cette approche relève d’une alternative radicale et encore peu explorée : un réseau de neurones court-circuitant toute la séquence de tâches du pilotage. Un seul réseau "end-to-end" avec les images, voire d’autres signaux, en entrée et, en sortie, directement la commande du volant et des pédales. Pas de représentation de la scène ni de modélisation de quoi que ce soit mais "un pilotage purement réactif : j’agis en conséquence de ce que je perçois, pas dans un but donné", décrypte Fawzi Nashashibi, de l’Inria-Rits, pour qui cette démarche est une impasse. "Pas forcément, nuance Raoul de Charette, chercheur en post-doc au sein de son équipe. Une piste pourrait être de forcer, lors de l’apprentissage, le réseau de neurones à prendre en compte des éléments symboliques comme la représentation de la scène ou des modèles physiques avant de prendre une décision de pilotage." Réponse de Fawzi Nashashibi : "Qui sait ? Le deep learning ouvre tellement de possibilités qu’on pourrait lancer dix sujets de thèse par jour !"
Des performances à garantir
De quoi perdre les industriels ? Pas forcément. Leur pragmatisme s’accommode bien de la pluralité des approches. Car la redondance, non seulement matérielle mais algorithmique, s’impose pour garantir la sécurité de fonctionnement des voitures autonomes. "Chez Valeo, nous voulons garder une séquence de tâches classiques, basées majoritairement sur des règles et enrichies par le deep learning. Mais nous y associerons un réseau de neurones end-to-end. Un algorithme placé derrière comparera les résultats de chaque processus et décidera lequel suivre", explique Vanessa Picron.
Les contraintes des industriels vont cependant au-delà des seules capacités de l’IA. L’homologation des véhicules nécessitera de pouvoir garantir leurs performances. Un double défi pour l’IA par apprentissage et en particulier pour le deep learning. D’une part parce que la complexité de ces modèles est telle qu’il est difficile voire impossible d’expliquer, de manière intelligible à l’humain, leurs décisions. D’autre part parce que leur nature non-déterministe empêche de valider leurs performances de façon classique. "Comment s’assurer que mes algorithmes seront performants dans toutes les situations ?", résume Vanessa Picron. Une piste serait "d’articuler essais physiques et simulation pour couvrir la variabilité fantastique des solutions et fournir un jeu de données de test capable de valider un système", prône Paul Labrogère. Reste que l’explicabilité comme la validation du deep learning sont des sujets de recherche qui émergent à peine. En attendant, start-up, géants de la tech comme constructeurs continuent d’avaler les kilomètres réels et simulés pour entraîner leurs algorithmes. Volants et pédales ont encore un avenir.
SUR LE MÊME SUJET
[Infographie] Conduite autonome... mais encore accompagnée
Tous les champs sont obligatoires
0Commentaire
RéagirPARCOURIR LE DOSSIER