
Les véhicules autonomes peuvent commettre des erreurs car leur système d'intelligence artificielle a une analyse erronée de la situation, qui ne correspond pas à la réalité. C'est généralement le résultat de lacunes lors de leur entraînement en environnement simulé. Des chercheurs du Massachusetts Institute of Technology (MIT) et de Microsoft ont développé un modèle qui leur permet de trouver ces "angles morts". Ils ont présentés leurs recherches lors de deux conférences s'étant déroulées en 2018, précise le MIT News.
identifier les situations incertaines
Par exemple, le véhicule autonome n'est pas forcément apte à distinguer une ambulance avec un gyrophare allumé d'une simple camionnette blanche. Dans ce cas de figure, l'intelligence artificielle a une analyse erronée de la situation puisqu'elle pense être suivie par un véhicule normal. Le comportement du véhicule est seulement "corrigé" au cas par cas lors des tests en conditions réelles ou des simulations. Mais les algorithmes d'intelligence artificielle sont aujourd'hui conçus pour ne pas tenir compte de ces situations très rares.
Les chercheurs de Microsoft et du MIT souhaitent lister ces situations qu'ils qualifient "d'angles morts". Un être humain doit pour ce faire surveiller les actions du système et signaler lorsqu'il commet une erreur ou s'apprête à le faire. L'idée est de combiner ces retours aux données d'entraînement classique pour créer un modèle de comportement capable d'identifier les situations dans lesquelles le système de conduite à besoin de plus d'informations pour agir correctement (voire demander à un humain de reprendre le contrôle). Cette hypothèse a été testée dans des jeux vidéo pour le moment. La prochaine étape sera de faire des tests en conditions réelles.
Réagir