Comment McAfee a trompé le système de conduite autonome d'une Tesla pour dépasser la vitesse autorisée

Des chercheurs de la société américaine McAfee ont réussi à tromper le système Mobileye d'une Tesla pour qu'elle accélère jusqu'à 136 km/h alors que la limitation de vitesse était de 56 km/h grâce à une attaque ciblée appelée "model hacking". Pour y parvenir, ils ont modifié à l'aide d'un autocollant l'aspect physique du panneau de signalisation. A l'œil nu, le changement était imperceptible mais l'algorithme s'est fait avoir.

Partager
Comment McAfee a trompé le système de conduite autonome d'une Tesla pour dépasser la vitesse autorisée

Des chercheurs du laboratoire "Advanced Threat Research" (ATR) de la société américaine McAfee ont réussi à faire accélérer jusqu'à 85 mph (136 km/h) deux modèles de Tesla (Model X et Model S) alors que la limitation de vitesse était de 35 mph (environ 56 km/h) grâce à une attaque ciblée. L'équipe a publié les détails de cette expérience le 19 février 2020, après 18 mois de travaux.

"Nous avons fait une attaque sur l'algorithme qui permet de détecter et de classifier les panneaux de signalisation présents sur la route", résume Thomas Roccia, chercheur au sein du laboratoire ATR, contacté par L'Usine Digitale. Les voitures autonomes embarquent des capteurs qui leur permettent de récupérer des données sur leur environnement. Le système ciblé est le MobilEye EyeQ3, qui équipe plus de 40 millions de véhicules dans le monde, dont les modèles de Tesla équipés du "Hardware Pack 1" (commercialisés avant 2017).

Le système utilise des caméras situées à l'avant du véhicule pour lire les panneaux de signalisation et adapter la conduite. Les chercheurs ont voulu savoir s'il était possible de "tromper" la classification réalisée par l'algorithme lorsqu'il détecte des panneaux de signalisation sur la route. "C'est ce que l'on appelle du 'model hacking', c'est-à-dire que l'on 'empoisonne' les données envoyées au modèle", indique Thomas Roccia.

Une classification erronée

Pour y parvenir, les chercheurs ont modifié l'aspect physique du panneau de limitation de vitesse en allongeant d'environ cinq centimètres la barre du milieu du "3" grâce à un autocollant noir. "Pour l'œil humain, cette modification est presque imperceptible, mais l'algorithme a vu un '8' et a donc dépassé la vitesse maximale", raconte Thomas Roccia. Les chercheurs ont effectué cette attaque en "boîte noire" c'est-à-dire qu'ils ne connaissaient ni l'algorithme ni les données qui avaient été utilisées pour entraîner le modèle.

Cette idée de modifier l'apparence d'une image pour tromper un algorithme n'est pas nouvelle, mais McAfee a voulu l'appliquer à une situation réelle qui implique des objets du quotidien. "Il y a déjà eu de nombreuses recherches dans ce domaine notamment avec des images d'animaux, précise Thomas Roccia. Les scientifiques ont étudié les "features" c'est-à-dire les éléments qui sont repris de l'image pour être classifiés par l'algorithme. Ils savaient exactement quels éléments étaient pris en compte par le modèle et les ont modifié pour l'empoisonner." Par exemple, des chercheurs ont modifié quelques pixels d'un cliché de pingouin invisible à l'œil nu et l'algorithme a classé l'animal comme un ordinateur de bureau ou une poêle à frire.

Mais alors comment faire pour lutter contre ces attaques ? "Plusieurs méthodes existent", indique Thomas Roccia. L'une d'entre elles consistent à ajouter du "bruit" pour empêcher le modèle de détecter de nouveaux features qui perturberaient sa méthode de classification.

Aider les entreprises à réduire les vulnérabilités

Les résultats de l'expérience ont été transmis à la société californienne Tesla et au fabricant de la caméra, l'israélien Mobileye. "Notre but est de travailler avec les entreprises quand nous découvrons des failles pour les aider à les résoudre", déclare Thomas Roccia. A noter que ces technologies évoluent rapidement et que Mobileye travaille actuellement sur des systèmes beaucoup plus évolués. McAfee note qu'un véhicule récent équipé d'un système Mobileye n'a pas été trompé par cette même technique. Quant à Tesla, ses nouveaux modèles utilisent une autre technologie et ne s'appuient plus actuellement sur la lecture automatique de panneaux.

Cette expérience questionne également d'un point de vue juridique. Le cadre normatif sur les voitures autonomes est encore très flou et ces attaques ciblées pourraient considérablement compliquer la recherche d'un auteur en cas d'accident impliquant un véhicule autonome. Pour tenter de régler ces questions, début décembre 2019, la France s'est dotée d'un comité d'éthique sur le numérique qui doit notamment se pencher sur la question des voitures autonomes à propos "des responsabilités partagées entre constructeur, assureur et utilisateur".

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS