Recevez chaque jour toute l'actualité du numérique

x

La Darpa fait appel à Intel pour renforcer la sécurité des systèmes de reconnaissance d'image

Intel a été choisi par la Darpa pour codiriger (avec Georgia Tech) un projet de recherche visant à rendre les modèles de machine learning plus résistants aux attaques. Il s'agit spécifiquement d'éviter qu'ils puissent être trompés, provoquant une mauvaise identification ou une requalification des images qu'ils analysent.
Twitter Facebook Linkedin Flipboard Email
×

La Darpa fait appel à Intel pour renforcer la sécurité des systèmes de reconnaissance d'image
La Darpa fait appel à Intel pour renforcer la sécurité des systèmes de reconnaissance d'image © Tour Hebdo

Intel et le Georgia Institute of Technology (Georgia Tech) ont annoncé jeudi 9 avril 2020 avoir été sélectionnés par la Darpa pour mener des recherches sur la résistance des système d'intelligence artificielle à la tromperie. Plus particulièrement, Intel va contribuer au programme Guaranteeing Artificial Intelligence (AI) Robustness against Deception (GARD). La Darpa, célèbre agence du département de la Défense des États-Unis chargée des projets de recherche avec des technologies de pointe, cherche à empêcher qu'un système automatisé puisse être volontairement induit en erreur à des fins malveillantes.

Renforcer la défense contre les attaques contradictoires

"Nous collaborons sur une approche pour améliorer la détection d'objets et renforcer la capacité des systèmes de machine learning à répondre à des attaques contradictoires ", explique dans un communiqué Jason Martin, ingénieur au sein d'Intel Labs. Ces attaques consistent à tromper, altérer ou corrompre l'interprétation des données des modèles de machine learning. Le système n'identifie alors pas bien une image ou la qualifie mal.

Par exemple, la photo ci-dessous montre qu'un algorithme peut être trompé par un simple tee-shirt qui le conduit à identifier un oiseau à la place d'un humain. Cette mauvaise qualification pourrait avoir des répercussions importantes puisque les systèmes de machine learning sont utilisés dans le domaine des véhicules autonomes. Si le véhicule rencontre un humain il sera amené à s'arrêter, mais s'il pense que c'est un oiseau il pourrait continuer. C'est pourquoi il est primordial d'améliorer la robustesse de ces systèmes et d'en assurer la stabilité, la sûreté et la sécurité face à des interactions inattendues ou trompeuses.

L'entreprise de cybersécurité McAfee a fait la démonstration de ce type d'attaque en conditions réelles avec une voiture Tesla en février.

 

 

Un programme sur quatre ans

Aujourd'hui la plus plupart des systèmes de défense sont conçus pour répondre à des attaques prédéfinies mais restent vulnérables aux attaques moins conventionnelles. GARD souhaite avoir une approche globale et développer des bases de défenses larges, qui répondraient à la majorité des attaques possibles dans des scénarios pouvant entraîner une mauvaise classification ou interprétation d'une donnée.

Le but du programme GARD est d'établir les fondations d'un système de machine learning qui non seulement identifierait les vulnérabilités et caractériserait les propriétés pour renforcer la robustesse de modèle, mais favoriserait aussi la création de défenses efficaces. Dans un premier temps, Intel et Georgia Tech s'efforceront d'améliorer les techniques de reconnaissance d'objets sur les images et les vidéos en combinant les reconnaissances spatiale, temporelle et sémantique. Ce n'est que la première étape puisque ce programme doit durer quatre ans.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media