Recevez chaque jour toute l'actualité du numérique

x

Que sont les GANs, ces systèmes de machine learning à l'origine des deepfakes ?

Décryptage Pointés du doigt pour leur capacité à créer des "deepfakes" étonnamment réalistes lorsqu’ils sont utilisés à mauvais escient, les réseaux antagonistes génératifs (GANs) représentent l’une des technologies les plus prometteuses du machine learning par leur capacité à créer de nouvelles données.
Twitter Facebook Linkedin Flipboard Email
×

Que sont les GANs, ces systèmes de machine learning à l'origine des deepfakes ?
Que sont les GANs, ces systèmes de machine learning à l'origine des deepfakes ?

Barack Obama insultant Donald Trump, Mark Zuckerberg avouant manipuler ses utilisateurs… Ces derniers mois, les exemples de deepfakes se multiplient, toujours plus réalistes, augmentant le doute quant à l’authenticité des informations vues ou entendues sur internet. A l’origine de ces fausses vidéos plus vraies que nature se trouve une nouvelle méthode de machine learning : les réseaux antagonistes génératifs, couramment appelés GANs pour "Generative Adversarial Networks".

 

Réseau de neurones contre réseau de neurones

Ce sont ces systèmes, qualifiés par Yann LeCun, Chief AI Scientist chez Facebook, "d’idée la plus intéressante des 10 dernières années dans le domaine du Machine Learning". qui permettent aujourd’hui une ressemblance toujours plus poussée entre le faux et le vrai. Introduits en 2014 par le chercheur américain Ian Goodfellow, ils présentent en effet la particularité de pouvoir créer des données (par exemple des images dans le cas des deepfakes). Et ce, sans que leur apprentissage soit supervisé.

 

Comment ? "Les GANs sont composés de deux réseaux de neurones concurrents. Le générateur, qui a pour objectif de créer des images aussi réalistes que possible. Et le discriminateur, chargé de reconnaître si les images produites par le générateur sont ou non des faux", explique Elisa Fromont, chercheuse spécialisée en machine learning de l'Institut de recherche en informatique et systèmes aléatoires (IRISA).

 

Dans les faits, on commence par nourrir le générateur de données comprenant du "bruit" (des images aléatoires), dont il va tenter d’extraire lui-même, en les encodant, certaines règles. Celles-ci lui permettront, en les décodant ensuite, de produire des images. "Au départ, le générateur ne va rien produire de très intéressant puisque ses premières images ressembleront au bruit qu’on lui a donné en entrée", souligne la chercheuse.

 

Apprendre à reproduire un style

Pour le faire progresser, chaque nouvelle image créée va donc être soumise, au milieu d’un flux d’autres images, à l’examen du discriminateur – un réseau de neurones convolutionnel classique – qui, de son côté, va la comparer au catalogue d’images réelles mis à sa disposition et donner une probabilité de son authenticité comprise entre 0 (un faux) et 1 (une image réelle). Cette estimation est renvoyée au générateur qui, fort de ces nouvelles données, produit une nouvelle image toujours plus proche des images du catalogue qui servent de référence.

 

Le but étant non de copier littéralement les images réelles mais d’en créer de nouvelles "à la manière de" ces dernières. Les deux entités poursuivent ainsi, participant chacune à l’amélioration de l’autre. Car si le générateur apprend à fabriquer des images de plus en plus réalistes, le discriminateur, de son côté, apprend à distinguer de mieux en mieux les vraies images des fausses. "Il est cependant assez difficile d’entraîner ce genre de réseaux car le discriminateur doit être suffisamment bon pour que les images du générateur puissent ressembler à de vraies images", soulève Elisa Fromont. Les images sont jugées réalistes lorsque le générateur parvient à tromper le discriminateur. Le faux qui en résulte est alors censé être quasi-indétectable.

 

 

Un simple coup d’oeil à l’adresse thispersondoesnotexist.com permet de mesurer l’état de l’art d’une telle technologie aujourd’hui. Ouvert par Philip Wang, un ingénieur de chez Uber, le site propose – à titre démonstratif – une collection de visages inédits créés par un réseau antagoniste génératif baptisé "StyleGan", publié par Nvidia. La méprise est flagrante : il est très difficile au premier coup d'œil de dire si le visage est réel ou artificiel.

 

Une technologie prometteuse pour créer des sets de données

Parce qu’ils sont capables de créer des données d’une telle finesse, les GANs, lorsqu’ils ne sont pas détournés pour créer des deepfakes, trouvent de nombreuses applications. "Notamment lorsque les données manquent ou sont protégées dans le cadre de la RGPD, pointe Elisa Fromont. Par exemple, Enedis, en tant qu’établissement public, est censé mettre à disposition les données de consommation électrique de ses utilisateurs. Mais doit aussi veiller à préserver la vie privée de ses derniers. Une manière de faire pourrait être, au lieu de diffuser des données réelles, de créer des données très proches de ces dernières qui ne permettraient pas de remonter à un individu en particulier".

 

Autre exemple dans le secteur médical. Une équipe de chercheurs de Nvidia, de la Mayo Clinic et du MGH & BWH Center for Clinical Data Science, annonçait, en septembre 2018, s’être servis de GANs pour générer des images IRM artificielles présentant des tumeurs du cerveau. Elles ont été créées car les scientifiques ne disposaient que d'un nombre insuffisant d'images réelles pour composer des sets de données équilibrés sur lesquels entraîner leurs systèmes de deep learning.

 

La technologie apparaît également prometteuse pour le secteur de la conduite autonome, qui les utilise pour "imaginer" des scénarios routiers en simulation sur lesquels entraîner dans un premier temps leurs modèles. Ou encore dans le domaine artistique, et notamment du cinéma, pour générer des contenus de synthèse vidéo ou audio dans un style particulier. Encore émergente, la technologie devrait parvenir à maturité entre 2024 et 2029, selon le cabinet Eleven Strategy consultant.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media