Recevez chaque jour toute l'actualité du numérique

x

Les dessous d'OpenAI : entre sensationnalisme et culte de l'intelligence artificielle forte

Vu ailleurs Tout n'est pas rose chez OpenAI. L'organisation dédiée à la création d'une intelligence artificielle forte a besoin de revenus pour financer ses recherches, ce qui la pousse à des comportements qui aliènent la communauté scientifique. Peut-elle encore être sauvée ?
Twitter Facebook Linkedin Flipboard Email
×

Les dessous d'OpenAI : entre sensationnalisme et culte de l'intelligence artificielle forte
Les dessous d'OpenAI : entre sensationnalisme et culte de l'intelligence artificielle forte © OpenAI

Dur retour à la réalité pour OpenAI. A sa naissance en 2015, elle s'était donnée pour mission de s'assurer que l'intelligence artificielle reste bénéfique pour l'humanité. Organisation à but non lucratif dévouée à la recherche, elle jurait transparence, ouverture et collaboration. Cinq ans plus tard, l'ambiance est bien différente. OpenAI doit gagner de l'argent pour survivre, et ses méthodes lui ont fermé beaucoup de portes dans la communauté scientifique.

 

Les journalistes du MIT Technology Review ont passé trois jours dans les bureaux d'OpenAI à San Francisco, en Californie, et ont interrogé des employés (actuels et anciens) pour comprendre comment les choses y ont changé. Leur reportage a été publié le 17 février 2020. On y découvre, en plus du reste, une dichotomie entre la face publique de l'entreprise et son fonctionnement interne.

 

Une obsession pour l'intelligence artificielle "forte"

Pour comprendre l'histoire d'OpenAI, il faut connaître sa genèse. Elle a été créée par un groupe de riches entrepreneurs menés par Elon Musk (Tesla, SpaceX) et Sam Altman (Y Combinator), qui y ont investit 1 milliard de dollars. Sa création était motivée par les peurs en vogue à l'époque dans la Silicon Valley sur l'apparition d'une intelligence artificielle forte, c'est-à-dire dotée d'une conscience propre et dont les capacités intellectuelles dépasserait de très loin celle des êtres humains.

 

Un concept plus proche de la science fiction que de la réalité scientifique et technologique actuelle, et dont la faisabilité n'est pas prouvée, mais jugé comme une évolution inéluctable par certains. L'objectif premier d'OpenAI est donc de développer une "Artificial General Intelligence" (AGI) ou "IA forte" en français. Et de le faire de façon contrôlée, afin qu'elle soit bienveillante. Pour ce faire, les équipes d'OpenAI ne cherchent pas à développer pas de nouvelles approches révolutionnaires. Elles considèrent que les briques nécessaires existent déjà, et s'attellent à les combiner entre elles ou à leur allouer le plus de ressources (données, puissance de calcul) possibles.

 

Plus adepte de la communication que de la rigueur scientifique ?

OpenAI a multiplié les publications et les annonces au fil des ans. Entraînement de robots, championnat de Dota 2 contre des humains... L'une des plus marquantes date du 14 février 2019 et se nomme "GPT-2". Il s'agit d'un modèle capable d'écrire des articles de presse et des œuvres de science-fiction. Les chercheurs lui ont par exemple donné à lire la première phrase du roman 1984 de George Orwell, et le modèle a réussi à écrire une suite toute à fait logique. Ils lui ont également présenté un article du Guardian sur le Brexit, et il a été capable d'inventer des citations crédibles du député Jeremy Corbyn et d'évoquer des thématiques précises liées au sujet, comme celle de la frontière irlandaise.

 

OpenAI communique sur le sujet, mais refuse de publier le modèle, déclarant que GPT-2 est potentiellement "trop dangereux". Il pourrait servir selon elle à des actes mal intentionnés comme générer des avis sur des produits, des spams, des textes complotistes, voire des fake news. Mais la communauté scientifique n'est pas convaincue. Elle affirme que GPT-2 n'est pas assez avancé pour représenter une réelle menace et accuse OpenAI de faire du sensationnalisme. "Il semblait qu'OpenAI essayait de tirer parti de la panique autour de l'IA", explique Britt Paris, professeur adjoint à l'Université Rutgers qui étudie la désinformation générée par l'IA, interrogé par le MIT Technology Review. L'entreprise décide finalement de publier le code complet en novembre 2019.

 

Accusé de faire du sensationnalisme

Cet épisode a laissé beaucoup de traces. En interne, les salariés s'inquiètent de la tournure que prend OpenAI, passé entre temps d'organisation à but non lucratif à entreprise à but lucratif plafonné. Pour apaiser les tensions, l'entreprise publie un document interne dans lequel il est écrit "qu'afin d'avoir une influence au niveau gouvernemental, nous devons être considéré comme la source la plus fiable sur la recherche en machine learning (…) Le soutien généralisé de la communauté scientifique est non seulement nécessaire pour acquérir une telle réputation, mais il amplifiera notre message". Mais une grande partie de la communauté accuse OpenAI d'utiliser ses recherches pour faire du sensationnalisme, ce qui dessert la cause.

 

Alors qu'elle prônait l'ouverture, OpenAI a aussi commencé à se murer dans le silence. Les employés ont interdiction de parler aux journalistes sans autorisation expresse de l'équipe de communication. Les journalistes du MIT Technology Review expliquent qu'après avoir interrogé plusieurs salariés, ils ont reçu des mails de la direction leur rappelant l'obligation de passer par elle pour toute demande d'entretien. Ce que les journalistes ont refusé de faire, estimant que cela minerait leur travail. Ce changement de stratégie est en partie dû à l'homme qui dirige le laboratoire : Dario Amodei, un ancien de chez Google. Sa vision est simple : il parie plus ou moins gros sur chaque section d'OpenAI (linguistique, robotique…). A des fins de rigueur scientifique, tout doit être testé avant d'être jeté. L'objectif est d'avoir de moins en moins d'équipes pour qu'elles finissent par s'affronter pour trouver le modèle qui se rapproche le plus de l'AGI.

 

Gagner de l'argent pour être concurrentiel

Dans un message interne aux équipes envoyé début 2020, Sam Altman est clair : OpenAI doit gagner de l'argent pour faire de la recherche et non l'inverse. Il s'agit d'un compromis difficile mais nécessaire, selon la direction - un compromis qu'il a dû faire faute de riches donateurs philanthropiques (Elon Musk s'est désolidarisé de l'entreprise en février 2019). Mais Technology Review note qu'OpenAI fait face à ce compromis non seulement parce qu'il n'est pas riche, mais aussi parce qu'il a fait le choix stratégique d'essayer d'atteindre l'AGI avant tout le monde. Cette pression l'oblige à prendre des décisions qui vont à l'encontre des idéaux de ses débuts.

 

Elle utilise les ficelles du sensationnalisme pour attirer des financements et des talents, et garde ses recherches pour elle dans l'espoir de battre la concurrence. Une stratégie qui n'est pas sans porter ses fruits, Microsoft ayant décider d'y injecter 1 milliard de dollars en juillet dernier. Le MIT Technology Review note qu'OpenAI est toujours un bastion de talents et de recherche de pointe, rempli de personnes qui s'efforcent de travailler au profit de l'humanité. Et qu'il est encore temps qu'elle change.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

1 commentaire

Njoh Mouelle
20/02/2020 12h17 - Njoh Mouelle

Il est heureux de constater une opposition au sensationnalisme des gens de l’OpenAI. Il faut arrêter de jouer avec l’avenir de l’homme. Mon opinion est largement exprimée dans les deux ouvrages que j’ai publiés en 2017 et 2018: «  Transhumanisme, Marchands de science et avenir de l’homme » Ed. L’Harmattan Paris et « Quelle éthique pour le Transhumanisme? Des hommes augmentés et des post humains demain en Afrique? » Sites web perso: www.njohmouelle.com www.njohmouelle.org

Répondre au commentaire | Signaler un abus

 
media