Actualité web & High tech sur Usine Digitale

Intelligence artificielle : pourquoi il faut différencier la réalité de la fiction

mis à jour le 03 août 2017 à 11H20
Twitter Facebook Linkedin Google + Email
×

Intelligence artificielle. Rarement un terme n'a évoqué autant de choses différentes. Il enflamme l'imaginaire du grand public à coups de Terminator, Matrix et autres 2001, l'Odyssée de l'espace. Il est aussi utilisé pour décrire les logiciels automatisés au coeur de nos smartphones et ordinateurs, de Google Traduction aux filtres de Snapchat en passant par les chatbots qui reviennent à la mode et les prémisces de la voiture autonome. Mais ce double usage, pour la science et la science-fiction, pose problème lorsque la confusion est créée entre les deux. Notamment car à trop se soucier de robots tueurs et autres, certains en oublient les vraies sources d'inquiétudes de ces progrès technologiques. L'Usine Digitale revient sur ce terme, ses origines, ses applications et pourquoi il est nécessaire de bien comprendre de quoi on parle.

Intelligence artificielle : pourquoi il faut différencier la réalité de la fiction
Le film "2001, l'Odyssée de l'espace" traite de la relation entre David et HAL9000, une intelligence artificielle (dont l'un des "yeux" est visible ici) qui se révèle dangereuse.

Tous les cinq ans une technologie s'impose dans l'opinion publique comme celle sur laquelle on doit tout miser. On l'a vu se produire avec le cloud et le big data. Aujourd'hui c'est indubitablement l'intelligence artificielle qui est sur toutes les lèvres et sur laquelle toutes les entreprises communiquent (souvent à tort et à travers). Des start-up se créent pour capitaliser sur l'effet de mode et des vieux produits font peau neuve en se "boostant" à grand coup de marketing. Mais il s'y ajoute aussi une polémique récurrente sur le danger que pourrait représenter cette technologie. S'y opposent deux visions : d’un côté l'informatique, de l’autre la science-fiction.

 

Deux compréhensions opposées du terme "intelligence artificielle"

Le problème fondamental est qu'il y a deux populations distinctes qui parlent de deux choses bien différentes. D'un côté les chercheurs, ingénieurs, développeurs qui travaillent sur des disciplines hétérogènes qu’on regroupe sous la catégorie commune "intelligence artificielle" : apprentissage automatique (machine learning), vision par ordinateur, représentation de la connaissance, planification, traitement du langage naturel, synthèse vocale... Ces technologies se retrouvent dans les produits de tous les jours, de l'application de navigation par GPS à la traduction automatique en passant par la reconnaissance des visages sur les photos et bien d'autres usages au sein de divers services et produits. La raison pour laquelle on appelle ces disciplines "intelligence artificielle" (le nom a été choisi dans les années 50) est parce qu'elles simulent, sous une forme ou une autre, des capacités humaines.

 

De l'autre côté, on trouve des amateurs de science-fiction et de philosophie pour qui le terme "intelligence artificielle" évoque une machine dotée d'une conscience et d'une capacité de raisonnement similaire à celle de l'être humain. Ils se demandent si un ordinateur suffisamment complexe pourrait ne pas devenir réellement autonome. Parmi eux, une frange pousse le raisonnement encore plus loin : puisque la puissance des ordinateurs augmente régulièrement et rapidement aujourd’hui, si une machine dotée d'une conscience existait, son intelligence pourrait aussi être augmentée… jusqu’à devenir bien supérieure à celle d’un humain.

 

En théorie, ces deux conceptions – l’une ancrée dans la réalité, l’autre fictive et spéculative – peuvent tout à fait coexister tant qu’elles restent dans leur sphère respective. Mais en pratique, leur coexistence crée une confusion chez beaucoup de personnes, confusion qui se résume par l’idée que le secteur de l’intelligence artificielle tel qu’il existe aujourd’hui va produire dans un futur proche une intelligence artificielle du genre de celles que dépeint la culture populaire dans les films ou les jeux vidéo.

 

Une polémique qui dure et entretient la confusion

Il est intéressant de rappeler que l'idée d'une machine capable de s'auto-améliorer provient à la base d’une publication du statisticien I. J. Good dans les années 1960. Il y posait l’hypothèse (sans la démontrer) qu’un système artificiel aussi intelligent qu’un homme auquel on demanderait de se rendre plus intelligent verrait ses facultés intellectuelles exploser et finirait par devenir super-intelligent. L'idée est revenue à la mode au sein de la Silicon Valley au travers d'un ouvrage publié en 2014 par le philosophie Nick Bostrom, baptisé "Superintelligence". Il y explique en quoi l’émergence (hypothétique) de machines superintelligentes pourrait selon lui représenter un risque existentiel pour l’être humain.

 

L'ouvrage a conduit Elon Musk, entrepreneur à succès qui a entre autres fondé SpaceX et co-fondé PayPal et Tesla, à se prononcer avec la grandiloquence qu'on lui connaît pour mettre en garde contre les dangers présumés que représentent les développements récents en matière d'intelligence artificielle. Il continue à le faire régulièrement, ce qui a même donné lieu à un pugilat sur Twitter lorsqu'il a accusé Mark Zuckerberg (fondateur de Facebook) de n'avoir qu'une "compréhension limitée" du sujet après que celui-ci ait jugé les déclarations de Musk "irresponsables".

 

Si les propos d'Elon Musk peuvent être considérés comme irresponsables, c'est parce que la propagation de ses peurs auprès du public fait plus de mal que de bien. Car il existe de vrais points à surveiller concernant le développement des disciplines regroupées sous le terme "intelligence artificielle" dans le monde réel, et l'hystérie autour d'une "superintelligence maléfique" est une distraction malvenue qui les occulte. Pis, dans leur quête du buzz, les entreprises et médias jouent sur la confusion entre le robot-humain de la science-fiction et l'algorithme de machine learning du monde réel et contribuent à entretenir la confusion.

 

Il ne faut pas éclipser les vrais risques

  • Il existe de vrais points d'inquiétude sur lesquels s'interrogent les experts du secteur. Le premier est l'impact économique d'une automatisation croissante et possiblement brutale d'un grand nombre d'emplois. Cette fameuse "quatrième révolution industrielle" verrait des métiers comme chauffeur routier ou chauffeur de bus disparaître, et impactera en plus tout un tas d'employés de bureau qui n'imaginent pas encore forcément que leurs tâches quotidiennes puissent être automatisées. Même le secteur médical, et notamment le métier de radiologue, ne serait pas épargné. Il n'est aujourd'hui pas du tout fantaisiste de penser qu'un appareil de radiographie pourra un jour analyser tout seul l'image qu'il produit et rédiger un compte-rendu en conséquence.
     
  • Le second point d'inquiétude est le risque d'un biais inintentionnel au cœur de systèmes automatisés qui nuit à une certaine partie de la population. Un système conçu de A à Z par une même catégorie socioprofessionnelle (un homme jeune, blanc, hétérosexuel, diplômé d'une grande université...) court le risque ne pas prendre en compte les besoins ou caractéristiques d'autres parties de la population et d'opérer une discrimination insidieuse et difficile à corriger une fois instaurée. Cela peut-être aussi simple que l'incapacité à reconnaître un visage noir si le système n'a été entraîné que sur des visages blancs.
     
  • Un troisième facteur de risque est la manipulation automatique de grandes quantités de données pour influencer l'opinion publique. On en a vu un exemple lors de l'élection américaine 2016, où Facebook et Twitter ont été pris d'assaut par des armées de comptes fictifs capables de promouvoir de faux contenus pour engendrer la confusion et désinformer le public. De la même manière, il est aujourd’hui possible de créer de fausses vidéos très réalistes mettant en scène des reproductions de vraies personnes.
     
  • Outre l’utilisation abusive de systèmes automatisés, il existe aussi le risque d’une compromission d’un système au travers d’une attaque informatique. La sécurité informatique est devenue une préoccupation de premier plan car elle a des conséquences sur de nombreux aspects de notre société, et l’automatisation des systèmes va encore renforcer ce danger. Par extension, il y a un risque réel d’érosion de la vie privée avec l'explosion des performances des technologies de reconnaissance faciale et la protection de ses données se doit d’être garantie.
     
  • Enfin, l'automatisation de la prise de décision pose un problème dans le cadre militaire, qu'il s'agisse de tirer une balle ou un missile. Pour le moment les prises de décision sont encore systématiquement sous responsabilité humaine et il est important qu'elles le restent. La tentation d'automatiser un système de réplique en cas d'attaque pour garantir un temps de réponse plus rapide pourrait se révéler particulièrement dangereuse, notamment si deux systèmes automatisés sont confrontés l'un à l'autre.

 

Les scientifiques, ingénieurs et entreprises ne sont pas irresponsables

La peur d'une prise de contrôle des machines s'accompagne souvent de l'idée fausse que les chercheurs sont irresponsables et les entreprises opposées à toute réglementation. Or ce n'est pas le cas. Justement, nombre d'entre eux sont conscients des dérives et abus potentiels de leurs travaux et militent pour les éviter. A titre d’exemple, AI 100, une série d'études proposée par Eric Horvitz (actuel directeur de Microsoft Research) et Russ Altman, lancée par l'Université de Stanford en 2014, s'attache par exemple à étudier les progrès et les dangers potentiels de l'intelligence artificielle tous les 5 ans durant 100 ans. Par ailleurs, fin 2016, Google, Microsoft, IBM, Facebook et Amazon ont formé le consortium "Partnership for AI" afin de définir des bonnes pratiques dans le domaine.

 

Des progrès récents moins dramatiques qu'on ne le pense

On parle beaucoup de "deep learning" (apprentissage profond) depuis quelques années, une approche dans l’apprentissage qui a permis certaines avancées spectaculaires, notamment dans la reconnaissance visuelle ou vocale. Certains observateurs y voient le signe d’une accélération du progrès qui conduira à une intelligence artificielle générale. C’est pourtant loin de la vérité. Déjà, le concept de deep learning n’est pas nouveau, il a été proposé pour la première fois en 1965. Les progrès actuels sont donc le fruit de décennies de recherche.

 

Mais ce qui a surtout fait la différence, c’est l’utilisation de processeurs graphiques (dits "GPU") pour effectuer les calculs liés à ces algorithmes. Les GPUs, conçus à la base pour les applications très demandeuses en ressources graphiques 3D (c’est-à-dire principalement les jeux vidéo), sont spécialisés dans les calculs parallèles, et cela les rend parfaits pour le deep learning. Ils sont parfois jusqu’à 100 fois plus efficaces que des processeurs classiques pour ce type de calcul.

 

Couplé à la disponibilité de larges quantités de données pour entraîner les systèmes, on obtient un programme capable d’identifier un objet dans une image "mieux qu’un être humain" (plus rapidement ou en faisant moins d'erreurs). Le taux d'erreur pour la reproduction de tâches spécifiques a diminué spectaculairement car les données disponibles pour l'entrainement ont augmenté tout aussi spectaculairement. En parallèle, l'avènement du cloud met ces fonctionnalités à disposition de tout un chacun, car le gros du travail est réalisé à distance et pas sur l'appareil du consommateur. Mais ces programmes restent ultra-spécialisés. Ils ne savent rien faire d’autre car ils ont été conçus pour une tâche bien précise.

 

IA spécialisée contre IA "générale"

En effet, l’intelligence artificielle telle qu’on la conçoit aujourd’hui désigne des systèmes très spécialisés. Il ne s'agit ni plus ni moins que de programmes informatiques basés sur des formules mathématiques, élaborés par des ingénieurs pour obtenir un résultat bien particulier. A titre d'exemple, on entraîne un programme à reconnaître les chats dans une image en lui montrant au préalable des milliers d'images de chats et en lui indiquant ce qui est ou pas un chat. Une fois suffisamment entraîné, le système arrive à estimer automatiquement si un chat se trouve ou pas dans une photo avec un faible taux d'erreur.

 

Cette spécialisation fait toute la différence. Qu'un programme puisse "battre" un humain dans un domaine spécifique n'est ni nouveau, ni particulièrement inquiétant. AlphaGo, le système de Google DeepMind qui a su battre les plus grands champions au jeu de go, ne sait rien faire d'autre que jouer au go. Tout comme Deep Blue, qui a battu Garry Kasparov aux échecs en 1997, n'avait qu'une fonction unique. C'est le principe de tout outil. La première calculatrice venue multiplie plus vite qu'un être humain, mais cela ne la rend pas "supérieure" à son créateur.

 

Même si ces tâches spécifiques se complexifient à mesure que la technologie progresse et qu'on les combine entre elles, elles restent un ensemble de programmes avec des buts et des capacités données, conçues dans un but précis et inexorablement limitées par leurs spécifications d'origine. C'est entre autres pourquoi les assistants digitaux comme Alexa, Google Assistant, Siri ou Cortana peuvent s'avérer si frustrants pour l'utilisateur lambda. Ils présentent l'illusion d'une capacité humaine (renforcée par le fait de leur donner un nom propre) mais restent strictement limités aux fonctions pour lesquelles ils ont été conçus.

 

Il existe un véritable gouffre entre ces capacités rudimentaires et l'idée d'un programme capable de raisonner sur n’importe quel problème non-spécifique, de développer une conscience et d'effectuer de lui-même une action pour laquelle il n'a pas été conçu. On parle dans ce cas-là d’intelligence artificielle générale (par opposition à celles qui sont spécialisées), et il n’en existe tout simplement pas à l’heure actuelle.

 

Le raisonnement, une discipline encore au stade embryonnaire

Mais alors que penser des gros titres sur "une intelligence artificielle qui a apprise toute seule à marcher" ou autres du même genre ? Cela ne constitue-t-il pas une forme de raisonnement autonome, comme celui d’un animal ? Pas vraiment. Ces problèmes sont conçus très spécifiquement, dans un environnement restreint aux variables prédéterminées, et le programme apprenant est lui-même conçu dès le départ avec un but spécifique à atteindre pour lequel il doit trouver la meilleure solution. Il essaie alors toutes les possibilités permises par son environnement puis détermine la plus efficiente. Cela donne souvent des résultats assez drôles, mais démontre aussi qu’on est vraiment très loin d’un robot apprenant tout seul à marcher/voir/parler/comprendre (tout ça en même temps) dans le monde réel.

 

Car s'il y a une chose à bien comprendre c'est que si l’augmentation des masses de données disponibles permet d’améliorer l’exactitude des programmes spécialisés (car plus ils ont de données de référence, plus ils sont précis), pour le raisonnement c’est tout le contraire. Plus il y a de variables, de données à prendre en compte, plus la tâche est complexe. Et cette complexité augmente exponentiellement. Du point de vue d’un scénario de "superintelligence" artificielle, la technologie n’a donc pratiquement pas avancée depuis 70 ans.

 

De plus, comme nous l'avait déclaré Tom Dietterich (professeur émérite à l’Université d’Etat de l’Oregon et l’un des créateurs du machine learning) lors d’une interview en 2015, "il existe indubitablement des limites mathématiques et computationnelles à l’intelligence qu’un système ou un être peut atteindre." Comprendre : même si nous arrivions hypothétiquement à créer de toute pièce un être aussi intelligent que nous le sommes (qu’il soit biologique ou mécanique), son intelligence ne pourrait pas augmenter indéfiniment.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

2 commentaires

Mercier

04/08/2017 11h05 - Mercier

Google et Amazon découvrent l'IA 60 ans après et tout le monde est excité. Et si on parlait de patrimoine français en IA?

Répondre au commentaire | Signaler un abus

Julien

03/08/2017 14h16 - Julien

Merci pour ce bon article qui explique bien la différence entre les fantasmes et l'état actuel de l'art. "Comprendre : même si nous arrivions hypothétiquement à créer de toute pièce un être aussi intelligent que nous le sommes (qu’il soit biologique ou mécanique), son intelligence ne pourrait pas augmenter indéfiniment." Le danger réside dans le fait que si une IA Générale capable d'auto-évolution voit le jour, nous ne comprendrons probablement rien à ce qu'elle fait et assisteront impuissant à sa montée en puissance (même si celle-ci n'est pas exponentielle)! Qu'elle devienne ne serait-ce que "3 fois" plus intelligente qu'Einstein (exemple facile), et elle pourra manipuler des concepts qui nous seront aussi étrangers que le WIFI l'est pour les dauphins...et pourrait alors rapidement devenir une menace existentielle. Il convient surtout de l'aligner les objectifs de l'IA Générale avec les nôtres, et de la faire travailler pour nous. Elle pourrait alors résoudre des problèmes millénaires pour nous (médecine, énergie, gestion des ressources...). Je me permet de donner un lien vers un très bon article anglais qui traite de l'IA, sur l'excellent site WaitButWhy: https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

Répondre au commentaire | Signaler un abus

media

Les cookies assurent le bon fonctionnement de nos sites et services. En utilisant ces derniers, vous acceptez l'utilisation des cookies.OK

En savoir plus
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale