Actualité web & High tech sur Usine Digitale

Recevez chaque jour toute l'actualité du numérique

x

[Interview exclusive] Le CEO de Nvidia partage sa vision sur le futur de l'intelligence artificielle

Twitter Facebook Linkedin Google + Email
×

Entretien Exclusif L'électronicien Nvidia est en pleine réinvention. Connue pour ses puces graphiques (GPU) traditionnellement dédiées aux jeux vidéo et aux métiers de l'image, l'entreprise californienne mise aujourd'hui tout sur l'intelligence artificielle. L'Usine Digitale s'est entretenue avec son CEO et co-fondateur, Jen-Hsun Huang, pour en savoir plus sur sa stratégie...

Le futur de l'intelligence artificielle vu par le CEO de Nvidia
[Interview exclusive] Le CEO de Nvidia partage sa vision sur le futur de l'intelligence artificielle © D.R.

L'Usine Digitale - Votre stratégie est aujourd'hui résolument tournée vers l'intelligence artificielle (IA), mais Nvidia tire encore l'essentiel de ses revenus du marché des cartes graphiques. Est-ce amener à changer dans les années à venir ?

Jen-Hsun Huang - Les GPU (processeurs graphiques) représentent et continueront de représenter 100% de nos revenus, même si leurs usages se diversifient. La croissance liée au jeu vidéo va perdurer, elle est d’ailleurs toujours très forte, de 25% d’une année sur l’autre. Pour autant, je vois le développement des technologies liées à l’IA comme révolutionnaire, et les GPU sont les processeurs idéaux pour ces applications.

 

Justement, étant donné cette nouvelle direction, ne serait-il pas temps de renommer le GPU ?

Nous le faisons évoluer, c’est vrai. Les architectures changent pour accommoder de nouveaux besoins. Mais le terme est connu et le changer ne ferait que créer de la confusion.

 

Google, Microsoft ou Baidu font tourner leurs réseaux neuronaux sur des GPU. Mais à la conférence I/O, Google a annoncé concevoir ses propres puces baptisées TPU. Microsoft vient aussi d'annoncer du FPGA (circuit logique programmable) pour Azure. Que vous inspire cette concurrence ?

Il y a plusieurs marchés pour le deep learning. L'entrainement se fait principalement sur GPU aujourd’hui et la demande est décuplée chaque année. Cela augmente très très vite. L'entrainement de l'intelligence artificielle va être un très grand marché. L'inférence dans les datacenters est également un grand marché. Les calculs y sont moins complexes mais l’utilisation très intensive, avec des milliards de requêtes. Aujourd’hui la seule solution ce sont les CPU (central processing unit). Les cartes P4 et P40 que nous venons d'annoncer sont une réponse à cet état de fait. Elles sont optimisées pour cet usage. Face à des alternatives comme le TPU, le GPU se montre plus flexible : il peut traiter de l’audio, de la vidéo, de la data... On verra quelle opportunité ce marché représente, mais je suis confiant.

 

Vous avez annoncé de nombreux efforts software dans le véhicule autonome, comme l'OS Driveworks, pour fournir une plateforme à vos clients et pas seulement des puces. Cela ne risque-t-il pas d’entrer en conflit avec les projets des grands éditeurs logiciels comme Google, qui voudront sûrement imposer leur propre software ?

Chaque entreprise avec laquelle nous travaillons a des besoins différents. C’est très divers. C’est pourquoi tout ce que nous faisons est ouvert. Vous pouvez n’utiliser que notre hardware si vous le voulez, ou avoir accès à notre expertise logicielle...

 

Le marché est-il bientôt prêt selon vous ? Quand verra-t-on les premiers véhicules autonomes sur la route ?

Dès l’année prochaine nous pourrons observer de la conduite complètement autonome dans des zones spécifiquement délimitées et très bien cartographiées. Les véhicules s’y déplaceront à des vitesses réduites, de 5, 10 ou 25 km/h. Elle apparaitra aussi sur autoroute dès l’année prochaine, à grande vitesse mais dans un environnement très spécifique. Pour tous les autres cas de figure, cela prendra plus de temps et sera beaucoup plus dur à accomplir.

 

Est-ce l'un des intérêts de votre partenariat avec TomTom pour la cartographie HD ?

Avoir des cartes routières en haute résolution est l’une des caractéristiques les plus importantes de la conduite autonome. Pour guider un véhicule il faut recueillir le plus de données possible. Ces données proviennent de capteurs, de caméras autour de la voiture, d’un Radar, d’un Lidar... mais aussi des connaissances de la route et c’est le rôle que remplissent ces cartes. Toutes ces données sont fusionnées et vont permettre au véhicule de se diriger.

 

Xavier est l'équivalent du Drive PX2 (supercalculateur pour la voiture autonome) mais sur une puce, donc beaucoup plus accessible. Est-ce que sa sortie marquera le réel début de la conduite autonome ?

Le Drive PX2 est évolutif, car nos clients ont des besoins différents. Certains ne proposent que des caméras frontales, d’autres quatre caméras, d’autres encore en proposent huit, et certains d’entre eux veulent fusionner les données des caméras avec celles des Lidar et radar... Une partie ne veut rouler qu’à 25 km/h, d’autres veulent aller très vite. Les besoins sont très variés, et l’architecture du Drive PX2 permet d’y répondre. Xavier en sera la suite logique, et de la même manière que le Drive PX2 est modulaire, Xavier pourra répondre à plusieurs types d'usages. Certains de nos clients utiliseront de nombreuses puces Xavier en parallèle.

 

Votre véhicule autonome de recherche BB8 a obtenu de beaux résultats en utilisant une technique d’apprentissage par imitation de la conduite humaine. Est-ce la voie à suivre selon vous ?

Il existe de nombreuses manières de faire de la conduite autonome, et toutes les voitures devront en combiner plusieurs qui travailleront de façon redondante. L’algorithme fournissant le meilleur résultat ne sera pas le même en fonction des situations, et le véhicule ne devra avancer que lorsque tous les algorithmes seront d’accord pour le faire.

 

L’idée d’une intelligence située dans le cloud ne vous semble pas viable ?

Non, la voiture devra pouvoir rouler même sans connexion, c’est impératif.

 

Vous vous posez en concurrence frontale des équipementiers automobiles traditionnels...

La plupart des équipementiers traditionnels ont sous-estimé la complexité logicielle nécessaire à la conduite autonome. Cela n’a rien à voir avec un régulateur de vitesse ou un freinage automatique. Ces fonctions sont relativement simples et nécessitent peu de lignes de code. En comparaison, la conduite autonome demande une énorme quantité de code, c’est un problème extrêmement complexe à résoudre. C’est pour cela que nous avons construit une plateforme aussi puissante. Notre vision nous a rendu service.

 

Nvidia a échoué sur le marché des smartphones. Comptez-vous y revenir un jour ?

Je ne pense pas que nous y retournerons, pour la simple raison que les smartphones sont suffisamment bons comme ils sont. Lorsqu’un produit est suffisamment bon, il n’a pas besoin de notre contribution. Je préfère me concentrer sur des défis techniques complexes.

 

Certains de vos concurrents comme Intel (avec le rachat de Movidius) ou Qualcomm redoublent d’efforts dans l’embarqué, par exemple pour les drones récréatifs. Comment comptez-vous y faire face ?

Nous ne dépenserons pas beaucoup d’énergie sur les drones commerciaux de ce type. Nous investirons uniquement dans les cas d’usage ou le besoin en puissance de calcul et en IA est significatif.

 

Utiliser la même architecture à la fois pour l’entraînement des réseaux neuronaux et pour l’inférence est-il un avantage concurrentiel pour vous ?

Cela dépend. L’inférence sera effectuée sur tout un tas d’appareils. Un microphone, une caméra, une voiture, un drone, une machine à café… Elle sera partout, et les architectures seront très diverses. La majorité sera probablement effectuée sur des puces ARM. Ce sera lent, mais vous n’avez pas besoin que votre thermostat soit rapide. Là où nous aurons un avantage, c’est dans les datacenters. Nous pouvons simplifier le workflow et le rendre beaucoup plus efficace.

 

Sur le sujet des datacenters, quels sont vos objectifs de croissance pour votre superordinateur DGX-1 ?

Avec l’aide de SAP, nous allons aller très vite. Le DGX-1 a pour but d’amener l’intelligence artificielle au cœur des entreprises. La façon dont fonctionnent les entreprises est assez simple : elles achètent des équipements. Le DGX-1 sera juste un équipement de plus qu’elles mettront dans leur datacenter. C'est un début, une zone "deep learning" qui grandira au fil du temps.

 

Vendre un équipement vous-même directement au lieu de vous limiter aux composants ne risque-t-il pas de froisser vos partenaires ?

Non, car notre technologie reste très ouverte. L’objectif avec le DGX-1 est surtout de montrer au monde de quoi le deep learning est capable. Le DGX-1 n’est pas polyvalent, il est conçu pour une application bien spécifique. Il embarque aussi tout le software nécessaire, même les services cloud, pour que l’entreprise n’ait qu’à le brancher et que ça fonctionne au bout d’une heure. Cela simplifie l’accès, et cette simplicité est irremplaçable pour les petites entreprises. Cela leur donne accès à un superordinateur. Pour les besoins plus complexes ou plus spécifiques, nos partenaires intégrateurs rentrent en jeu.

 

Vous n’avez pas évoqué la réalité virtuelle lors de votre keynote. Ce secteur présente clairement une grande opportunité pour les fabricants de GPU. Comment comptez-vous capitaliser dessus ?

En effet, c’est une nouvelle plateforme informatique qui a de gros besoins en puissance graphique. Nous travaillons sur ce sujet avec toute l’industrie concernée, mais nous nous concentrons sur deux points spécifiques : le jeu vidéo et la conception professionnelle, automobile ou immobilière par exemple.

 

Et la réalité mixte ? Microsoft a conçu sa propre puce pour HoloLens, et Magic Leap parle d’une technologie jamais vue jusqu’ici. Prévoyez-vous d’investir ce marché ?

Ces deux entreprises font un travail formidable, mais je pense qu’il y a encore une marge de progression avant que la technologie ne soit prête commercialement. Pour faire de la réalité mixte, il faut résoudre trois problèmes : traquer l’environnement et les mouvements de l’utilisateur, qui relève de la vision par ordinateur ; reconnaître les objets et comprendre ce qu’ils sont, qui a trait à l’intelligence artificielle ; afficher des éléments virtuels dans l’environnement réel, qui nécessite du calcul graphique. L’intersection de ces trois problèmes demande des compétences très particulières. Et si vous réfléchissez à ce dont Xavier est capable...

 

Pendant votre keynote vous avez annoncé vouloir prendre votre retraite dans 40 ans. Il vous reste tant de choses à faire ?

Avec les progrès technologiques actuels, je pense que l’espérance de vie va être repoussée à 125 ans. Travailler encore 40 ans me laisserait profiter des 25 dernières années de ma vie. Dans l’intervalle, j’aimerai aider à matérialiser ces technologies de pointe. Intelligence artificielle, robotique, implants cybernétiques ou envoyer des humains sur Mars... La réalité mixte sera disponible sur de simples lunettes de vue, l’IA mettra fin aux accidents de la route… Je veux faire partie de tout ça et ne pas simplement le voir arriver. En être l’un des pionniers. Et à mon centième anniversaire jusqu’à la fin de ma vie… aller sur Mars.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale