Actualité web & High tech sur Usine Digitale

Microsoft veut que ses clients fassent du deep learning dans le cloud en temps réel

Twitter Facebook Linkedin Google + Email
×

Microsoft veut faire d'Azure, son service cloud, la référence en matière d'intelligence artificielle. A cette fin, il lance un nouveau projet qui va permettre à ses clients d'utiliser des circuits logiques programmables pour faire du deep learning en temps réel.

Microsoft veut que ses clients fassent du deep learning dans le cloud en temps réel
La puce Intel Stratix 10 utilisée par le projet Brainwave de Microsoft. © Intel

Un an après avoir révélé l'accélération de son moteur de rechercher Bing à l'aide de circuits logiques programmables (FPGA), Microsoft lance Brainwave, un projet d'accélération hardware pour le deep learning qu'il mettra à disposition de ses clients au travers de sa plate-forme cloud Azure. L'objectif affiché est de permettre à des services d'intelligence artificielle hébergés dans le cloud d'opérer en temps réel.

 

Des requêtes traitées en moins d'une milliseconde

Des chercheurs de l'entreprise ont présenté ce projet le 22 août 2017 lors de la conférence Hot Chips qui se déroulait à Cupertino (Californie). Leur exemple utilisait les nouveaux circuits logiques programmables d'Intel, baptisés Stratix 10. Sans trop rentrer dans les détails, ils ont fait tourner un réseau neuronal récurrent de taille conséquente (cinq fois plus grand que ResNet-50) et ont obtenu des performances jamais vues jusqu'alors : une vitesse de calcul de 39,5 teraflops, chaque requête étant traitée en moins d'une milliseconde.

 

Microsoft met l'accent sur les performances de son système en conditions réelles et pour des cas d'usages variés, par opposition à des scénarios à base de réseaux neuronaux convolutionnels choisis pour obtenir une performance maximale. Au-delà de la très faible latence de son système, l'entreprise met aussi en avant sa flexibilité, qui est l'apanage des circuits logiques programmables. A l'heure actuelle, les GPUs sont les stars du deep learning (grâce à leur performance pour le calcul parallèle), mais les grands acteurs comme Google vont plus loin en développant des puces dédiées à des applications spécifiques (ASIC). Ces puces ont de très bonnes performances, mais leur conception prend en moyenne 18 mois et une fois leur architecture décidée, le logiciel doit s'y conformer.

 

Le mot d'ordre est "flexibilité"

L'approche de Microsoft simule une puce spécialisée sur un circuit logique programmable. Cela permet d'optimiser les opérateurs et les types de données en fonction des besoins, mais surtout d'adapter le hardware en seulement quelques semaines pour profiter des dernières innovations du secteur. Et ses innovations sont fréquentes. Le projet Brainwave est compatible avec le framework d'intelligence artificielle de Microsoft (Cognitive Toolkit) mais aussi avec celui de Google (TensorFlow), et "de nombreux autres" sont prévus.

 

Azure est aujourd'hui le business le plus important de Microsoft et cette innovation a pour objectif de renforcer sa position sur le marché face à Amazon Web Services ou Google Cloud Platform. Chacun cherche à s'imposer comme la plate-forme cloud de référénce pour le deep learning, car le vainqueur sur ce marché pourrait dominer les autres pour la décennie à venir.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

media

Les cookies assurent le bon fonctionnement de nos sites et services. En utilisant ces derniers, vous acceptez l'utilisation des cookies.OK

En savoir plus
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale