Actualité web & High tech sur Usine Digitale

[Build 2017] Microsoft veut libérer l'intelligence des objets connectés du joug du cloud

Twitter Facebook Linkedin Google + Email
×

Microsoft est l'un des acteurs majeurs du cloud avec Azure et il en est conscient. L'éditeur a annoncé pléthore de nouvelles fonctionnalités cloud lors de sa conférence Build 2017, dont une grande partie liée à l'intelligence artificielle. Microsoft se bat sur tous les tableaux : il veut imposer son Bot Framework comme la plateforme de création de chatbots de référence (face à Facebook), il cherche à faire rivaliser Cortana avec Alexa (l'assistant d'Amazon), il rend ses services cognitifs personnalisables (contrairement à ceux de Google)... Le tout en permettant aux objets connectés de s'affranchir (un petit peu) de leur dépendance au cloud. Tour d'horizon de cette pluie d'annonces.

Microsoft veut libérer l'intelligence des objets connectés du joug du cloud
Harry Shum, le vice-président en charge de l'intelligence artificielle chez Microsoft, sur scène à la conférence Build 2017 © Microsoft

La conférence développeur de Microsoft, Build 2017, se déroule en deux temps cette année. La keynote du 10 mai était consacrée au cloud et à l’intelligence artificielle, tandis que celle du 11 mai se concentrera sur Windows et la réalité mixte. Une scission que Microsoft justifie par un argument très simple : "personne n'aurait tenu pendant un évènement de plus de quatre heures". Soit.

 

Azure Cosmos DB, une base de données à l'échelle planétaire

Outre le discours d'ouverture de Satya Nadella, plusieurs annonces produits ont été faites. On note entre autres le support des bases de données MySQL et PostgreSQL "as a service" dans Azure SQL Database ou encore Azure Cosmos DB, un nouveau type de base de données NoSQL globale et distribuée qui permet de modifier en moins d'une minute les régions du monde dans lesquelles existe un miroir de sa base de données. Azure Cosmos DB garantit par ailleurs des temps de réponse sous la barre des 10 millisecondes.

 

On peut y ajouter l'arrivée de l'environnement de développement Visual Studio sur Mac OS, l'intégration native des containers dans Visual Studio 2017 et l'ouverture des extensions (n'importe qui peut désormais en publier) pour Teams, le concurrent de Slack "made in Microsoft". Le succès d'Azure a été étayé par des témoignages de clients prestigieux, dont notamment Domino's Pizza, EY, Carnival, Alaska Airlines, Jet.com et Adobe.

 

L'intelligence embarquée des objets connectés en renfort du cloud

Mais les annonces les plus décisives étaient liées à l'intelligence artificielle. A commencer par ce fameux "edge computing" (l'utilisation de la puissance de calcul embarquée des objets connectés), représenté entre autres par Azure IoT Edge. Ce service permet de transformer des fonctions cloud en fonctions locales grâce à des containers Docker. Ainsi, même si la connexion au cloud est interrompue, un service critique restera disponible. L'exemple donné sur scène est celui de Sandvik, une entreprise suédoise qui conçoit des machines-outils. Ces machines valent des millions d'euros, et une interruption de leur fonctionnement en coûte également des millions pour une entreprise se retrouvant en chômage technique.

 

Pour éviter les pannes, la télémétrie des machines est habituellement collectée puis envoyée dans le cloud où elle est analysée. Grâce à Azure IoT Edge, même en cas de coupure du réseau la fonctionnalité logique évitant une anomalie de fonctionnement reste active. Autre bénéfice : le temps de réaction passe de 2142 millisecondes sur le cloud pur à 103 ms en mode "edge", le tout par un paramétrage tout simple dans le panneau de contrôle.

 

L'API d'Office 365 prend en charge le "multi-devices"

Le Microsoft Graph (l'API d'Office 365) a aussi été étendu en conséquence. Il incluait jusqu'ici deux piliers : les personnes et les activités. Un troisième fait son apparition : les matériels informatiques (smartphone, PC, objet connecté...). Et de la même manière que l'API facilite la création d'expériences utilisateur unifiées entre différentes applications, elle va permettre une expérience transparente entre plusieurs appareils. Une démonstration sur scène a vu une femme commencer une réunion dans sa cuisine avec une enceinte Harman Kardon (la comparaison avec Alexa et Echo sautait aux yeux), la poursuivre dans sa voiture en kit mains libre et la terminer sur son lieu de travail.

 

Le Bot Framework s'intègre enfin à Cortana

Le "Cortana Skills Kit" est par ailleurs disponible en pré-version aux Etats-Unis. Il permet d'intégrer des bots directement au sein de Cortana et représente l'une des grandes promesses du renouveau des bots qui fait rage depuis l'année dernière. Les bots intégrés de cette manière seront disponibles dans Cortana sur Windows 10, Android, iOS et sur l'enceinte "Invoke" de Harman Kardon. Deux nouveaux partenaires ont été annoncés au passage : HP qui créera des produits et Intel qui va concevoir des designs de référence.

 

 

Intel et HP vont concevoir du hardware pour Cortana

Le Bot Framework se voit de son côté augmenté de deux nouveaux canaux de diffusion en plus des Cortana Skills : Skype for Business et Bing. Microsoft met aussi à disposition son API de paiement pour permettre un achat directement avec le bot. Enfin, des "cartes adaptatives" permettent désormais de créer des interactions pour les bots qui fonctionnent sur de multiples applications et plateformes (au lieu d'avoir à les adapter manuellement à chaque version).

 

Des services cognitifs personnalisables

Microsoft a par ailleurs annoncé quatre nouveaux services cognitifs, ce qui porte le nombre de services disponibles à 29. Bing Custom Search, Custom Vision Service et Custom Decision Service viennent compléter Custom Speech Service et Language Understanding Intelligence Service (LUIS). Ils permettent aux développeurs de personnaliser les algorithmes de Microsoft pour mieux répondre à leurs besoins. Cette capacité de customiser les services cognitifs est l'un des grands avantages de Microsoft sur ses concurrents dans le domaine de l'IA. Le jeu vidéo indépendant Starship Commander a été donné en exemple sur scène. Ce titre en réalité virtuelle utilise ces "custom cognitive services" pour faire de la reconnaissance vocale dans un univers de science-fiction avec un vocabulaire très spécifique.

 

Le quatrième service est Video Indexer, qui permet de reconnaître des objets, de tagger et d'indexer du contenu dans des vidéos. En parallèle, l'API de traduction de Microsoft est désormais intégrable dans les présentations PowerPoint, c'est-à-dire qu'une présentation pourra traduire en temps réel et dans plusieurs langues le discours de la personne en train de parler (le texte s'affichant sur un bandeau en bas de page). Microsoft a également dévoilé en complément les Cognitive Service Labs, un programme qui va permettre aux utilisateurs de tester les nouveaux services avant leur disponibilité commerciale. On y trouve déjà notamment le projet Prague (interface utilisateur par reconnaissance gestuelle) et le projet Johannesburg (calculs routiers avancés pour le transport).

 

La nouvelle fonctionnalité "active learning" (apprentissage actif) permet désormais d'aider ou de corriger un modèle manuellement pour améliorer sa précision, notamment dans la reconnaissance d'image. De son côté, une autre nouveauté baptisée Azure Batch AI Training permet aux développeurs de configurer un environnement selon leurs besoins et d'y faire tourner leurs modèles simultanément sur plusieurs CPU, plusieurs GPU et même à terme sur des circuits logiques programmables (FPGA).

 

L'ia au service de la sécurité sur le lieu de travail

Microsoft a aussi mis en avant l'utilisation de l'intelligence artificielle pour améliorer la sécurité sur le lieu de travail. "Quasiment tous les accidents professionnels peuvent être évités si on a l'information à temps", a déclaré Satya Nadella en début de conférence.
 

Plus concrètement, on applique les techniques de reconnaissance de formes issues de la vision par ordinateur au lieu de travail (chantier, hôpital, usine...) pour éviter les accidents, même si cela implique d'avoir des caméras HD dans tous les coins. L'interface peut être gérée textuellement via un bot pour adapter les recherches et règles de détection en toute simplicité. Il est possible de définir des zones dans lesquelles il ne faut pas pénétrer, des équipements que seules certaines personnes sont habilités à utiliser, de répérer des patients qui ne doivent pas être laissés seuls, des comportements dangereux, etc.

 

 

Il s'agit d'un bel exemple de passage rapide d'un prototype de recherche à un produit commercial. Microsoft s'est aussi fendu d'une vidéo montrant l'utilisation de ses techniques deep learning par des médecins afin de mieux détecter les rétinopathies (maladies de la rétine causant la cécité) liées au diabète en Chine.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

media

Les cookies assurent le bon fonctionnement de nos sites et services. En utilisant ces derniers, vous acceptez l'utilisation des cookies.OK

En savoir plus
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale