Build 2025 : Microsoft met le paquet sur les applis d'IA avec sa plateforme Windows AI Foundry
Alors que les modèles d'intelligence artificielle ne cessent de se multiplier à toute vitesse, comment s'y retrouver ? Quel modèle choisir en fonction de ses besoins ? Comment s'assurer qu'il soit bien adapté à un déploiement sur site ? Ou dans le cloud ? Sécurisé ? Conscient que ses clients se posent nombre de questions lorsqu'ils veulent s'appuyer sur un modèle pour le développement d'applications, Microsoft lève le voile sur Windows AI Foundry, une plateforme qui prend en charge tout le cycle de vie des modèles d'IA, de l'entraînement à l'inférence.
Simplifier le développement d'applications d'IA pour les appareils Windows, telle est l'ambition de Microsoft. C'est pourquoi la firme a levé le voile sur Windows AI Foundry, à l'occasion de son événement annuel Build, qui se déroule en ce moment même à Seattle.
Présentée comme une évolution de Windows Copilot Runtime, lancé en mai dernier, Windows AI Foundry a pour fonction d'accompagner le cycle de vie des modèles d'IA, de la sélection du modèle jusqu’à son déploiement en local ou dans le cloud, en passant par l'optimisation et le fine-tuning.
Un accès rapide à une kyrielle de modèles
Windows ML constitue la base de cette plateforme en tant qu'environnement d’inférence intégré à Windows. Avec, les développeurs peuvent apporter leurs propres modèles et les déployer efficacement sur tout type de PC et de processeur, qu'il provienne d'AMD, Intel, Nvidia ou Qualcomm. Le système tire parti au mieux des ressources disponibles, que ce soit sur CPU, GPU ou NPU, assure Microsoft, grâce à un travail d'optimisation de ces modèles fait en amont.
Vient ensuite l'intégration de catalogues de modèles. Microsoft propose évidemment le sien, Foundry Local, mais intègre également d’autres catalogues comme Ollama et les NIMs de Nvidia, offrant aux développeurs un accès rapide à des modèles prêts à l’emploi et optimisés pour les différentes architectures matérielles Windows.
Grok 3 arrive dans Azure AI Foundry
La firme de Redmond a ainsi intégré les modèles Grok 3 et Grok 3 mini de xAI dans son écosystème, hébergés et facturés directement par Microsoft. Alors que ces modèles sont largement controversés, le fait que la firme de Satya Nadella les intègre est un pas en avant vers d'autres types de modèles, notamment à usage général, même si ces deux modèles seront largement plus verrouillés que leurs semblables disponibles dans X. Il est intéressant de noter qu'ils offrent également des fonctionnalités supplémentaires en matière d’intégration de données, de personnalisation et de gouvernance, qui ne sont pas nécessairement proposées par xAI via son API.
In fine, les développeurs ont accès à plus de 1 900 modèles d’IA hébergés par des partenaires ou par Microsoft. Le catalogue de la firme permet d’exécuter une trentaine de modèles et d'agents optimisés pour l’edge directement sur Windows ou MacOS, ce qui rend le service idéal pour les charges de travail hors ligne ou sensibles en matière de confidentialité.
Des outils pour choisir le modèle le plus adapté
Pour s'y retrouver au milieu de cette myriade de modèles, Microsoft a tout prévu avec le lancement de deux services : Model Leaderboard, qui classe les meilleurs modèles selon différentes catégories et tâches, et Model Router, conçu pour sélectionner en temps réel le modèle optimal en fonction de la requête ou de la tâche. Lors de ses tests comparant l’utilisation du Model Router à l’utilisation directe de GPT-4.1 dans Foundry Models, les équipes de Microsoft ont ainsi constaté jusqu’à 60% d’économies de coûts pour un niveau de précision similaire.
En outre, Microsoft annonce deux fonctionnalités phares : l'intégration de LoRA (Low-Rank Adaptation) afin d’affiner son petit modèle de langage embarqué, Phi Silica (3,3 milliards de paramètres), avec des données personnalisées, ainsi que des API pour la recherche sémantique et la récupération de connaissances. Avec ces dernières, les développeurs pourront créer des expériences de recherche en langage naturel et de RAG à partir de leurs propres données.
La sécurité simplifiée grâce au protocole MPC
Viennent ensuite l'intégration de Semantic Kernel et AutoGen dans un SDK unique centré sur les développeurs, ainsi que la prise en charge du protocole Agent-to-Agent (A2A) et du Model Context Protocol (MCP). Ils servent des niveaux d’orchestration différents dans l’environnement agentique de Microsoft, mais MCP - développé par Anthropic et ouvert fin 2024 - a pour fonction de créer un cadre standardisé pour que les agents interagissent avec les applications et services Windows. Par exemple, un agent peut interagir avec une application Windows comme Outlook ou Excel sans avoir besoin d’API spécifiques codées manuellement.
Selon les mots de Microsoft, "MCP est un protocole ouvert et léger, essentiellement JSON-RPC sur HTTP" capable de définir trois rôles : Hôtes MCP (des applications comme VS Code ou d’autres outils d’IA qui souhaitent accéder à des fonctionnalités via MCP), Clients MCP (des clients qui initient des requêtes vers des serveurs MCP), et Serveurs MCP (des services légers qui exposent des fonctionnalités spécifiques via l’interface MCP.
Une pré-version des fonctionnalités de la plateforme MCP sera proposée aux développeurs dans les prochains mois en private preview, afin de recueillir leurs retours, précise Microsoft. Anthropic, Figma et Perplexity font partie des développeurs qui intègrent les fonctionnalités MCP dans leurs applications sur Windows.
SUR LE MÊME SUJET
Build 2025 : Microsoft met le paquet sur les applis d'IA avec sa plateforme Windows AI Foundry
Tous les champs sont obligatoires
0Commentaire
Réagir