Snowflake renforce son partenariat avec Nvidia autour de l'IA
Les grands modèles de langage vont avoir un impact sur les piles de données. Partant de ce constat, Snowflake mise sur un rapprochement stratégique avec Nvidia pour s'assurer une place sur le marché de l'IA générative. En mettant en commun leurs services, applications et modèles d'IA, les deux entreprises visent une plus grande adoption de la part des entreprises.
"Nous avons des partenariats extraordinaires avec les hyperscalers, mais il y a une société qui est au centre de tout ce qui se passe dans l'IA et le calcul. Il s'agit de Nvidia et nous sommes heureux de poursuivre notre partenariat avec eux", nous indiquait Sridhar Ramaswamy, CEO de Snowflake lors d'un point avec la presse. Aujourd'hui, alors que s'ouvre la conférence annuelle de la firme - Snowflake Summit - son CEO a invité Jensen Huang à partager la scène au cours de la conférence d'ouverture.
C'est depuis Taipei que ce dernier se connecte pour donner quelques détails sur le partenariat. La raison ? La participation de Nvidia au Computex, grand rendez-vous annuel du marché PC – focalisé cette année sur l'IA – que la firme ne pouvait donc manquer. C'est donc à distance que Jensen Huang s'est adressé à l'assemblée, revenant sur ce qui a amené les deux sociétés à réunir leurs forces.
"Le fait est que la technologie évolue si vite que le temps de mise sur le marché est omniprésent. Vous pouvez soit être le premier sur le marché avec une nouvelle réalisation révolutionnaire, soit être le deuxième sur le marché avec une réalisation de plus en plus performante. Le temps de mise sur le marché est donc d'une importance vitale. Et dans tous les cas, le temps d'entraînement est d'une importance vitale", détaille-t-il.
La pile logicielle, essentielle pour l'entraînement des modèles
Et quant on parle d'entraînement de modèles d'IA générative, au moins deux paramètres rentrent en compte : il y a l'infrastructure, la façon dont elle est gérée certes, "mais une grande partie a à voir avec le logiciel d'entraînement et l'ensemble de la pile qu'il faut pour être en mesure d'entraîner ces modèles incroyablement grands à travers de très grands processeurs", comme l'indique Jensen Huang.
C'est pourquoi les deux entreprises mutualisent leurs efforts. Plus tôt cette année, Snowflake et Nvidia avaient déjà annoncé l'extension de leur collaboration initiale pour fournir une seule infrastructure d'IA unifiée et une plateforme de calcul dans le Data Cloud IA. Les annonces de cette semaine confirment les ambitions des deux entreprises. Concrètement, ce partenariat couvre l'association de la pile complète de calcul accéléré et de logiciels de Nvidia avec Cortex AI, le service d'IA générative entièrement géré de Snowflake.
La plateforme d'IA de Nvidia disponible auprès des clients Snowflake
Le spécialiste du data cloud met ainsi à disposition de ses utilisateurs la plateforme logicielle Nvidia AI Enterprise et, de manière inhérente, les services NeMo Retriever et Triton Inference Server au sein de Cortex AI pour faciliter le développement et la mise en production d'applications d'IA. Lors de la publication des résultats financiers du premier trimestre fiscal 2025, le CEO de Snowflake a tenu à rappeler qu'une semaine seulement après l'annonce de la disponibilité générale de Cortex AI, "plus de 750 clients utilisaient ces fonctionnalités. Cortex peut augmenter la productivité en réduisant les tâches chronophages. Par exemple, Sigma Computing utilise des modèles de langage Cortex pour résumer et catégoriser les communications clients à partir de son CRM", affirme-t-il.
En outre, les microservices d'inférence de Nvidia baptisés NIMs, qui font partie de la plateforme AI Enterprise, peuvent également être déployés directement dans Snowflake sous la forme d'une application native alimentée par Snowpark Container Services. Et miser sur ce service semble être un bon pari puisque "plus de 50 % des clients utilisent Snowpark au premier trimestre", précise Sridhar Ramaswamy.
Pour mémoire, il s'agit d'un framework qui donne accès à un large catalogue, notamment des grands modèles de langage (LLM), des Notebooks et des outils MLOps. L'annone intervient un jour seulement après celle portant sur la disponibilité générale des NIM lors de la conférence Computex à Taipei.
Arctic, le LLM fait maison, disponible en tant que NIM
En parallèle, Snowflake annonce la "niméisation" de son LLM Arctic. En clair, le modèle d'IA générative rejoint le catalogue de microservices d'inférence en ligne et les développeurs peuvent l'exploiter en utilisant des crédits gratuits. A terme, il sera proposé en tant que NIM téléchargeable, offrant aux entreprises le choix de l'infrastructure sur laquelle elles souhaitent le déployer. A noter que Snowflake recommande d'utiliser pas moins de 8 cartes Nvidia H100 pour exploiter pleinement son LLM.
Pour mémoire, Arctic a été dévoilé fin avril par l'entreprise. Décrit comme un LLM open source et performant, il repose sur une architecture de type Transformer Dense-MoE (mélange d'experts). Arctic est optimisé pour les charges de travail complexes des entreprises mais aussi pour la génération de code SQL et le suivi des instructions. Il s'agit d'une combinaison d'un modèle de Transformer dense de 10B avec un MLP résiduel de 128×3,66B MoE, ce qui donne 480 milliards de paramètres totaux pour seulement 17 milliards de paramètres actifs choisis. Il a été conçu avec une fenêtre contextuelle de 4000 tokens.
SUR LE MÊME SUJET
Snowflake renforce son partenariat avec Nvidia autour de l'IA
Tous les champs sont obligatoires
0Commentaire
Réagir