IA générative : 100 nouveaux modèles et 470% de clients en plus pour Amazon Bedrock
Amazon met le paquet sur ses deux grands services d'intelligence artificielle : Bedrock dédié à l'IA générative et SageMaker dédié au machine learning. La promesse est simple : aider les entreprises à développer, entraîner et déployer des modèles d'IA toujours plus rapidement et à un coût réduit, sans perte de qualité et de précision, même dans les cas de RAG.
Bedrock, le service entièrement géré pour la création et la mise à l'échelle d'applications d'intelligence artificielle générative avec des modèles fondamentaux développé par Amazon se renforce. Utilisé par des dizaines de milliers d'utilisateurs dans des secteurs variés, ce service est aujourd'hui la porte d'entrée vers l'IA générative pour ceux qui souhaitent créer des applications à partir des modèles mis à disposition.
"Nous avons vu Amazon Bedrock multiplier par 4,7 sa clientèle au cours de la seule année dernière", précise Swami Sivasubramanian, vice-président de l’IA et des données chez AWS, donnant au passage quelques grands noms de clients "Adobe, Argo Labs, BMW Group, Octus, Symbeo, Tenovos et Zendesk". Aujourd'hui, la firme ajoute une couche de protection à son service, incluant les contrôles de raisonnement automatisés, la collaboration multi-agents et la distillation de modèles.
Mieux détecter les hallucinations et entraîner des modèles plus petits
Avec, le géant du cloud assure à ses utilisateurs plusieurs avantages : prévenir les erreurs factuelles dues aux hallucinations, orchestrer plusieurs agents alimentés par l'IA pour des tâches complexes, et créer des modèles plus petits, spécifiques à une tâche, qui peuvent fonctionner de manière similaire à un grand modèle pour une fraction du coût et de la latence.
Avec son outil "Model Distillation", AWS promet que tout client peut désormais distiller son propre modèle "qui peut être jusqu'à 500% plus rapide et 75% moins cher à exécuter que les modèles d'origine, avec une perte de précision inférieure à 2% pour les cas d'utilisation tels que la génération augmentée de récupération (RAG)".
Un catalogue de modèles d'IA qui s'étoffe
Le géant du cloud a, dans une annonce séparée, indiqué que Bedrock allait héberger près 100 nouveaux modèles et de fonctionnalités pour l'inférence et le travail avec les données. Qualifiée de "la plus grande extension de modèles à ce jour, de nouveaux outils d'optimisation d'inférence et des capacités de données supplémentaires", cette mise à jour sert toujours le même objectif : offrir aux clients encore plus de flexibilité et de contrôle pour créer et déployer plus rapidement une IA générative prête pour la production.
AWS proposera donc bientôt, via Bedrock, des modèles de Luma AI et de Poolside, ainsi que le dernier modèle Stability AI, Stable Diffusion 3.5 Large. Ces derniers viendront rejoindre la liste déjà longue de modèles disponibles, incluant ceux d'AI21 Labs, Anthropic, Cohere, Meta, Mistral AI ou encore les nouveaux-nés d'Amazon : la famille de modèles Nova. En parallèle, Bedrock bénéficie d'autres mises à jour, notamment la mise en cache et le routage intelligent des commandes visant à faire évoluer l'inférence plus facilement et à moindre coût.
Egalement au programme : la prise en charge des données structurées et de GraphRAG dans les bases de connaissances Bedrock, et Amazon Bedrock Data Automation, une fonctionnalité où les clients peuvent automatiquement extraire, transformer et générer des données à partir de contenu non structuré à grande échelle à l’aide d’une seule API.
Le service de ML SageMaker profite également d'améliorations
L'événement re:Invent 2024 est également l'occasion pour Amazon Web Services d'apporter son lot d'améliorations à SageMaker à l'heure de l'IA générative. Avec son service SageMaker Unified Studio – pour l'heure disponible en "preview" – les utilisateurs peuvent accéder plus facilement aux données de toute leur organisation, l'outil réunissant des capacités d'analyse, de ML et d'IA spécialement conçues par AWS, le tout avec l'aide d'Amazon Q Developer.
En parallèle, SageMaker Catalog et ses capacités de gouvernance intégrées assurant aux utilisateurs appropriés d'accéder aux bonnes données, modèles et artefacts de développement. SageMaker Lakehouse bénéficie également d'un rafraîchissement : il unifie les données des data lakes, des entrepôts de données, des bases de données opérationnelles et des applications d'entreprise pour faciliter l'accès et le travail avec les données depuis Unified Studio et en utilisant des outils d'IA et de ML familiers ou des moteurs de requête compatibles avec Apache Iceberg.
Enfin, notons que de nouvelles intégrations zero-ETL avec les principales applications Software-as-a-Service (SaaS) sont prévues afin d'accéder facilement aux données des applications SaaS tierces dans SageMaker Lakehouse et Amazon Redshift pour l'analyse ou le ML sans pipelines de données complexes.
Entraînement plus rapide et réduction des coûts pour SageMaker HyperPod
Toujours dans le but de faciliter l'exploration et l'intégration des données ainsi que le développement et l'entraînement des modèles au sien d'une seule plateforme intégrée, Amazon ajoute trois fonctionnalités supplémentaires pour SageMaker HyperPod : le démarrage Rapide (facilite l'entraînement rapide des modèles publics populaires), l'efficacité de l'entraînement (plans d'entraînement flexibles pour gagner des semaines de temps), et réduction des coûts (maximise l'utilisation des ressources de calcul, réduisant les coûts jusqu'à 40%).
Et l'adoption de ces services semble être chose facile aux yeux d'Amazon. Selon Baskar Sridharan, vice-président des services et infrastructures IA/ML chez AWS, "avec l'essor de l'IA générative, SageMaker a déjà lancé plus de 140 fonctionnalités depuis 2023 pour aider des clients comme Intuit, Perplexity et Rocket Mortgage à créer plus rapidement des modèles de fondation". Et aujourd'hui, la liste des utilisateurs ne fait que s'allonger, avec des entreprises de renom comme Articul8, Commonwealth Bank of Australia, Fidelity, NatWest, Salesforce et Thomson Reuters.
Les instances Trainium 2 disponibles pour tous
Dévoilées l'année dernière lors de la dernière édition de re:Invent en même temps que les puces Graviton 4, les instances AWS Trainium 2 sont désormais disponibles pour tous. Considérées comme les instances Amazon EC2 les plus performantes pour le deep learning et l'IA générative, elles offrent un rapport prix-performances 30 à 40% meilleur que la génération actuelle d'instances EC2 P5e et P5en basées sur GPU.
En parallèle, Amazon a dévoilé ce qu'il nomme les "EC2 Trn2 UltraServers", qui s'apparentent à une nouvelle offre de calcul conçue pour les charges de travail d'IA et de ML. Ces "UltraServers" comportent 64 puces Trainium 2 interconnectées, utilisant l'interconnexion ultra-rapide NeuronLink, pour atteindre 83,2 pétaflops de calcul de pointe - quadruplant le calcul, la mémoire et la mise en réseau d'une seule instance.
La firme précise que ces UltraServers seront déployés dans des EC2 UltraClusters et utilisés notamment dans des projets comme Project Rainier, en collaboration avec Anthropic, pour construire des superordinateurs capables d'entraîner les modèles d'IA les plus avancés. A noter que pour l'instant, les UltraServers sont disponibles en "preview" et peuvent être accessibles via un compte AWS. Amazon a déjà évoqué la suite du calendrier : les premières instances basées sur Trainium3 devraient être disponibles fin 2025.
100 millions de dollars de crédits cloud pour former à son portefeuille
Enfin, toujours désireux de voir le monde s'emparer du sujet et des dernières technos, Amazon multiplie les programmes d'accompagnement autour de ces dernières. Cette semaine, AWS a fait part de son intention de s'engager à hauteur de 100 millions de dollars en crédits cloud au cours des cinq prochaines années pour aider les organisations éducatives qualifiées dans le monde à construire ou à développer des solutions d'apprentissage numérique dans le cadre de "l'Initiative pour l'équité en éducation" d'AWS.
Objectif : sensibiliser au portefeuille de technos d'AWS et de services d'IA pour créer des assistants IA, des programmes de codage, des outils de connectivité, des plateformes d'apprentissage pour les étudiants, des applications mobiles, ou que sais-je.
SUR LE MÊME SUJET
- Avec sa famille de modèles Nova, Amazon opère un virage stratégique dans l'IA générative
- Cybersécurité : Amazon Web Services lance son centre de réponse aux incidents
- Aide au développement : AWS et GitLab s'allient pour contrer GitHub Copilot
- Amazon investit 110 millions de dollars dans la recherche universitaire en IA
IA générative : 100 nouveaux modèles et 470% de clients en plus pour Amazon Bedrock
Tous les champs sont obligatoires
0Commentaire
Réagir