Recevez chaque jour toute l'actualité du numérique

x

Cloud computing : Amazon a commencé à remplacer les processeurs Nvidia par ses propres puces

Vu ailleurs Amazon veut s’affranchir de la technologie de Nvidia pour le traitement des requêtes d'Alexa, son assistant vocal. Le géant de Seattle a annoncé avoir commencé la transition de ses data centers vers un processeur conçu en interne baptisé Inferentia, en remplacement des GPUs de Nvidia.
Twitter Facebook Linkedin Flipboard Email
×

Cloud computing : Amazon a commencé à remplacer les processeurs Nvidia par ses propres puces
Cloud computing : Amazon a commencé à remplacer les processeurs Nvidia par ses propres puces © AWS

L'agence Reuters a révélé jeudi 12 novembre qu'Amazon a commencé à utiliser ses propres puces spécialisées, baptisées Inferentia, dans ses data centers AWS. L'objectif est entre autres d'améliorer les performances de son assistant vocal Alexa. Le géant de Seattle s’affranchit ainsi des processeurs graphiques Nvidia qu'il utilisait auparavant et baisse des coûts par la même occasion.

Selon Amazon, l’adoption d’Inferentia pour certaines compétences d’Alexa entraîne une amélioration du taux de latence de 25%, à un coût estimé quant à lui comme étant 30% moins cher.

L'IA au coeur de la bataille des puces
Lorsqu’un utilisateur sollicite l’assistant vocal Alexa, les enceintes connectées d'Amazon envoient la requête à l’un des data centers d’Amazon qui effectue plusieurs opérations pour la traiter. La réponse est générée en texte, puis est transformée en réponse vocale.

Ces étapes de calcul ont toujours été prises en charge par des GPU signés Nvidia, qui a justement défini sa stratégie sur l'intelligence artificielle en adaptant ses puces graphiques aux types de calculs requis pour l'entraînement de modèle ou l'inférence. Spécialisés dans les calculs parallèles, les GPU sont beaucoup plus performants que les CPU pour ces tâches, et ils ont donc été rapidement adoptés pour cet usage.

Mais désormais, Alexa utilisera AWS Inferencia, la première puce mise au point par Amazon, qui a été conçue spécifiquement pour accélérer les calculs de deep learning. "AWS Inferentia est conçu pour fournir des performances d'inférence élevées dans le cloud, réduire le coût total de l'inférence et permettre aux développeurs d'intégrer facilement du machine learning aux fonctionnalités et aux capacités de leurs applications métier", rappelle Amazon. Ces puces étant conçues spécifiquement pour ces tâches, ils sont encore plus efficaces que les GPU dans leur accomplissement.

Une transition similaire pour le logiciel Rekognition
Alexa n’est pas n’est pas la seule à être l’objet de cette transition. Amazon a ajouté que Rekognition, son outil de reconnaissance faciale basé sur le cloud – et très décrié – a également commencé à tourner avec Inferentia. En 2018, Amazon annonçait avoir conçu une puce capable de traiter de gros volumes de requêtes d'apprentissage automatique, telles que la traduction de texte en parole ou la reconnaissance d'images.

Le marché des puces informatiques est, du fait de la demande émise par les acteurs du cloud computing comme Amazon, Microsoft et Google – qui en ont besoin pour faire tourner leurs data centers – en plein essor. Ces acteurs dits "hyperscale", soucieux de réduire leur dépendance aux deux géants du secteur, Nvidia et Intel, oeuvrent en ce sens à l’instar d’Apple, dont trois machines (un MacBook Air, un MacBook Pro avec un écran de 13 pouces et un Mac Mini) vont désormais utiliser des processeurs sous architecture ARM conçus en interne. Ironie du sort, l'entreprise Arm qui développe cette architecture vient de passer un accord de rachat... avec Nvidia.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media