Facebook Artificial Intelligence Research passe son hardware en open source

Facebook poursuit ses efforts dans l'intelligence artificielle. Et cela ne concerne pas que le software !

Le réseau social a développé une nouvelle configuration matérielle spécifiquement pour ses réseaux neuronaux, qui en double la performance.

Fidèle à ses préceptes, il les publiera en open source pour en faire bénéficier la communauté.

Partager
Facebook Artificial Intelligence Research passe son hardware en open source

Facebook a annoncé le 10 décembre qu'il va passer en open source le matériel qu'il utilise pour ses recherches et applications liées à intelligence artificielle. Cette décision rentre dans le cadre de l'Open Compute Project, lancé par Facebook en juillet 2011 pour créer de meilleures architectures matérielles pour serveurs et datacenters grâce au modèle open source, en s'appuyant sur la participation de la communauté.

Facebook travaille beaucoup sur l'intelligence artificielle au sein de sa division FAIR (Facebook Artificial Intelligence Research). Ces recherches sont utilisées notamment pour identifier des individus dans des photos, mais ont aussi de nombreux autres usages expérimentaux, comme la possibilité de résumer un texte et de répondre à des questions le concernant ou d'apprendre une tâche par simple observation.

Un souci d'optimisation

Facebook souligne que deux tendances ont permis les récentes avancées en matière d'IA : la disponibilité accrue de sets de données massifs et l'avènement d'ordinateurs plus puissants, utilisant spécifiquement des unités de calcul graphique (GPU) en lieu et place des traditionnelles unités centrales de calcul (CPU). Le réseau social indique avoir réalisé de gros progrès dans l'IA en utilisant du matériel disponible dans le commerce, mais s'être vite rendu compte qu'aller plus loin nécessiterait de concevoir ses propres systèmes.

Le résultat de ces travaux est un système d'entraînement de réseaux neuronaux baptisé "Big Sur". Il s'appuie sur la technologie "Tesla Accelerated Computing Platform" de NVidia pour obtenir des performances deux fois plus élevées que la génération précédente d'équipements. Le concept de rack inclut huit cartes graphiques Tesla M40 montées dans un boîtier conçu pour un maximum d'accessibilité, sans même avoir besoin de tournevis pour y faire de la maintenance. Il est également optimisé de telle manière qu'il ne nécessite pas de refroidissement particulier par rapport aux serveurs OCP classiques.

La division FAIR a également annoncé qu'elle va tripler ses investissements dans les GPU et qu'elle compte mettre des réseaux neuronaux à disposition des autres équipes au sein de Facebook.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS