Recevez chaque jour toute l'actualité du numérique

x

Facebook Artificial Intelligence Research passe son hardware en open source

Facebook poursuit ses efforts dans l'intelligence artificielle. Et cela ne concerne pas que le software ! Le réseau social a développé une nouvelle configuration matérielle spécifiquement pour ses réseaux neuronaux, qui en double la performance. Fidèle à ses préceptes, il les publiera en open source pour en faire bénéficier la communauté.
Twitter Facebook Linkedin Flipboard Email
×

Facebook Artificial Intelligence Research passe son hardware en open source
Facebook Artificial Intelligence Research passe son hardware en open source © Facebook

Facebook a annoncé le 10 décembre qu'il va passer en open source le matériel qu'il utilise pour ses recherches et applications liées à intelligence artificielle. Cette décision rentre dans le cadre de l'Open Compute Project, lancé par Facebook en juillet 2011 pour créer de meilleures architectures matérielles pour serveurs et datacenters grâce au modèle open source, en s'appuyant sur la participation de la communauté.

 

Facebook travaille beaucoup sur l'intelligence artificielle au sein de sa division FAIR (Facebook Artificial Intelligence Research). Ces recherches sont utilisées notamment pour identifier des individus dans des photos, mais ont aussi de nombreux autres usages expérimentaux, comme la possibilité de résumer un texte et de répondre à des questions le concernant ou d'apprendre une tâche par simple observation.

 

Un souci d'optimisation

Facebook souligne que deux tendances ont permis les récentes avancées en matière d'IA : la disponibilité accrue de sets de données massifs et l'avènement d'ordinateurs plus puissants, utilisant spécifiquement des unités de calcul graphique (GPU) en lieu et place des traditionnelles unités centrales de calcul (CPU). Le réseau social indique avoir réalisé de gros progrès dans l'IA en utilisant du matériel disponible dans le commerce, mais s'être vite rendu compte qu'aller plus loin nécessiterait de concevoir ses propres systèmes.

 

Le résultat de ces travaux est un système d'entraînement de réseaux neuronaux baptisé "Big Sur". Il s'appuie sur la technologie "Tesla Accelerated Computing Platform" de NVidia pour obtenir des performances deux fois plus élevées que la génération précédente d'équipements. Le concept de rack inclut huit cartes graphiques Tesla M40 montées dans un boîtier conçu pour un maximum d'accessibilité, sans même avoir besoin de tournevis pour y faire de la maintenance. Il est également optimisé de telle manière qu'il ne nécessite pas de refroidissement particulier par rapport aux serveurs OCP classiques.

 

La division FAIR a également annoncé qu'elle va tripler ses investissements dans les GPU et qu'elle compte mettre des réseaux neuronaux à disposition des autres équipes au sein de Facebook.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media