Actualité web & High tech sur Usine Digitale

Recevez chaque jour toute l'actualité du numérique

x

Pourquoi la France ne devrait pas bouder l’Open Compute Project

Twitter Facebook Linkedin Google + Email
×

Le premier Open Compute EU Summit se tient en France, les 30 et 31 octobre. Une occasion de prendre part à un important mouvement visant à développer du matériel open source pour les datacenters, initié par Facebook en 2011.

Pourquoi la France ne devrait pas bouder l’Open Compute Project
Pourquoi la France ne devrait pas bouder l’Open Compute Project © Garret Heath - Flickr CC

À vos agendas ! C’est en France, dans les locaux de l’école Polytechnique à Palaiseau, que se déroule la première édition européenne de l’Open Compute Summit, les 30 et 31 octobre. "Une occasion à ne pas manquer !", alerte Philippe Dewost, le monsieur numérique de la CDC (Caisse des dépôts et consignations), qui s’exprime là au titre de président d’honneur du Centre des Hautes Etudes du Cyberespace. Selon lui, il s’agit là d’une opportunité unique de comprendre ce qui se trame dans le monde en matière de développement de technologies matérielles open source pour serveurs et datacenters. Or, une semaine avant la manifestation, 600 des 700 inscrits sont américains. Et pas uniquement des geeks, mais aussi des patrons de grands aceurs du datacenter et des responsables informatiques de grandes entreprises, notamment des banques.

La souveraineté numérique en jeu

Or ce qui sera présenté durant ces deux jours — en parallèle du 14e Open World Forum dans le cadre d’une première semaine open source parisienne — risque de peser lourd sur la souveraineté numérique de pays comme la France. Lancé en 2011 par Facebook et rejoint par Microsoft, Intel et Goldman Sachs, l’Open Compute project vise à développer de nouvelles briques open source pour les datacenters, qui promettent d’augmenter les performances énergétiques de 30% et de diminuer d’autant, voire plus, les coûts d’exploitation. L’initiative de départ revient à Mark Zuckerberg, qui au milieu des années 2000, ne trouvant pas chez les fournisseurs comme Dell ou Lenovo, les briques technologiques qu’il souhaitait pour développer ses datacenters, avait demandé à une de ses équipes de repartir d’une feuille blanche. Et pour pérenniser ces développements et tester les technologies, il a décidé de les ouvrir à la communauté. Une transparence qui permet maintenant de faciliter l’audit des systèmes... pour en garantir la sécurité. Une approche ralliée par une centaine d’entreprises.

Une place à prendre pour LA certification européenne

Mais, contrairement au logiciel open source qui peuvent être développés et testés partout dans le monde, les technologies d’Open Compute nécessitent la plupart du temps des plates-formes de test physiques, indépendantes des grands constructeurs. "La fondation Open Compute Project imagine cette activité de certification, très contrainte en termes de logistique, se déployer sur des grandes plaques régionales dans le monde, explique Philippe Dewost. Aux États-Unis, elle serait accueillie par une université du Texas, à San Antonio, berceau de Compaq. La plaque asiatique devrait être basée à Taïwan, où sont concentrés les experts en fonderie des microprocesseurs. Reste à choisir la plaque européenne. Et là, la France à une carte à jouer. La plaque de certification européenne pourrait être hébergée par le pôle universitaire de Paris Saclay." Mais Cambridge (Grande-Bretagne), notamment, est aussi sur les rangs.

Un piste à ne pas négliger

Ce n’est donc pas un hasard, si ce premier Open Compute EU Summit se déroule à l’École Polytechnique, sur le plateau de Saclay. La France possède le réservoir de compétences nécessaires pour développer ce laboratoire de certification indépendant. Pourtant les grandes entreprises hexagonales, fournisseurs, comme ST, ou clientes, comme les opérateurs télécoms, semblent bien peu concernées. L’Open Compute Project n’est d’ailleurs même pas cité dans le plan cloud, piloté par Atos et OVH. Or, bien qu’il soit d’émanation américaine, ce mouvement open source ne se contente pas de viser une réduction des prix de la consommation et d’exploitation. Il promet des systèmes plus faciles à auditer. Et donc potentiellement plus sûrs.

À l’heure où certains, en Europe, s’interrogent encore sur le risque qu’encourent les organisations à utiliser des routeurs chinois et sur la sécurité du stockage des données dans le cloud piloté par les américains, être partie prenante des règles de certification des outils de stockage des données, semble une piste à ne pas négliger.

Aurélie Barbaux

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

1 commentaire

We Are Innovation
28/11/2014 17h52 - We Are Innovation

L'open compute comme moyen de croissance, une très bonne idée si l'on apprend aussi aux entreprises à mieux ouvrir leurs processus de création et d'exploitation des données. Très bonne idées aussi si l'on accompagne cet effort de moyen pour former et sélectionner des analystes et des techniciens des données, au de-là des zones "habituelles" de l'intelligence informatique. Très bonne idée également si l'on définit une approche intelligente de la propriété et responsabilité sur les données.

Répondre au commentaire | Signaler un abus

 
media
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale