Pourquoi la France ne devrait pas bouder l’Open Compute Project

Le premier Open Compute EU Summit se tient en France, les 30 et 31 octobre. Une occasion de prendre part à un important mouvement visant à développer du matériel open source pour les datacenters, initié par Facebook en 2011.

Partager
Pourquoi la France ne devrait pas bouder l’Open Compute Project

À vos agendas ! C’est en France, dans les locaux de l’école Polytechnique à Palaiseau, que se déroule la première édition européenne de l’Open Compute Summit, les 30 et 31 octobre. "Une occasion à ne pas manquer !", alerte Philippe Dewost, le monsieur numérique de la CDC (Caisse des dépôts et consignations), qui s’exprime là au titre de président d’honneur du Centre des Hautes Etudes du Cyberespace. Selon lui, il s’agit là d’une opportunité unique de comprendre ce qui se trame dans le monde en matière de développement de technologies matérielles open source pour serveurs et datacenters. Or, une semaine avant la manifestation, 600 des 700 inscrits sont américains. Et pas uniquement des geeks, mais aussi des patrons de grands aceurs du datacenter et des responsables informatiques de grandes entreprises, notamment des banques.

La souveraineté numérique en jeu

Or ce qui sera présenté durant ces deux jours — en parallèle du 14e Open World Forum dans le cadre d’une première semaine open source parisienne — risque de peser lourd sur la souveraineté numérique de pays comme la France. Lancé en 2011 par Facebook et rejoint par Microsoft, Intel et Goldman Sachs, l’Open Compute project vise à développer de nouvelles briques open source pour les datacenters, qui promettent d’augmenter les performances énergétiques de 30% et de diminuer d’autant, voire plus, les coûts d’exploitation. L’initiative de départ revient à Mark Zuckerberg, qui au milieu des années 2000, ne trouvant pas chez les fournisseurs comme Dell ou Lenovo, les briques technologiques qu’il souhaitait pour développer ses datacenters, avait demandé à une de ses équipes de repartir d’une feuille blanche. Et pour pérenniser ces développements et tester les technologies, il a décidé de les ouvrir à la communauté. Une transparence qui permet maintenant de faciliter l’audit des systèmes... pour en garantir la sécurité. Une approche ralliée par une centaine d’entreprises.

Une place à prendre pour LA certification européenne

Mais, contrairement au logiciel open source qui peuvent être développés et testés partout dans le monde, les technologies d’Open Compute nécessitent la plupart du temps des plates-formes de test physiques, indépendantes des grands constructeurs. "La fondation Open Compute Project imagine cette activité de certification, très contrainte en termes de logistique, se déployer sur des grandes plaques régionales dans le monde, explique Philippe Dewost. Aux États-Unis, elle serait accueillie par une université du Texas, à San Antonio, berceau de Compaq. La plaque asiatique devrait être basée à Taïwan, où sont concentrés les experts en fonderie des microprocesseurs. Reste à choisir la plaque européenne. Et là, la France à une carte à jouer. La plaque de certification européenne pourrait être hébergée par le pôle universitaire de Paris Saclay." Mais Cambridge (Grande-Bretagne), notamment, est aussi sur les rangs.

Un piste à ne pas négliger

Ce n’est donc pas un hasard, si ce premier Open Compute EU Summit se déroule à l’École Polytechnique, sur le plateau de Saclay. La France possède le réservoir de compétences nécessaires pour développer ce laboratoire de certification indépendant. Pourtant les grandes entreprises hexagonales, fournisseurs, comme ST, ou clientes, comme les opérateurs télécoms, semblent bien peu concernées. L’Open Compute Project n’est d’ailleurs même pas cité dans le plan cloud, piloté par Atos et OVH. Or, bien qu’il soit d’émanation américaine, ce mouvement open source ne se contente pas de viser une réduction des prix de la consommation et d’exploitation. Il promet des systèmes plus faciles à auditer. Et donc potentiellement plus sûrs.

À l’heure où certains, en Europe, s’interrogent encore sur le risque qu’encourent les organisations à utiliser des routeurs chinois et sur la sécurité du stockage des données dans le cloud piloté par les américains, être partie prenante des règles de certification des outils de stockage des données, semble une piste à ne pas négliger.

Aurélie Barbaux

SUR LE MÊME SUJET

PARCOURIR LE DOSSIER

Tout le dossier

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS