Recevez chaque jour toute l'actualité du numérique

x

L’informatique quantique pèsera 1000 milliards de dollars en 2035, selon McKinsey

Étude Le cabinet de conseil McKinsey et le salon Viva Technology 2020 vont publier une série de rapports sur les deep tech d'ici au mois de juin. Le premier d'entre eux concerne l'informatique quantique. McKinsey voit la décennie à venir comme celle de l'avènement de cette technologie, qui génèrera d'après lui 1000 milliards de dollars d'ici 2035. Décryptage avec l'un des auteurs du rapport.
Twitter Facebook Linkedin Flipboard Email
×

L’informatique quantique pèsera 1000 milliards de dollars en 2035, selon McKinsey
Un ordinateur quantique conçu par IBM. © IBM Research

Le cabinet de conseil McKinsey publie ce 9 mars un rapport sur l’informatique quantique en partenariat avec le salon Viva Technology. Il estime que cette technologie représentera un marché global de 1000 milliards de dollars de valeur potentielle en 2035.
Le rapport recommande donc que les entreprises des secteurs les plus à même de tirer parti de ces nouvelles capacités mettent en place une stratégie dès aujourd’hui. "Les positions clés se prennent aujourd’hui et les batailles technologiques se gagnent aujourd’hui," assène Alexandre Ménard, Directeur Associé Senior chez McKinsey et coauteur du rapport.

 

Quatre grands domaines d'application

Cette valeur proviendra de quatre domaines d’application : la simulation quantique, l’optimisation de problèmes multi-variables, la factorisation des nombres premiers, et le machine learning quantique. L’utilisation d’ordinateurs quantiques ou pseudo-quantiques pour résoudre des problématiques d’optimisation commencera entre 2022 et 2026 d’après McKinsey. Les premiers secteurs à en bénéficier seront la finance, la logistique et la fabrication avancée. Suivront des machines suffisamment puissantes pour aider à la création de nouvelles molécules dans les industries chimique, pharmaceutique, et de la science des matériaux.

 

"Si on disposait de ces capacités aujourd'hui, nous pourrions traiter l'épidémie de Covid-19 plus efficacement, avance Alexandre Ménard. L'informatique quantique permet de développer des vaccins et médicaments plusieurs dizaines de fois plus rapidement qu'avec les techniques naturelles. Il faut espérer que la technologie soit au point d'ici à la prochaine crise sanitaire."

 

Le machine learning quantique arrivera plus tard. McKinsey y voit entre autres un moyen accélérer l'entraînement de systèmes de conduite autonome. Enfin, la factorisation de nombres premiers de très grande taille, qui permettra notamment de “casser” les algorithmes de chiffrement actuels, ne sera possible au mieux qu’à la toute fin de la décennie.

 

 

Entre 2000 et 5000 ordinateurs quantiques en 2030

McKinsey estime qu’il existera entre 2000 et 5000 ordinateurs quantiques dans le monde d’ici 2030. Le cabinet met cependant en garde sur l’écosystème matériel et logiciel complexe qui sera nécessaire à l’exploitation de cette technologie. "La chaîne de valeur est complexe, explique Alexandre Ménard. Certains sont dans le matériel, d’autres le logiciel, d’autres encore le métier." Des acteurs de support viennent encore compléter cette chaîne, par exemple en fournissant les technologies de refroidissement ou les matériaux nécessaires à la fabrication de ces appareils. De plus, les ordinateurs quantiques ne se suffiront pas à eux-mêmes. "Cela répond à certains problèmes, mais ne donne pas l’intégralité de la solution. On restreint les solutions viables, mais ça ne définit pas la formule. Donc ça ne marchera qu’en prenant le relais avec l’informatique classique."

 

 

Les utilisateurs de ces ordinateurs quantiques seront de grandes entreprises pour la plupart, mais pas seulement. "Elles ont les problèmes les plus complexes, reconnaît Alexandre Ménard. Mais par exemple de petites structures ont émergé dans la pharma depuis 15 ans et sont devenues de belles success stories. Ce sera possible aussi dans l'informatique quantique si ces start-up ont des moyens suffisants. En se focalisant sur des maladies ou des virus particuliers par exemple, et en achetant des instances de façon stratégique… La clé sera la capacité à maîtriser la technologie et les algorithmes."

 

À noter que si les annonces sont régulières côté matériel, les choses sont plus calmes en ce qui concerne les algorithmes, qui sont pourtant tout aussi essentiels à leur utilisation. "Les choses ne stagnent pas, mais elles sont ralenties car il faut vraiment maîtriser le hardware pour avancer, et l'accessibilité reste limitée. Il y a par ailleurs une réticence de la part des clients potentiels à s'engager pour le moment."

 

Malgré le terme similaire d’ordinateur, ces machines n’ont rien à voir avec les ordinateurs classiques à base de semi-conducteurs. Au lieu d'utiliser les traditionnels bits, d'une valeur binaire de 0 ou 1, ces ordinateurs très spécifiques sont construits autour de "quantum bits", ou qubits. Chaque qubit se compose d'une superposition de deux états de base qui correspondent à des amplitudes de probabilité. En augmentant le nombre de qubits, on augmente exponentiellement la puissance de calcul de l'ordinateur quantique. L’intérêt de cette superposition d’états est qu’elle permet à un groupe de qubits d’explorer simultanément différentes méthodes pour résoudre un calcul mathématique. Lorsqu’ils sont programmés correctement, cela leur permet d’éliminer les mauvaises réponses très rapidement pour isoler la ou les bonnes solutions.

 

Les usages doivent déterminer le niveau d'investissement

Ces ordinateurs seront mis à disposition par le biais de services cloud, que proposent déjà Amazon et Microsoft. Mais Alexandre Ménard n’y voit pas là l’unique méthode d’accès. "Ce sont des ressources qui sont très techniques et très chères, donc je ne vois pas un laboratoire pharmaceutique ou un logisticien en avoir un dans ses locaux. Mais il y a des questions de sécurité des données et de transfert de grandes quantités de données qui nécessiteront une autre approche, avec des acteurs proposant des accès à leurs infrastructures en système ouvert et protégé. Le cloud va démocratiser mais ne sera pas la seule solution."

 

Reste l'éternelle question quand il s'agit de nouvelles technologies ? À quel moment s'y mettre ? "Le time-to-market doit le déterminer, déclare Alexandre Ménard. Si j’étais un acteur dans les biens de grande consommation, je ne suis pas sûr que je pousserais pour y aller maintenant. Par contre, en étant en charge d’un gros laboratoire pharmaceutique, je testerai à petite échelle le plus tôt possible pour développer la compétence en interne, tester les partenaires et ressources pour créer un écosystème, et globalement aller vers la bonne solution. Est-ce qu’investir beaucoup d’argent plus tard permettra de rattraper ? C’est difficile à dire, mais on ne sera pas pénalisé en partant plus tôt."

 

La question de la souveraineté se pose déjà

La plupart des acteurs clé de ce champ de recherche sont aujourd'hui des Américains : IBM, Google, Microsoft ou plus récemment Honeywell. Ce qui pose une question de souveraineté, cette technologie ayant des applications stratégiques très claires (notamment son usage par les États à des fins de renseignement). Là aussi, Alexandre Ménard insiste sur la nécessité d'agir vite. "Il y a peu d’européens dans le lot. On pense qu’il y a un petit retard en Europe sur l’ensemble des maillons de la chaine de valeur. Les Américains au niveau étatique ont plutôt poussé à l’émergence d’un écosystème, notamment pour lutter contre la Chine."

 

La Chine n’est pas encore pleinement engagée dans ce domaine, mais cela va changer d’ici 2030 d’après le rapport. "Dans ce que nous mesurons factuellement, la Chine est en troisième position, et les États-Unis sont beaucoup plus avancés que l’Europe. Mais eu égard à l’émergence de plaques technologiques distinctes, qui vont dépasser le seul secteur télécoms, à un moment ou à un autre la Chine mettra le paquet et rattrapera une partie de son retard."

 

L'Europe doit donc agir ou risquer de rater le coche. "Il faut développer un écosystème européen compétitif qui pourra assurer une indépendante à moyen terme. Si on ne le fait pas aujourd’hui, dans 5 à 10 ans ce sera trop tard. L’accumulation d’expérience et d’expertise technologique sera plus compliquée à rattraper que dans d’autres secteurs", prévient Alexandre Ménard.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media