emoji qui réfléchit et icône informatique quantique

Tout comprendre à l'informatique quantique, à quoi cela sert, et pourquoi ça ne marche pas encore...

L’informatique quantique n’est pas un sujet facile. Mais comprendre où on en est devrait vous permettre – a minima – de briller dans les dîners. On vous explique.

On peut relativement facilement se familiariser avec le concept de bits de l’ordinateur classique – ils peuvent prendre la valeur de 0 ou de 1. En revanche, il est plus délicat d'intégrer les « qubits » de l’ordinateur quantique. Pourquoi ? Parce qu'ils peuvent représenter 0 et 1 simultanément – et que la lecture de leur valeur est donc probabiliste plutôt que déterministe. Pas simple. Et ce n'est pas tout. Car c’est là uniquement une face de la complexité. Le procédé selon lequel les qubits peuvent être exploités pour effectuer des calculs n’a rien à voir avec celui d’un ordinateur conventionnel, et les défis techniques à relever pour construire un dispositif de calcul quantique sont immenses. Il faut se faire à une idée. Sans plonger véritablement dans la physique quantique et les mathématiques, il est pratiquement impossible de comprendre « comment ça fonctionne » et quels types de problèmes restent à résoudre.

Cela signifie que les business leaders, aussi intelligents et férus de technologie qu’ils soient, doivent simplement se fier à ce qu’ils lisent sur cette technologie. Et il y en a beaucoup à lire. Ces dernières années ont été marquées par une forte accélération de l’activité dans le domaine de l’informatique quantique. Le capital-risque a augmenté de 50 % pour atteindre plus d’un milliard de dollars entre 2020 et 2021, et les estimations de l’investissement mondial total atteignent désormais 25 milliards de dollars. De grands acteurs tels que Google affirment avoir déjà atteint la « suprématie quantique » (c’est-à-dire avoir résolu un problème particulier à l’aide de l’informatique quantique que l’informatique conventionnelle ne pourrait pas résoudre dans un délai raisonnable). Mais cette affirmation n’est pas du tout facile à valider.  Au moins une douzaine de nouveaux prototypes dotés d’un nombre croissant de qubits ont été promis par les principaux acteurs au cours de la prochaine décennie, mais il reste d’énormes défis techniques à relever.

Dans cette optique, Arthur D. Little a lancé une étude visant à explorer l’état actuel de l’informatique quantique et à anticiper les dernières implications pour les entreprises. Ici, il nous présente quelques-unes de leurs observations et conclusions, basées sur des contributions d’experts.

L’informatique quantique ne remplacera pas l’informatique conventionnelle

Tout d’abord, une idée fausse très répandue sur l’informatique quantique est qu’elle finira par remplacer l’informatique conventionnelle en raison de son énorme puissance de traitement. Ce n’est absolument pas le cas.  En fait, l’informatique quantique ne sera jamais supérieure à l’informatique conventionnelle – elle ne pourra l'être que pour la résolution de certains types de problèmes complexes. Il s’agit de problèmes impliquant des systèmes comportant de multiples éléments, variables et interactions, pour lesquels la complexité de la solution dépasse rapidement et de manière exponentielle la portée de l’informatique conventionnelle – des problèmes dits intractables (on dirait peut-être insolubles en français). Les ordinateurs quantiques sont adaptés aux problèmes intractables car ils ont la capacité théorique d’effectuer simultanément un nombre exponentiellement croissant de calculs : un processeur quantique doté de N qubits peut théoriquement effectuer 2N calculs simultanés de telle sorte que chaque qubit supplémentaire double la puissance de traitement. L’informatique conventionnelle, même si la loi de Moore (La « loi » de Moore stipulait que la puissance des processeurs doublerait tous les deux ans, mais ces dernières années, la tendance s’est considérablement ralentie, une tendance qui devrait se poursuivre) devait se poursuivre éternellement, ne pourra jamais atteindre ce résultat.

À quels types d’applications peut servir l’informatique quantique ?

Les applications de l'informatique quantique restent nombreuses. On peut ici en détailler quatre :

  • La simulation : simulations physiques et moléculaires complexes, telles que les simulations dites « in silico » , qui pourraient permettre de développer de nouvelles matières, nouveaux composés chimiques et médicaments de manière numérique, sans avoir recours à l’expérimentation en laboratoire.
  • L'optimisation : optimisation de systèmes complexes, tels que la planification logistique, la gestion des forces de vente, les opérations de distribution, les systèmes énergétiques, les systèmes financiers, les réseaux de télécommunication, les systèmes météorologiques et bien d’autres encore.
  • L'apprentissage automatique : les applications d’intelligence artificielle (IA) et d’apprentissage automatique (ML) nécessitent une puissance de traitement très élevée, repoussant les limites de l’informatique conventionnelle.
  • La cryptographie :  un algorithme quantique a déjà été mis au point pour effectuer une factorisation rapide des nombres entiers, ce qui représente une menace pour les approches conventionnelles de protection cryptographique pour l’informatique, la finance, etc. L’informatique quantique sera d’une importance capitale pour les futures solutions cryptographiques.

Les ordinateurs quantiques nécessitent des algorithmes très spécifiques. Jusqu’à présent, les démonstrations d’algorithmes quantiques de simulation et d’optimisation sont restées en deçà de ce que les ordinateurs conventionnels peuvent réaliser, en grande partie à cause des contraintes matérielles.

L’informatique quantique pose encore d’énormes défis techniques

La rage pour l’informatique quantique est telle qu’un observateur occasionnel pourrait conclure que ce n’est qu’une question de 5 à 10 ans de développement supplémentaire avant que les ordinateurs quantiques ne commencent à être largement accessibles à l’industrie. C’est possible, mais d’énormes défis techniques doivent encore être relevés. Et c'est principalement du côté du hardware que cela se passe. 

Huit approches fondamentales de l’informatique quantique font actuellement l’objet de travaux de recherche et de développement, avec des degrés de maturité et d’activité différents.

Attention, il existe une grande variété de qubits

Chacune de ces approches utilise un phénomène physique différent pour créer un qubit, basé sur une variété de particules allant des électrons supraconducteurs aux ions, photons et atomes. Certains types de qubits (tels que Cold atom, Trapped ion, NV Centers et Flying electron), présentent des limites en termes d’applicabilité, et leur potentiel de disruption est relativement faible.

La technologie des qubits supraconducteurs est actuellement la plus mature et celle dans laquelle la majorité des investissements se font, avec des acteurs clés tels qu’IBM, Google et Amazon, parmi beaucoup d’autres. Les autres technologies font également l’objet d’investissements importants, notamment de la part de grands acteurs tels que Honeywell, Intel, Microsoft et Nokia, ainsi que de quelques entreprises spécialisées et autres startups.

Tous les qubits sont instables, ce qui est source d'erreur

Les défis techniques du calcul par qubits se présentent aussi sous diverses formes. Les qubits sont intrinsèquement instables, ce qui détruit les propriétés de superposition et d’intrication qui sont au cœur de leur capacité à fournir la puissance de calcul. Cela entraîne des taux d’erreur élevés, qui nécessitent un très grand nombre de qubits physiques supplémentaires pour la correction des erreurs, en particulier si le dispositif doit traiter des algorithmes complexes. Actuellement, il s’agit d’un facteur extrêmement limitant.  Le « Saint Graal » est de développer un ordinateur quantique insensible aux défaillances avec des qubits stables, mais il est peu probable que cela soit possible avant au moins une décennie, voire beaucoup plus. Cette instabilité nécessite une température de fonctionnement très basse, proche du zéro absolu. Le fonctionnement cryogénique constitue un coût et ajoute une complexité considérable. Sur les huit technologies matérielles évoquées ci-dessus, aucune n’a dépassé le stade de la preuve de concept à l’échelle du laboratoire.

Côté logiciel, le travail sur les algorithmes a précédé le développement du matériel, avec peut-être 450 algorithmes connus actuellement. Pourtant, la plupart des développements en la matière sont plutôt théoriques que pratiques, en raison des limitations actuelles au niveau du matériel.

Un hardware encore complexe à développer

La technologie supraconductrice est le candidat le plus probable à être commercialement disponible pour une utilisation pratique dans la prochaine décennie. Mais le chemin du développement technologique à ce niveau limité de maturité, et avec ce niveau de complexité, est rarement linéaire. Si l’une des autres technologies concurrentes réalise une percée, il est possible qu’elle prenne le pas sur les autres. 

Les fournisseurs sont fortement incités à fournir des feuilles de route très (trop) optimistes afin d’attirer les investissements et de créer une demande. Il est tout à fait possible que nous soyons encore confrontés à une « désillusion » , comme cela s’est produit avec de nombreuses autres technologies en développement, telles que l’IA et les véhicules autonomes.

Une voie prometteuse à court terme est l’informatique quantique hybride, dans laquelle l’informatique quantique est utilisée comme accélérateur d’un HPC conventionnel pour exécuter des algorithmes hybrides spécialement conçus.

commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.