Intelligence artificielle quantique

physique quantique appliquée à l'IA From Wikipedia, the free encyclopedia

L'intelligence artificielle quantique (IA quantique) est un domaine de recherche émergent et interdisciplinaire qui vise à exploiter les propriétés uniques de la physique quantique (dont la superposition quantique et l'intrication quantique) pour résoudre des problèmes complexes inaccessibles aux IA classiques, via des ordinateurs quantiques exécutant de nouveaux types d'algorithmes.

Puce D-Wave 128, de D-Wave Systems Inc. fonctionnant comme processeur d'optimisation quantique adiabatique supraconducteur de 128 qubits (ici, montée dans un porte-échantillon), annoncée et commercialisée en mai 2011. Depuis, l'entreprise a produit D-Wave Advantage, une puce à plus de 5 000 qubits et à connectivité accrue, et prépare d'autres modèles[1],[2].

Différences avec les algorithmes classiques

Alors que les algorithmes classiques reposent sur des bits (unités d'information pouvant être dans un état 0 ou 1), les algorithmes quantiques utilisent des qubits qui, grâce à la superposition quantique peuvent représenter simultanément 0, 1, ou une combinaison des deux. Cette capacité, combinée à l'intrication quantique (où les qubits sont corrélés indépendamment de la distance), permet à l'informatique quantique d'atteindre l'avantage quantique pour traiter un volume d'informations exponentiellement plus grand et explorer des espaces de solutions bien plus vastes que via l'informatique classique. Cette différence permet théoriquement un bond extrême de complexité algorithmique, susceptible de révolutionner l'optimisation mathématique, la simulation numérique (simulation quantique) et l'apprentissage automatique, au profit d'une efficacité radicalement démultipliée par exemple pour la recherche dans des bases de données non structurées ou pour l'entraînement de modèles d'apprentissage profond[3].

L'algorithmique quantique demande une compréhension approfondie de la mécanique quantique, des probabilités et de l'algèbre linéaire ; les algorithmes quantiques sont extrêmement sensibles aux interactions avec l'environnement, source de décohérence et d'erreurs, d'où l'importance de la recherche sur la correction d'erreurs quantiques, qui vise à rendre les ordinateurs quantiques tolérants aux erreurs. Il ne s'agit pas simplement de traduire des algorithmes classiques en langage quantique, mais de repenser entièrement les approches de résolution de problèmes.

Historique

Les racines de l'informatique quantique remontent aux premières réflexions de pionniers comme Richard Feynman et David Deutsch qui ont conceptualisé le potentiel des machines quantiques dans les années 1980[4].

Le début des années 2010 voit la construction de processeurs quantiques et le développement d'outils logiciels facilitant l'expérimentation d'algorithmes d'apprentissage quantique[5].

Le problème du plateau stérile était considéré comme le principal obstacle à une IA quantique et plus généralement à l'informatique quantique variationnelle qui est l'approche hybride cherchant à combiner circuits quantiques paramétrés et optimisation classique pour résoudre des problèmes de calcul difficiles sur des machines quantiques bruitées[6]. Ce "plateau stérile" est la métaphore qui désigne les situations où, lors de l'entraînement d'un algorithme quantique variationnel (comme un VQE (Variational Quantum Eigensolver) ou un QAOA (Quantum Approximate Optimization Algorithm), qui sont deux algorithmes quantiques variationnels hybrides combinant calcul quantique et optimisation classique pour résoudre respectivement des problèmes de valeurs propres en physique quantique et des problèmes d'optimisation combinatoire), le « paysage d'optimisation » devient exponentiellement presque totalement plat, ce qui fait que les gradients sont exponentiellement proches de zéro ; l'algorithme ne sait alors plus dans quelle direction ajuster ses paramètres, l'apprentissage et donc l'entraînement des modèles deviennent extrêmement lents ou impossibles, et la taille du circuit quantique aggrave le problème. Ce phénomène peut apparaître selon le choix de l'ansatz, de l'état initial, des observables, de la fonction de perte ou encore du niveau de bruit matériel. Pour le comprendre et le résoudre (ou au moins en atténuer ces effets), un important effort de recherche théorique et heuristique s'est développé, faisant du plateau stérile, un domaine d'étude actif à l'interface du contrôle quantique, des réseaux de tenseurs et de la théorie de l'apprentissage. Ceci a débouché en 2024 sur l'utilisation des algèbres de Lie (pour comprendre comment des opérations se combinent entre elles et expliquer que certains circuits quantiques deviennent impossibles à entraîner) et la publication d'une théorie montrant que, pour des circuits suffisamment profonds, on peut calculer exactement à quel point la fonction de perte devient « plate » (c'est‑à‑dire impossible à optimiser)[7]. Les auteurs ont aussi montré que cette difficulté dépend directement de la taille de l'algèbre de Lie générée par le circuit : plus cette structure mathématique est grande, plus la perte se « concentre », et plus l'apprentissage devient difficile[7]. Ensuite, en 2025, des avancées théoriques et pratiques significatives ont été obtenues au Los Alamos National Laboratory, qui a fourni dans la Revue Nature[8] la première caractérisation mathématique précise des conditions d'apparition de ces « plateaux » (qui sont des pièges mathématiques pour les algorithmes quantiques variationnels), établissant des garanties théoriques de passage à l'échelle. Ces travaux résolvent un obstacle majeur pour l'apprentissage quantique en permettant de prédire la capacité d'entraînement d'une architecture donnée, supprimant ainsi l'approche empirique et coûteuse qui prévalait jusque‑là[9].

État de l'art et avancées

Quatre approches différentes pour combiner l'informatique quantique et l'apprentissage automatique[10],[11]
Dans chaque case, la première lettre majuscule indique si le système étudié est classique ou quantique, tandis que la seconde précise si un dispositif de traitement de l'information classique ou quantique est utilisé.

Un apprentissage automatique amélioré par le quantique est préparé avec la recherche d'« algorithmes d'apprentissage automatique quantique » (ou QML pour Quantum Machine Learning) adaptés aux réseaux de neurones de systèmes quantiques (QNN). En 2021, une revue d'étude suggère que des algorithmes d'un genre nouveau puissent bientôt résoudre des tâches d'apprentissage automatique, ce qui pourrait accélérer ou améliorer certaines des méthodes existantes d'apprentissage. Cela inclut notamment des algorithmes dits « variationnels quantiques » (dénomination souvent abrégée en AVQ ou VQA pour Variational Quantum Algorithms), réputés prometteurs, dits « NISQ » (Noisy Intermediate-Scale Quantum), conçus pour mieux résister au bruit quantique et à l'erreur quantique[12]. Dans ce cadre, les données issues du monde réel doivent d'abord être encodées dans un ordinateur quantique pour être traitées sous forme d'états quantiques. Le calcul quantique applique ensuite une série d'opérations, et le résultat final est obtenu en mesurant le système quantique. Par exemple, la mesure d'un qubit peut fournir directement la réponse à une tâche de classification binaire. Bien qu'au début des années 2020, de nombreux algorithmes de ce domaine soient encore théoriques et nécessitent des ordinateurs quantiques universels encore inexistants à grande échelle, certains ont déjà été testés sur des dispositifs quantiques de petite taille ou spécialisés.

Au début des années 2020, la recherche porte notamment sur les algorithmes hybrides (c'est-à-dire où des parties de calcul sont réalisées sur des processeurs quantiques, et d'autres sur des ordinateurs classiques). Ces algorithmes sont d'abord testés sur des machines à quelques dizaines ou centaines de qubits, dites machines NISQ, des machines pas encore « tolérantes aux fautes », mais qui permettent d'expérimenter des applications potentielles (par exemple en chimie quantique, en science des matériaux ou en modélisation financière)[13], sur des plateformes matérielles variées, incluant les qubits supraconducteurs (comme ceux d'IBM et Google), les ordinateurs quantiques à ions piégés (comme par IonQ ou Quantinuum (en)) ou l'ordinateur quantique à photons (à qubits photoniques)[14].

Acteurs clés et initiatives

En raison des coûts et de la complexité de l'informatique quantique, ce domaine est encore réservé à quelques géants technologiques, start-ups innovantes, et institutions de recherche.

  • Aux États-Unis, ce sont IBM et Google, avec leurs plateformes de cloud quantique (IBM Quantum Platform (en), Google Quantum AI) et leurs recherches connexes sur les processeurs supraconducteurs[15]. Microsoft développe de son côté Microsoft Azure Quantum (en), et a misé sur les qubits topologiques (qui, en encodant l'information quantique dans les propriétés intrinsèques de la matière plutôt que dans des particules individuelles, promettent une résilience au bruit et aux erreurs significativement accrue) pour construire des ordinateurs quantiques à priori plus stables et tolérants aux fautes[16], pendant que IonQ et Rigetti Computing (en) se positionnent sur des architectures spécifiques (ions piégés, supraconducteurs).
  • En Europe et en France (où existe un Plan Quantique national), OVHcloud s'est associé à des experts du quantique pour proposer des services de calcul quantique via le cloud, en partenariat avec des technologies comme celles de Quandela (photonique) ou de Pasqalatomes neutres)[17]. L'Allemagne soutient massivement son programme Quantum Technologies, avec des acteurs comme le Forschungszentrum Jülich. Le Royaume-Uni soutient le UK National Quantum Technologies Programme, porté par ses centres de recherche d'excellence.
  • En Chine, l'Académie chinoise des sciences et des entreprises comme Baidu et Tencent poussent la R&D en informatique quantique[18].

Enjeux et perspectives

Défis technologiques et limites

Dans les années 2020, l'informatique quantique fait encore face à des défis techniques majeurs : décohérence quantique, perte d'état quantique des qubits (due aux interactions avec l'environnement), qui limitent encore la stabilité et la fiabilité des puces et ordinateurs quantiques. Or, pour les algorithmes d'IA quantique, ces ordinateurs auront besoin de milliers, voire de millions de qubits, ce qui nécessite de nouvelles avancées en ingénierie quantique.

La correction d'erreurs quantiques est une discipline-clé pour fiabiliser ce type de calculs, mais elle exige une redondance de qubits qui rend la construction de machines tolérantes aux erreurs encore très difficile et coûteuse[19].

Impacts énergétiques, climatiques, miniers et environnementaux

Les processeurs quantiques, notamment ceux basés sur des technologies supraconductrices, requièrent des systèmes de cryogénie ultra-froids (proches du zéro absolu), très énergivores[20] ainsi que des matériaux rares et stratégiques, comme l'hélium liquide pour le refroidissement. Ils nécessitent également certaines terres rares ou des métaux précieux (notamment l'or), soulevant des préoccupations minières, écologiques, éthiques, géopolitiques et de chaîne d'approvisionnement[21]. L'IA quantique peut plausiblement aider à trouver des solutions futures d'optimisation et de réduction de sa propre consommation énergétique, et de celle d'autres systèmes d'IA. Elle pourrait modéliser plus efficacement les phénomènes climatiques ou découvrir des matériaux plus durables, créant ainsi un potentiel bénéfice environnemental à long terme[22]. Mais l'expérience a montré que pour chaque progrès technique, un effet rebond négatif est probable, notamment en termes de dégradation du climat, de consommation électrique et de sortie des limites planétaires.

Propsective : entre optimismes et scepticismes

Selon IBM : « comme l'IA de nouvelle génération défie les limites strictes des ordinateurs classiques, le potentiel de l'informatique quantique à générer un changement de paradigme ouvre une voie prometteuse à suivre pour l'intelligence artificielle, avec des possibilités quasi illimitées »[23].

Mais bien que l'apprentissage automatique soit devenu un domaine de recherche établi et une industrie en forte croissance, et que l'informatique quantique dispose d'une base théorique et expérimentale solide, l'apprentissage automatique quantique demeure largement théorique, les démonstrations expérimentales restant limitées et les modèles souffrant d'une variabilité intrinsèque de leurs prédictions nécessitant de nombreuses exécutions pour obtenir un résultat fiable[24].

Plusieurs chercheurs soulignent l'absence de preuves d'un avantage pratique clair des méthodes quantiques sur les approches classiques et mettent en garde contre la « mode » entourant le domaine[25],[26]. Ils estiment que des avancées conceptuelles majeures sont encore nécessaires avant d'envisager des applications concrètes, et qu'aucune échéance réaliste ne peut être avancée quant à l'émergence d'une véritable IA quantique opérationnelle.

Notes et références

Related Articles

Wikiwand AI