IBM pose les bases d’un supercalculateur hybride
IBM présente une architecture de référence pour intégrer l’informatique quantique aux supercalculateurs classiques.
Publié le 17 mars | Mis à jour le 18 mars Lecture 3 min.
IBM a dévoilé une architecture de référence destinée à faire fonctionner des processeurs quantiques aux côtés des CPU et GPU dans des environnements de calcul haute performance. L’objectif est de sortir le quantique du laboratoire isolé pour l’inscrire dans des infrastructures plus proches des usages réels, qu’il s’agisse de datacenters, de centres de recherche ou d’environnements cloud. Concrètement, cette approche repose sur un environnement unifié où les QPU sont reliés à des clusters classiques, à un réseau haut débit et à des capacités de stockage partagées. L’enjeu n’est pas de remplacer les supercalculateurs traditionnels, mais de combiner les deux mondes pour traiter des problèmes que ni l’un ni l’autre ne peut résoudre seul, en particulier sur des charges scientifiques très complexes.
Des cas d’usage déjà orientés vers la chimie et les matériaux
IBM met en avant plusieurs travaux de recherche pour illustrer cette stratégie hybride. Parmi eux, la création d’une molécule inédite de type demi-Möbius, dont la structure électronique a été confirmée à l’aide d’un supercalculateur quantique, ou encore la simulation par la Cleveland Clinic d’une mini-protéine de 303 atomes, présentée comme l’un des plus grands modèles moléculaires traités dans ce cadre. D’autres collaborations avec RIKEN, l’Université de Chicago ou encore l’ETH Zurich portent sur la recherche de l’état énergétique le plus bas de systèmes quantiques complexes et sur la simulation de clusters fer-soufre, une famille de molécules importante en biologie et en chimie. IBM cherche ainsi à démontrer que le quantique commence à trouver une place sur des cas d’usage concrets, notamment en chimie, en science des matériaux et en simulation moléculaire, là où les limites du calcul classique sont les plus visibles.
Un enjeu d’orchestration logicielle plus que de puissance brute
Au-delà du matériel, IBM insiste sur la couche logicielle et sur l’orchestration entre ressources quantiques et classiques. L’architecture repose notamment sur des outils ouverts comme Qiskit, avec l’idée de permettre aux chercheurs et aux développeurs d’accéder aux capacités quantiques via des workflows plus familiers. C’est un point central : à ce stade, la valeur du quantique ne repose pas uniquement sur la puissance des processeurs, mais sur sa capacité à s’intégrer dans des chaînes de calcul hybrides, capables de répartir intelligemment les tâches entre machines classiques et quantiques. IBM souhaite ainsi préparer le terrain pour une montée en charge progressive des usages, en particulier dans la recherche scientifique et l’optimisation, alors que l’écosystème travaille encore à stabiliser les algorithmes, la planification des tâches et les modèles d’exploitation de ces futures infrastructures.

