Les ordinateurs quantiquesordinateurs quantiques auront à terme la capacité à résoudre certains problèmes mathématiques plus efficacement que les ordinateurs classiques. Et la nouvelle donne est que ces mêmes calculateurs qui reposent sur la physique quantiquephysique quantique seraient à même d’optimiser cette fameuse consommation énergétiqueconsommation énergétique qui est si souvent reprochée à l’intelligence artificielle. Pour en avoir le cœur, à l’occasion du Sommet pour l’IAIA, nous avons recueilli l’avis du plus grand spécialiste français du domaine, OlivierOlivier Ezratty.
Futura : Où en sommes-nous sur l’IA et l’informatique quantique ?
Olivier Ezratty : En matièrematière d’IA, l’informatique quantique touche à des domaines comme la simulation de la matière et la chimiechimie, mais aussi le machine learning appliqué à certains domaines, entre autres dans l’industrie, mais pas forcément pour exécuter des chatbots à base de LLMs. L’avantage quantique calculatoire recherché nécessitera de créer des ordinateurs quantiques bien plus puissants que ceux d’aujourd’hui. C’est un effort de recherche et industriel au long courslong cours qui s’étalera sur au moins une décennie.
La France a la réputation d’être très forte sur le quantique. Est-ce toujours le cas ?
Olivier Ezratty : Nous avons six startups dans le calcul quantique côté hardware (Pasqal, Quandela, AliceBob, Quobly, C12, Crystal Quantum Computing). La France a une position de leader en Europe. Les startups françaises ont levé environ 640 millions d’euros en tout dans les technologies quantiques, ce qui place le pays en quatrième position dans le monde derrière les USA, le Canada et le Royaume-Uni. L’enjeu est de mettre au point des ordinateurs apportant un avantage quantique, ce qui prendra du temps, mais aussi de construire les écosystèmesécosystèmes logiciels qui vont autour.
La France et l’Europe ont un rôle clé à jouer dans ce nouveau marché pour prendre des positions dans les briques matérielles. D’ailleurs, le point commun des acteurs français du secteur est que leurs choix technologiques sont très concurrentiels du côté de la consommation d’énergie par rapport à leurs homologues américains.
Est-il vrai que le quantique résoudra les problèmes de consommation d’énergie de l’IA ?
Olivier Ezratty : Certains acteurs du marché, notamment nord-américains, ont cette prétention, mais il est bien trop tôt pour affirmer quoi que ce soit. C’est une question encore ouverte. Elle est d’ailleurs traitée par la « Quantum Energy Initiative », lancée en 2022 et dont je suis l’un des cofondateurs. C’est une communauté regroupant des chercheurs et ingénieurs issus des milieux académiques et des entreprises du secteur. Provenant du monde entier, ils étudient la question de la consommation d’énergieénergie des ordinateurs quantiques à venir.
Olivier Ezratty, spécialiste français de l’informatique quantique. © Frank Disegni
Plutôt que de découvrir comme on le fait aujourd’hui avec l’IA qu’un nouvel usage est énergivore, l’idée est de s’attaquer au sujet dès la conception des systèmes. Or, il se trouve que, selon les choix technologiques réalisés dans la conception des ordinateurs quantiques, aussi bien côté matériel que logiciel, la consommation d’énergie finaleénergie finale pourra aller du simple au centuple. D’où l’intérêt de définir précisément comment mesurer, comparer et optimiser cette consommation d’énergie.
Il est possible, de plus, que l’on aboutisse à la notion d’avantage énergétique quantique, traduisant une situation dans laquelle les ordinateurs quantiques seront plus puissants pour certaines tâches que les supercalculateurs, et à moindre coût énergétique. Cela reste cependant encore une hypothèse à vérifier théoriquement puis pratiquement.
Quels sont les défis soulevés par l’annonce du président Macron ?
Olivier Ezratty : L’annonce du président est venue en réponse au projet privé soutenu par Donald Trump : 500 milliards de dollars de data centers créés juste pour OpenAI et ses LLMs, lancé en janvier avec Softbank et OracleOracle.
Il n’est pas certain qu’en se focalisant sur l’infrastructure, les chances de la France de compter à l’échelle soient meilleures. Idéalement, il faudrait que se constitue un portefeuille compétitif et unifié d’offres utilisateurs. Avec Mistral ? Pourquoi pas.
Voir aussi
Le Chat de Mistral AI, le champion européen de l’intelligence artificielle débarque enfin sur vos smartphones : testez-le !
Emmanuel Macron a annoncé que l’installation des data centers dédiés à l’IA était favorisée par notre mix énergétiquemix énergétique nucléaire. Mais celui-ci ne peut pas augmenter d’un coup de baguette magique. Même en lançant les chantiers de nouveaux EPR, on continuera de baisser la part du mix énergétique nucléaire en France. Au mieux, le lancement de petits réacteurs de centrales nucléaires (SMR) démarrera en 2030. Donc, pour ces data center qui fleurissent grâce à l’argentargent des émirats, on devra probablement consommer du gazgaz pour les alimenter. Et cela alourdira notre empreinte carbonecarbone. Ça ne marchera pas avec des éolienneséoliennes !
Les 56 tranches actuelles de centrales nucléairescentrales nucléaires ont une puissance comprise entre 0,9 et 1,6 GW et elles fonctionnent en continu, sauf en période de maintenance. Pour les énergies renouvelablesénergies renouvelables, les puissances annoncées ne sont disponibles que de manière… intermittente. Donc, lorsqu’on annonce que l’on va installer 1 GW de data center, cela veut dire que l’on a besoin d’une nouvelle tranche de centrale nucléaire.
Pourquoi parlez-vous de GW pour les data centers ?
Olivier Ezratty : La puissance de calcul d’un data center ou HPC est généralement exprimée en FLOPs, (floating point operation per seconds), et en précisant la précision des opérations. Sur un supercalculateur, elle l’est en 64 bits. Parfois, en IA, c’est exprimé en 4 ou 8 bits, notamment chez Nvidia lorsqu’il fait la promotion de ses systèmes.
Ainsi, début janvier 2025, Nvidia a lancé son « GB200 NVL72 cluster », un rack refroidi par eau consommant environ 150 kW et comprenant 72 GPUGPU Blackwell, et 36 CPU Grace avec une puissance de calcul affichée de 1,4 exaflop, voisine sur le papier du supercalculateur El Capitan du Département de l’Energie US. Il existe d’autres indicateurs spécialisés tels que le nombre de cœurs utilisés, le MLPerf (pour les tâches en IA) et les TPC (Transaction Processing Performance Council, pour les transactions sur bases de donnéesbases de données).
Donc, tout cela étant compliqué, on en vient à parler de puissance de data centers en GW, mais cela ne donne pas d’indication de la puissance de calcul. C’est d’autant plus vrai que cette puissance de calcul augmente régulièrement à GW constants grâce aux progrès de la microélectronique !
Où en sommes-nous du côté des annonces concrètes en France ?
Olivier Ezratty : Le fonds d’investissement canadien Brookfield prévoit d’installer un data center de 1 GW à Cambrai pour 15 à 20 M€, dont 5 M€ consacrés à la production de l’énergie consommée, dont on peut douter qu’elle sera fossilefossile. Les Émirats arabes unis vont construire un autre datacenter de 1 GW, lié à un campus dédié à l’IA, pour 30 M€ à 50 M€. Ces montants sont vertigineux. Par comparaison, le budget annuel du CNRS est de 4 M€, celui d’Inria inférieur à 300 M€ et celui du CEA d’environ 5,7 M€. Tous sujets confondus !