⚡En Bref
- 🇫🇷 Enquête exclusive sur la construction du supercalculateur le plus puissant d’Europe, assemblé chez Eviden à Angers.
- 🧠 Une machine exascale dédiée à la science pour percer des mystères climatiques, nucléaires et médicaux.
- 🔒 Hébergement au CEA de Bruyères-le-Châtel, infrastructure renforcée et couplage à deux systèmes quantiques.
- 🚀 Un projet de technologie et d’innovation stratégique pour la France et l’Europe, avec un lancement prévu au second semestre 2027.
Le pari engagé par la France s’écrit en mégawatts, en lames de calcul et en exaflops. Une enquête exclusive révèle les coulisses d’un chantier industriel et scientifique rare, où chaque vis compte et où le flux thermique dicte l’architecture. Dans le vaste hall d’Eviden à Angers, la construction du supercalculateur le plus puissant d’Europe avance à cadence soutenue. Au cœur de cette aventure, un objectif clair émerge : donner aux chercheurs des moyens inédits pour s’attaquer aux grands mystères de la science, du climat à la santé, en passant par la simulation nucléaire et l’IA générative.
Au-delà de la performance brute, ce projet incarne une stratégie industrielle. Il renforce la souveraineté numérique de la France et s’intègre à un maillage européen capable de rivaliser avec les États-Unis et la Chine. Les tests d’acceptation se préparent déjà, tandis que le CEA finalise des travaux d’infrastructure hors norme. Dans cette dynamique, des partenaires industriels et académiques alignent leurs feuilles de route logicielles. Ainsi, l’exascale cesse d’être un slogan : il devient un instrument concret pour explorer, modéliser et accélérer l’innovation.
Principales conclusions
- Le système exascale Alice Recoque, composé d’environ 94 racks et pesant près de 280 tonnes, vise un débit d’un milliard de milliards d’opérations par seconde.
- Son hébergement au CEA s’accompagne d’une refonte structurelle (2,8 t/m²) et d’un couplage expérimental à deux calculateurs quantiques.
- Les cas d’usage prioritaires couvrent les modèles climatiques, la sûreté nucléaire, la santé et l’IA avancée.
- Le calendrier annonce une mise en service au second semestre 2027, avec une montée en charge progressive des files de jobs scientifiques.
Enquête exclusive — Architecture exascale, 94 racks et 280 tonnes: anatomie d’un géant du calcul
Le futur supercalculateur français, baptisé Alice Recoque, s’assemble autour d’une idée simple : multiplier les nœuds, rapprocher la mémoire des accélérateurs et dissiper la chaleur à la source. Les techniciens alignent des racks comme des pièces d’un Lego géant. Chaque châssis reçoit ses lames, ses réseaux et ses boucles hydrauliques. Pourtant, rien n’est standard : le moindre connecteur suit un plan d’acheminement pensé pour réduire la latence et éviter les points chauds.
La chaîne de production détaille trois blocs majeurs. D’abord, les lames de calcul CPU/GPU où résident cœurs vectoriels, matrices tensor, mémoire HBM et contrôleurs réseau. Ensuite, les nœuds d’infrastructure qui pilotent les services critiques, du scheduling à la télémétrie. Enfin, les tiroirs de stockage pour l’IO intensif, positionnés selon des topologies qui équilibrent débit et résilience. Cette granularité facilite les maintenances à chaud et les remplacements ciblés.
CPU, GPU et lames de calcul: la cohérence avant tout
La quête de performance ne se résume pas aux téraflops par carte. Elle se gagne sur la cohérence mémoire, la compression sans perte à la volée, et la proximité des accélérateurs. Les lames combinent des processeurs généralistes et des GPU massivement parallèles pour accélérer les solveurs, les FFT, les réseaux de neurones et la dynamique moléculaire. L’optimisation vise à réduire les copies, à exploiter les DMA, et à synchroniser au plus juste les kernels.
Le marché 2026 place aussi la barre très haut côté silicium. Les roadmaps GPU/SoC misent sur des interconnexions à très haut débit, utiles pour l’entraînement de modèles géants. Les choix d’assemblage en France s’alignent avec ces tendances. Pour suivre l’actualité des accélérateurs, un focus technique sur une puce N1X de nouvelle génération illustre la densité et l’efficacité attendues sur les nœuds AI.
Refroidissement liquide et alimentation: la thermodynamique en service
À exascale, la chaleur devient l’adversaire principal. Les plaques froides et les échangeurs évacuent les calories au plus près des dies. Les boucles hydrauliques se doublent pour garantir la continuité. Par ailleurs, l’alimentation s’appuie sur des redondances N+1 et des chemins séparés. Cette approche limite les arrêts et protège les files de jobs critiques.
Le CEA a renforcé la dalle avec une structure métallique en sous-sol. La capacité portante monte ainsi à 2,8 tonnes par mètre carré. Ce paramètre paraît austère, mais il conditionne la sécurité des opérations. À ce niveau de densité, le moindre point de charge se planifie. Tout s’orchestre comme une opération chirurgicale.
Réseau, stockage et topologies: l’IO comme levier de performance
Le réseau maillé soutient les échanges collectifs des solveurs et l’allreduce des modèles IA. Les firmwares de l’interconnect évoluent régulièrement pour réduire la gigue et améliorer la congestion control. Côté stockage, un espace parallèle alimente les charges HPC/AI avec des dizaines de téraoctets par seconde en agrégé. Les métadonnées s’optimisent afin de servir les petits fichiers des pipelines ML sans créer de goulet d’étranglement.
Cette architecture, pensée pour la science, vise l’équilibre entre la technologie HPC classique et les besoins modernes de l’IA. Elle mise sur l’innovation des composants et la robustesse des intégrations. Au final, la cohérence de l’ensemble permet d’atteindre l’exaflop utile, celui qui accélère réellement la recherche.

Puissances scientifiques: climat, nucléaire, santé et IA générative au service des mystères de la science
Les supercalculateurs ne sont pas de simples vitrines. Ils résolvent des problèmes que les machines classiques ne peuvent pas aborder en temps utile. L’équipe ASTER, un collectif de modélisation climatique, illustre ce saut. Elle assemble des scénarios multi-décennaux avec des maillages fins sur l’Atlantique nord. Grâce à l’exascale, les rétroactions nuageuses se simulent à des échelles plus réalistes. Le gain n’est pas cosmétique. Il change les prédictions côtières et l’ingénierie des digues.
Dans le nucléaire, la simulation permet d’optimiser la sûreté. Les modèles couplent thermohydraulique, neutronique et matériaux. Les cas limites se testent sans exposer d’infrastructures réelles. De même, l’optimisation des combustibles s’évalue avec des plans d’expériences numériques. Ainsi, la validation croisée avec les données historiques accélère les cycles de certification.
Médecine computationnelle et jumeaux numériques
En santé, les pipelines d’apprentissage profond scrutent des atlas d’imagerie volumétrique. Ils extraient des biomarqueurs plus tôt dans le parcours de soin. Des jumeaux d’organes se construisent pour simuler l’effet de traitements. En combinant dynamique des fluides, électrophysiologie et modèles statistiques, les équipes hospitalières testent des hypothèses in silico avant d’engager des essais coûteux. Cette approche épargne du temps et améliore la stratification des patients.
Le rêve d’un jumeau numérique du corps humain gagne en crédibilité. Les exigences techniques restent énormes, surtout sur la mémoire et l’IO. Pourtant, l’exascale abaisse le seuil d’entrée. Les registres nationaux, anonymisés, nourrissent des modèles généralistes que les centres affinent localement. Ce transfert d’apprentissage évite de dupliquer tout l’entraînement.
IA générative scientifique: du texte aux équations
Les grands modèles de langage et de vision ne servent pas qu’à la création de contenu. Ils facilitent l’extraction d’équations, la découverte de matériaux et l’exploration de l’espace de conception. Sur Alice Recoque, l’entraînement de corpus spécialisés science/tech se déroule à grande vitesse. Les chercheurs utilisent des accélérateurs récents, inspirés par les puces de type SoC AMM 800000 pour réduire la latence inter-GPU.
Le collectif ASTER combine ces outils avec des solveurs traditionnels. Les LLM proposent des hypothèses. Les codes HPC les testent. Ce cycle court transforme la démarche scientifique en boucle interactive. Il réduit les 100 jours de calcul évoqués jadis pour certains modèles, tout en conservant la rigueur. Résultat : le temps de la recherche se comprime, sans sacrifier la qualité.
Ce panorama se prolonge vers l’industrie. Safran et EDF, par exemple, s’intéressent aux jumeaux numériques d’usines et de turbines. Les goulots d’IO s’atténuent grâce aux files dédiées. En outre, l’ordonnancement répartit finement les priorités afin d’éviter les conflits entre campagnes d’IA et jobs HPC. Cette orchestration maximise le débit scientifique réel, pas seulement les records de benchmarks.
Souveraineté, AI Factory France et réseau européen: une stratégie pour rester au contact des géants
La compétition mondiale s’intensifie. Les États-Unis exploitent plusieurs machines exascale. La Chine maintient l’opacité sur son parc. L’Europe, elle, consolide un réseau interconnecté à travers des initiatives comme AI Factory France. Cette approche vise la mutualisation des capacités, l’échange de bonnes pratiques et la portabilité des charges. Autrement dit, un job prioritaire circule là où la file est la plus favorable.
La France ancre cette stratégie avec un pilier souverain. En fabriquant, intégrant et opérant des systèmes sur son sol, elle protège les données sensibles. Les chercheurs sur des sujets défense ou santé publique s’affranchissent de contraintes extraterritoriales. Ainsi, le choix du CEA comme hôte n’est pas symbolique. Il garantit l’isolement, le contrôle d’accès, et la continuité d’activité.
Interopérabilité et cohérence européenne
Le réseau européen exige des standards. Les piles logicielles et les APIs convergent pour que les codes tournent sans réécriture majeure. Les conteneurs et les environnements reproductibles aident à ce mouvement. De plus, la formation d’ingénieurs HPC/AI devient un axe prioritaire. Les universités adaptent leurs cursus en conséquence.
Le volet matériel suit. Les interconnexions de nouvelle génération et la mémoire haute bande passante s’imposent. Les nœuds IA évoluent vite, inspirés par des architectures comme celles décrites dans spécifications révélées fin 2026. Pour rester compétitives, les équipes européennes révisent leurs librairies de kernels, adoptent les compilateurs récents et automatisent la co-optimisation.
Énergie, coûts et empreinte carbone
Un centre exascale consomme massivement. Les contrats d’énergie incluent des clauses de flexibilité. Les opérateurs ajustent la charge lorsque le réseau électrique tend. Des récupérations de chaleur alimentent des réseaux urbains. Par ailleurs, le monitoring fin mesure l’efficacité énergétique par file de jobs. Cette granularité éclaire les arbitrages.
Politiquement, l’investissement se justifie par ses retombées. L’écosystème industriel profite des avancées en algorithmes, packaging et maintenance prédictive. Le retour sur investissement dépasse les publications scientifiques. Il irrigue la chaîne de valeur matérielle et logicielle. Ainsi, l’exascale devient un outil économique, en plus d’un leverage scientifique.
Dans ce cadre, l’innovation reste la boussole. Les feuilles de route intègrent déjà la génération suivante d’accélérateurs. Les références sur l’architecture N1X, par exemple, nourrissent les scénarios d’évolution (architecture N1X en détail). L’objectif est clair : tenir le rythme des géants tout en conservant l’indépendance stratégique.
Benchmarks, comparaisons et tests: face à Jean Zay, au supercalculateur de défense et aux géants américains
Comparer l’exascale à l’existant éclaire les priorités. Jean Zay, premier HPC national convergé IA/calcul intensif, a ouvert la voie. Ses extensions successives ont démontré la valeur du couplage GPU/CPU pour les tâches hybrides. Toutefois, l’exascale change d’échelle. Les noyaux se parallélisent encore, l’IO explose, et la résilience devient indispensable à grande échelle.
Du côté défense, la France a récemment activé une capacité classifiée de tout premier plan. Ce système, isolé physiquement, sert l’IA militaire et des simulations sensibles. Le nouveau supercalculateur civil, lui, vise l’ouverture académique et industrielle sous gouvernance transparente. Les deux approches se complètent. Elles partagent des briques technologiques, mais poursuivent des objectifs distincts.
Mesures utiles: au-delà des flops
Les flops linpack racontent une histoire partielle. Les mesures pertinentes incluent l’efficacité sur des codes réels: CFD compressible, chimie quantique, matériaux, entraînement LLM, vision 3D, graph analytics. Les équipes pilotes publient des ratios temps/coût énergétique et des accélérations par rapport aux générations précédentes. Cette transparence sert d’ancrage pour planifier les campagnes massives.
Les tests mettent aussi l’accent sur la qualité de service. L’ordonnanceur doit allouer des fenêtres longues à certains jobs, tout en servant des tâches interactives. La priorité cabine s’ajuste avec des crédits consommables. Les utilisateurs observent alors moins d’attente et plus de prévisibilité. Cette stabilité importe autant que le pic de performance.
État de l’art mondial et matériel émergent
Les machines américaines jouent un rôle de mètre étalon. Elles intègrent des accélérateurs dernier cri et des interconnexions propriétaires. L’écart se réduit grâce aux innovations européennes sur le packaging et la co-conception logiciel/matériel. Les annonces liées à des designs comme ceux du SoC N1X alimentent les choix d’upgrade. Les laboratoires s’appuient sur ces perspectives pour calibrer leurs portages.
Dans les tests internes, la montée en puissance confirme l’intérêt d’une bande passante mémoire élevée par GPU. Les modèles d’IA générative progressent fortement lorsque l’interconnexion réduit les étapes d’allreduce. Côté CFD, la taille des maillages augmente sans briser le temps au résultat. Bref, le débit scientifique s’améliore, pas seulement l’indicateur marketing.
Ces comparaisons, enfin, alimentent les décisions d’allocation. Les comités arbitrent entre grands projets climatiques, matériaux pour batteries, médecine personnalisée et cybersécurité. Le but reste identique : soutenir les projets qui transforment la connaissance en impact concret. L’exascale devient alors une ressource publique à haute valeur partagée.
Logiciels, exploitation et calendrier: de l’usine d’Angers au CEA de Bruyères-le-Châtel
L’assemblage chez Eviden s’appuie sur une méthode industrielle stricte. Chaque rack reçoit un identifiant, un plan de câblage et une check-list thermique. Les lames passent des bancs de tests automatisés. Les firmwares se figent seulement après validations croisées. Cette discipline évite les régressions lors de la mise en baie. Ensuite, les intégrateurs orchestrent le démarrage par lots afin d’isoler rapidement les anomalies.
Au CEA, les équipes d’exploitation préparent les environnements. Les versions de Slurm et des bibliothèques MPI s’alignent avec les compilateurs modernes. Les conteneurs Singularity ou Apptainer garantissent la reproductibilité des workflows. Par ailleurs, des images spécialisées visent la chimie quantique, la CFD, la dynamique moléculaire et l’IA. Les utilisateurs sélectionnent ainsi un stack prêt à l’emploi pour réduire le temps de portage.
Sécurité, qualité de service et files de jobs
La sécurité s’appuie sur un cloisonnement en profondeur. Les espaces de données sensibles utilisent des clés gérées sous HSM. Les accès se contrôlent par fédération d’identités. L’ordonnancement propose des files dédiées aux projets critiques, avec des engagements de disponibilité. En parallèle, des files exploratoires encouragent l’innovation rapide. Ce mix satisfait à la fois l’excellence académique et le prototypage industriel.
Le support aux utilisateurs reste central. Des ingénieurs d’appui HPC/AI analysent les profils de performance. Ils conseillent sur le placement mémoire et l’optimisation des kernels. Le résultat se mesure sur le temps au résultat et la facture énergétique. Cette approche pragmatique fidélise les équipes et augmente l’utilisation soutenue.
Calendrier, montée en charge et feuille de route matérielle
La mise en service cible le second semestre 2027. Les jalons incluent réception des racks, intégration réseau, tests d’IO parallèles, puis préproduction. Les premières cohortes d’utilisateurs valident les cas d’usage prioritaires. En parallèle, la feuille de route matérielle suit les annonces du marché. Les accélérateurs de type N1X, présentés dans feuille de route GPU NVIDIA, servent de point de référence pour de futurs ajouts.
Pour garder le cap, le programme adopte des itérations. Les mises à jour logicielles se planifient en fenêtres courtes. Les bibliothèques scientifiques montent de version sans casser les workflows. Cette cadence soutenue réduit le risque technique et protège la productivité des chercheurs. Ainsi, la trajectoire reste lisible pour la communauté.
- 🧩 Étape 1 : assemblage et validation en usine (contrôles thermiques, burn-in, firmware).
- 🔌 Étape 2 : installation au CEA, tests réseau et stockage, calibrage PUE.
- 🧪 Étape 3 : préproduction avec pilotes (climat, santé, matériaux).
- 🚦 Étape 4 : ouverture élargie et optimisation continue des files de jobs.
- 🌱 Étape 5 : récupération de chaleur et optimisation énergétique par profil.
Le fil conducteur reste clair : transformer la technologie en résultats scientifiques concrets. Les liens avec l’écosystème matériel, y compris les innovations détaillées sur l’architecture N1X, nourrissent la planification. En définitive, l’exascale devient une infrastructure vivante, en affût permanent, au service de la France et de l’Europe.
Enfin, la compatibilité avec les futures générations d’accélérateurs se prépare dès aujourd’hui. Les équipes mettent à jour les toolchains, les kernels spécialisés et les backends de frameworks. Les choix opérés permettent d’intégrer sans rupture les composants mis en avant dans les annonces silicon 2026. Cette anticipation sécurise la continuité des programmes stratégiques et des thèses en cours.
Pourquoi ce supercalculateur est-il qualifié d’exascale ?
Parce qu’il vise un débit d’environ un milliard de milliards d’opérations par seconde (1 exaflop), grâce à une architecture mêlant CPU et GPU de dernière génération, un réseau à très haut débit et un stockage parallèle massif.
Où sera hébergée la machine et pourquoi ce site ?
Au Très Grand Centre de Calcul du CEA, à Bruyères-le-Châtel. Le site propose une infrastructure renforcée (2,8 t/m²), une sécurité de haut niveau, des capacités énergétiques et un couplage possible avec deux calculateurs quantiques.
Quels domaines scientifiques profiteront en priorité ?
Les modèles climatiques, la sûreté nucléaire, la santé (imagerie, jumeaux d’organes, génomique), les matériaux avancés et l’IA générative spécialisée. Les campagnes seront sélectionnées sur dossier, avec priorité aux projets à fort impact.
Comment la France s’inscrit-elle dans la stratégie européenne ?
Le projet s’intègre au réseau AI Factory France et aux initiatives européennes d’interconnexion des supercalculateurs, pour mutualiser les capacités, promouvoir la portabilité logicielle et renforcer la souveraineté numérique.
Quand la mise en service complète est-elle prévue ?
La cible annoncée est le second semestre 2027, avec une montée en charge progressive : intégration, préproduction, puis ouverture élargie aux équipes scientifiques et industrielles.




