Pourquoi la France doit rester dans la course des supercalculateurs

En résolvant beaucoup plus vite les problèmes les plus complexes, les superordinateurs décuplent la compétitivité des entreprises. D'où leur importance stratégique. À l'heure où les machines vont être capables de réaliser plusieurs millions de milliards d'opérations à la seconde, la France - l'un des quatre pays au monde producteurs de superordinateurs dispose d'un formidable atout pour démocratiser le calcul intensif auprès des PME et TPE.

10 mn

HAL 9000 est le superordinateur gérant le vaisseau spatial Discovery One dans la saga des Odyssées de l'espace de l'écrivain Arthur C. Clarke.
HAL 9000 est le superordinateur gérant le vaisseau spatial Discovery One dans la saga des "Odyssées de l'espace" de l'écrivain Arthur C. Clarke. (Crédits : DR)

Personnaliser les traitements médicaux en fonction de votre ADN pour vivre en pleine forme 100 ans et plus. Bâtir des villes les plus intelligentes au monde, où l'on peut respirer à plein poumon. Faire décoller des avions électriques.

Concevoir des voitures autonomes qui savent se garer elles-mêmes sur une place de parking libre. Rendre les écrans souples pour nos smartphones, tablettes, ordinateurs portables et autres liseuses... En marche, toutes ces révolutions palpitent dans la salle des machines des centres de calcul intensif - High Power Computing (HPC) - qui se répartissent dans les pays les plus avancés. Leur objectif ? Résoudre les problèmes les plus complexes dans les domaines de la science (météo, santé, physique...), de l'ingénierie et de l'économie (modélisation, simulation, mégadonnées).

Pour se faire une idée de l'avantage concurrentiel du superordinateur, citons l'exemple de Dassault Aviation : pour son dernier jet privé, le Falcon 7X, l'avionneur a raccourci le temps de modélisation (cent quarante millions d'équations), à savoir deux cent mille heures (soit vingt-deux années), à seulement deux cents heures (huit jours). Cette intensification résulte de la distribution des calculs sur un super-ordinateur à 1.000 processeurs en parallèle.

Cette belle performance pourrait, néanmoins, pâlir devant celle de la machine chinoise Tianhe-2 MilkyWay-2, la plus puissante du monde d'après le respecté classement Top 500, qui effectue 33 millions de milliards d'opérations à la seconde (pétaflops) grâce aux 3,2 millions de coeurs (il y a jusqu'à 18 coeurs dans un processeur Intel Xeon de dernière génération) qu'il embarque !

À lui seul, le marché mondial du HPC, estimé par le cabinet d'analyse IDC à 10,3 milliards de dollars, a absorbé pas moins de 30 millions de processeurs dans ses super-machines en 2013 ! Pour sa part, le cabinet Market Search Media prédit que le marché mondial annuel du calcul intensif HPC devrait croître au rythme de 8,3% pour quasiment quadrupler à 44 milliards de dollars à l'horizon 2020, promettant un chiffre d'affaires global de 220 milliards de dollars sur la période 2015-2020.

D'après le classement Top 500, les grands intégrateurs de supercalculateurs sont d'abord américains avec HP (35,6%), IBM (30,4%), Cray Inc. (12,3%) et SGI (4,6%). Suivi du français Bull à 3,6% qui, cocorico, se place devant l'américain Dell (1,8%) et le japonais Fujitsu (1,6%).

Ambition géopolitiques et souverainetés

L'engouement pour les supercalculateurs est historique, car ces derniers ont contribué à asseoir la souveraineté des États ainsi que de leurs plus grandes entreprises et centres de recherche. À peine quatre pays en fabriquent : les États-Unis, le Japon, la Chine et la France. Chez nous, les superordinateurs ont permis, entre autres, de simuler la bombe atomique de façon totalement numérique et d'arrêter ainsi les explosions en grandeur réelle dans le Pacifique. À côté de cela, les supercalculateurs ont aidé à calculer nos centrales nucléaires ainsi qu'à concevoir des avions de chasse, des sous-marins nucléaires, des porte-avions, des automobiles, des TGV...

En clair, une bonne part des produits qui ont fait le succès de notre grande industrie s'appuie sur les travaux scientifiques dont le calcul intensif s'exécute sur des superordinateurs, privés ou académiques. En outre, le calcul intensif ne sert pas qu'à réduire les coûts de conception en s'affranchissant des coûts exorbitants des prototypes physiques. Il aide surtout à tester, essayer et valider de nouvelles idées ou encore les meilleures variantes d'un produit ou d'un procédé en conception. C'est la mort annoncée du recours, jusqu'ici systématique, aux platesformes de tests physiques des prototypes : souffleries, bassins, installations de tests d'impact. Les grandes manoeuvres sont en marche.

On comprend pourquoi les autres pays veulent, si ce n'est les fabriquer, au moins utiliser massivement les supercalculateurs. En tête des pays les plus consommateurs, on trouve bien sûr les États-Unis (45,4%), suivis de très loin par la Chine (12%), le Japon (6,3%), le Royaume-Uni et la France (5,9% chacun), et l'Allemagne (5,1%). Tous les autres pays, notamment la Russie, l'Inde, la Corée du Sud, pèsent moins de 2% chacun, d'après le classement Top 500.

« Dans la compétition internationale, le calcul intensif permet surtout de mettre en pratique de nouvelles idées et de prendre de l'avance sur la concurrence », analyse Stephan Hadinger, responsable en France des solutions architecture d'Amazon Web Services (AWS), l'un des inventeurs de l'informatique en nuage et l'un des chefs de file mondiaux de la location à la demande de puissance de calcul intensif dans le cloud.

Et de citer Honda qui a accéléré ses processus d'ingénierie simultanée en simulation mécanique et en mécanique des fluides.

« Ses ingénieurs ont divisé par trois le temps de simulation sur 16.000 coeurs ainsi que de 70 % leurs coûts de simulation. Au final, le constructeur a déboulé plus rapidement sur le marché avec des offres plus pertinentes et plus différenciées », reprend Stephan Hadinger.

Pas étonnant que, derrière cette recherche de puissance de calcul, se cachent des ambitions nationales en matière de souveraineté aussi bien géopolitique qu'industrielle et économique. Ainsi la Chine annonce-t-elle sont intention de mettre au point cette année deux machines de 100 pétaflops (trois fois plus rapides que la machine actuelle la plus rapide). Réelle avance ou effet d'annonce ?

« Théoriquement, Tianhe-2 est la machine la plus rapide du monde. Mais nous n'avons aucun renseignement sur le code qu'elle utilise. Or c'est le logiciel qui donne toute sa puissance à l'exploitation d'un supercalculateur », pointe Denis Gerrer, responsable HPC Europe du Sud de Nvidia, grand fournisseur de GPU (Graphic Processing Unit), au départ des accélérateurs graphiques qui, depuis quelques années, servent également au calcul massivement parallèle.

Il n'empêche, la Chine ne cesse de gagner du terrain.

1 milliard de milliards d'opérations par seconde !

La République populaire compte atteindre vers 2018-2020 le prochain Graal du calcul intensif : l'exaflop, soit 1 milliard de milliards d'opérations par seconde. Ce qui est 1.000 fois plus rapide que le pétaflop tout juste atteint à l'heure actuelle.

Autre défi de grande ampleur : la Chine veut s'affranchir des composants électroniques (processeurs et GPU) jusqu'ici fabriqués par les américains Intel, AMD et Nvidia. Restait à avoir un grand intégrateur. C'est peut-être chose faite grâce à IBM qui « a revendu l'année dernière au chinois Lenovo [après lui avoir déjà cédé sa division PC et ordinateurs portables, ndlr] sa division serveurs à base de processeurs à architecture Intel et AMD. "Big Blue" sort ainsi du plus gros segment du superordinateur au profit du chinois Lenovo qui, à son tour, pourrait alors débarquer très rapidement et très violemment sur le marché », observe Philippe Vannier, vice-président exécutif d'Atos qui a racheté l'été dernier l'intégrateur Bull, véritable champion tricolore comptant plusieurs centaines de supercalculateurs actifs dans le mode.

« Nous réalisons les deux tiers de nos ventes hors de France. Nous avons ainsi doté le Japon de la seconde de ses plus puissantes machines, Fusion for Energy (F4E), qui sert à modéliser la fusion nucléaire en collaboration avec le programme français du réacteur Iter. Nous équipons aussi le Brésil qui veut créer des centres de calculs pour ses universités. »

En Europe, les machines industrielles de Bull s'illustrent aussi bien en République Tchèque qu'aux Pays-Bas. En Allemagne, le constructeur tricolore a livré sa dernière machine, la bullx B720 (3 pétaflops, soit 3 millions de milliards d'opérations à la seconde) au Deutsches Klimarechenzentrum (DKRZ), le centre de calcul de la météo allemande, en collaboration avec l'américain Seagate et ses 45 pétaoctets de stockage. Reste que sur les dix premiers supercalculateurs, outre la machine chinoise et une machine du japonais Fujitsu, les constructeurs américains Cray, Dell, IBM et SGI raflent la mise.

L'enjeu crucial de la consommation d'énergie

« L'année prochaine ou dans deux ans, une machine européenne devrait faire son entrée dans le top 10 mondial », prédit Denis Gerrer de Nvidia.

En revanche, le fait récent le plus marquant, selon IDC, c'est le contrat qu'IBM a remporté en novembre dernier dans le cadre du programme Coral visant à doter le ministère américain de l'Énergie et du Charbon de quatre supercalculateurs de plus de 100 pétaflops répartis dans les universités d'Oak Ridge (machine Summit à 150 pétaflops, extensible à 300), Argonne et Livermore (machine Sierra à 100 Pétaflops extensible à 200) d'ici à la fin 2017, pour un montant global de 325 millions de dollars.Reste que l'ensemble du secteur est confronté à un problème de taille : l'énorme consommation électrique des supercalculateurs.

« Tous les dix ans, leur puissance de calcul est multipliée par 1.000. Quant à la durée de vie d'un supercalculateur, elle n'est que de quatre à cinq ans », reconnaît Christine Ménaché, responsable du Centre de calcul recherche et technologie (CCRT) du CEA, ouvert aux académies et industriels et établi à Bruyères-le-Châtel, à 15 km de Saclay (Essonne).

« Passé ce laps de temps, il est bien plus rentable d'installer une machine plus moderne plutôt que conserver l'ancienne. Sur cinq ans, les progrès techniques réduisent la consommation énergétique par un facteur 32 », précise Philippe Vannier.

« En 2005, un supercalculateur consommait 5 MW contre 17 MW aujourd'hui. On ne peut pas continuer indéfiniment à augmenter la puissance de calcul en même temps que la consommation électrique. Avec la prochaine génération, l'exaflop, on veut limiter la consommation à 20 MW. Il va donc falloir que toute l'industrie suive... », insiste MarieChristine Sawley, directrice du laboratoire Exascale Computing Research (ECR) d'Intel en partenariat avec le CEA et l'université de Versailles-Saint-Quentin-en-Yvelines (UVSQ).

« La puissance énergétique est devenue le nerf de la guerre. À tel point qu'on conçoit les supercalculateurs en fonction de la puissance qu'il sera possible de leur amener. Ensuite, sur ses cinq ans de vie, la consommation électrique globale d'un supercalculateur revient aussi cher que la machine elle-même », calcule Denis Gerrer de Nvidia.

Dans l'arrière-cour des grands constructeurs de supercalculateurs, une autre bagarre se déroule entre les ténors des composants électroniques : les processeurs, les GPU et les composants d'interconnexion entre processeurs.

« En fait, deux modèles coexistent. Le premier met en parallèle de très puissants processeurs à haute fréquence d'horloge [comme les Xeon d'Intel, les Opteron d'AMD ou les Power d'IBM, ndlr] mais en nombre relativement limité, car ils dégagent de très grandes quantités de chaleur - ce qui coûte cher en énergie de refroidissement, décrit Gérard Roucairol, président du Plan national Supercalculateurs de la Nouvelle France industrielle et président de Teratec, la "Silicon Valley" française du calcul intensif en région parisienne. Le second modèle, quant à lui, utilise en parallèle énormément de processeurs bien plus petits, certes également moins rapides et moins puissants, mais surtout beaucoup moins gourmands en énergie. »

C'est la guerre autour du superordinateur

Si le trio Intel, AMD et Nvidia ne court aucun risque d'être expulsé du marché, il pourrait néanmoins être sacrément concurrencé par l'architecture de processeurs ARM (Acorn Risc Machine, introduite en 1983 par le britannique Acorn Computers Machine), que l'on retrouve aujourd'hui embarquée dans tous les équipements mobiles : smartphones, PC portables, tablettes tactiles, consoles de jeux...

Une architecture que propose, d'ailleurs, Nvidia.

« Ces composants pour la mobilité représentent une assise commerciale énorme, s'enthousiasme Gérard Roucairol. L'idée, c'est de les réutiliser pour construire de nouvelles générations de supercalculateurs à la fois plus puissantes, moins onéreuses et surtout moins gourmandes en énergie. »

« Il faut dire que les processeurs s'approprient 40 % (ou plus) de la consommation totale d'un supercalculateur, commente Alex Ramirez, chef du projet européen de recherche Mont-Blanc (20 millions d'euros), porté par le Barcelona Supercomputing Center. Nous pensons qu'avec ces architectures, le supercalculateur Mont-Blanc consommera quatre à dix fois moins d'énergie. »

Dans la foulée, des acteurs comme Orange et Nvidia développeraient également des petites machines à 64 processeurs peu gourmandes en électricité mais capables de fournir, malgré tout, une puissance de calcul intéressante.Pour sa part, IBM ne s'imagine pas accoucher seul d'une nouvelle architecture pour son puissant processeur Power.

« L'effort à accomplir est bien trop important pour arriver à l'exaflop. Personne ne peut plus tout inventer seul. C'est pourquoi nous avons créé le consortium Open Power qui rassemble d'ores et déjà près de 70 partenaires. C'est une réelle alternative à Intel », annonce Michel Teyssèdre, directeur des technologies d'IBM France.

La guerre du superordinateur est bien déclarée.

10 mn

Sujets les + lus

|

Sujets les + commentés

Commentaires 21
à écrit le 04/05/2015 à 1:38
Signaler
Le fait que Microsoft soit complètement absent de ce marché (95% de Linux) ouvrira peut-être les yeux de nos décideurs (et de l'enseignement supérieur j'espère) qui s’aplatissent régulièrement au pied de la firme de Redmond.

à écrit le 01/05/2015 à 19:57
Signaler
lointain souvenir du temps ou j'etais chez Bull , censé etre le champion tricolore du secteur. en fait si mes souvenirs sont exact leur technologie etait japonaise base sur une coopération avec NEC (japon). part de marche mondial de bull 0.5%

à écrit le 01/05/2015 à 17:17
Signaler
L'architecture Power d'IBM est en perte de vitesse contre ARM. Après Apple, ce sont FreeScale (ex-Motorola) et bien d'autres qui s'en détournent.

à écrit le 01/05/2015 à 15:19
Signaler
Il n'y a pas que les processeurs que les européens ne savent pas faire malheureusement... Ils ne savent pas non plus faire les écrans, ni même les ordinateurs grand public..

à écrit le 01/05/2015 à 13:11
Signaler
Les europeens ne developpent de microprocesseurs. Est ce une question de rentabilite economique ou parce qu'ils ne savent pas vraiment faire ?

le 02/05/2015 à 16:28
Signaler
D'un point de vue architectural, 99% de ce qui concerne les processeurs est dans la nature. Disons que tout le monde (industriel) saurait fabriquer un processeur décent si besoin était. Le vrai problème est effectivement économique et dans la maitris...

à écrit le 01/05/2015 à 13:11
Signaler
Les europeens ne developpent de microprocesseurs. Est ce une question de rentabilite economique ou parce qu'ils ne savent pas vraiment faire ?

à écrit le 01/05/2015 à 11:47
Signaler
Il semble échapper à beacoup que seuls les US maitrisent la production de processeurs et que les fonderies de chips les plus fines ne sont pas en Europe. Sur le long terme ce n'est pas très bon...

le 03/05/2015 à 14:31
Signaler
Bonjour, Vous vous trompez, les coréens du Sud et les chinois savent parfaitement concevoir des processeurs aussi performants que les entreprises US, sans parler bien sur du japon, de l'Allemagne et de la France qui le savent aussi mais gardent ces ...

le 04/05/2015 à 8:46
Signaler
Voir commentaire @Artis. Navré de vous décevoir, mais il n'y a pas de processeur de conception nationale dans le militaire ou le spatial des pays Européens que vous citez. Dans le domaine militaire tout le mond utilise des composants 'miliatires' qui...

à écrit le 01/05/2015 à 11:29
Signaler
C'est une bonne nouvelle pour notre industrie et le pays, que l'on soit capable de concevoir ce type de machine. Cela donne un avantage comparatif indéniable et permet à la France de se placer parmi les meilleures nations de la planète (elles ne sont...

le 02/05/2015 à 14:24
Signaler
Je ne voudrais pas tempérer votre optimisme, mais n'avez-vous pas remarqué que depuis quelques années déjà, les individus qui sont au pouvoir en France font tout, absolument tout, pour enlever à notre pays les outils scientifiques et industriels qui ...

le 02/05/2015 à 16:23
Signaler
"qui prive France de son système militaire de surveillance des satellites...." 1/ N'exagérons rien en la matière, la vraie ressource est celle permettant d'acquérir des données d'orbito sur les cibles, et cette filiale d'Alsthom n'y est pas pour gra...

le 02/05/2015 à 18:37
Signaler
@Thomas.J Non, je n'ai pas d'autres détails concernant cette vente que ceux figurant dans le rapport cité dans mon précédent message. Cela dit, ce rapport est quand même très clair sur les conséquences de cette vente en matière de défense (pour n...

le 03/05/2015 à 21:00
Signaler
@chouxchouxdebruxelles : je n'ai posté que le premier commentaire et non le reste, ensuite (et toujours personnellement) je ne fais pas partie de ceux qui se réjouissent de la moindre mauvaise nouvelle pour en faire leur choux gras ou un traité de dé...

à écrit le 01/05/2015 à 10:51
Signaler
Tout ceci suppose une programmation qui suive. Les malheurs du récent programme de calculs des paies de l'armée, qui ont bien dû faire rire bon nombre de programmateurs, laissent dubitatif...

le 01/05/2015 à 17:47
Signaler
Le calcul numérique est plus "logique" que la paie de l'armée ou des fonctionnaires avec 1800 types de primes (donc certains obsolètes voire absconses mais servies). Il faudrait débord simplifier la gestion des fonctionnaires avant d'informatiser. O...

le 02/05/2015 à 3:00
Signaler
@Pourquoi pas, renseignez-vous sur le logiciel CATIA !! l'article en parle indirectement avec DASSAULT AVIATION.

à écrit le 01/05/2015 à 10:46
Signaler
"pour vivre en pleine forme 100 ans et plus... " Pour faire quoi? Travailler?Stagner au fin fond d'une maison de retraite? Non merci.

le 01/05/2015 à 12:05
Signaler
Vous avez raison ; les médias nous servent cette extra-longévité sans arrêt, ainsi d’ailleurs que le voyage habité vers Mars . Sans parler de l'impossibilité économique de la chose.

le 01/05/2015 à 17:52
Signaler
Disons que le principe serait plutôt de vivre en bonne santé jusqu'à 82 ans et mourir le lendemain de l'anniversaire (essoufflé, ça fait beaucoup 82 bougies). Au lieu de trainer vingt ans gaga et invalide jusqu'à pas d'age. Une tante maternelle, jama...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.