« La France est l’un des quatre pays maîtrisant la filière des supercalculateurs »

 |   |  1056  mots
Gérard Roucairol, président du Plan supercalculateurs de la Nouvelle France industrielle
Gérard Roucairol, président du Plan supercalculateurs de la Nouvelle France industrielle (Crédits : DR)
Déjà largement présente sur l'ensemble de la chaîne de valeur, la France dispose d’un atout important à faire prospérer dans le secteur en pleine expansion du calcul intensif. Une ambition que les diverses initiatives du Plan supercalculateurs ont vocation à épauler, estime Gérard Roucairol, président du Plan supercalculateurs de la Nouvelle France industrielle.

La Tribune - En matière de supercalculateurs, quelle est la particularité de notre époque ?

Gérard Roucairol - Nous entrons dans une période de rupture technologique où le moteur de la performance du calcul intensif va changer. En effet, la célèbre loi de Moore, qui avait pour conséquence le doublement de la puissance informatique tous les dix-huit mois, atteint des limites physiques. Jusqu'ici, on mesurait la performance d'un calculateur ou d'un processeur à sa fréquence d'horloge - qui peut s'exprimer en gigaherz (GHz).

Plus cette fréquence est élevée, plus le processeur calcule vite, plus il est puissant... mais plus il chauffe et consomme de l'énergie. Si l'on poursuivait ainsi, on attendrait bientôt une fréquence de 10 GHz sur 1 cm2. Ce qui produirait la même chaleur que sur le soleil ! Les constructeurs ont donc limité la fréquence d'horloge à 3 ou 4 GHz.

Comment fait-on alors que l'on continue toujours de gagner en miniaturisation ? On l'utilise comme la devise belge : l'union fait la force ! À l'intérieur des circuits intégrés, on multiplie le nombre de cœurs de processeurs, tout en limitant leur fréquence d'horloge. C'est le principe du parallélisme. Ce n'est pas nouveau, j'ai fait ma thèse sur ce sujet en 1976. En d'autres termes, la limitation de la fréquence d'horloge impose de recourir à un parallélisme massif pour mobiliser les puissances informatiques nécessaires au calcul intensif.

Quelles en seront les conséquences ?

Cela va imposer de réécrire les logiciels afin de bénéficier de la performance qu'offre le parallélisme. Aujourd'hui, la plupart des logiciels fonctionnent de façon séquentielle : on calcule A et ensuite B. Dans le parallélisme, on calcule simultanément A et B. Or, si l'on calcule à l'aide de centaines de milliers de processeurs, il faut savoir les utiliser tous en même temps. C'est tout le problème des logiciels : ils ne sont pas « scalables ».

C'est-à-dire qu'ils ne sont pas nativement construits pour profiter pleinement des nouvelles architectures massivement parallèles. Pourtant, il y a des méthodes et des langages qui permettent d'exécuter simultanément des tâches différentes et d'échanger des informations entre les différentes parties.

Mais ces méthodes ne sont pas encore connues de tous les développeurs. Avec le développement des supercalculateurs, il va falloir s'attendre à gérer un problème de manque de compétences.

Sur le marché des supercalculateurs, où en est la France ?

Avec les États-Unis, le Japon et la Chine, la France est un des quatre pays au monde à maîtriser l'ensemble de la filière des supercalculateurs : les processeurs (STMicroelectronics, Kalray...), les machines (Bull) et les logiciels (ESI Group, Dassault Systèmes...), on a des champions !

Même l'Allemagne a désinvesti, notamment depuis le retrait de Siemens du secteur. Certes, l'Inde et la Russie se positionnent sur ce marché, mais pas avec le même niveau d'engagement que la France sur l'ensemble de cette chaîne de valeur.

Comment évolue le marché de la haute performance ?

Jusqu'à présent, la demande a été accaparée à 80 % par quatre grands secteurs d'application : la défense, la recherche (physique des particules, météo), l'industrie (pour la conception et la simulation d'avions et de voitures) et l'énergie. D'ailleurs, Total dispose d'un des plus gros supercalculateurs industriels au monde (une machine à plusieurs pétaflops, soit 1 million de milliards d'opérations à la seconde).

L'intérêt ? Cesser de forer là où il n'y a pas de pétrole ou de gaz car, à chaque fois, cela génère une perte de plusieurs dizaines de millions d'euros ! Dans dix ans, le rapport va s'inverser : les secteurs traditionnels ne pèseront plus que 20 % contre 80 % pour des secteurs comme la santé, les villes intelligentes, l'agronomie, les nouveaux matériaux, les nouveaux médias, la prévention des risques naturels (inondations, incendies, séismes...), la logistique...

Un grand nombre de start-up vont se créer pour accompagner ce mouvement. Grâce au cloud, les infrastructures, et notamment celles du calcul intensif, vont se mutualiser auprès des PME et des TPE.

Quelle est la feuille de route du Plan national supercalculateur que vous présidez ?

Sur le volet technologique, la performance des supercalculateurs vise l'exaflop à l'horizon 2020, c'est-à-dire 1 milliard de milliards d'opérations à la seconde ! Second volet : susciter des initiatives collectives sectorielles pour faire décoller les nouvelles applications et donc les nouveaux marchés comme les nouveaux matériaux, la ville intelligente ou l'alimentation. Dans la santé, on pense, par exemple, à la génomique, aux thérapies géniques (traitements personnalisés), à la détection de cancers...

Citons aussi la conception de films cinématographiques. Il faut savoir que la puissance de calcul en simulation numérique employée pour le film Avatar était équivalente en son temps à près du tiers de celle qui était utilisée pour la bombe atomique ! À côté de cela, pour les domaines classiques de la simulation, comme les avions ou les automobiles, on va essayer de modéliser un projet dans son entièreté, avec un niveau très élevé de finesse, et non plus morceau par morceau. L'État a lancé début janvier un appel à projets pour ces initiatives collectives sectorielles. Le troisième volet concerne la diffusion de ces technologies dans le tissu industriel français des TPE-PME et ETI. Deux axes vont être poursuivis.

D'un côté, il va s'agir d'aider les startups technologiques dont les fondateurs ont appris la modélisation numérique durant leurs études d'ingénieur. Ils savent discuter avec le monde de la recherche. À cet égard, saluons l'action du Grand équipement national de calcul intensif (Genci) qui aide les petites entreprises technologiques à accéder aux ressources du calcul intensif et à des chercheurs de haut niveau dans le secteur public pour les accompagner.

Autre axe : attirer les PME vers le calcul intensif en mobilisant les pôles de compétitivité, les centres techniques professionnels ou les regroupements professionnels par branches de métier : le CSTB pour le bâtiment, le Cetim pour les industries mécaniques, le Gifas pour l'aéronautique... Dernier volet : développer l'enseignement et les formations à la simulation et au traitement des mégadonnées dans toutes les écoles d'ingénieur et dans toutes les régions.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 29/04/2015 à 18:04 :
super-concorde, super-tgv, super-minitel... super-calculateur.
a écrit le 20/04/2015 à 22:22 :
C'est amusant, le futur. Il y a belle lurette, sur les PC, que le processeur est multi-cœur.
Mon Dell Inspiron portable avait(a encore) un mono-cœur à 2,2GHz quand je l'ai acheté il y a 12 ans. Tout le monde a remarqué qu'on ne trouve pas, ou rarement, de processeur avec une fréquence beaucoup plus élevée, mais ils ont quatre cœurs, ce qui équivaut presque à une fréquence de 10GHz, si on arrive à rendre tout calcul parallèlisable.
Même ma tablette a un processeur quadricore. Comme quoi, c'est assez actuel. Même pour le grand public.
10GHz la chaleur du soleil, bof, bizarre la comparaison. A 10GHz, chaque fraction de millimètre joue (impédance électrique (un fil est une bobine et aussi une capacité) et aussi vitesse le lumière = temps de propagation), l'électronique devient de la plomberie, imaginez un circuit imprimé de carte mère qui fonctionne avec un tel processeur, pas envisageable.
Avec l'hyperthreading, un processeur à quatre cœurs peut mener 8 calculs en parallèle (comme celui avec lequel j'écris qui en utilise 7 pour folding@home, calcul distribué en biologie (pliage de protéines) pour faire avancer la science mondiale).
a écrit le 20/04/2015 à 13:51 :
Très bien. Je suis content de savoir, mais en attendant le chômage augmente et le déficit se creuse.
Qu'est-ce que cela va changer concrètement???
Réponse de le 20/04/2015 à 15:58 :
Participer au rayonnement de la France et ainsi accroitre notre soft power et attirer des investisseurs etc ?...

L'impact est direct et indirect...
a écrit le 20/04/2015 à 13:37 :
Je suppose que le contribuable doit payer... On connait ce genre de cocorico qui vise en fait à pomper l'argent public pour des plans fumeux conçus par des fonctionnaires ou assimilés. Dernier en date: l'EPR. Avec en plus Le PS aux commandes: résultat garanti !
Réponse de le 20/04/2015 à 13:56 :
@ PierPaul : quel rapport avec la choucroute ?
a écrit le 20/04/2015 à 13:14 :
Il y a aussi le calcul partagé par internet, chaque ordinateur connecté au réseau peut participer à un projet commun. C'est une forme de parallélisme, qui, sans doute, n'a aucun équivalent en superordinateur.
Je me pose la question de pourquoi Intel a racheté depuis 15 ans toutes les boites développant les processeurs photoniques, pour ensuite mieux enterrer cette technologie, qui a le mérite de ne pas faire chauffer les composants et qui pourrait réduire la consommation d'électricité mondiale de 30%. Derrière il y a sans doute la volonté de vendre jusqu'au bout une stratégie, une technologie avant d'en changer pour une autre, c'est le fruit d'un manque de concurrence. Intel a modifié sa stratégie dans les processeurs électriques pour les faire durer encore plus longtemps en réduisant le voltage, officiellement pour coller au marché des tablettes et autres mini-ordinateurs portables qui n'ont pas de système de refroidissement assez performant.
a écrit le 20/04/2015 à 12:46 :
Rien de nouveau .Il faut signaler quand meme une chose .On parle de super calculateurs mais on parle pas des applications .Dans le domaine de l'électronique et de l'informatique le militaire a toujours eu la primauté des dernieres avancées les plus pointus !On peut penser que les militaires des pays avancés (en armes ) sont mieux équipés que ne le sont les entreprises privées ou les quelques facultées ayant besoin de grosses puissance de calcul!Trouver la Chine premiere (dernierement ) dans la course à la puissance semble bizarre quand on connait les énormes moyens americains dans le domaine de la defense sans compter la Russie qui ne c'est jamais fait larguer dans ce domaine ..........Peut etre qu'ils ont deja des ordinateurs quantique dont on parle depuis 30 ans mais pas encore dans le domaine public !La puce électronique fut inventée pour les militaires et pour la conquete spatiale avant de tomber dans le domaine public ...........

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :