Pourquoi la France doit rester dans la course des supercalculateurs

 |   |  2085  mots
HAL 9000 est le superordinateur gérant le vaisseau spatial Discovery One dans la saga des Odyssées de l'espace de l'écrivain Arthur C. Clarke.
HAL 9000 est le superordinateur gérant le vaisseau spatial Discovery One dans la saga des "Odyssées de l'espace" de l'écrivain Arthur C. Clarke. (Crédits : DR)
En résolvant beaucoup plus vite les problèmes les plus complexes, les superordinateurs décuplent la compétitivité des entreprises. D'où leur importance stratégique. À l'heure où les machines vont être capables de réaliser plusieurs millions de milliards d'opérations à la seconde, la France - l'un des quatre pays au monde producteurs de superordinateurs dispose d'un formidable atout pour démocratiser le calcul intensif auprès des PME et TPE.

Personnaliser les traitements médicaux en fonction de votre ADN pour vivre en pleine forme 100 ans et plus. Bâtir des villes les plus intelligentes au monde, où l'on peut respirer à plein poumon. Faire décoller des avions électriques.

Concevoir des voitures autonomes qui savent se garer elles-mêmes sur une place de parking libre. Rendre les écrans souples pour nos smartphones, tablettes, ordinateurs portables et autres liseuses... En marche, toutes ces révolutions palpitent dans la salle des machines des centres de calcul intensif - High Power Computing (HPC) - qui se répartissent dans les pays les plus avancés. Leur objectif ? Résoudre les problèmes les plus complexes dans les domaines de la science (météo, santé, physique...), de l'ingénierie et de l'économie (modélisation, simulation, mégadonnées).

Pour se faire une idée de l'avantage concurrentiel du superordinateur, citons l'exemple de Dassault Aviation : pour son dernier jet privé, le Falcon 7X, l'avionneur a raccourci le temps de modélisation (cent quarante millions d'équations), à savoir deux cent mille heures (soit vingt-deux années), à seulement deux cents heures (huit jours). Cette intensification résulte de la distribution des calculs sur un super-ordinateur à 1.000 processeurs en parallèle.

Cette belle performance pourrait, néanmoins, pâlir devant celle de la machine chinoise Tianhe-2 MilkyWay-2, la plus puissante du monde d'après le respecté classement Top 500, qui effectue 33 millions de milliards d'opérations à la seconde (pétaflops) grâce aux 3,2 millions de coeurs (il y a jusqu'à 18 coeurs dans un processeur Intel Xeon de dernière génération) qu'il embarque !

À lui seul, le marché mondial du HPC, estimé par le cabinet d'analyse IDC à 10,3 milliards de dollars, a absorbé pas moins de 30 millions de processeurs dans ses super-machines en 2013 ! Pour sa part, le cabinet Market Search Media prédit que le marché mondial annuel du calcul intensif HPC devrait croître au rythme de 8,3% pour quasiment quadrupler à 44 milliards de dollars à l'horizon 2020, promettant un chiffre d'affaires global de 220 milliards de dollars sur la période 2015-2020.

D'après le classement Top 500, les grands intégrateurs de supercalculateurs sont d'abord américains avec HP (35,6%), IBM (30,4%), Cray Inc. (12,3%) et SGI (4,6%). Suivi du français Bull à 3,6% qui, cocorico, se place devant l'américain Dell (1,8%) et le japonais Fujitsu (1,6%).

Ambition géopolitiques et souverainetés

L'engouement pour les supercalculateurs est historique, car ces derniers ont contribué à asseoir la souveraineté des États ainsi que de leurs plus grandes entreprises et centres de recherche. À peine quatre pays en fabriquent : les États-Unis, le Japon, la Chine et la France. Chez nous, les superordinateurs ont permis, entre autres, de simuler la bombe atomique de façon totalement numérique et d'arrêter ainsi les explosions en grandeur réelle dans le Pacifique. À côté de cela, les supercalculateurs ont aidé à calculer nos centrales nucléaires ainsi qu'à concevoir des avions de chasse, des sous-marins nucléaires, des porte-avions, des automobiles, des TGV...

En clair, une bonne part des produits qui ont fait le succès de notre grande industrie s'appuie sur les travaux scientifiques dont le calcul intensif s'exécute sur des superordinateurs, privés ou académiques. En outre, le calcul intensif ne sert pas qu'à réduire les coûts de conception en s'affranchissant des coûts exorbitants des prototypes physiques. Il aide surtout à tester, essayer et valider de nouvelles idées ou encore les meilleures variantes d'un produit ou d'un procédé en conception. C'est la mort annoncée du recours, jusqu'ici systématique, aux platesformes de tests physiques des prototypes : souffleries, bassins, installations de tests d'impact. Les grandes manoeuvres sont en marche.

On comprend pourquoi les autres pays veulent, si ce n'est les fabriquer, au moins utiliser massivement les supercalculateurs. En tête des pays les plus consommateurs, on trouve bien sûr les États-Unis (45,4%), suivis de très loin par la Chine (12%), le Japon (6,3%), le Royaume-Uni et la France (5,9% chacun), et l'Allemagne (5,1%). Tous les autres pays, notamment la Russie, l'Inde, la Corée du Sud, pèsent moins de 2% chacun, d'après le classement Top 500.

« Dans la compétition internationale, le calcul intensif permet surtout de mettre en pratique de nouvelles idées et de prendre de l'avance sur la concurrence », analyse Stephan Hadinger, responsable en France des solutions architecture d'Amazon Web Services (AWS), l'un des inventeurs de l'informatique en nuage et l'un des chefs de file mondiaux de la location à la demande de puissance de calcul intensif dans le cloud.

Et de citer Honda qui a accéléré ses processus d'ingénierie simultanée en simulation mécanique et en mécanique des fluides.

« Ses ingénieurs ont divisé par trois le temps de simulation sur 16.000 coeurs ainsi que de 70 % leurs coûts de simulation. Au final, le constructeur a déboulé plus rapidement sur le marché avec des offres plus pertinentes et plus différenciées », reprend Stephan Hadinger.

Pas étonnant que, derrière cette recherche de puissance de calcul, se cachent des ambitions nationales en matière de souveraineté aussi bien géopolitique qu'industrielle et économique. Ainsi la Chine annonce-t-elle sont intention de mettre au point cette année deux machines de 100 pétaflops (trois fois plus rapides que la machine actuelle la plus rapide). Réelle avance ou effet d'annonce ?

« Théoriquement, Tianhe-2 est la machine la plus rapide du monde. Mais nous n'avons aucun renseignement sur le code qu'elle utilise. Or c'est le logiciel qui donne toute sa puissance à l'exploitation d'un supercalculateur », pointe Denis Gerrer, responsable HPC Europe du Sud de Nvidia, grand fournisseur de GPU (Graphic Processing Unit), au départ des accélérateurs graphiques qui, depuis quelques années, servent également au calcul massivement parallèle.

Il n'empêche, la Chine ne cesse de gagner du terrain.

1 milliard de milliards d'opérations par seconde !

La République populaire compte atteindre vers 2018-2020 le prochain Graal du calcul intensif : l'exaflop, soit 1 milliard de milliards d'opérations par seconde. Ce qui est 1.000 fois plus rapide que le pétaflop tout juste atteint à l'heure actuelle.

Autre défi de grande ampleur : la Chine veut s'affranchir des composants électroniques (processeurs et GPU) jusqu'ici fabriqués par les américains Intel, AMD et Nvidia. Restait à avoir un grand intégrateur. C'est peut-être chose faite grâce à IBM qui « a revendu l'année dernière au chinois Lenovo [après lui avoir déjà cédé sa division PC et ordinateurs portables, ndlr] sa division serveurs à base de processeurs à architecture Intel et AMD. "Big Blue" sort ainsi du plus gros segment du superordinateur au profit du chinois Lenovo qui, à son tour, pourrait alors débarquer très rapidement et très violemment sur le marché », observe Philippe Vannier, vice-président exécutif d'Atos qui a racheté l'été dernier l'intégrateur Bull, véritable champion tricolore comptant plusieurs centaines de supercalculateurs actifs dans le mode.

« Nous réalisons les deux tiers de nos ventes hors de France. Nous avons ainsi doté le Japon de la seconde de ses plus puissantes machines, Fusion for Energy (F4E), qui sert à modéliser la fusion nucléaire en collaboration avec le programme français du réacteur Iter. Nous équipons aussi le Brésil qui veut créer des centres de calculs pour ses universités. »

En Europe, les machines industrielles de Bull s'illustrent aussi bien en République Tchèque qu'aux Pays-Bas. En Allemagne, le constructeur tricolore a livré sa dernière machine, la bullx B720 (3 pétaflops, soit 3 millions de milliards d'opérations à la seconde) au Deutsches Klimarechenzentrum (DKRZ), le centre de calcul de la météo allemande, en collaboration avec l'américain Seagate et ses 45 pétaoctets de stockage. Reste que sur les dix premiers supercalculateurs, outre la machine chinoise et une machine du japonais Fujitsu, les constructeurs américains Cray, Dell, IBM et SGI raflent la mise.

L'enjeu crucial de la consommation d'énergie

« L'année prochaine ou dans deux ans, une machine européenne devrait faire son entrée dans le top 10 mondial », prédit Denis Gerrer de Nvidia.

En revanche, le fait récent le plus marquant, selon IDC, c'est le contrat qu'IBM a remporté en novembre dernier dans le cadre du programme Coral visant à doter le ministère américain de l'Énergie et du Charbon de quatre supercalculateurs de plus de 100 pétaflops répartis dans les universités d'Oak Ridge (machine Summit à 150 pétaflops, extensible à 300), Argonne et Livermore (machine Sierra à 100 Pétaflops extensible à 200) d'ici à la fin 2017, pour un montant global de 325 millions de dollars.Reste que l'ensemble du secteur est confronté à un problème de taille : l'énorme consommation électrique des supercalculateurs.

« Tous les dix ans, leur puissance de calcul est multipliée par 1.000. Quant à la durée de vie d'un supercalculateur, elle n'est que de quatre à cinq ans », reconnaît Christine Ménaché, responsable du Centre de calcul recherche et technologie (CCRT) du CEA, ouvert aux académies et industriels et établi à Bruyères-le-Châtel, à 15 km de Saclay (Essonne).

« Passé ce laps de temps, il est bien plus rentable d'installer une machine plus moderne plutôt que conserver l'ancienne. Sur cinq ans, les progrès techniques réduisent la consommation énergétique par un facteur 32 », précise Philippe Vannier.

« En 2005, un supercalculateur consommait 5 MW contre 17 MW aujourd'hui. On ne peut pas continuer indéfiniment à augmenter la puissance de calcul en même temps que la consommation électrique. Avec la prochaine génération, l'exaflop, on veut limiter la consommation à 20 MW. Il va donc falloir que toute l'industrie suive... », insiste MarieChristine Sawley, directrice du laboratoire Exascale Computing Research (ECR) d'Intel en partenariat avec le CEA et l'université de Versailles-Saint-Quentin-en-Yvelines (UVSQ).

« La puissance énergétique est devenue le nerf de la guerre. À tel point qu'on conçoit les supercalculateurs en fonction de la puissance qu'il sera possible de leur amener. Ensuite, sur ses cinq ans de vie, la consommation électrique globale d'un supercalculateur revient aussi cher que la machine elle-même », calcule Denis Gerrer de Nvidia.

Dans l'arrière-cour des grands constructeurs de supercalculateurs, une autre bagarre se déroule entre les ténors des composants électroniques : les processeurs, les GPU et les composants d'interconnexion entre processeurs.

« En fait, deux modèles coexistent. Le premier met en parallèle de très puissants processeurs à haute fréquence d'horloge [comme les Xeon d'Intel, les Opteron d'AMD ou les Power d'IBM, ndlr] mais en nombre relativement limité, car ils dégagent de très grandes quantités de chaleur - ce qui coûte cher en énergie de refroidissement, décrit Gérard Roucairol, président du Plan national Supercalculateurs de la Nouvelle France industrielle et président de Teratec, la "Silicon Valley" française du calcul intensif en région parisienne. Le second modèle, quant à lui, utilise en parallèle énormément de processeurs bien plus petits, certes également moins rapides et moins puissants, mais surtout beaucoup moins gourmands en énergie. »

C'est la guerre autour du superordinateur

Si le trio Intel, AMD et Nvidia ne court aucun risque d'être expulsé du marché, il pourrait néanmoins être sacrément concurrencé par l'architecture de processeurs ARM (Acorn Risc Machine, introduite en 1983 par le britannique Acorn Computers Machine), que l'on retrouve aujourd'hui embarquée dans tous les équipements mobiles : smartphones, PC portables, tablettes tactiles, consoles de jeux...

Une architecture que propose, d'ailleurs, Nvidia.

« Ces composants pour la mobilité représentent une assise commerciale énorme, s'enthousiasme Gérard Roucairol. L'idée, c'est de les réutiliser pour construire de nouvelles générations de supercalculateurs à la fois plus puissantes, moins onéreuses et surtout moins gourmandes en énergie. »

« Il faut dire que les processeurs s'approprient 40 % (ou plus) de la consommation totale d'un supercalculateur, commente Alex Ramirez, chef du projet européen de recherche Mont-Blanc (20 millions d'euros), porté par le Barcelona Supercomputing Center. Nous pensons qu'avec ces architectures, le supercalculateur Mont-Blanc consommera quatre à dix fois moins d'énergie. »

Dans la foulée, des acteurs comme Orange et Nvidia développeraient également des petites machines à 64 processeurs peu gourmandes en électricité mais capables de fournir, malgré tout, une puissance de calcul intéressante.Pour sa part, IBM ne s'imagine pas accoucher seul d'une nouvelle architecture pour son puissant processeur Power.

« L'effort à accomplir est bien trop important pour arriver à l'exaflop. Personne ne peut plus tout inventer seul. C'est pourquoi nous avons créé le consortium Open Power qui rassemble d'ores et déjà près de 70 partenaires. C'est une réelle alternative à Intel », annonce Michel Teyssèdre, directeur des technologies d'IBM France.

La guerre du superordinateur est bien déclarée.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 04/05/2015 à 1:38 :
Le fait que Microsoft soit complètement absent de ce marché (95% de Linux) ouvrira peut-être les yeux de nos décideurs (et de l'enseignement supérieur j'espère) qui s’aplatissent régulièrement au pied de la firme de Redmond.
a écrit le 01/05/2015 à 19:57 :
lointain souvenir du temps ou j'etais chez Bull , censé etre le champion tricolore du secteur. en fait si mes souvenirs sont exact leur technologie etait japonaise base sur une coopération avec NEC (japon).
part de marche mondial de bull 0.5%
a écrit le 01/05/2015 à 17:17 :
L'architecture Power d'IBM est en perte de vitesse contre ARM. Après Apple, ce sont FreeScale
(ex-Motorola) et bien d'autres qui s'en détournent.
a écrit le 01/05/2015 à 15:19 :
Il n'y a pas que les processeurs que les européens ne savent pas faire malheureusement... Ils ne savent pas non plus faire les écrans, ni même les ordinateurs grand public..
a écrit le 01/05/2015 à 13:11 :
Les europeens ne developpent de microprocesseurs. Est ce une question de rentabilite economique ou parce qu'ils ne savent pas vraiment faire ?
Réponse de le 02/05/2015 à 16:28 :
D'un point de vue architectural, 99% de ce qui concerne les processeurs est dans la nature. Disons que tout le monde (industriel) saurait fabriquer un processeur décent si besoin était. Le vrai problème est effectivement économique et dans la maitrise de la filière de fonderie. Descendre en résolution de gravure n'est pas un sport de masse. Ceci étant cela résulte d'une volonté économique des acteurs. Juste pour rire une seconde la branche processeurs d'AMD perd de l'argent "officiellement" depuis des années, pourtant au pays deu capitalisme elle reste en activité. D'aucuns penseraient que cela est relié à la maitrise du design de GPU qui très curieusement constiteunt l'avenir des super calculateurs...
En Europe il y a longtemps que cette question n'intéresse plus aucun industriel depuis le sabordage de la filière informatique française dans les années 70.
a écrit le 01/05/2015 à 13:11 :
Les europeens ne developpent de microprocesseurs. Est ce une question de rentabilite economique ou parce qu'ils ne savent pas vraiment faire ?
a écrit le 01/05/2015 à 11:47 :
Il semble échapper à beacoup que seuls les US maitrisent la production de processeurs et que les fonderies de chips les plus fines ne sont pas en Europe. Sur le long terme ce n'est pas très bon...
Réponse de le 03/05/2015 à 14:31 :
Bonjour,
Vous vous trompez, les coréens du Sud et les chinois savent parfaitement concevoir des processeurs aussi performants que les entreprises US, sans parler bien sur du japon, de l'Allemagne et de la France qui le savent aussi mais gardent ces conceptions pour l'industrie militaire et spatiale en grande partie. Il est à noter que les japonais conçoivent énormément de processeurs.
En Europe il me semble que STMicroelectronics reste un fondeur B2B et grand public très connu issu de Thomson semi-conducteur si je me souviens bien et qui réalise pas loin d'un milliard de bénéfice chaque année mais positionné sur d'autres marché que les supercalculateurs.
Quand à AMD il me semble que l'entreprise est passé en grande partie sous pavillon moyen oriental au niveau de son actionnariat et le chinois BLX IC Design serait intéressé par une OPA amicale afin de fusionner leurs activité complémentaires et d'ouvrir le marché chinois et asiatique à AMD.
Le problème de fond de la conception de microprocesseurs performant reste la rentabilité et les débouchés et non le savoir faire qui est facile à acquérir et à perfectionner.
Réponse de le 04/05/2015 à 8:46 :
Voir commentaire @Artis. Navré de vous décevoir, mais il n'y a pas de processeur de conception nationale dans le militaire ou le spatial des pays Européens que vous citez. Dans le domaine militaire tout le mond utilise des composants 'miliatires' qui sont juste des composants 'civils' triés ou au mieux implantés sur des substrats spécifiques (SOI). Dans le spatial européen il s'agit d'architectures Sparc (US) portées sur des technos mieux adaptées au vol. Le fondeur habituel est Atmel (tant qu'il existe). La plus grande partie des composants durcis en spatial vient de chez Aeroflex (US). Thomson ne fond rien, il conçoit des Asics, nuance. Quant à STM c'est un fondeur grand public qui n'a pas d'architecture originale à son catalogue. On attend toujours une techno spatiale chez STM (65 nm au mieux...). Les Chinois utilisent des architectures de type Sparc ou Mips parce qu'elles sont librement accessibles et ils les fondent localement pour leurs besoins 'sol'. Pour le spatial ils achètent chez Atmel des ERC32 (Sparc). Les russes ont la même approche. Quant à l'architecture ARM elle est aussi sous contrôle US bien que d'origine UK. Les Coréens font comme tout le monde.
Vous trouverez un peu partout des processeurs divers et variés, mais les seuls qui soient réellement en production et qui disposent d'un ecosystème signficatif sont US. Comme toujours, faire un processeur qui atteint 90% de la performance des meilleurs est architecturalement à la portée de beaucoup (les docs sont publiques) ce qui est difficile ce sont les derniers 10% et encore plus de disposer de fonderies assez fines pour ne pas dissiper des wagons de watts... Sans compter, en matière de super calculateurs la disponibilité de compilateurs générant du code parallèlisable ce qui n'est pas si banal que ça....
a écrit le 01/05/2015 à 11:29 :
C'est une bonne nouvelle pour notre industrie et le pays, que l'on soit capable de concevoir ce type de machine. Cela donne un avantage comparatif indéniable et permet à la France de se placer parmi les meilleures nations de la planète (elles ne sont que 4 d'ailleurs).
Réponse de le 02/05/2015 à 14:24 :
Je ne voudrais pas tempérer votre optimisme, mais n'avez-vous pas remarqué que depuis quelques années déjà, les individus qui sont au pouvoir en France font tout, absolument tout, pour enlever à notre pays les outils scientifiques et industriels qui lui permettaient de figurer parmi les grandes puissances et plus simplement d'être une Nation souveraine ?
L'exemple de la vente de Alstom aux Américains de General Electric, qui place de fait, désormais, la Marine nationale sous le contrôle direct des Etats-Unis et qui prive désormais la France de son système militaire de surveillance des satellites (qu'elle était jusqu'à cette vente un des rares pays à posséder), est particulièrement révélateur et devrait faire réfléchir les Français.
Le Centre Français de Recherche sur le Renseignement a d’ailleurs publié un très intéressant (et explosif) dossier sur cette énième haute trahison :
http://www.cf2r.org/images/stories/RR/rr13.pdf
Réponse de le 02/05/2015 à 16:23 :
"qui prive France de son système militaire de surveillance des satellites...."
1/ N'exagérons rien en la matière, la vraie ressource est celle permettant d'acquérir des données d'orbito sur les cibles, et cette filiale d'Alsthom n'y est pas pour grand chose. Pour ce qui est du processing de ces données, nous avons d'autres options....
2/ Conniassez vous les détails de la vente pour être sûr que cette activité en faisait partie?
Ceci étant, il n'est jamais bon de vendre les bijoux de famille et l'article cité est des plus intéressant.
Réponse de le 02/05/2015 à 18:37 :
@Thomas.J
Non, je n'ai pas d'autres détails concernant cette vente que ceux figurant dans le rapport cité dans mon précédent message.

Cela dit, ce rapport est quand même très clair sur les conséquences de cette vente en matière de défense (pour ne parler que de ça) :

"Les conséquences en matière militaire :
Sur le plan militaire, la vente d’Alstom conduit à laisser partir dans des mains
étrangères deux composantes essentielles de notre défense : la propulsion de navires et le suivi des satellites étrangers.
En matière de turbines pour les bâtiments de surface et les sous-marins de la marine nationale, GE se trouve désormais être un fournisseur en situation de quasi monopole, ce qui rend notre flotte de guerre très largement dépendante de ses livraisons."

C'est donc très clairement une opération de neutralisation du potentiel militaire de la France et une opération (de plus) de destruction de sa souveraineté.
OPÉRATION MENÉE AVEC LA COMPLICITÉ ACTIVE DU PRÉSIDENT DE LA RÉPUBLIQUE ET DU "GOUVERNEMENT" FRANÇAIS ET AVEC LA COMPLICITÉ PASSIVE DE LA QUASI TOTALITÉ DES PARLEMENTAIRES FRANÇAIS.
Réponse de le 03/05/2015 à 21:00 :
@chouxchouxdebruxelles : je n'ai posté que le premier commentaire et non le reste, ensuite (et toujours personnellement) je ne fais pas partie de ceux qui se réjouissent de la moindre mauvaise nouvelle pour en faire leur choux gras ou un traité de déclinologue... Notre pays va mal certes mais il a connu bien pire par le passé et je lui garde toute ma confiance et ma reconnaissance car il a tout les atouts pour réussir. Certains indices laissent à penser que le vent finira par tourner (car le pays n'est évidemment pas destiner à rester dans un abysse) et comme le dit si bien Hubert Védrine, c'est d'abord par ce pessimisme et ce manque de confiance flagrant que l'on pèche et non parce que tout fout le camp. On est même plus anxieux que certains pays très pauvre ou en guerre, cherchez l'erreur...
a écrit le 01/05/2015 à 10:51 :
Tout ceci suppose une programmation qui suive. Les malheurs du récent programme de calculs des paies de l'armée, qui ont bien dû faire rire bon nombre de programmateurs, laissent dubitatif...
Réponse de le 01/05/2015 à 17:47 :
Le calcul numérique est plus "logique" que la paie de l'armée ou des fonctionnaires avec 1800 types de primes (donc certains obsolètes voire absconses mais servies). Il faudrait débord simplifier la gestion des fonctionnaires avant d'informatiser.
On peut trouver (EDF) du code et outils pour faire des calculs d'échanges thermiques par maillage (ça tourne sous Linux), gratis. Ça peut aussi servir (ce que faisaient des collègues) pour la modélisation des déperditions calorifiques des bâtiments (et vérifier sur des vrais si ça correspond).
Rire jaune. Pour Socrate de la SNCF, ça a également fait des ennuis. Sais pas si amélioré, chercher des trajets sur la DB Allemande serait conseillé pour voyager en France, le système Français natif gèrerait mal les horaires et oublie certaines "correspondances" (un problème d'algorithmique).
Réponse de le 02/05/2015 à 3:00 :
@Pourquoi pas, renseignez-vous sur le logiciel CATIA !! l'article en parle indirectement avec DASSAULT AVIATION.
a écrit le 01/05/2015 à 10:46 :
"pour vivre en pleine forme 100 ans et plus... " Pour faire quoi? Travailler?Stagner au fin fond d'une maison de retraite? Non merci.
Réponse de le 01/05/2015 à 12:05 :
Vous avez raison ; les médias nous servent cette extra-longévité sans arrêt, ainsi d’ailleurs que le voyage habité vers Mars . Sans parler de l'impossibilité économique de la chose.
Réponse de le 01/05/2015 à 17:52 :
Disons que le principe serait plutôt de vivre en bonne santé jusqu'à 82 ans et mourir le lendemain de l'anniversaire (essoufflé, ça fait beaucoup 82 bougies). Au lieu de trainer vingt ans gaga et invalide jusqu'à pas d'age. Une tante maternelle, jamais malade de sa vie a eu Alzheimer pendant 15 ans et décédée à 99 ans, pas sûr que ce soit "enviable" (qui sait, on dit ça vu de l'extérieur).
Le "100 ans" est basé sur le fait que de nombreuses filles naissant en 2015 seront centenaires (ai oublié la proportion, 25?). Parler de 120 ans serait un peu exagéré.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :