Deep Data valide le stockage des données dans les souterrains du saumurois

 |   |  947  mots
Mis au point par l'entreprise Céleste, ce box d'environ 15 m2, d'une capacité de 3.200 To, peut héberger les données d'une dizaine de grosses PME. Suivi 24/7, ce démonstrateur a permis de valider les modélisations du fonctionnement thermique et les expérimentations techniques échafaudées depuis trois ans pour utiliser la régularité d'une température ambiante maintenue naturellement entre 11°C et 12°C grâce à la forte hygrométrie du tuffeau.
Mis au point par l'entreprise Céleste, ce box d'environ 15 m2, d'une capacité de 3.200 To, peut héberger les données d'une dizaine de grosses PME. Suivi 24/7, ce démonstrateur a permis de valider les modélisations du fonctionnement thermique et les expérimentations techniques échafaudées depuis trois ans pour utiliser la régularité d'une température ambiante maintenue naturellement entre 11°C et 12°C grâce à la forte hygrométrie du tuffeau. (Crédits : Frédéric Thual)
Les protagonistes du projet Deep Data viennent de valider la faisabilité technique d'un data centrer, écologique et sécurisé, aménagé dans les galeries souterraines du saumurois. Les performances rivaliseraient avec les meilleurs mondiaux. L'industrialisation de ce modèle innovant pointe le bout de son nez.

Si l'offre commerciale et les problématiques cadastrales ne sont pour l'heure pas finalisées, le consortium d'entreprises (Céleste, Sigma, Critical Building, Eliot, Enia Architectes, Caisse des Dépôts et Consignation), réuni autour du projet de data center souterrain Deep Data dans les galeries à champignons du saumurois, se réjouit des premiers résultats livrés par le démonstrateur Star DC, installé dix mètres sous terre en juillet dernier. Mis au point par l'entreprise Céleste, ce box d'une quinzaine de mètres carrés, d'une capacité de 3.200 To (téraoctects), peut héberger les données d'une dizaine de grosses PME. En toute sécurité. Et en toute confidentialité. En premier lieu, ce démonstrateur, suivi 24 heures sur 24, 7 jours sur 7, a surtout permis de valider les modélisations du fonctionnement thermique et les expérimentations techniques échafaudées depuis trois ans pour utiliser la régularité d'une température ambiante maintenue naturellement entre 11°C et 12°C grâce à la forte hygrométrie du tuffeau. Et ce, quelle que soit la saison. Les ingénieurs ont ainsi écarté l'idée d'un refroidissement par air, plus coûteux... et qui aurait asséché les pierres de tuffeau. Le démonstrateur est, en fait, refroidi par une eau circulant dans des dizaines de kilomètres de tuyaux en forme de marguerite parcourant les grottes.

Une performance énergétique au niveau des meilleurs mondiaux

Sans optimisation supplémentaire, le Deep Data offre un niveau de performance énergétique - dans le jargon, on parle de PUE (pour Power Usage Effectiveness)- selon la norme habituellement utilisée, de 1,1 quand, à l'exception des installations de Google, les moyennes se situeraient plutôt autour de 1,30 à 1.35.

« Nous arrivons donc au niveau des meilleurs mondiaux, comme Google. C'est donc loin d'être anecdotique », remarque Laurent Trescartes, consultant expert chez Critical Building, spécialisée dans l'installation des datas centers pour des grands comptes.

L'impact est loin d'être négligeable. Et pour cause, le poste de climatisation représente la plus grosse partie de la facture d'un data center. « Un appareil de 10.000 m² dépenserait autant d'électricité qu'une ville de 50.000 habitants. Le seul refroidissement des serveurs compte pour 40% de la consommation annuelle d'électricité », étaye le consortium. Ici, grâce à la dissipation thermique, l'expérimentation menée sur ce module de 20 kilowatt a montré qu'il consommait seulement 0,17 Kw pour fabriquer du froid quand un data center classique nécessite entre 5 et 15 kilowatts.

« Comparé à une voiture, c'est comme si on passait d'une consommation de 6 litres au 100 km à un dé à coudre », assure Mathieu Chazelle, d'Enia Architectes. La facture énergétique baisserait ainsi de 20% à 25%. « Ce qui, pour 40 baies de serveur, représente entre 50.000 et 100.000 euros », dit-il.

Un argument de compétitivité qui sera largement revendiqué.

Deep Data 2, photo Frédéric Thual, data center, saumurois, stockage des données, souterrains, consortium d'entreprises, Céleste, Sigma, Critical Building, Eliot, Enia Architectes, Caisse des Dépôts et Consignation,

Une zone d'activité à usage informatique

Econome, écologique, modulaire et sécurisé, le concept de ce Deep Data et les milliers de kilomètres de galeries situées entre 5 et 25 mètres sous terre, délaissées par les champignonnières et les carrières, laissent augurer de jolies perspectives économiques et territoriales. Même si un certain nombre de problématiques cadastrales sont à résoudre pour exploiter des sous-sols détenus par des propriétaires indépendants, des coopératives, etc., qui ont pu ou non concéder l'exploitation de leur galerie. «On réfléchit à un système de location ou d'acquisition, ou sous une formule mixte. Toutes les galeries ne sont toutefois pas exploitables. Et, certaines peuvent aussi être partagées entre plusieurs propriétaires en surface », reconnaît Christian Herrmann, directeur du pôle Infogerance de Sigma, membre du consortium Deep Data, qui vient d'accueillir la Caisse des Dépôts et Consignation, prête à accompagner l'industrialisation de ce concept. Un recensement des troglodytes est en cours pour déterminer les endroits où pourraient être déployés de nouveaux modules. Car, les acteurs du projet voudraient bien concevoir une nouvelle forme de zone d'activités à usage informatique. Un lieu accessible en véhicule, doté d'un accueil, de bureaux, de toilettes, d'une cafétéria pour le personnel technique et les clients.  A terme, les acteurs du consortium imaginent aussi de pouvoir réutiliser l'eau montée en température par le data center pour réchauffer de l'habitat, en surface.

La campagne de mesures lancée en juillet dernier va se poursuivre jusqu'en mars prochain. De manière à pouvoir bâtir et lancer des offres commerciales pour les PME et les industriels au second semestre 2017.

Passage de témoin entre le public et le privé

Lancé il y a trois ans par la Région des Pays de la Loire dans la cadre d'une Plateforme Régionale d'Innovation voulue pour revaloriser le sous-sol et le patrimoine local, le projet est désormais entièrement piloté par le consortium Deep Data. « La reprise de ce projet par des partenaires privés -que nous continuerons à accompagner- va dans le sens de l'action économique que nous voulons mener. La Région a vocation à guider les entreprises sans se substituer à leur action », indique Paul Jeanneteau, vice-président de la région, en charge du développement économique et de l'innovation.  En quatre ans, 500.000 euros ont été investis dans cette opération, dont 150.000 euros par les entreprises du consortium. Le reste émane de la région, principalement, du département du Maine-et-Loire et de la communauté d'agglomération Saumur Loire Développement. Ces investissements et cette nouvelle vocation ont finalement rassuré les édiles des communes qui s'inquiétaient de la fermeture des galeries et de leur abandon.

Par Frédéric Thual,
correspondant de La Tribune pour les Pays de la Loire

(Reportage photos : Frédéric Thual)

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 28/11/2016 à 19:48 :
Ces fichues caves trogloditiques qui ont fait découvrir le rosé (le bon, pas celui qui nous sert de désherbant, ces pàles copies) au monde entier va stocker nos données c'est sympa.
Après tout elle ont bien servi à garder celui de champagne en 1914/1918 les propriétaires après tout étant souvent le mêmes!
Qui a dit que le Saumur méthode champenoise dépannait les mauvaises années vers 1900?, c'est faux, Saumur revendait le champagne sous son appellation puisque le Saumur pétillant est le meilleur du monde, foi d'ivrogne!
a écrit le 27/11/2016 à 18:59 :
Merci le service public donc que pourtant, du front national au PS, tous les partis politiques veulent dépecer pour offrir au privé pourtant incompétent.

"A terme, les acteurs du consortium imaginent aussi de pouvoir réutiliser l'eau montée en température par le data center pour réchauffer de l'habitat, en surface."

C'est indispensable, maintenant que l'idée à été mise en pratique par une boite parisienne il ne faut pus gaspiller cette énergie.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :