Ouvrir le menu principal
Centre de traitement de données.

Un centre de données (en anglais data center ou data centre) est un lieu (et un service) regroupant des équipements constituants du système d’information d'une ou plusieurs entreprise(s) (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne et/ou externe à l’entreprise, exploité ou non avec le soutien de prestataires[1]. Il fournit des services informatiques en environnement contrôlé (climatisation) et sécurité (système anti-incendie, contre le vol et l'intrusion, etc.), avec une alimentation d'urgence et redondante.

Des enjeux environnementaux sont liés d'une part à leur consommation de métaux rares ou précieux et de terres rares, et d'autre part à une consommation croissante d'électricité de l'ensemble des centres de données, et à leur coproduit qu'est la chaleur de récupération, dissipée par les serveurs et les systèmes de stockage en particulier, mais qui peut être une énergie de récupération. Enfin les TIC comptent en 2018 déjà pour plus de 2 % des émissions de carbone mondiales (et bien plus en comptant leur énergie grise).

Description et histoireModifier

 
Tablettes d'équipement de télécommunications.
 
Centre de données de l'Agence Reuters à Londres.

Un centre de données est un bâtiment sécurisé contre l'intrusion et les risques naturels et technologiques, abritant différents équipements électroniques, des ordinateurs, des systèmes de stockage et des équipements de télécommunications. Le centre peut occuper une pièce, un étage ou de grands immeubles.
On y retrouve des serveurs 1U (surnommés « boîtes à pizza ») ou plus, « U » correspondant à une unité de hauteur de 4,445 cm empilés dans des baies, lesquelles sont arrangés pour former des rangées simples, ce qui permet de circuler facilement parmi les serveurs, tant à l'avant qu'à l'arrière. Quelques appareils, ordinateurs centraux par exemple, sont de dimensions semblables à ces baies. Ils sont souvent placés à leurs côtés.

Avant la bulle Internet, des millions de mètres carrés destinés à abriter de tels centres furent construits dans l'espoir de les voir occupés par des serveurs. Depuis, la concentration des centres s'est poursuivie, avec le développement de centres spécialisés pour lesquels les défis les plus importants sont la maîtrise de la climatisation et surtout de la consommation électrique. Ce mouvement a été intégré dans le green computing et vise à aboutir à des centres de traitement de données dits écologiques pour lesquels sont apparus des outils spécialisés[2].

Vers 2008, les centres de données Hyperscale (datacenter d'au moins 250 000 serveurs, dont la climatisation est optimisée) ont été créés pour les besoins croissants d'Amazon et Google note Bill Carter du projet Open Compute (créé en 2011 pour permettre à Facebook d'économiser l'énergie consommée par ses serveurs).

L'importance prise par les stockages de données associées à une activité et les mouvements d'acquisitions entre les entreprises peuvent pousser celles-ci à acquérir en interne des technologies ou à rechercher des prestataires spécialisés sur les centres de données, ayant la capacité d'assurer une interopérabilité entre des stockages de données disparates[3].

Enjeux environnementaux et énergétiquesModifier

En 2018 les cinq premières entreprises mondiales en termes de capitalisation boursière sont Apple, Amazon, Alphabet, Microsoft et Facebook, qui prennent notamment la place des titans pétrogaziers qu'étaient Shell et ExxonMobil. Ces nouveaux géants et les GAFAM en général n'émettent pas de fumée noire mais contribuent au réchauffement des milieux et au réchauffement climatique par l'énergie grise qu'elles consomment[4]. Cette tendance devrait s'amplifier avec le développement mondial de l'Internet, de la vidéo en ligne, de la téléphonie sans fil, des objet connectés, du big data, et la technologie du blockchain. Un rapport de l'AIEA (2017) co-rédigé avec des universitaires américains sur le numérique et l'énergie estime que la quantité de données à stocker/manipuler par les centres de données devrait tripler entre 2014 et 2020, ce qui doit faire gérer les datacenters avec la plus grande vigilance (dans un premier temps l'optimisation énergétique devrait permettre de limiter l'augmentation de la consommation à 3 % entre 2014 et 2020[4] mais ni l'informatique quantique ni la bio-informatique ne semblent assez mûres pour permettre un saut technologique.

En 2018, 200 térawattheures (TWh) ont été nécessaires au fonctionnement des Datacenters, soit la production d'environ la moitié de tous les réacteurs nucléaires de France (379,1 TWh[5] en 2017, pertes en ligne non comprises (voir Effet Joule)), 1 % de la demande mondiale en électricité, ou 50 % du besoin. L'augmentation de l'efficacité des Datacenters nullifiera encore jusqu'en 2028 l’augmentation de la consommation induite par un accroissement du trafic selon Dale Sartor (responsable du Centre d'expertise sur l'efficacité énergétique dans les Datacenters du Laboratoire national Lawrence de Berkeley, du DOE), mais la demande en électricité devrait ensuite de nouveau augmenter rapidement[4].
Deux enjeux sont donc de réduire la consommation informatique mondiale d'énergie, et de valoriser sa chaleur fatale.

Ce seul refroidissement du matériel informatique contribue directement à 0,3 % aux émissions totales de carbone, alors que la totalité de l'informatique émet 2 % de toutes les émissions mondiales de Carbone, énergie grise non compris[4]. L'empreinte carbone de l'informatique devrait encore beaucoup augmenter, de même que son empreinte eau (en 2014, les datacenters américains ont consommé 100 milliards de litres d'eau en 2014 dans les tours de refroidissement). La consommation électrique de l'informatique dans le monde dépassera probablement 20 % du total mondial avant 2030 (dont le tiers pour les seuls datacenters[4]. La prospective reste délicate dans le domaine informatique où l'innovation est rapide, mais si la crypto-monnaie (type Bitcoin ou Ethereum) et la blockchain ou l'IA se développent sans se décarboner[6] et sans économiser l'énergie, notamment dans un contexte de gaspillage et d'obsolescence programmée, la demande en énergie et en électricité sera encore très supérieure[4]. Selon Alex de Vries [7] le Bitcoin (né en 2008) consommait déjà à lui seul 20 térawattheures d’électricité par an dans le monde en 2018 (l'équivalent d'un peu moins de 10 % de consommation des datacenters)[8], mais il pourrait ne pas se développer autant que ce qu'espèrent ses promoteurs, ou migrer vers des types de blockchains humaines[9] ou moins énergivores, ou pourrait ne finalement pas répondre aux besoins de confiance dans le transactions[10]. L'utilisation généralisée de la blockchain par les bourses serait plus préoccupant.

Anders Andrae, expert en TIC durables chez Huawei Technologies en Suède à Kista estime que sans effort important, la consommation électrique des centres de données pourrait être multipliée par 15 en 15 ans (de 2015 à 2030), pour atteindre 8 % de la demande mondiale en électricité[11], mais ce chiffre est controversé[4]. Le bas coût de l'énergie dans les années 2000-2010, permis par le gaz de schiste, les renouvelables et la crise de 2008, ainsi que l'absence de taxe carbone ou de taxe générale sur les activités polluantes pour les datacenters n'ont pas très fortement encouragé les économies d'énergie, mais des progrès sont faits[4].

Un scénario basé sur l'hypothèse que les smartphones pourraient remplacer les ordinateurs fixes ou portables avait conclu que l’empreinte carbone des TIC pourrait inversement diminuer entre 2014 et 2020[12], mais ce transfert ne s'est pas réalisé.

Une hypothèse inverse est qu'une partie des données sera stockée et travaillée sur les millions d'ordinateurs selon le principe d'un centre de données distribuée[13], mais des datacenters sécurisés resteront a priori nécessaires pour les données sensibles, économique, militaires, de renseignement, de santé et personnelles notamment. De nombreux serveurs réalisent aussi des taches inutiles ; ainsi Jonathan Koomey a t il constaté en 2018 que presque un quart de 16 000 petits serveurs installés dans des placards, gaines et sous-sols d'entreprises effectuaient en «zombies» des tâches obsolètes que des techniciens ou logiciels avaient oubliés de désactiver ; selon Lawrence du Berkeley National Laboratory transférer l'activité de 80 % des serveurs de petits centres de données américains vers des datacenters de très grande envergure plus performants, entraînerait une économie de 25 % de leur consommation d’énergie[14].

FonctionsModifier

Comme son nom l'indique, le datacenter sert surtout à stocker et à traiter de manière centralisée des informations (datas) pour le compte d'entreprises, d'administrations et des particuliers. Par exemple, une banque peut y recourir pour stocker des informations sur ses clients et ses ressources. Presque toutes les entreprises de taille moyenne en utilisent et les grandes entreprises en utilisent souvent plusieurs.

Les données et bases de données sont souvent devenues cruciales pour le fonctionnement des entreprises et de la société en général. Un nombre croissant de données sont dites données personnelles ou sensibles, ce pourquoi de hauts niveaux de sécurité et de service sont demandés aux datacenters, pour assurer l'intégrité et le fonctionnement de leurs appareils et éviter le déni de service.

ComposantesModifier

Elles doivent pour chaque centre assurer la bonne connexion réseau (internet, intranet, etc.) et une haute disponibilité du système d'information. Pour cela, des applications logicielles gèrent les tâches essentielles de l'« activité métier » des clients. Parmi ces applications, on retrouve des gestionnaires de bases de données, des serveurs de fichiers et des serveurs d'applications.

Composantes physiquesModifier

 
Centre de données modulaire mobile en conteneur.
  • Climatisation (précise et stable)
  • Contrôle de la poussière (filtration de l'air)
  • Unité de distribution de l'énergie
  • Bloc d'alimentation d'urgence, et une unité de secours (Générateur, UPS)
  • Système perfectionné d'alerte d'incendie
  • Extinction automatique des incendies (par micro-gouttelettes ou gaz inerte)
  • Plancher surélevé
  • Conduites pour câbles au-dessus et au-dessous du plancher
  • Surveillance par caméras en circuit fermé
  • Contrôle des accès, ainsi que sécurité physique
  • Surveillance 24/7 des serveurs dédiés (ordinateurs)
  • Service de sécurité continuellement présent
  • Câbles de paires torsadées de cuivre en Ethernet (Fast ou Gigabit) pour liaisons inter-[jarretières/switches/routeurs/firewall]
  • Fibres optiques pour liaisons inter-sites ou inter-[jarretières/switches/routeurs/firewall]

ClimatisationModifier

La climatisation entretient une température homogène d'environ 20 degrés Celsius, essentielle car le fonctionnement des systèmes informatiques génère beaucoup de chaleur, et deviennent défectueux au-delà d'un certain seuil de température[15].

Un centre de traitement moderne est conçu pour optimiser le refroidissement de tous les serveurs, et donc réduire le coût énergétique de l'installation, permettant d'aussi réduire le coût d'hébergement.
La climatisation est généralement testée dès la réception du centre, couramment[réf. souhaitée] avec des aérothermes générant de l'air chaud, ou avec des bancs de charge (rackables) pouvant être insérés dans les baies si celles-ci sont déjà présentes.

 
Principe du refroidissement des baies.
Organisation de la climatisationModifier
  • Au minimum, de l'air chaud est aspiré et de l'air froid insufflé sans organisation particulière, mais l'architecture du site est de plus en plus conçue pour éviter que l'air chaud et l'air froid se mélangent trop vite, afin d'économiser l'énergie. Des caches obturent les parties inutilisées des baies, pour ne pas perturber le flux d'air froid prévu.
  • Des couloir chaud alternent avec des couloir froid, un couloir sur deux insuffle l'air froid, par le côté avant des serveurs, via des baies grillagées, l'autre couloir aspire l'air chaud par l'arrière. Certains équipements réseau (ex: commutateurs réseau) peuvent avoir le refroidissement avant arrière ou arrière avant selon les besoins, ce qui simplifie le câblage. Le rendement est meilleur, mais l'air chaud peut encore partiellement se mélanger, à l'air froid en bout de rangée de baie ou par-dessus les baies[16]
  • Utilisation d'un cube de confinement avec corridor chaud, ou froid, selon les choix des constructeurs. Le 'cube' dans lesquelles sont placées les baies, comporte un plafond et des portes à double ou triple vitrage, réduisant considérablement les échanges de température, seul un côté des baies échange l'air, avec les serveurs orientés en fonction du choix corridor chaud ou corridor froid. C'est aujourd'hui la solution optimale[17].
  • L'immersion du système dans un fluide réfrigérant (huile ou fluide minéral) est possible, encore expérimentale et réservée à des serveurs à haute intensité de flux de données et devant les traiter massivement[4].
Systèmes de production de l'air froidModifier
 
datadock au port autonome de Strasbourg est refroidi à l'eau[18].
Article détaillé : Réfrigération.

Le compresseur frigorifique est la base des systèmes de refroidissement, cependant, ils peuvent comporter des bains liquides permettant d'améliorer le rendement.

  • Le free cooling (refroidissement à air, éventuellement associé à une pompe à chaleur) permet de limiter le recours à des refroidisseurs et ainsi de réduire la facture énergétique. Le free cooling n'est intéressant que dans les implantations où l'air extérieur est froid suffisamment longtemps durant l'année.
  • La climatisation peut être complétée par un refroidissement à eau (hydrocooling), l'eau étant 4 000 fois plus efficace que l'air pour extraire et évacuer la chaleur, les « calories fatales » pouvant éventuellement être récupérées.

Composantes « Réseau »Modifier

Ce sont notamment :

SécuritéModifier

 
Salle de calcul du CERN.

L'environnement physique des centres est sous stricte surveillance :

  • La surveillance du bon fonctionnement de la climatisation, elle-même essentielle au bon fonctionnement du matériel électronique.
  • L'alimentation de secours peut être fournie via un UPS et un générateur électrique ou via un groupe tournant (no-break) couplé à un accumulateur cinétique.
  • Dans le but de prévenir une perte d'alimentation électrique, toutes les composantes électriques, y compris les systèmes de secours, sont habituellement doublées. Les serveurs dits essentiels sont de plus alimentés par un système qui fait appel à deux sources électriques indépendantes à l'intérieur du centre.
  • Les centres ont habituellement un plancher surélevé de 60 cm, fait de dalles amovibles. Cet espace permet la libre circulation de l'air, tout comme il facilite le câblage d'alimentation et de données par des chemins de câble différents. Cependant, des centres de données sont sans plancher technique (alimentation par le dessus des racks, afin de supporter plus facilement des éléments lourds de type mainframe (IBM z10, etc.).
 
Bouteille d'extinction FM-200 dans un centre de calcul.
  • Ils ont souvent des systèmes complexes de prévention et d'extinction des incendies. Les centres modernes sont souvent équipés de deux systèmes d'alarme. Le premier détecte les particules chaudes émises par les composantes surchauffées de l'équipement, particules qui provoquent souvent un feu. De cette façon, il est possible d'éliminer à sa source un foyer d'incendie (parfois, il suffit d'éteindre un ensemble à soudure pour éliminer le risque d'incendie). Un deuxième système sert à activer un ensemble d'activités si un début d'incendie se manifeste. Ces systèmes sont également dédiés à une portion du centre de traitement de données. Couplés à d'excellentes portes anti-feu et autres appareils de confinement, il est possible de contrôler le feu et de l'éteindre sans affecter le reste du bâtiment.
  • Les systèmes conventionnels d'extinction du feu sont aussi nocifs que le feu pour les composants électroniques, c'est pourquoi des procédés alternatifs ont été développés. Certains utilisent l'azote, l'argonite, le FM-200 ou le Novec(tm)1230 FK-5-1-12, alors que d'autres se rabattent sur l'émission de fines particules d'eau ultra-pure (cette eau n'est pas électriquement conductrice, ce qui n'endommage pas les composants électroniques).
  • La sécurité est aussi essentielle au fonctionnement de tels centres. L'accès physique à ces centres est restreinte au personnel autorisé, tout comme des caméras vidéo permettent de suivre les personnes sur place. Également, des gardes de sécurité veillent si le centre est grand ou contient des informations considérées comme essentielles.

Gestion thermique des centres de donnéesModifier

En 2012, dans un Centre de traitement de données, les onduleurs et la climatisation consomment la moitié de l'énergie du centre. Les serveurs modernes (2012) peuvent supporter jusqu'à 45 °C (à ne jamais dépasser), mais demandent une température de 20 à 35 °C. Or, malgré les progrès faits sur les composants (plus efficients), les serveurs tendent à être de plus en plus compacts et denses (par surface). L'efficience énergétique du serveur et du centre de données sont en cours d'amélioration (optimisation de la conception à l'utilisation), adaptation du besoin à la puissance du serveur, free-cooling par eau ou air.

La climatisation, souvent surdimensionnée perd souvent de son efficacité à cause d'une homogénéisation thermique du volume d'air, due à une mauvaise disposition des matériels dans les salles. De nouveaux serveurs plus tolérants à la chaleur peuvent supporter de petits « pics » de chaleur et permettent de limiter ce surdimensionnement, si les équipements sont judicieusement placés. C'est le rôle (métier) du concepteur de centre de données d'y veiller grâce à des allées froides cloisonnées ou allées chaudes cloisonnées ou confinées par exemple ; les allées chaudes sont celles qui sont en arrière des serveurs, et les allées froides sont celles qui sont devant). Idéalement, les rangées de serveurs ne doivent pas subir plus de 20 °C (ou un peu plus pour les matériels récents). Cet urbanisme s'appuie sur la simulation aéraulique, pour améliorer la gestion (avec éventuelle récupération/valorisation) de la chaleur dégagée par les serveurs, et pour aménager l'intérieur du centre de données, avec le meilleur positionnement des serveurs dans de bonnes conditions de poids, de densité, d'aération, de longueur de câbles. Cette activité croise les règles de l'informatique et celles de la connexion électrique et du thermicien, tout en devant faciliter la maintenance, au profit de l'efficience énergétique.

De la fin des années 2000 à 2012, on est passé de 10 à 50 % de « serveurs virtuels » ; ces derniers peuvent aussi contribuer à optimiser la gestion des flux d'énergie[19].

Microsoft, arguant que la majeure partie de la population vit près des côtes alors que les serveurs en sont éloignés (ce qui allonge les délais de latence dans les connexions), teste depuis début juin 2018 un « data center immergé » en mer (« Natick Project »)[20].

Construit par le Naval Group (ex-DCNS, français), devant consommant 5 % de l'énergie qui serait nécessaire pour le même service à terre, il doit être testé un an, bien que la structure soit prévue pour être immergée cinq ans, avec un premier serveur de capacité équivalente à quelques milliers de PC individuels ; de quoi stocker près de cinq millions de films numérisé[20]. Le système est immergé dans un cylindre amarré sur le fond au large de l'archipel des Orcades (nord de l'Écosse). Il est télégéré et son alimentation provient d’énergies marines renouvelables[20].

Indésirable dans les serveurs, les calories qui en sont extraites sont valorisables, par exemple pour le chauffage de logements, des bureaux, de serres, de cultures d'algues...

RéseauModifier

 
Supervision du réseau dans une salle de contrôle d'un centre de données.

Les communications à l'intérieur d'un centre se font maintenant presque exclusivement par Internet Protocol. Il contient donc des routeurs, des commutateurs et tout autre équipement qui permet d'assurer la communication entre les serveurs et le monde extérieur. La redondance est parfois obtenue en faisant usage de multiples équipements réseau de marques différentes.

Quelques serveurs servent à fournir aux utilisateurs de la société les services Internet et Intranet de base dont ils ont besoin : courriel, proxy, DNS, fichiersetc.

Des équipements de sécurité réseau y sont aussi présents : pare-feu, VPN, systèmes de détection d'intrusion, etc. ainsi que des systèmes de monitoring du réseau et de certaines applications.

ApplicationsModifier

Le but principal d'un centre de traitement de données est d'exécuter des applications qui traitent des données essentielles au fonctionnement d'une société. Ces applications peuvent être conçues et développées en interne par l'entreprise cliente ou par un fournisseur de progiciel de gestion d'entreprise. Il peut s'agir typiquement de ERP et CRM.

Souvent, ces applications sont réparties dans plusieurs ordinateurs, chacun exécutant une partie de la tâche. Les composantes les plus habituelles sont des systèmes de gestion de base de données, des serveurs de fichiers, des serveurs d'applications, des middleware.

Gestion de la capacité d’un centre de donnéesModifier

 
Le cycle de vie de la capacité d'un centre de données.

La capacité d’utilisation d’un centre de données peut être limitée par plusieurs paramètres. Sur le long terme, les principales limites que rencontreront les exploitants seront la surface utilisable, puis la puissance disponible.

Dans la première phase de son cycle de vie un centre de données verra une croissance plus rapide de sa surface occupée que de l’énergie consommée.

Avec la densification constante des nouvelles technologies des matériels informatiques, le besoin en énergie va devenir prépondérant, équilibrant puis dépassant le besoin en superficie (deuxième puis troisième phase du cycle).

Le développement et la multiplicité des appareils connectés, des besoins en stockage et traitements des données font que les besoins des centre de données croissent de plus en plus rapidement. Il est donc important de définir une stratégie de développement du centre de données avant d’être « dos au mur ». Le cycle de décision, conception, construction est de plusieurs années. Il est donc important d’initier cette réflexion stratégique lorsque le centre de données atteint 50 % de son énergie consommée.

Le maximum d’occupation d’un centre de données doit se stabiliser autour des 85 % tant en énergie qu’en superficie occupée. En effet, les ressources ainsi ménagées serviront d’espace de manœuvre pour gérer les remplacements de matériel et permettra ainsi la cohabitation temporaire des anciennes et nouvelles générations.

Si cette limite vient à être dépassée durablement, il ne devient plus possible de procéder au remplacement des matériels, ce qui conduit inexorablement vers l’étouffement du système d’information.

Le centre de données est une ressource à part entière du Système d’information (SI), avec ses propres contraintes de temps et de gestion (durée de vie 25 ans), il doit donc être pris en compte dans le cadre des plans à moyens termes du SI (entre 3 et 5 ans).

Localisation des centres de traitement de donnéesModifier

 
Centre de traitement de Google de The Dalles en Oregon.

En 2011, on dénombrait 2 087 centres de traitement de données dans le monde. Le Groupement des industries de l’équipement électrique, du contrôle-commande et des services associés (Gimélec) estime à 130 le nombre de centres de traitement de données d'offreurs en France dont 40 % en région parisienne. Globalement les centres de traitement sont dispersés sur l'ensemble du territoire avec des zones de concentration en partie liées au réseau urbain sur les départements de Paris, d'Île-de-France (essentiellement Hauts-de-Seine, Seine-Saint-Denis), le Nord et les Bouches-du-Rhône. L'ouest et la région Rhône-Alpes sont également des zones privilégiées[21].

 
Vue satellite d'un centre de données d'Apple à Reno (Nevada).

Les services informatiques des grandes entreprises sont généralement implantés dans des centres de traitement de données, dédiés ou mutualisés. Les plus gros centres dans le monde sont ceux des géants de l'internet comme Google, qui utilise des infrastructures modulaires basées sur des conteneurs qui peuvent héberger jusqu'à 1 160 serveurs[22] (voir Plateforme Google), ou Facebook qui a étendu son centre de traitement de Prineville dans l'Oregon[23]. Amazon a lui aussi implanté son centre de traitement dans l'Oregon compte tenu du faible coût de l'énergie dans cet état[24]. Apple a construit son plus gros centre à Maiden en Caroline du Nord[25], pour soutenir sa stratégie de développement de l'iCloud[26].

En 2019, le site danois datacentermap.com recense 4 438 centres de traitement de données dans 122 pays dans le monde[27], dont 1 756 aux États-Unis et 149 en France[28]

Caractéristiques des serveurs dans les centres de donnéesModifier

Les serveurs tendent à être virtualisés. En France, un tiers des serveurs hébergés dans des centres de données serait virtualisé et un cinquième à haute densité en 2011. Ces taux devaient doubler d’ici 2013[29].

Enjeux et impacts environnementauxModifier

L'empreinte écologique globale des centres de données grandit rapidement, mais elle aurait pu être réduite par une optimisation et un partage des ressources (de 25 % environ en 2010)[30] et elle peut encore l'être.

Les impacts environnementaux se concentrent lors de :

  1. la fabrication : des bâtiments, des équipements liés aux bâtiments (groupes froid, groupes électrogènes, onduleurs, etc.) et des équipements informatiques et télécoms qu'ils contiennent ;
  2. l'utilisation du centre de données.

La fabrication concentre les pollutions et l'épuisement des stocks de ressources non renouvelables. L'utilisation se traduit essentiellement par des émissions de gaz à effet de serre (liées à la production de l'énergie consommée par le centre de données) et des émissions des déchets d'équipements électriques et électroniques (DEEE).

Des prospectivistes estiment que le volume des données numériques transportées par le Net pourrait être multiplié par 40[31] à 50 d’ici à 2020[32].

Deux facteurs pouvant être mieux maîtrisés et/ou valorisés sont :

Consommation d'électricitéModifier

Malgré des gains d'efficience énergétique des processeurs et en matière d'optimisation des réseaux[33] et d'efficacité énergétique des matériels informatiques[34], en raison de l'explosion des besoins, les gros centres de traitement de données sont des systèmes physiques et cybernétiques (Cyber-Physical System[35],[36]) qui consomment des quantités importantes et croissantes d'électricité[37] ; Selon un rapport Votre cloud est-il Net? (avril 2012), « Certains centres de traitement des données consomment autant d’électricité que 250 000 foyers européens. Si le « cloud » était un pays, il se classerait (en 2012) au 5e rang mondial en termes de demande en électricité, et ses besoins devraient être multipliés par trois d’ici à 2020. »[32]. D'après Qarnot Computing[38]En France, en 2013, plus de deux cents centres de données consomment plus de 7 % de l'électricité du pays. Un centre de données de 10 000 m2 consommerait autant qu'une ville de 50 000 habitants[39] et un grand centre de données consomme 100 MW soit 1/10ème de la production d’une centrale thermique[40]

« À l'échelle européenne, la Commission estimait en 2008 que les centres de données consommaient 56 TWh[41], dont la moitié pour refroidir les bâtiments »[42].

Une des principales métriques utilisées pour évaluer l'efficacité énergétique d'un datacenter est l'indicateur d'efficacité énergétique ou PUE (pour Power Usage Effectiveness en anglais). Cet indicateur évalue la surconsommation électrique due à tous les équipements non informatiques du datacenter. Un datacenter idéal aurait un indicateur d'efficacité énergétique de 1, c'est-à-dire la totalité de la consommation électrique du datacenter serait consommée par les équipements informatiques.

La provenance de l'électricité influe sur le bilan écologique global (mais pas sur l'indicateur d'efficacité énergétique). Au début du XXIe siècle, de grands opérateurs n'utilisent que l'énergie fossile (pétrole, gaz voire charbon[32]) ou le nucléaire alors que d'autres investissent aussi dans les énergies renouvelables (éolien notamment) pour se fournir en électricité verte.

Récupération de chaleurModifier

Les centres de traitement de données émettent beaucoup de chaleur (voir indicateur d'efficacité énergétique). Ils doivent être continuellement réfrigérés ou tempérés. Les calories extraites des serveurs sont le plus souvent gaspillées (rejetées dans l'environnement où elles aggravent les effets du changement climatique en élevant la température de l'air, ou des eaux qui reçoivent les eaux de refroidissement).

Depuis peu, des expériences visent à récupérer les « joules » et à les réutiliser pour des besoins énergétiques locaux ou de proximité (chauffage, chauffage urbain, réseau de chaleur). Par exemple : l’université d'Amsterdam reçoit une eau gratuitement chauffée par le centre de données d'Equinix[42]. À Roubaix (5 centres d’OVH, leader français de l'hébergement) sont refroidis par eaux et contribuent à chauffer des bâtiments proches. À Clichy, « Global Switch » chauffe une serre tropicale et aide les jardiniers à produire les fleurs de la ville. Le réseau Dalkia de chauffage urbain de Paris-Val d'Europe (Marne-la-vallée) récupère les calories d'un centre de données de la ZAC du Prieuré pour notamment chauffer un « centre aquatique intercommunal » et à terme offrir « 26 GWh de chaleur pour chauffer 600 000 m2 de locaux tertiaires et d'équipements, répartis sur 150 hectares », soit « 5 400 tonnes de CO2/an, (…) l'équivalent des rejets de 5 000 véhicules. En Suisse, IBM chauffe la piscine d'Uitikon. »

Autre concept : le « siloctets » écoconcept de l'entreprise québécoise « Vert.com » est un silo de serveurs, grand comme un bâtiment de ville, passivement refroidi et dont les calories peuvent être récupérées par une centrale en toiture et distribuée aux voisins, testé à l'Éco-campus Hubert-Reeves dans le Technoparc de Montréal[43].

Bilan carboneModifier

« Akamai qui gère un gros volume de trafic sur le Net, semble en 2012 être la première entreprise de ce secteur à avoir calculé son bilan carbone, au moyen de l’«indicateur d'efficacité de l'utilisation carbone » (Carbon Usage Effectiveness)[32]. Deux leviers pour améliorer le bilan carbone sont les économies d'énergie d'une part, et l'écoconception avec valorisation des calories produites d'autre part. Des mesures compensatoires (compensation carbone) sont aussi envisagées ou utilisées par certains acteurs. En 2011, le centre GrenoblIX est devenu le premier centre de données « écologique » en France.

Alternative distribuéeModifier

Pour répondre à ces trois enjeux et après que l'expérience SETI@home ait montré l'intérêt du « calcul distribué » (en utilisant dans ce cas des ordinateurs domestiques connectés à l’Internet), certains opérateurs comme AMD ont envisagé de décentraliser leurs centres de traitement de données en un réseau distribué tel que proposé par[36] d'unités (petits centres de traitement de données bénéficiant chacun d'une éolienne, maillés entre eux par des fibres optiques[44]).

Des installateurs et propriétaires de centres de traitement de données et des producteurs d'énergie[45] pourraient à l'avenir associer leurs investissements dans un smart grid, éventuellement intégré dans l'« Internet de l'énergie » que Jeremy Rifkin propose dans son concept de « troisième révolution industrielle ».

Le cloud computing pourrait alors évoluer vers un modèle totalement décentralisé, nécessitant une « gestion dynamique du refroidissement »[46],[47] (refroidir là où il faut et quand il faut, et passivement tant que possible[47]), ainsi qu'une conception différente de la sécurité des serveurs et de leurs données, de la gestion distribuée des données, de la gestion de l'énergie[48] et de la capacité des réseaux de centres de traitement de données à s'autoadapter aux fluctuations des besoins, mais aussi de l'énergie disponible[49]. Leurs réponses doivent être plus élastiques[50], sans augmentation globale des consommations d'énergie, dans le cadre d'un green cloud[51] qui reste à inventer.

Au début des années 2000, une solution complémentaire des précédentes apparait, qui pourraient être réservée aux données à fortement sécuriser. C'est de développer des réseaux de serveurs en grande partie virtuel (ou plus précisément partagés et distribués, utilisant une partie des ressources des ordinateurs familiaux et d'entreprises ou les utilisant quand leur propriétaire ne les utilisent pas ou les sous-utilisent[52], ce qui demande aussi de repenser la sécurité informatique). Pour cela, des systèmes d'allocation sécurisée des ressources et de répartition des tâches (éventuellement différées quand elles ne sont pas urgentes) doivent encore être testés et validés à grande échelle. Dans tous les cas la recherche et développement est à développer[53].

Radiateurs numériques : C'est un pseudo radiateur électrique (il irradie la la chaleur fatale informatique sous forme de chaleur utile. ce sont les cartes mères et leurs processeurs qui remplacent tout ou partie de l'élément chauffant à effet joule[54].

  • En 2013 Qarnot Computing (start-up française [55]) propose d'ainsi délocaliser des serveurs chez des particuliers en lieu et place de radiateurs. Un premier test était prévu fin 2013 où une centaine de logements HLM parisiens (RIVP dans le 15e arrondissement) devaient être gratuitement chauffés par de petits serveurs alimentés par le réseau électrique et connectés à l'Internet et via une plateforme sécurisée, dite "Q.Ware".
  • En 2015, la start-up comptait un parc de 700 radiateurs répartis entre le 15ème, l'incubateur Paris Tech et des logements sociaux du Conseil Départemental de Gironde[56]. Plus les processeurs travaillent, plus le chauffage est important, mais le résident du logement contrôle la température grâce à un thermostat. En été des serveurs classiques prennent le relais.

Le 5 juin 2018, dans le cadre du Projet Natick Microsoft et Naval Group ont immergé leur premier datacenter au large des Orcades en Écosse fonctionnant complètement en autonomie avec des énergies renouvelables.

Classification des centres de traitement de donnéesModifier

L'organisme Uptime Institute a défini une certification internationalement reconnue des centres de traitement de données en quatre catégories, appelées « Tier »:

  • Tier I : infrastructure non redondante, une seule alimentation électrique, climatisation non redondante.

L'infrastructure Tier I inclut un espace IT dédié aux installations TI; un ASSC (UPS); un Groupe électrogène avec au moins 12 heures d'autonomie en carburant sur site[57].

  • Tier II : les éléments de production de froid ou d'électricité sont redondants, mais la distribution d’électricité et de froid n'est pas redondante.

L'infrastructure Tier II inclut le requis pour le Tier I plus des équipements redondants[57].

  • Tier III : tous les composants sont maintenables sans arrêt de l’informatique.

L'infrastructure Tier III inclut le requis pour le Tier II plus toutes les canalisations et câbles redondants[57].

  • Tier IV : tolérance aux pannes. Aucune panne n'arrête l'informatique (réponse automatique). Absence de SPOF (Single Point of Failure).

L'infrastructure Tier IV inclut le requis Tier III avec des systèmes de tolérance aux pannes (basculements automatiques...) et un séparateur physique entre les différents systèmes et canalisations ou câbles (murs anti-feu ...). Ceci n'est pas le cas dans les salles informatiques.

À noter que le niveau « Tier III+ » n'est pas reconnu par l'Uptime Institute, même si l'usage commercial est parfois utilisé à tort.

Le Certification est accordée au niveau le plus bas de l'installation. Par exemple, si tous les éléments Tier IV sont rencontrés mais qu'il y a 1 élément dans l'ensemble de l'installation qui répond seulement au Tier I, la certification du site sera Tier I[57].

Seul l’Uptime Institute peut délivrer une certification. Aucun autre organisme n’est habilité à se prononcer sur le niveau de Tiering d’un centre informatique, encore moins par auto-évaluation.

Article détaillé : Uptime Institute.

Notes et référencesModifier

  1. Livre Blanc « Datacenters, une chance pour la France », sur le site globalsecuritymag.fr.
  2. Climatisation et serveurs : vers des salles informatiques plus vertes, Thierry Lévy-Abégnoli, ZDNet France, le .
  3. « Infrastructure : vers la consolidation et la convergence », ZDNet,‎ (lire en ligne)
  4. a b c d e f g h et i Jones N (2018) How to stop data centres from gobbling up the world’s electricity The energy-efficiency drive at the information factories that serve us Facebook, Google and Bitcoin ; Nature 561, 163-166 (2018)|Doi: 10.1038/d41586-018-06610-y
  5. « Le nucléaire en chiffres », EDF France,‎ (lire en ligne, consulté le 14 octobre 2018)
  6. Truby J (2018) Decarbonizing Bitcoin: Law and policy choices for reducing the energy consumption of Blockchain technologies and digital currencies. Energy research & social science (résumé).
  7. consultant en données chez PwC, un cabinet international de services professionnels basé à Amsterdam,
  8. de Vries, A. (2018). Bitcoin's Growing Energy Problem Joule, 2(5), 801-805.
  9. Kopp H, Kargl F, Bösch C & Peter A (2018) flumine: a Blockchain based on Human Miners⋆.
  10. Campbell‐Verduyn M & Goguen (2018) M Blockchains, trust and action nets: extending the pathologies of financial globalization. Global Networks. |résumé 07 September 2018 https://doi.org/10.1111/glob.12214
  11. Andrae A.S & Edler T (2015) On global electricity usage of communication technology : trends to 2030. Challenges, 6(1), 117-157.
  12. Malmodin J & Lundén D (2018) The Energy and Carbon Footprint of the Global ICT and E&M Sectors 2010–2015. Sustainability, 10(9), 3027
  13. Attias V & Bramas Q (2018) Tangle analysis for IOTA cryptocurrency.
  14. Shehabi A et al. (2016) [ United States Data Center Energy Usage Report] (LBNL); URL: https://go.nature.com/ejg7sr
  15. Les progrès des équipements informatiques, Christophe Auffray, ZDNet France, le .
  16. Des couloirs chauds et froids, Christophe Auffray, ZDNet France, le .
  17. Des corridors froids pour accroître le rendement énergétique, Christophe Auffray, ZDNet France, le .
  18. datadock.eu Caractéristiques techniques - Refroidissement.
  19. Baptiste Roux, Dit Riche, Centres de données nouveaux ou existants : l’importance de l’urbanisation Green-IT ; Cleantech Republic ;
  20. a b et c Et si on immergeait les data centers dans les océans ?,
  21. Cartographie des centres de données en France à l’ère du cloud computing, sur le site markess.fr
  22. (en) Inside A Google Data Center | Data Center Knowledge
  23. (en) Facebook Datacenter Category at Data Center Knowledge
  24. (en) Amazon Building Large Data Center in Oregon | Data Center Knowledge
  25. http://www.datacenterknowledge.com/the-apple-data-center-faq/
  26. https://www.theregister.co.uk/2011/06/09/apple_maiden_data_center/
  27. (en) Data Center Map, « Colocation data centers », sur datacentermap (consulté le 25 avril 2019).
  28. (en) Data Center Map, « Colocation France », sur datacentermap (consulté le 25 avril 2019).
  29. Source : Étude de MARKESS International, Datacenters & Clouds Privés d’Entreprise, Approches – Perspectives 2013
  30. Saurabh Kumar Garg, Chee Shin Yeo, Arun Anandasivam, Rajkumar Buyya, Environment-conscious scheduling of HPC applications on distributed Cloud-oriented datacenters ; Journal of Parallel and Distributed Computing Volume 71, Issue 6, June 2011, Pages 732–749 Special Issue on Cloud Computing, PDF
  31. Rich Miller, ‘Digital Universe’ Nears A Zettabyte ; Datacenter Knowledge ; 2010-05-04
  32. a b c et d [PDF] résumé en français, et rapport en anglais
  33. S. Nedevschi, L. Popa1, G. Iannaccone, S. Ratnasamy, D. Wetherall, « Reducing Network Energy Consumption via Sleeping and Rate- Adaptation », in Proceedings of the 5th USENIX Symposium on Networked Systems Design & Implementations (NSDI’08), San Francisco, CA, April 2008.
  34. M. Elnozahy, M. Kistler, R. Rajamony, « Energy-Efficient Server Clusters », Power-Aware Computer Systems, 2003, p. 179-197.
  35. National Science Foundation. Cyber-physical systems. Technical report, NSF Workshop on Cyber-Physical Systems, 2006. NSF Workshop on Cyber-Physical Systems.
  36. a et b L Rao, X Liu, Le Xie, Wenyu Liu, Minimizing electricity cost: Optimization of distributed internet data centers in a multi-electricity-market environment ; INFOCOM, 2010 Proceedings ; 2010 PDF, 9 pages
  37. G. Chen, W. He, J. Liu, S. Nath, L. Rigas, L. Xiao, F. Zhao. « Energy- Aware Server Provisioning and Load Dispatching for Connection- Intensive Internet Services », in Proceedgins of the 5th USENIX Symposium on Networked Systems Design & Implementation (NSDI’08), San Francisco, CA, April 2008.
  38. Qarnot Computing (http://www.qarnot-computing.com/technology)
  39. Bati Actu (2013), Quand l'informatique sert aussi à se chauffer,
  40. « Numérique : le grand gâchis énergétique », sur CNRS Le journal (consulté le 5 juillet 2018)
  41. la citation originale, « 56 milliards de kilowatts », est manifestement erronée et a été corrigée suivant la source sur laquelle elle se base : Code of Conduct on Data Centres Energy Efficiency
  42. a et b Le Monde (2013) Se chauffer grâce à l'énergie des serveurs informatiques,
  43. François Huot (2013) Centre de données : Deux approches différentes , mais révolutionnaires, mai 2013 Directioninformatique
  44. « Installer une fibre optique coûte entre 5 000 euros et 15 000 euros par kilomètre, contre 475 000 euros pour une ligne électrique », Source Steve Kester Greening the Cloud: AMD promotes promising research on Renewable-Powered Data Centers
  45. L. Parolini, B. Sinopoli, and B. Krogh, Reducing Data Center Energy Consumption via Coordinated Cooling and Load Management, Hot- Power ’08: Workshop on Power Aware Computing and Systems, ACM, 2008
  46. Cullen E. Bash, Chandrakant D. Patel, Ratnesh K. Sharma, Dynamic thermal management of air cooled data centers ; IEEE, 2006
  47. a et b Chandrakant D. Patel, Cullen E. Bash, Ratnesh Sharma, Smart Cooling of Data Centers p. 129-137 ; ASME 2003 International Electronic Packaging Technical Conference and Exhibition (InterPACK2003) ; July 6–11, 2003, Maui, Hawaii, Volume 2 (ISBN 0-7918-3690-8)
  48. R. Raghavendra, P. Ranganathan, V. Talwar, Z. Wang, and X. Zhu, No power struggles: coordinated multi-level power management for the data center, in ASPLOS XIII: Proceedings of the 13th international conference on Architectural support for programming languages and operating systems. New York, NY, USA: ACM, 2008, pp. 48C59.
  49. J. Heo, D. Henriksson, X. Liu, T. Abdelzaher, « Integrating Adaptive Components: An Emerging Challenge in Performance-Adaptive Systems and a Server Farm Case-Study », in Proceedings of the 28th IEEE Real- Time Systems Symposium (RTSS’07), Tucson, Arizona, 2007
  50. J. Liu, F. Zhao, X. Liu, W. He, « Challenges Towards Elastic Power Management in Internet Data Centers », icdcsw, p. 65-72, 2009 29th IEEE International Conference on Distributed Computing Systems Workshops, 2009
  51. L. Liu, H. Wang, X. Liu, X. Jin, W.B. He, Q.B. Wang, and Y. Chen, « GreenCloud: a new architecture for green data center », Proceedings of the 6th international conference industry session on Autonomic computing and communications industry session, Barcelona, Spain: ACM, 2009, p. 29-38.
  52. Graupner, S., Kotov, V. ; Trinks, H., Resource-sharing and service deployment in virtual data centers (Conference Publications) IEE, Systems Workshops, 2002-07-11; (ISBN 0-7695-1588-6)
  53. Cullen E. Bash, Chandrakant D. Patel & Ratnesh K. Sharmaa, Efficient Thermal Management of Data Centers—Immediate and Long-Term Research Needs Efficient Thermal Management of Data Centers—Immediate and Long-Term Research Needs ; Volume 9, Issue 2, 2003 DOI:10.1080/10789669.2003.10391061, p. 137-152 (résumé)
  54. Ministère de la Transition Écologique et Solidaire - Ministère de la Cohésion des Territoires et des Relations avec les Collectivités Territoriales (2019) Annexe relative à l'arrêté du 18 avril 2019 relatif à l’agrément des modalités de prise en compte des systèmes Qrad de chauffage par recyclage de la chaleur fatale informatique dans la réglementation thermique 2012.(Modalités de prise en compte des systèmes Qrad de chauffage par recyclage de la chaleur fatale informatique dans la réglementation thermique 2012). Numéro NOR : TERL1909697A ;
  55. FR3 (2013) Vidéo de présentation
  56. « Quand les ordinateurs deviennent radiateurs - Les Echos », sur www.lesechos.fr (consulté le 5 juillet 2018)
  57. a b c et d Yannick Dentinger, Spécialiste et Concepteur Accrédité de l'Uptime Institute (New-York)[1]

Voir aussiModifier

Sur les autres projets Wikimedia :

Articles connexesModifier

BibliographieModifier

Liens externesModifier