Centre de données

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Centre de traitement de données

Un centre de traitement de données (data center en anglais) est un site physique sur lequel se trouvent regroupés des équipements constituants du système d’information de l’entreprise (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne et/ou externe à l’entreprise, exploité ou non avec le soutien de prestataires[1]. C'est un service généralement utilisé pour remplir une mission critique relative à l'informatique et à la télématique. Il comprend en général un contrôle sur l'environnement (climatisation, système de prévention contre l'incendie, etc.), une alimentation d'urgence et redondante, ainsi qu'une sécurité physique élevée.

Des enjeux environnementaux sont liés à la consommation d'électricité des data centers, et à leur coproduit qu'est la chaleur, dissipée par les serveurs et les systèmes de stockage en particulier.

Description[modifier | modifier le code]

Tablettes d'équipement de télécommunications
Data center de l'Agence Reuters à Londres

Un centre de traitement des données se présente comme un lieu où se trouvent différents équipements électroniques, des ordinateurs, des systèmes de stockage et des équipements de télécommunications. Comme son nom l'indique, il sert surtout à traiter les informations nécessaires aux activités d'une entreprise. Par exemple, une banque peut recourir à un tel centre, lui confiant les informations relatives à ses clients, tout en traitant les transactions de ceux-ci. En pratique, presque toutes les entreprises de taille moyenne utilisent un tel centre. Quant aux grandes entreprises, elles en utilisent souvent plusieurs.

Les bases de données étant souvent cruciales au fonctionnement des entreprises, celles-ci sont très sensibles à leur protection. Pour cette raison, ces centres maintiennent de hauts niveaux de sécurité et de service dans le but d'assurer l'intégrité et le fonctionnement des appareils sur place.

Avant la bulle Internet, des millions de mètres carrés destinés à abriter de tels centres furent construits dans l'espoir de les voir occupés par des serveurs. Depuis, la concentration des centres s'est poursuivie, avec le développement de centres spécialisés pour lesquels les défis les plus importants sont la maîtrise de la climatisation et surtout de la consommation électrique. Ce mouvement a été intégré dans le green computing et vise à aboutir à des centres de traitement de données dits écologiques pour lesquels sont apparus des outils spécialisés[2].

Composantes[modifier | modifier le code]

Pour permettre les missions principales du centre, elles doivent assurer la bonne connexion réseau (internet, intranet, etc.) et une haute disponibilité du système d'information. Pour cela, différentes applications logicielles gèrent les tâches essentielles de l'activité métier des clients. Parmi ces applications, on retrouve des gestionnaires de bases de données, des serveurs de fichiers et des serveurs d'applications.

Composantes physiques[modifier | modifier le code]

Data Center modulaire mobile en container
  • Climatisation (précise et stable)
  • Contrôle de la poussière (filtration de l'air)
  • Unité de distribution de l'énergie
  • Bloc d'alimentation d'urgence, et une unité de secours
  • Système perfectionné d'alerte d'incendie
  • Extinction automatique des incendies (par micro-gouttelettes ou gaz inerte)
  • Plancher surélevé
  • Conduites pour câbles au-dessous et au-dessus du plancher
  • Surveillance par caméras en circuit fermé
  • Contrôle des accès, ainsi que sécurité physique
  • Surveillance 24/7 des serveurs dédiés (ordinateurs)
  • Service de sécurité continuellement présent
  • Câbles de paires torsadées de cuivre en Ethernet (Fast ou Gigabit) pour liaisons inter-[jarretières/switches/routeurs/firewall]
  • Fibres optiques pour liaisons inter-sites ou inter-[jarretières/switches/routeurs/firewall]

Un centre de traitement de données peut occuper une pièce, un étage ou un grand immeuble. On y retrouve des serveurs 1U (surnommés « boîtes à pizza ») ou plus, « U » correspondant à une unité de hauteur de 4,445 cm (soit 1,75 pouce) empilés dans des baies, lesquelles sont arrangés pour former des rangées simples, ce qui permet de circuler facilement parmi les serveurs, tant à l'avant qu'à l'arrière. Quelques appareils, ordinateurs centraux par exemple, sont de dimensions semblables à ces baies. Ils sont souvent placés à leurs côtés.

Climatisation[modifier | modifier le code]

La Climatisation à environ 20 degrés Celsius. Ce maintien est essentiel, puisque les appareils électroniques génèrent beaucoup de chaleur et deviennent défectueux lorsque la température s'élève au-delà d'une certaine limite[3].

Elle est également une composante fondamentale du centre de traitement, car si il est mal conçu, il peut multiplier la consommation électrique nécessaire, pour garder une température stable des équipements et donc le coût mensuel de l'hébergement.

Principe du refroidissement des baies
Organisation de la salle pour la climatisation[modifier | modifier le code]
  • L'air chaud est aspiré et de l'air froid insufflé, sans organisation particulière, c'est le minimum indispensable, mais également le moins optimal, car l'air chaud et l'air froid se mélangent, demandant une plus grande consommation électrique pour la climatisation.

Il est généralement conseillé de mettre des caches dans les baies, aux emplacement inutilisés, afin que le flux d'air froid vers chaud se concentre dans les équipement, en dehors du cas précité, où cela ne sert à rien.

  • Organisation simple en couloir chaud et couloir froid, un couloir sur deux insuffle l'air froid, par le côté avant des serveurs, via des baies grillagées, l'autre couloir aspire l'air chaud par l'arrière. Il est à noter que certains équipement réseau, comme les commutateurs réseau, peuvent avoir le refroidissement avant arrière ou arrière avant, permettant d'organiser de façon plus pratique le câblage, selon les besoins. Le rendement est meilleur, mais l'air chaud peut encore partiellement se mélanger, à l'air froid en bout de rangée de baie ou par dessus les baies[4]
  • Utilisation d'un cube de confinement avec corridor chaud, ou froid, selon les choix des constructeurs. Le 'cube' dans lesquelles sont placées les baies, comporte un plafond et des portes à double ou triple vitrage, réduisant considérablement les échange de température, seul un côté des baies échange l'air, avec les serveurs orientés en fonction du choix corridor chaud ou corridor froid. C'est aujourd'hui la solution optimale[5].
Systèmes de production de l'air froid[modifier | modifier le code]
Article détaillé : Réfrigération.

Le compresseur frigorifique est la base des systèmes de refroidissement, cependant, ils peuvent comporter des bains liquides permettant d'améliorer le rendement.

    • Le free cooling (refroidissement à air) permet de limiter le recours à des refroidisseurs et ainsi de réduire la facture énergétique. Le free cooling n'est intéressant que dans les implantations où l'air extérieur est froid suffisamment longtemps durant l'année.
    • La climatisation peut être complétée par un refroidissement à eau, qui est 4000 fois plus efficace que l'air pour conduire la chaleur.

Composantes « Réseau »[modifier | modifier le code]

Ce sont notamment :

Sécurité[modifier | modifier le code]

Salle de calcul du CERN.

L'environnement physique des centres est sous stricte surveillance :

  • La surveillance du bon fonctionnement de la climatisation, elle-même essentielle au bon fonctionnement du matériel électronique.
  • L'alimentation de secours peut être fournie via un UPS et un générateur électrique ou via un groupe tournant (no-break) couplé à un accumulateur cinétique.
  • Dans le but de prévenir une perte d'alimentation électrique, toutes les composantes électriques, y compris les systèmes de secours, sont habituellement doublées. Les serveurs dits essentiels sont de plus alimentés par un système qui fait appel à deux sources électriques indépendantes à l'intérieur du centre.
  • Les centres ont habituellement un plancher surélevé de 60 cm, fait de dalles amovibles. Cet espace permet la libre circulation de l'air, tout comme il facilite le câblage d'alimentation et de données par des chemins de câble différents. Cependant, des datacenters sont sans plancher technique (alimentation par le dessus des racks, afin de supporter plus facilement des éléments lourds de type mainframe (IBM z10, etc.).
Bouteille d'extinction FM-200 dans un centre de calcul
  • Ils ont souvent des systèmes complexes de prévention et d'extinction des incendies. Les centres modernes sont souvent équipés de deux systèmes d'alarme. Le premier détecte les particules chaudes émises par les composantes surchauffées de l'équipement, particules qui provoquent souvent un feu. De cette façon, il est possible d'éliminer à sa source un foyer d'incendie (parfois, il suffit d'éteindre un ensemble à soudure pour éliminer le risque d'incendie). Un deuxième système sert à activer un ensemble d'activités si un début d'incendie se manifeste. Ces systèmes sont également dédiés à une portion du centre de traitement de données. Couplés à d'excellentes portes anti-feu et autres appareils de confinement, il est possible de contrôler le feu et de l'éteindre sans affecter le reste du bâtiment.
  • Les systèmes conventionnels d'extinction du feu sont aussi nocifs que le feu pour les composants électroniques, c'est pourquoi des procédés alternatifs ont été développés. Certains utilisent l'azote, l'argonite, le FM-200 ou le Novec(tm)1230 FK-5-1-12, alors que d'autres se rabattent sur l'émission de fines particules d'eau ultra-pure (cette eau n'est pas électriquement conductrice, ce qui n'endommage pas les composants électroniques).
  • La sécurité est aussi essentielle au fonctionnement de tels centres. L'accès physique à ces centres est restreinte au personnel autorisé, tout comme des caméras vidéo permettent de suivre les personnes sur place. Également, des gardes de sécurité veillent si le centre est grand ou contient des informations considérées comme essentielles.

L’ingénierie thermique des Data centers[modifier | modifier le code]

En 2012, dans un Centre de traitement de données, les onduleurs et la climatisation consomment la moitié de l'énergie du centre. Les serveurs modernes (2012) peuvent supporter jusqu'à 45 °C (à ne jamais dépasser), mais demandent une température de 20 à 35 °C). Or, malgré les progrès faits sur les composants (plus efficients), les serveurs tendent à être de plus en plus compacts et denses (par surface). L'efficience énergétique du serveur et du data center sont en cours d'amélioration (optimisation de la conception à l'utilisation), adaptation du besoin à la puissance du serveur, free-cooling par eau ou air). La climatisation est souvent surdimensionnée mais néanmoins en partie inefficace, en raison d'une homogénéisation thermique du volume d'air, due à une mauvaise disposition des matériels dans les salles de data centers. De nouveaux serveurs plus tolérants à la chaleur peuvent supporter de petits « pics » de chaleur et permettent de limiter ce surdimensionnement, si les équipements sont judicieusement placés. C'est le rôle (métier) de l'"urbaniste de data center" de mieux concevoir (ou réaménager) les salles pour pouvoir gérer et optimiser la puissance informatique en situation confinée (via des allées froides cloisonnées ou allées chaudes cloisonnées ou confinées par exemple ; les allées chaudes sont celles qui sont en arrière des serveurs, et les allées froides sont celles qui sont devant). Idéalement, les rangées de serveurs ne doivent pas dépasser 20 °C ou un peu plus pour les matériels récents. Cet urbanisme s'appuie sur la simulation aérolique, pour améliorer la gestion (avec éventuelle récupération/valorisation) de la chaleur dégagée par les serveurs, et pour aménager l'intérieur du data center, avec le meilleur positionnement des serveurs dans de bonnes conditions de poids, de densité, d'aération, de longueur de câbles. Cette activité est située au croisement entre les règles de l'informatique et celles de la connexion électrique et du thermicien, tout en devant faciliter la maintenance.

Une bonne « urbanisation » peut fortement améliorer l'efficience énergétique du data center. De la fin des années 2000 à 2012, on est passé de 10 à 50 % de "serveurs virtuels" ; ces derniers peuvent aussi contribuer à optimiser la gestion des flux d'énergie[6].

Indésirable ici, les calories sont valorisable dans d'autres domaines: chauffage des logements, des bureaux ou même d'arboretum.

Réseau[modifier | modifier le code]

Supervision du réseau dans une salle de contrôle d'un Datacenter

Les communications à l'intérieur d'un centre se font maintenant presque exclusivement par Internet Protocol. Il contient donc des routeurs, des commutateurs et tout autre équipement qui permet d'assurer la communication entre les serveurs et le monde extérieur. La redondance est parfois obtenue en faisant usage de multiples équipements réseau de marques différentes.

Quelques serveurs servent à fournir aux utilisateurs de la société les services Internet et Intranet de base dont ils ont besoin : courriel, proxy, DNS, fichiers, etc.

Des équipements de sécurité réseau y sont aussi présents : pare-feu, VPN, systèmes de détection d'intrusion, etc. ainsi que des systèmes de monitoring du réseau et de certaines applications.

Applications[modifier | modifier le code]

Le but principal d'un centre de traitement de données est d'exécuter des applications qui traitent des données essentielles au fonctionnement d'une société. Ces applications peuvent être conçues et développées en interne par l'entreprise cliente ou par un fournisseur de progiciel de gestion d'entreprise. Il peut s'agir typiquement de ERP et CRM.

Souvent, ces applications sont réparties dans plusieurs ordinateurs, chacun exécutant une partie de la tâche. Les composantes les plus habituelles sont des systèmes de gestion de base de données, des serveurs de fichiers, des serveurs d'applications, des middleware.

Localisation des centres de traitement de données[modifier | modifier le code]

Centre de traitement de Google de The Dalles en Oregon.

En 2011, on dénombrait 2 087 centres de traitement de données dans le monde. Le Groupement des industries de l’équipement électrique, du contrôle-commande et des services associés (Gimélec) estime à 130 le nombre de centres de traitement de données d'offreurs en France dont 40 % en région parisienne. Globalement les centres de traitement sont dispersés sur l'ensemble du territoire avec des zones de concentration en partie liées au réseau urbain sur les départements de Paris, d'Île-de-France (essentiellement Hauts de Seine, Seine Saint Denis), le Nord et les Bouches du Rhône. L'ouest et la région Rhône-Alpes sont également des zones privilégiées [7].

Les services informatiques des grandes entreprises sont généralement implantés dans des centres de traitement de données, dédiés ou mutualisés. Les plus gros centres dans le monde sont ceux des géants de l'internet comme Google, qui utilise des infrastructures modulaires basées sur des conteneurs qui peuvent héberger jusqu'à 1 160 serveurs[8] (voir Plateforme Google), ou Facebook qui a étendu son centre de traitement de Prineville dans l'Oregon[9]. Amazon a lui aussi implanté son centre de traitement dans l'Oregon compte tenu du faible coût de l'énergie dans cet état[10]. Des sociétés comme Microsoft ou Apple investissent des sommes considérables dans ces infrastructures[11] ainsi que Twitter[12]. Les enjeux principaux des centres de traitement concernent l'efficacité énergétique.

Caractéristiques des serveurs dans les centres de données[modifier | modifier le code]

Les serveurs tendent à être virtualisés. En France, un tiers des serveurs hébergés dans des datacenters serait virtualisé et un cinquième à haute densité en 2011. Ces taux devraient doubler d’ici 2013[13].

Enjeux et impacts environnementaux[modifier | modifier le code]

L'empreinte écologique globale des centres de données grandit rapidement, mais elle aurait pu être réduite par une optimisation et un partage des ressources (de 25 % environ en 2010)[14] et elle peut encore l'être.

Les impacts environnementaux se concentrent lors de

  1. la fabrication : des bâtiments, des équipements liés aux bâtiments (groupes froid, groupes électrogènes, onduleurs, etc.) et des équipements informatiques et télécoms qu'ils contiennent ;
  2. l'utilisation du centre de données.

La fabrication concentre les pollutions et l'épuisement des stocks de ressources non renouvelables. L'utilisation se traduit essentiellement par des émissions de gaz à effet de serre (liées à la production de l'énergie consommée par le centre de données) et des émissions des déchets d'équipements électriques et électroniques (DEEE).

Des prospectivistes estiment que le volume des données numériques transportées par le Net pourrait être multiplié par 40[15] à 50 d’ici à 2020[16].

Deux facteurs pouvant être mieux maîtrisés et/ou valorisés sont :

Consommation d'électricité[modifier | modifier le code]

Malgré des gains d'efficience énergétique des processeurs et en matière d'optimisation des réseaux[17] et d'efficacité énergétique des matériels informatiques[18], en raison de l'explosion des besoins, les gros centres de traitement de données sont des systèmes physiques et cybernétiques (Cyber-Physical System[19],[20]) qui consomment des quantités importantes et croissantes d'électricité[21] ; Selon un rapport Votre cloud est-il Net? (avril 2012), « Certains centres de traitement des données consomment autant d’électricité que 250 000 foyers européens. Si le « cloud » était un pays, il se classerait (en 2012) au 5e rang mondial en termes de demande en électricité, et ses besoins devraient être multipliés par trois d’ici à 2020. »[16]. D'après Qarnot Computing[22]En France, en 2013, plus de 200 Data centers consomment plus de 7 % de l'électricité du pays. Un data center de 10 000 m2 consommerait autant qu'une ville de 50 000 habitant[23] et « À l'échelle européenne, la Commission estimait en 2008 que les centres de données consommaient 56 TWh[24], dont la moitié pour refroidir les bâtiments »[25].

La provenance de l'électricité influe sur le bilan écologique global. Au début du XXIe siècle, de grands opérateurs n'utilisent que l'énergie fossile (pétrole, gaz voire charbon[16]) ou le nucléaire alors que d'autres investissent aussi dans les énergies renouvelables (éolien notamment) pour se fournir en électricité verte.

Production de chaleur[modifier | modifier le code]

Les centres de traitement de données émettent beaucoup de chaleur. Ils doivent être continuellement réfrigérés ou tempérés. Les calories extraites des serveurs sont le plus souvent gaspillées (rejetées dans l'environnement où elles aggravent les effets du changement climatique en élevant la température de l'air, ou des eaux qui reçoivent les eaux de refroidissement).

Depuis peu, des expériences visent à récupérer les « joules » et à les réutiliser pour des besoins énergétiques locaux ou de proximité (chauffage, chauffage urbain, réseau de chaleur). Par exemple : l’université d'Amsterdam reçoit une eau gratuitement chauffée par le data center voisin d'Equinix[25]. À Roubaix (5 centres d’OVH, leader français de l'hébergement) sont refroidis par eaux et contribuent à chauffer des bâtiments proches. À Clichy, « Global Switch » chauffe une serre tropicale et aide les jardiniers à produire les fleurs de la ville. Le réseau Dalkia de chauffage urbain de Paris-Val d'Europe (Marne-la-vallée) récupère les calories d'un data center de la ZAC du Prieuré pour notamment chauffer un « centre aquatique intercommunal » et à terme offrir « 26 GWh de chaleur pour chauffer 600 000 m2 de locaux tertiaires et d'équipements, répartis sur 150 hectares », soit « 5 400 tonnes de CO2/an, (…) l'équivalent des rejets de 5 000 véhicules ». En suisse IBM chauffe la piscine d'Uitikon.

Autre concept : le « siloctets » écoconçu du québecquois « Vert.com » est un silo de serveurs, grand comme un bâtiment de ville, passivement refroidi et dont les calories peuvent être récupérées par une centrale en toiture et distribuée aux voisins, testé à l'Éco-campus Hubert-Reeves dans le Technoparc de Montréal[26].

Bilan carbone[modifier | modifier le code]

« Akamai qui gère un gros volume de trafic sur le Net, semble être la première entreprise de ce secteur à avoir calculé son bilan carbone, au moyen de l’«indicateur d'efficacité de l'utilisation carbone » (Carbon Usage Effectiveness)[16] ; En 2012, Les autres entreprises n’avaient pas mis à profit cet indicateur »[16]. Deux leviers pour améliorer le bilan carbone sont les économies d'énergie d'une part, et l'écoconception et la valorisation des calories produites d'autre part. Des mesures compensatoires (compensation carbone) sont aussi envisagées ou utilisées par certains acteurs.

Alternative distribuée[modifier | modifier le code]

Pour répondre à ces trois enjeux et après que l'expérience SETI@home ait montré l'intérêt du « calcul distribué » (en utilisant dans ce cas des ordinateurs domestiques connectés à l’Internet), certains opérateurs comme AMD ont envisagé de décentraliser leurs centres de traitement de données en un réseau distribué tel que proposé par[20] d'unités (petits centres de traitement de données bénéficiant chacun d'une éolienne, maillés entre eux par des fibres optiques[27]).

Des installateurs et propriétaires de centres de traitement de données et des producteurs d'énergie[28]) pourraient à l'avenir associer leurs investissements dans un smart grid, éventuellement intégré dans l'« Internet de l'énergie » que Jeremy Rifkin propose dans son concept de « troisième révolution industrielle ».

Le cloud computing pourrait alors évoluer vers un modèle totalement décentralisé, nécessitant une « gestion dynamique du refroidissement »[29],[30] (refroidir là où il faut et quand il faut, et passivement tant que possible[30]), ainsi qu'une conception différente de la sécurité des serveurs et de leurs données, de la gestion distribuée des données, de la gestion de l'énergie[31] et de la capacité des réseaux de centres de traitement de données à s'autoadapter aux fluctuations des besoins, mais aussi de l'énergie disponible[32]. Leurs réponses doivent être plus élastiques[33], sans augmentation globale des consommations d'énergie, dans le cadre d'un green cloud[34] qui reste à inventer.

Au début des années 2000, une solution complémentaire des précédentes apparait, qui pourraient être réservée aux données à fortement sécuriser. C'est de développer des réseaux de serveurs en grande partie virtuel (ou plus précisément partagés et distribués, utilisant une partie des ressources des ordinateurs familiaux et d'entreprises ou les utilisant quand leur propriétaire ne les utilisent pas ou les sous-utilisent[35], ce qui demande aussi de repenser la sécurité informatique). Pour cela, des systèmes d'allocation sécurisée des ressources et de répartition des tâches (éventuellement différées quand elles ne sont pas urgentes) doivent encore être testés et validés à grande échelle. Dans tous les cas la recherche et développement est à développer[36]. La start-up française Qarnot Computing voir [37] propose de délocaliser les serveurs chez les particuliers en lieu et place de radiateurs. Un premier essai concernera fin 2013 une centaine de logements HLM parisiens (RIVP dans le 15e arrondissement), qui seront gratuitement chauffés par de petits serveurs alimentés par le réseau électrique et connectés à l'Internet et via une plateforme sécurisée, dite "Q.Ware". Plus les processeurs travaillent, plus le chauffage est important, mais le résident du logement contrôle la température grâce à un thermostat. En été des serveurs classiques prennent le relais.

Classification des centres de traitement de données[modifier | modifier le code]

L'organisme Uptime Institute a défini une classification internationalement reconnue des centres de traitement de données en quatre catégories, appelées « Tier »:

  • Tier 1 : Infrastructure non redondante, une seule alimentation électrique, climatisation non redondante
  • Tier 2 : Certains éléments sont redondants, mais alimentation électrique et climatisation non redondants
  • Tier 3 : Tous les composants sont redondants et en double alimentation, l'alimentation électrique est doublée mais fonctionne en mode actif/passif
  • Tier 4 : Idem Tier3, mais les alimentations électriques et les climatisations sont doublées et fonctionnent en actif/actif
Article détaillé : Uptime Institute.

Notes et références[modifier | modifier le code]

  1. Source : club « France for Datacenters », Livre Blanc « Datacenters, une chance pour la France »
  2. Climatisation et serveurs : vers des salles informatiques plus vertes, Thierry Lévy-Abégnoli, ZDNet France, le 5 décembre 2007
  3. Les progrès des équipements informatiques, Christophe Auffray, ZDNet France, le 14 janvier 2010
  4. Des couloirs chauds et froids, Christophe Auffray, ZDNet France, le 14 janvier 2010
  5. Des corridors froids pour accroître le rendement énergétique, Christophe Auffray, ZDNet France, le 14 janvier 2010
  6. Baptiste Roux, Dit Riche, Data centers nouveaux ou existants : l’importance de l’urbanisation Green-IT ; Cleantech Republic ; 11.06.2012
  7. Source : MARKESS International, Cartographie des datacenters en France à l’ère du cloud computing
  8. (en) Inside A Google Data Center | Data Center Knowledge
  9. (en) Facebook Datacenter Category at Data Center Knowledge
  10. (en) Amazon Building Large Data Center in Oregon | Data Center Knowledge
  11. Apple construit un des plus gros datacenter du monde | Grid datacenter
  12. Twitter va se doter de son propre datacenter - Le Monde Informatique
  13. Source : Étude de MARKESS International, Datacenters & Clouds Privés d’Entreprise, Approches – Perspectives 2013
  14. Saurabh Kumar Garg, Chee Shin Yeo, Arun Anandasivam, Rajkumar Buyya, Environment-conscious scheduling of HPC applications on distributed Cloud-oriented datacenters ; Journal of Parallel and Distributed Computing Volume 71, Issue 6, June 2011, Pages 732–749 Special Issue on Cloud Computing, PDF
  15. Rich Miller, ‘Digital Universe’ Nears A Zettabyte ; Datacenter Knowledge ; 2010-05-04
  16. a, b, c, d et e résumé en français, et rapport en anglais
  17. S. Nedevschi, L. Popa1, G. Iannaccone, S. Ratnasamy, D. Wetherall, « Reducing Network Energy Consumption via Sleeping and Rate- Adaptation », in Proceedings of the 5th USENIX Symposium on Networked Systems Design & Implementations (NSDI’08), San Francisco, CA, April 2008.
  18. M. Elnozahy, M. Kistler, R. Rajamony, « Energy-Efficient Server Clusters », Power-Aware Computer Systems, 2003, p. 179-197.
  19. National Science Foundation. Cyber-physical systems. Technical report, NSF Workshop on Cyber-Physical Systems, 2006. NSF Workshop on Cyber-Physical Systems.
  20. a et b L Rao, X Liu, Le Xie, Wenyu Liu, Minimizing electricity cost: Optimization of distributed internet data centers in a multi-electricity-market environment ; INFOCOM, 2010 Proceedings ; 2010 PDF, 9 pages
  21. G. Chen, W. He, J. Liu, S. Nath, L. Rigas, L. Xiao, F. Zhao. « Energy- Aware Server Provisioning and Load Dispatching for Connection- Intensive Internet Services », in Proceedgins of the 5th USENIX Symposium on Networked Systems Design & Implementation (NSDI’08), San Francisco, CA, April 2008.
  22. Qarnot Computing (http://www.qarnot-computing.com/technology)
  23. Bati Actu (2013), Quand l'informatique sert aussi à se chauffer, 2013-07-02
  24. la citation originale, « 56 milliards de kilowatts », est manifestement erronée et a été corrigée suivant la source sur laquelle elle se base : Code of Conduct on Data Centres Energy Efficiency
  25. a et b Le Monde (2013) Se chauffer grâce à l'énergie des serveurs informatiques ; 2013-07-01
  26. François Huot (2013) Centre de données : Deux approches différentes , mais révolutionnaires , mai 2013 Directioninformatique
  27. « Installer une fibre optique coûte entre 5 000 euros et 15 000 euros par kilomètre, contre 475 000 euros pour une ligne électrique », Source Steve Kester Greening the Cloud: AMD promotes promising research on Renewable-Powered Data Centers
  28. L. Parolini, B. Sinopoli, and B. Krogh, Reducing Data Center Energy Consumption via Coordinated Cooling and Load Management, Hot- Power ’08: Workshop on Power Aware Computing and Systems, ACM, 2008
  29. Cullen E. Bash, Chandrakant D. Patel, Ratnesh K. Sharma, Dynamic thermal management of air cooled data centers ; IEEE, 2006
  30. a et b Chandrakant D. Patel, Cullen E. Bash, Ratnesh Sharma, Smart Cooling of Data Centers p. 129-137 ; ASME 2003 International Electronic Packaging Technical Conference and Exhibition (InterPACK2003) ; July 6–11, 2003, Maui, Hawaii, Volume 2 ISBN 0-7918-3690-8
  31. R. Raghavendra, P. Ranganathan, V. Talwar, Z. Wang, and X. Zhu, No power struggles: coordinated multi-level power management for the data center, in ASPLOS XIII: Proceedings of the 13th international conference on Architectural support for programming languages and operating systems. New York, NY, USA: ACM, 2008, pp. 48C59.
  32. J. Heo, D. Henriksson, X. Liu, T. Abdelzaher, « Integrating Adaptive Components: An Emerging Challenge in Performance-Adaptive Systems and a Server Farm Case-Study », in Proceedings of the 28th IEEE Real- Time Systems Symposium (RTSS’07), Tucson, Arizona, 2007
  33. J. Liu, F. Zhao, X. Liu, W. He, « Challenges Towards Elastic Power Management in Internet Data Centers », icdcsw, p. 65-72, 2009 29th IEEE International Conference on Distributed Computing Systems Workshops, 2009
  34. L. Liu, H. Wang, X. Liu, X. Jin, W.B. He, Q.B. Wang, and Y. Chen, « GreenCloud: a new architecture for green data center », Proceedings of the 6th international conference industry session on Autonomic computing and communications industry session, Barcelona, Spain: ACM, 2009, p. 29-38.
  35. Graupner, S., Kotov, V. ; Trinks, H., Resource-sharing and service deployment in virtual data centers (Conference Publications) IEE, Systems Workshops, 2002-07-11; ISBN 0-7695-1588-6
  36. Cullen E. Bash, Chandrakant D. Patel & Ratnesh K. Sharmaa, Efficient Thermal Management of Data Centers—Immediate and Long-Term Research Needs Efficient Thermal Management of Data Centers—Immediate and Long-Term Research Needs ; Volume 9, Issue 2, 2003 DOI:10.1080/10789669.2003.10391061, p. 137-152 (résumé)
  37. FR3 (2013) Vidéo de présentation

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]