Mon projet porte sur l’étude d’un datacenter à...

61
François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 1 Résumé Au sein de l’entreprise Cegelec, j’ai étudié le data center de la caisse de retraite AGIRC- ARRCO en phase d’exécution. Il est surprenant de constater que, malgré la politique actuelle de limitation des consommations, aucune réglementation ni aucun logiciel de calcul de PUE n’existent. La méthode de calcul établie par ce projet de fin d’études constitue une première approche dans le calcul des consommations des équipements climatiques d’un data center. Cette méthode permet d’établir un choix cohérent entre technicité et prix d’achat. J’ai effectué des comparaisons de consommation selon différents fournisseurs et selon différents mode de conception : température d’eau glacée, température extérieure, filtration des armoires de climatisation, technologie de groupe froid, etc. Ces comparaisons, corrélées à l’aspect financier de l’exploitation du data center, montre au Maître d’ouvrage l’importance d’un investissement initial lors d’une démarche durable. La méthode de calcul permet aussi d’évaluer la pertinence du free cooling sur l’air ou sur l’eau pour le data center étudié. La réalisation des data centers est en pleine expansion ; ils constituent un nouveau pôle de compétence au sein du secteur climatique. Les enjeux en termes d’économie d’énergie sont considérables. Within the company Cegelec, I studied the datacenter of the pension fund AGIRC-ARRCO at execution phase. It is interesting to note that, despite the current policy of limiting consumption, no regulation and no calculation software of PUE exist. The calculation method established by this graduation project is a first approach in calculating the consumption of the datacenter’s climatic equipments. This method is used to make a consistent choice between technicality and purchase price. I made comparisons of consumption by different suppliers and by different modes of conception: chilled water temperature, outside temperature, filtration of air conditioners, chiller technology, etc. These comparisons, correlated with the datacenter’s financial operation, show the owner the importance of an initial investment in a sustainable way. The calculation method is also used to assess the relevance of free air cooling or free water cooling for the studied datacenter. The realization of datacenters is expanding; they constitute a new center of excellence within the climatic industry. The stakes of energy saving are considerable.

Transcript of Mon projet porte sur l’étude d’un datacenter à...

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 1

Résumé Au sein de l’entreprise Cegelec, j’ai étudié le data center de la caisse de retraite AGIRC-ARRCO en phase d’exécution. Il est surprenant de constater que, malgré la politique actuelle de limitation des consommations, aucune réglementation ni aucun logiciel de calcul de PUE n’existent. La méthode de calcul établie par ce projet de fin d’études constitue une première approche dans le calcul des consommations des équipements climatiques d’un data center. Cette méthode permet d’établir un choix cohérent entre technicité et prix d’achat. J’ai effectué des comparaisons de consommation selon différents fournisseurs et selon différents mode de conception : température d’eau glacée, température extérieure, filtration des armoires de climatisation, technologie de groupe froid, etc. Ces comparaisons, corrélées à l’aspect financier de l’exploitation du data center, montre au Maître d’ouvrage l’importance d’un investissement initial lors d’une démarche durable. La méthode de calcul permet aussi d’évaluer la pertinence du free cooling sur l’air ou sur l’eau pour le data center étudié. La réalisation des data centers est en pleine expansion ; ils constituent un nouveau pôle de compétence au sein du secteur climatique. Les enjeux en termes d’économie d’énergie sont considérables. Within the company Cegelec, I studied the datacenter of the pension fund AGIRC-ARRCO at execution phase. It is interesting to note that, despite the current policy of limiting consumption, no regulation and no calculation software of PUE exist. The calculation method established by this graduation project is a first approach in calculating the consumption of the datacenter’s climatic equipments. This method is used to make a consistent choice between technicality and purchase price. I made comparisons of consumption by different suppliers and by different modes of conception: chilled water temperature, outside temperature, filtration of air conditioners, chiller technology, etc. These comparisons, correlated with the datacenter’s financial operation, show the owner the importance of an initial investment in a sustainable way. The calculation method is also used to assess the relevance of free air cooling or free water cooling for the studied datacenter. The realization of datacenters is expanding; they constitute a new center of excellence within the climatic industry. The stakes of energy saving are considerable.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 2

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 3

Remerciements Je remercie Armel Jegou, mon tuteur institutionnel, qui a suivi à distance l’évolution de mon projet de fin d’études. Je remercie le COSTIC et l’INSA de Strasbourg pour m’avoir enseigné le savoir nécessaire pour devenir ingénieur et pour m’avoir permis d’appliquer mes connaissances à un projet des plus intéressants au sein de l’entreprise Cegelec. Je souhaite remercier l’ensemble de l’agence Grands Projets et Infrastructures Sud-Ouest de Cegelec, et plus particulièrement Charles Christin qui a été mon tuteur tout au long de mon projet de fin d’études. Il a su me faire découvrir et apprécier le métier de chef de projet. Je remercie mes parents qui m’ont soutenu pendant toutes ces années et permis de concrétiser mes propres choix.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 4

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 5

Sommaire

Introduction ........................................................................................... 7

Partie 1 : Projet étudié ........................................................................ 9

1. Equipes projet .................................................................................................... 9 2. Projet architectural ............................................................................................10 3. Evolution du projet ............................................................................................11 4. Equipements techniques installés .....................................................................14 5. PUE ..................................................................................................................14 6. Redondance ......................................................................................................15 7. Distribution d’air ................................................................................................16 8. Travail personnel ...............................................................................................17 9. Compléments en annexes .................................................................................18

Partie 2 : Méthode de calcul ............................................................. 19

1. Armoires de climatisation ..................................................................................19 2. Armoires de climatisation ..................................................................................19 3. Groupes froids & Aéroréfrigérants .....................................................................20 4. Pompes .............................................................................................................22 5. Centrale de traitement d’air ...............................................................................23 6. Ventilation d’extraction ......................................................................................23 7. PUE ..................................................................................................................24

Partie 3 : Résultats ............................................................................ 27

1. Coût de l’énergie ...............................................................................................27 2. Changement de régime d’eau ...........................................................................27 3. Changement de filtration des armoires ..............................................................29 4. Changement de taille d’armoire .........................................................................29 5. Changement de fournisseur d’armoire de climatisation .....................................31 6. Changement de taille de groupe froid ................................................................32 7. Changement de fournisseur et de technologie de groupe froid ..........................35 8. Changement de température extérieure de travail .............................................38 9. Changement de fournisseur de pompe .............................................................39 10. Consommation des centrales de traitement d’air ...............................................40 11. Consommation théorique de la ventilation d’extraction ......................................40 12. Calcul de PUE, pôle A .......................................................................................40

Partie 4 : Free cooling sur l’eau ....................................................... 46

Partie 5 : Free cooling sur l’air ......................................................... 48

1. Quantifier les ressources ...................................................................................48 2. Scénario de fonctionnement ..............................................................................49 3. CTA-FC .............................................................................................................49 4. Consommation ..................................................................................................51

Conclusion .......................................................................................... 55

Bibliographie ....................................................................................... 57

Sommaire des annexes ...................................................................... 59

Présentation de l’entreprise ............................................................... 61

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 6

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 7

Introduction Ce rapport de projet de fin d’études synthétise le travail effectué pendant 6 mois (du 7 février au 29 juillet 2011) au sein de l’entreprise Cegelec, dans l’agence Grands Projets et Infrastructures Sud-Ouest basée à Toulouse. Cette agence est porteuse de projets de grande ampleur. La réalisation du génie électrique et du génie climatique du data center de la caisse de retraite AGIRC-ARRCO est l’un de leurs nombreux projets en cours. Très énergivores, les data centers sont de plus en plus montrés du doigt. Ils sont de véritables gouffres énergétiques absents de la réglementation thermique : rien ne limite leurs consommations. Seule une réelle volonté émise par le Maître d’ouvrage permet une cohérence énergétique. L’effort d’économie d’énergie doit être réalisé durant tous les stades de vie du bâtiment : dès les premières études, pendant la phase d’exécution, et par la suite pendant l’exploitation du bâtiment. J’ai étudié le data center d’AGIRC-ARRCO en phase d’exécution. Lors de cette phase, le système de refroidissement est déjà défini dans ces grandes lignes : type de refroidissement, puissance frigorifique à installer, régime d’eau glacée, performances minimales souhaitées, distribution d’air. Le data center étudié présente une caractéristique contractuelle très intéressante : il est demandé à Cegelec de ne pas dépasser un certain coefficient de consommation appelé PUE. La première partie de ce rapport décrit le projet étudié et précise la notion de PUE. Le PUE imposé par le Maître d’ouvrage oblige Cegelec à être conscient de l’impact énergétique de tous ses choix relatifs au système de refroidissement. Pour l’entreprise d’exécution, la technicité des équipements devient prioritaire sur la réalisation de bénéfices à l’achat des produits. La deuxième partie de mon projet de fin d’études consiste en l’établissement d’une méthode de calcul de consommation du matériel climatique. Cette méthode de calcul a pour but de guider l’entreprise dans son choix des équipements avec une vision économe, rentable et durable. Dans la troisième partie, j’ai étudié l’impact de consommation du système de refroidissement selon différents modes de conception. Les quatrième et cinquième parties décrivent l’impact d’un free cooling sur l’eau ou sur l’air, système non demandé par le Maître d’ouvrage pour ce data center.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 8

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 9

Partie 1 : Projet étudié

1. Equipes projet

Encore inconnu de nos dictionnaires, un data center est une salle informatique hébergeant des baies informatiques qui stockent et gèrent des données informatiques. Le data center qui fait l’objet de mon projet de fin d’études est celui de la caisse de retraite AGIRC-ARRCO.

fig 1 : logo d’AGIRC-ARRCO

source : www.agirc-arrco.fr Le projet est une conception-réalisation : - Maîtrise d’ouvrage : GIE AGIRC-ARRCO - Assistant Maîtrise d’ouvrage : CRITICAL BUILDING L’équipe de Maîtrise d’œuvre conception est la suivante : - BET : INGEROP, mandataire - SSI : INGEROP - ARCHITECTE : Denis AMEIL L’équipe de réalisation est la suivante : - Cegelec GPI : mandataire, réalise les études d’exécution et les travaux CFA/CFO et CVC. - MAS : réalise les études d’exécution et les travaux gros-œuvre, V.R.D. et second œuvre

fig 2 : logos des différentes entreprises du groupement

source : site internet des différentes entreprises

Ali Limouri (Cegelec GPI) était le chef de projet jusqu’en juin 2011 ; Stéphane Chevaillier (Cegelec GPI) a repris le projet par la suite. Charles Christin (Cegelec GPI) est le chef de projet CVC, il a été mon tuteur durant mon projet de fin d’études.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 10

2. Projet architectural

Le data center se situe à côté des bureaux existants d’AGIRC-ARRCO à Gradignan, en périphérie de Bordeaux (33).

fig 3 : emprise des locaux existants et futur data center

source : Denis Ameil

fig 4 : perspective du projet : vue de l’entrée principale

source : Denis Ameil

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 11

fig 5 : perspective du projet : vue de la façade nord

source : Denis Ameil L’architecte du projet, Denis Ameil, a veillé concevoir le data center avec une compacité réduite pour minimiser le rapport volume/surface. Il a prêté attention au choix de matériaux à forte inertie (béton plein), à limiter les ouvrants. Il a aussi conservé un rideau de végétation au Sud afin de freiner l’ensoleillement direct et diffus. L’éloignement de l’agglomération bordelaise et la forte proximité de la végétation donne à l’ouvrage un environnement frais. Du fait du caractère énergivore propre aux data centers, ces derniers sont autant des projets techniques qu’architecturaux.

3. Evolution du projet

L’investissement pour la construction d’un data center est considérable. Pour notre cas d’étude, les systèmes d’alimentation électrique et de refroidissement représentent à eux seuls 55% de la valeur totale du projet. C’est pourquoi le Maître d’ouvrage, GIE AGIRC-ARRCO, a fait le choix d’une réalisation évolutive du projet : le data center est scindée en 4 phases sur 2 pôles. A quelques différences près, le bâtiment est symétrique sur sans axe médian. On parle de pôle A à l’Est, et de pôle B à l’Ouest. Chaque pôle est divisé en 2 tranches : - les tranches ferme et A2 concernent le pôle A - les tranches B1 et B2 concernent le pôle B

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 12

légende :

tranche ferme tranche B1 tranche A2 tranche B2

fig 6 : plan du data center et repérage des tranches

source : Denis Ameil (plan), source personnelle (repérage)

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 13

description d

es tra

vaux p

ar

tranche

Salle

B

- C

onstr

uctio

n d

e l’in

tégra

lité d

e b

âtim

ent

isolé

- Liv

rais

on

des z

on

es logis

tiqu

es n

écessaires e

t é

quip

ées

- Liv

rais

on

des z

on

es «

Inte

rvenants

» é

qu

ipées

- Liv

rais

on

des insta

llations d

u P

C d

e S

écurité

local (d

ans le

data

cente

r) e

t d

u P

C d

e S

écuri

té g

énéra

l (d

an

s le b

âtim

ent

exis

tant)

- A

nag

em

ent d

u p

late

au

info

rmatiqu

e (

B)

de 4

00m

²

(clim

atisation e

t ra

ccord

em

ent)

: 2

x 4

00 k

W fro

id

- C

réation d

es c

hain

es t

ech

niq

ues d

édié

es (

20

0 k

W H

Q)

pour

le s

econ

d p

late

au info

rmatique (

B)

- A

nag

em

ent co

mple

t d

es locaux «

Band

oth

èqu

e 2

» e

t

« S

tockage 2

» a

ssocié

s a

u s

econd p

late

au

- P

as d

e tab

leaux é

lectr

iqu

es term

inaux e

n s

alle

info

rmatique

- A

ug

menta

tion d

e la p

uis

sance d

e 2

00 k

W H

Q à

400 k

W H

Q

- C

limatisation e

n s

alle

de 2

00 k

W H

Q à

400

kW

HQ

: 1

x 4

00

kW

fro

id

Salle

Ab

- A

nag

em

ent d

es locaux techn

iqu

es a

ssocié

s a

u p

late

au

- Liv

rais

on

des c

ha

ines techniq

ues (

200 k

W H

Q)

desserv

ant po

ur

le p

rem

ier

pla

teau

in

form

atiq

ue

- P

late

au e

t lo

ca

ux liv

rés b

ruts

et

isolé

s

- E

qu

ipe

me

nt d

e la s

alle

de

200

(clim

atisation e

t ra

ccord

em

ent)

- P

as d

e ta

ble

aux é

lectr

iqu

es term

inaux

en s

alle

info

rmatiq

ue

- A

ug

menta

tion d

e la p

uis

sance d

e 2

00 k

W H

Q à

400 k

W H

Q

- C

limatisation e

n s

alle

de 2

00 k

W H

Q à

400

kW

HQ

: 1

x 4

00

kW

fro

id

Salle

Aa

- A

nag

em

ent d

e la p

rem

ière

sa

lle

info

rmatiqu

e (

Aa)

- C

limatisation e

n s

alle

po

ur

200 k

W

HQ

: 2

x 4

00 k

W fro

id

- E

qu

ipe

me

nts

term

ina

ux e

t

raccord

em

en

ts d

e la p

rem

ière

salle

(Aa)

de 2

00

équip

ée

ave

c 2

5 b

aie

s

ferm

e

A2

B1

B2

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 14

4. Equipements techniques installés

Les baies informatiques dégagent énormément de chaleur. C’est pourquoi de nombreux équipements propres au génie climatique sont installés au cours de chaque tranche, c’est-à-dire à chaque évolution des salles informatiques :

matériel CVC installé

ferme A2 B1 B2

groupes froids & aéroréfrigérants

2x 400 kW 1x 400 kW 2x 400 kW 1x 400 kW

armoires de climatisation

4x 6 kW 2x 24 kW 4x 45 kW 6x 76 kW

6x 76 kW

2x 24 kW 4x 35 kW 6x 76 kW

6x 76 kW

pompes 4x pour GF & Aéro

4x pour réseaux 2x pour GF & Aéro 2x pour GF & Aéro

4x pour GF & Aéro 4x pour réseaux

centrale de traitement d’air

1x dimensionné pour A2

1x dimensionné

pour B2

ventilation d’extraction

5x dimensionné pour A2

5x dimensionné

pour B2

L’investissement initial de construction étant très important, il est primordial de limiter les coûts d’exploitation du bâtiment. Les enjeux de réduction de consommation de ces salles informatiques sont énormes. Actuellement, aucune réglementation ne limite les consommations. En conséquence, il appartient à chaque Maître d’ouvrage de limiter ou non les consommations en fonction de ses charges d’exploitation. Toutefois, les data centers présentent par rapport aux autres infrastructures tertiaires un paramètre de classification énergétique propre : le PUE.

5. PUE

Le PUE, Power Usage Effectiveness, est une notion proposée par l’association de professionnels de l’informatique The Green Grid. Il est un indicateur synthétique, efficient et reconnu internationalement permettant une évaluation rapide de l’efficacité énergétique d’un data center. Il permet également de comparer les centres informatiques entre eux et de déterminer si des améliorations d’efficacité énergétique sont nécessaires.

fig 7 : logo du Green Grid

source : www.thegreengrid.org Le PUE (coeficient) se calcule par la relation suivante :

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 15

Théoriquement, un data center parfait présente un PUE égal à 1. Dans ce cas, toute la puissance consommée par l’enceinte est destinée au fonctionnement des équipements informatiques et aucune puissance de refroidissement n’est nécessaire. Mais la théorie est bien loin de la réalité et un data center « moyen » présente un PUE proche de 2,2. C’est à dire qu’un data center moyen consomme plus en refroidissement que le traitement informatique du site. Rare sont ceux qui, comme le data center étudié, peuvent se vanter d’atteindre un PUE inférieur à 1,7. Schneider Electric établit dans son livre blanc livre blanc n°158 « Méthode de calcul de l’efficacité énergétique dans les data centers », le début d’une normalisation dans le calcul du PUE. Le Green Grid a reconnu les problèmes soulevés dans ce livre blanc et tente actuellement de trouver des solutions sous forme de directives et de normes. Ce livre blanc ne prend pas en compte : - le nombre de tranches informatiques ouvertes - le taux de remplissage des baies informatiques - le taux de disponibilité des données

6. Redondance

Un data center dont les systèmes de refroidissement ou d’alimentation sont souvent en panne consomme moins qu’un data center fiable. Le PUE d’un data center peu fiable est donc plus faible. Une panne technique entraine la non-disponibilité temporaire ou longue des données informatiques. Ces pannes sont dues à des surchauffes (panne CVC) ou des coupures de courant (panne CFA/CFO). La notion de disponibilité n’étant pas pris en compte dans le calcul du PUE, alors qu’elle est dimensionnante de la consommation énergétique annuelle. Pour notre cas d’étude, l’importance des données stockées par les baies informatiques impose au système de refroidissement des taux de disponibilité minimaux à respecter, exigences du Maître d’ouvrage : - taux d’indisponibilité totale : 99,982 %, soit 7,8 heures tous les 5 ans - taux d’indisponibilité mineure : 99,750%, soit 22 heures tous les ans Du point de vue génie climatique, ces taux de disponibilité très contraignants sont maintenus grâce à la redondance de tous les matériels constitutifs du système de refroidissement. Soit N la puissance nécessaire à installer :

redondance

ferme A2 B1 B2

groupes froids et aéroréfrigérants

N+1 N+1 N+1 N+1

armoires de climatisation

2N 2N 2N 2N

pompes N+1 N+1 N+1 N+1

centrale de traitement d’air

N N N N

ventilation d’extraction

N N N N

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 16

La redondance des équipements techniques permet de pallier les pannes. La panne est bien souvent la conséquence d’une mauvaise conception ou d’une mauvaise gestion. Pour éviter la surchauffe des salles informatiques et ainsi les pannes, une distribution cohérente et performante de l’air permet d’utiliser pleinement les performances du système de refroidissement. Complément sur l’évolution par tranche du projet : Dans la partie suivante, je mentionne une tranche supplémentaire appelée « tranche future ». Cette tranche future n’est pas contractuelle. Son exécution n’est pas certaine. Cependant, l’ensemble du réseau hydraulique a été dimensionné pour accepter cette tranche future. Elle permet : - le passage de la redondance des groupes froids, des aéroréfrigérants et des pompes de N+1 à 2N - l’augmentation de la puissance informatique installée grâce à l’installation de nouvelles armoires de climatisation en salle informatique.

7. Distribution d’air

Concernant les flux d’air, un data center bien refroidit est un data center où l’air circule correctement. Il ne doit pas y avoir de mélange entre l’air repris et l’air soufflé. Le mélange amène le système de refroidissement à fonctionner de façon moins efficace : une plus petite différence de température entre l’air chaud extrait et les températures du serpentin de refroidissement induit une dégradation du rendement de l’installation. Il existe plusieurs configurations, chacune présente des avantages et des inconvénients. Les data centers étant relativement récents, il est encore difficile d’avoir un regard critique et de prendre du recul sur les différents modèles de circulation d’air. Avant toute réflexion sur la méthode d’extraction et de soufflage, le premier choix impératif à effectuer est une distribution par allée chaude / allée froide. Cette méthode permet d’extraire un maximum d’air chaud, et très peu d’air mélangé à température moyenne.

fig 8 : principe de l’allée chaude / allée froide avec faux-plancher

source : www.conteg.fr/allee-chaude-froide

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 17

Ce data center est conçu avec un plancher technique. Le soufflage se fait en vrac en faux plancher et la reprise des armoires de climatisation est libre et en hauteur. Le confinement de l’allée froide est en option. Le confinement de l’allée froide permet de minimiser l’espace physique à refroidir et ainsi de réaliser d’importantes économies d’énergie. Il est surprenant de constater qu’aucune récupération de chaleur n’est prévue sur les groupes froids. Pourtant la chaleur dégagée par les groupes froids constitue à elle seule une production importante, gratuite et disponible toute l’année. De plus, les locaux existants du Maître d’ouvrage sont à quelques mètres de son futur data center, celui-ci aurait pu utiliser cette chaleur perdue pour son usage personnel ! Cette perte de chaleur est en contradiction avec l’urbanisation durable et les ensembles immobiliers. Le temps où la production de chaleur appartenait à chacun est depuis longtemps révolu. La notion de production collective qui a connu son apogée avec les grands ensembles des années 70 est aujourd’hui encore valable. Un autre moyen de réaliser d’importantes économies d’énergie est d’utiliser le free cooling. Le free cooling, disponible sur l’air ou sur l’eau, n’est pas prévu dans ce projet. Son impact est l’objet des quatrième et cinquième parties de ce rapport de projet de fin d’études.

8. Travail personnel

Pendant ma période d’insertion au sein de Cegelec, j’ai pu découvrir le projet du data center en phase d’exécution. La partie chantier CVC de la tranche ferme démarre en septembre 2011. J’ai donc effectué un travail en amont sur les études de conception et sur l’évaluation des équipements des fournisseurs ; je n’ai pas pu découvrir la phase chantier CVC.

fig 9 : photo prise le 21 juillet 2011 : à droite le local technique du pôle A

source : photo personnelle Delphine Renault est responsable du service achat de Cegelec GPI. Après consultation des fournisseurs, avec elle nous avons analysé et comparé les principaux matériels CVC proposés : groupes froids, aéroréfrigérants, armoires de climatisation, pompes, centrale de traitement d’air.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 18

A options équivalentes il est possible de comparer techniquement des offres entre elles. Mon premier travail a consisté à récolter les bonnes informations afin de trier les offres, valables ou non. Ensuite, j’ai effectué des calculs de consommation pour chaque matériel de fournisseur afin d’évaluer l’impact des équipements sur le PUE. L’établissement d’une méthode de calcul de consommation des équipements climatiques d’un data center constitue la majeure partie de mon projet de fin d’études. Elle permet la comparaison énergétique des équipements consultés et la validation des choix de conception. Elle permet aussi d’évaluer l’impact du free cooling, sur l’air ou sur l’eau.

9. Compléments en annexes

Les annexes regroupent une synthèse de connaissances sur les data centers. Il s’agit d’une synthèse de tout ce que j’ai pu lire et apprendre des data centers en général à partir de documents fournisseurs, livres blancs, articles scientifiques, discussions avec les fournisseurs et avec mon tuteur de projet de fin d’études.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 19

Partie 2 : Méthode de calcul

1. Armoires de climatisation

L’intégralité de la description de la méthode de calcul est présentée en annexes.

2. Armoires de climatisation

Les moteurs de ventilateurs des armoires de climatisation sont à commutation électronique : type EC. J’ai réalisé sur excel la courbe représentative de la part de puissance électrique absorbée en fonction du coefficient d’utilisation. Cette courbe est établie de manière empirique à l’aide de documents techniques sur les moteurs EC. Une courbe de tendance de cette courbe empirique permet d’obtenir une expression mathématique du 2nd ordre :

Avec : a = 0,8478 b = 0,1332 c = 0,0182

fig 10 : courbe d’utilisation empirique des moteurs EC

source : production personnelle On voit graphiquement qu’il devient plus intéressant d’utiliser 2 armoires de climatisation à 50% plutôt qu’1 seule à 100%. En effet, 1 armoire utilisée à 50% consomme 30% de sa consommation totale, soit 60% pour 2 armoires utilisées à 50%. 1 armoire utilisée à 100% consomme 100% de sa consommation totale.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 20

Le data center admet une redondance 2N sur les armoires de climatisation. En conséquence, on profite de cette disposition pour utiliser la totalité des armoires, y compris celles en secours afin d’atteindre un coefficient d’utilisation minimum. Pôle A :

salle : Telecom 1 & 2 Bandothèque Onduleurs Info

puissance frigo théorique (kW) : 6 24 45 76

quantité installée:

tranche ferme 4 2 4 6

tranche A2 0 0 0 6

tranche future 0 0 4 12

quantité utilisée:

tranche ferme 4 2 4 6

tranche A2 4 2 4 12

tranche future 4 2 8 24

A l’aide de la courbe empirique des moteurs EC, du fichier météo de Bordeaux et des consultations des fournisseurs, on détermine la consommation des armoires de climatisation. Il faut préciser que les armoires de climatisation fonctionnent à la même charge constante tout au long de l’année. Que ce soit en hiver ou en été, les armoires de climatisation fournissent le même travail, ce sont les groupes froids qui font varier la puissance frigorifique selon les besoins.

Hypothèse simplificatrice

Dans un data center, le plus important est le maintien de la température ambiante de manière stable et égale à la consigne. L’hygrométrie est régulée par la centrale de traitement d’air. Le matériel informatique est très sensible à l’humidité : un air trop sec est à l’origine de problèmes d’électricité statique, un air trop humide est à l’origine de problèmes de condensation. Ces deux cas extrêmes peuvent endommager de manière irrémédiable le matériel électronique. En conséquence, l’enveloppe des salles abritant du matériel informatique (Telecom 1 & 2, Bandothèque, Salle Info) doit être le plus étanche possible. Cependant, certaines armoires de ces salles possèdent une batterie électrique et un humidificateur pour maintenir une hygrométrie de bon fonctionnement. L’humidification ou la déshumidification de l’air par ces armoires est rare car l’enveloppe de la salle est très étanche. Dans le calcul des consommations, je néglige le fonctionnement des humidificateurs des armoires car leur fonctionnement est rare.

3. Groupes froids & Aéroréfrigérants

1. Groupes froids

Par l’analyse des équipements des fournisseurs, je calcule la puissance absorbée des groupes froids en créant des courbes de tendance : - pour un taux de charge fixé, la puissance absorbée en fonction de la température de sortie de condenseur - pour une température de condenseur fixée, la puissance absorbée en fonction de la puissance frigorifique fournie

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 21

Les groupes froids consomment beaucoup même à faible charge. En conséquence, on utilise un minimum de groupes froids possible. Par exemple, pour un taux de charge 80%, 1 seul groupe froid fonctionnera, et non 2 groupes froids à 40%. Pôle A :

Tranche ferme Tranche A2 Tranche future

quantité installée : 2 3 4

quantité utilisée : 1 2 3

Je calcule ensuite le taux de charge des groupes froids pour chaque température extérieure. A partir du taux de charge et à une température de sortie de condenseur donnée, je calcule la puissance absorbée des groupes froids. Avec le fichier météo de Bordeaux, j’obtiens un calcul de consommation des groupes froids pour chaque température extérieure de -10°C à 40°C.

2. Aéroréfrigérants

Je calcule la consommation des aéroréfrigérants à l’aide du taux de charge des groupes froids et de la courbe d’utilisation des moteurs EC. Avec le fichier météo de Bordeaux, j’obtiens un calcul de consommation des aéroréfrigérants pour chaque température extérieure.

3. Hypothèses simplificatrices

hypothèse 1 : Lors du calcul de consommation du groupe froid, je calcule le taux de charge. Dans notre cas d’étude, le taux de charge varie progressivement de 60% à 90%. Or seul les groupes froids à vis peuvent atteindre des taux de charge progressifs. Les groupes froids en scroll possèdent plusieurs compresseurs qui permettent d’étager le taux de charge par palier. Avec 4 compresseurs, la puissance frigorifique fournie sera étagée à 25%, 50%, 75% et 100%. Par exemple, un groupe froid en scroll à 4 compresseurs devant fournir 60% de sa puissance frigorifique à une température extérieure donnée, devra faire fonctionner 3 compresseurs pour atteindre 75% de sa charge. Il est donc surpuissant. Dans le data center, le groupe froid alimente un ballon tampon de 1 500 litres. Ce ballon alimente ensuite les armoires de climatisation en régime 8-13. Le groupe froid en scroll fonctionne en surpuissance (75%), la température de retour d’eau glacée des armoires de climatisation devient inférieure à 13°C. C’est alors que le groupe froid arrête 1 de ses compresseurs et devient sous-puissant : 50%. Le ballon tampon continue à alimenter les armoires de climatisation et lorsque la température de retour d’eau glacée est supérieure à 13°C, le groupe froid enclenche à nouveau 1 compresseur : il redevient surpuissant : 75%. Et ainsi de suite… L’alternance de fonctionnement des compresseurs est difficile à prendre en compte dans un calcul statique sur tableur excel. Je choisis donc de ne pas considérer cette alternance et considère une variation progressive de la charge pour un groupe froid en scroll.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 22

hypothèse 2 : La régulation est très importante pour réaliser des économies d’énergie. Les groupes froids fonctionnent à partir d’un taux de charge minimum (15, ou 25% selon les modèles) et atteignent leur meilleur rendement à charge élevée (entre 75 et 100%). Dans ce calcul théorique, la puissance est répartie équitablement entre les groupes utilisés : 2 groupes froids peuvent fonctionner à 60% de charge. En réalité, selon la température extérieure, il sera choisi d’en faire fonctionner un à 100% et l’autre à 20% afin de limiter la puissance absorbée.

4. Remarque importante

L’ESEER n’est pas un indicateur de performance pour l’utilisation des groupes froids dans un data center. Cette valeur calculée selon les conditions Eurovent n’est pas une valeur comparable car les conditions de calculs considérées pour notre data center sont loin de celles d’Eurovent. L’ESEER est calculé selon la température extérieure, la température de condenseur, le taux de charge et un coefficient d’utilisation :

ESEER = A.EER100% + B.EER75% + C.EER50% + D.EER25%

paramètres Eurovent de calcul de l’ESEER

Charge Température

extérieure Température de

sortie de condenseur Coefficient d’utilisation

100% 35 30 A =3%

75% 30 26 B =33%

50% 25 22 C =41%

25% 20 18 D =23%

4. Pompes

Pour les mêmes raisons de consommation que les groupes froids, il est décidé d’utiliser le minimum de pompes. Pôle A :

Condenseur Evaporateur Réseau 1 Réseau 2

débit (m3/h) : 95 69 69 69

type : constant constant variable variable

quantité installée :

tranche ferme 2 2 2 2

tranche A2 1 1 0 0

tranche future 1 1 1 1

quantité utilisée :

tranche ferme 1 1 1 1

tranche A2 2 2 1 1

tranche future 3 3 2 2

Le calcul de consommation des pompes à débit constant s’effectue grâce à la connaissance du temps d’utilisation annuel et de la puissance absorbée.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 23

Le calcul de consommation des pompes à débit variable est plus complexe. Je calcule le taux de charge des pompes en prenant comme hypothèse que le débit brassée à pleine charge frigorifique (40°C extérieur) en tranche future équivaut au débit maximum admis par la pompe ; soit une charge de 100%. Cette hypothèse repose sur le fait que le réseau hydraulique ait été dimensionné pour couvrir la tranche future. A partir des fiches techniques des fournisseurs, j’établis une courbe d’utilisation propre à chaque pompe à débit variable. A partir du calcul du taux de charge pour chaque température extérieure, et de la courbe d’utilisation, je calcule la puissance absorbée en fonction du taux de charge. Avec le fichier météo de Bordeaux, j’obtiens un calcul de consommation précis pour chaque température extérieure.

5. Centrale de traitement d’air

Le calcul de consommation du ventilateur se fait directement avec les fiches techniques des fournisseurs et la connaissance du temps de fonctionnement annuel de la centrale de traitement d’air neuf. Pour effectuer le calcul de consommation des batteries chaude et froide, je calcule une consommation par degré des batteries. Puis j’utilise le fichier météo de Bordeaux pour connaitre le temps d’utilisation à chaque température de fonctionnement des batteries. Pour effectuer le calcul de consommation de l’humidificateur, je calcule une consommation par degré de l’humidificateur. Par différence des conditions de soufflage avec des conditions extérieures type, j’obtiens une consommation par palier. Voici les paliers choisis arbitrairement :

T ext (°C) -15 0 4 8 12 16 18

φ ext (%) 95 90 90 80 70 60 58

rs ext (kg/kg as) 0,0010 0,0034 0,0045 0,0053 0,0061 0,0064 0,0075

Avec le fichier météo de Bordeaux, j’obtiens un calcul de consommation détaillé de l’humidificateur.

6. Ventilation d’extraction

Ma période de stage ne correspond pas avec la période de consultation des ventilateurs d’extraction. Je n’ai donc pas consulté les fournisseurs. Pour calculer la consommation des ventilateurs d’extraction, j’ai effectué un calcul théorique sans données concrètes.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 24

Pôle A :

Local : Batteries Transformateurs Production de froid

Quantité installée par

tranche :

Ferme 2 0 2 (remplacement)

A2 2 0 2 (remplacement)

Future 1 0 1 (remplacement)

Fonctionnement : continu variable variable

Puissance absorbée nominale (théorique) (kW)

0,08 0,30 0,27

Les ventilateurs sont dimensionnés pour combattre la dissipation calorifique des équipements installés en tranche A2. En tranche future, les ventilateurs deviennent sous-dimensionnés et nécessitent d’être remplacés. Je calcule un coefficient d’utilisation pour chaque mois de l’année. En effet, plus l’air extérieur est froid, moins le ventilateur est sollicité du fait des déperditions des parois. Le fichier météo de Bordeaux m’indique que le mois d’août est le plus chaud, j’obtiens donc une utilisation maximale au mois d’août pour la tranche A2. En tranche ferme, les ventilateurs sont sollicités à la moitié de leur capacité. En tranche future, les ventilateurs sont remplacés et redimensionnés, ils sont donc utilisés à pleine charge au mois d’août. Le coefficient d’utilisation mensuel est calculé à partir de la température mensuelle moyenne et d’une constante déterminée pour atteindre 100% de charge au mois d’août.

7. PUE

Le data center étudié est conçu pour atteindre un PUE maximal de 1,70. Cette valeur est contractuelle, elle ne peut pas être dépassée. Ingerop me fournit un fichier excel de calcul de PUE. Ce fichier permet, par tranche et par pôle, de calculer le PUE du data center. Les pôles A et B sont, à quelques exceptions près, identiques. Cependant le pôle A est légèrement plus énergivore. Je décide de calculer uniquement le PUE du pôle A.

1. Consommation informatique du pôle A

Toutes les salles abritant du matériel informatique sont répertoriées. A chaque salle correspond une puissance instantanée installée (kW) et un temps de fonctionnement annuel (h). Le produit de ces deux valeurs fournies par Ingerop correspond à la consommation informatique de la salle en kWh.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 25

Salle Prise en compte

dès la tranche

Puissance instantanée (kW)

Nombre d’heures de fonctionnement

annuel (h)

Consommation annuelle (kWh)

PC sécurité ferme 8 24 h x 365 j = 8 760 h 70 800

Local constructeur 1 ferme 1 8 760 8 760

Local constructeur 2 ferme 1 8 760 8 760

Local maintenance ferme 1 8 760 8 760

Salle d’intervention 1 ferme 3 8 760 26 280

Salle d’intervention 2 ferme 3 8 760 26 280

Local autocom ferme 3 8 760 26 280

Local télécom 1 ferme 5 8 760 43 800

Local télécom 2 ferme 5 8 760 43 800

Bandothèque A ferme 20 8 760 175 200

Salle informatique A-1 ferme 200 (ferme & A2)

200 (future) 8 760 1 752 000

Salle informatique A-2 A2 200 (A2)

400 (future) 8 760 1 752 000

Les onduleurs doivent fournir la consommation informatique totale des salles. Les onduleurs ne sont pas parfaits, ils ont des pertes fixes. Par son calcul, Ingerop admet des pertes fixes de 8%. La consommation informatique totale (kWh) vaut :

2. Consommation non informatique du pôle A

Tous les équipements non informatiques alimentant les salles informatiques sont répertoriés. Concernant l’éclairage, les prises de courant, les ventilo-convecteurs et les radiateurs : à chacun de ces éléments correspond une puissance instantanée installée (kW) et un temps de fonctionnement annuel (h). Le produit de ces deux valeurs fournies par Ingerop correspond à la consommation non informatique en kWh. Les consommations des autres équipements sont calculées par la méthode de calcul de consommation décrite précédemment.

Equipement non informatique Prise en compte

dès la tranche

Puissance instantanée

(kW)

Nombre d’heures de fonctionnement

annuel (h)

Consommation annuelle (kWh)

Groupes froids & Aéroréfrigérants ferme

consommations annuelles calculées par la méthode décrite précédemment

Armoires de climatisation ferme

Pompes ferme

Centrales de traitement d’air ferme

Ventilation d’extraction ferme

Eclairage & Prises de courant ferme 20 (ferme)

35 (A2) 50 (future)

10 h x 365 j = 3 650 h 73 000 (ferme) 127 750 (A2)

182 500 (future)

Ventilo-convecteurs & Radiateurs ferme 40 12 h x 365 j = 4 380 h 175 200

La somme des consommations annuelles correspond à la consommation non informatique totale en kWh.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 26

3. consommation totale du pôle A

Les transformateurs permettent d’amplifier la puissance électrique distribuée. Dans son calcul, Ingerop admet des pertes fixes de 1,02%. La consommation totale du site (kWh) vaut :

4. calcul du PUE du pôle A

Le PUE se calcule par la relation suivante :

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 27

Partie 3 : Résultats

Tous les résultats présentées dans cette partie ne concernent que le pôle A.

1. Coût de l’énergie

Le tarif de l’énergie électrique n’est pas encore définit. Comme la puissance appelée est supérieure à 250 kVA, je considère que le tarif souscrit sera de type vert à 5 périodes :

prix (c€ HT / kWh)

h pointe h pleines h creuses

très longues utilisations

6,701 5,391 4,105

Le data center fonctionne en continu : soit 24 x 365 = 8 760 heures par an Les heures de pointes : de 9h à 11h et de 20h à 22h de décembre à février 4h par jour de décembre à février 4h x (31j + 31j + 28j) = 360 heures par an soit 4,11% de l’année Les heures pleines : de 6h à 22h 16h par jour de mars à novembre et 12h par jour de décembre à janvier 16h x (31j x 5 + 30j x 4) + 12h x (31j + 31j + 28j) = 5 480 heures par an soit 62,56% de l’année Les heures creuses : de 22h à 6h 8h par jour toute l’année 8h x 365j = 2 920 heures par an soit 33,33% de l’année

Hypothèse simplificatrice

Je n’ai pas pris en compte l’augmentation du prix de l’électricité qui varie de 3 à 5% selon les années.

2. Changement de régime d’eau

Le choix du régime d’eau influe sur la consommation des armoires de climatisation. Plus le régime d’eau est bas, et moins elles consomment pour refroidir l’air. Le choix du régime d’eau influe sur la consommation des groupes froids. Plus le régime d’eau est bas, et plus ils consomment pour produire de l’eau glacée. Quel régime d’eau choisir ?

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 28

Armoire de climatisation :

ARMOIRES Stulz

consommation annuelle (kWh)

régime d’eau : 7-12 8-13 9-14

tranche ferme 46 315 63 133 128 707

tranche A2 81 077 111 505 234 912

tranche future 149 003 206 135 442 754

Groupes froids & Aéroréfrigérants :

GF & AERO

groupes froids : MTA modèle 1 aéroréfrigérants : Thermokey

consommation annuelle (kWh)

régime d’eau : 7-12 8-13 9-14

tranche ferme 484 433 473 281 464 649

tranche A2 922 432 904 876 891 621

tranche future 1 765 185 1 705 267 1 655 915

Armoire de climatisation, Groupes froids & Aéroréfrigérants : Le régime 8-13 pris comme référence dans la comparaison des consommations :

ARMOIRES, GF & AERO

armoires : Stulz groupes froids : MTA modèle 1 aéroréfrigérants : Thermokey

consommation annuelle (kWh)

régime d’eau : 7-12 8-13 9-14

tranche ferme 530 748 536 414 593 356

tranche A2 1 003 510 1 016 381 1 126 532

tranche future 1 914 187 1 911 403 2 098 670

économie – / perte +

régime d’eau : 7-12 référence : 8-13 9-14

tranche ferme - 1,1 % 0,0 % + 10,6 %

tranche A2 - 1,3 % 0,0 % + 10,8 %

tranche future + 0,1 % 0,0 % + 9,8 %

On voit qu’un choix pertinent du régime d’eau permet d’économiser plus de 10% de la consommation du système de refroidissement. Le régime 7-12 est plus performant pour les tranches contractuelles ferme et A2. Toutefois, avant l’établissement de ces calculs, pour des raisons d’investissement et d’encombrement, le régime 8-13 a été choisi par Cegelec et Ingerop.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 29

3. Changement de filtration des armoires

L’air d’une salle informatique doit être très propre. Une filtration du type F7 est prescrite par le bureau d’études Ingerop. La présence humaine est très rare dans la salle informatique. Cette salle est très étanche. Les armoires de climatisation et les baies informatiques ne produisent aucun polluant aérien. Une fois recyclé par les armoires, l’air reste propre. Toutes ces informations sur le faible encrassement de l’air nous indiquent que la filtration F7 n’est pas justifiée, une filtration G4 pourrait suffire. La filtration F7 engendre une plus value de 205 euros par armoire installée dans la salle informatique.

ARMOIRES Emerson : régime 8-13

filtration F7 sur toutes les armoires G4 en salle en info

F7 ailleurs

par an : conso (kWh)

facture élec (€)

filtres conso (kWh)

facture élec (€) plus-value

achat (€) % prix total

tranche ferme 112 098 5 623 1 231 + 0,8 % 84 941 4 261

tranche A2 209 302 10 499 1 231 + 1,5 % 155 722 7 811

tranche future 399 801 20 055 2 462 + 1,2 % 294 193 14 757

ARMOIRES économie – / perte +

filtration référence : F7 sur toutes les armoires G4 en salle en info

F7 ailleurs

tranche ferme 0,0 % - 24,2 %

tranche A2 0,0 % - 25,6 %

tranche future 0,0 % - 26,4 %

Une filtration inférieure sur les armoires de la salle informatique permet de diminuer considérablement la consommation énergétique.

4. Changement de taille d’armoire

Stulz a proposé une variante sur les armoires de la salle informatique. Deux modèles d’armoires permettent de répondre aux caractéristiques techniques demandées. Le premier modèle est considéré comme référence ; il est plus cher que le second mais consomme moins.

L’étude comparative est réalisée avec un régime d’eau de 8-13 et une filtration F7 dans la salle informatique.

ARMOIRES Autres salles : Stulz

Salle info : Stulz modèle 1 Salle info : Stulz modèle 2

par an : conso (kWh)

facture élec (€)

plus-value achat (€)

conso (kWh)

facture élec (€)

tranche ferme 63 133 3 167 18 233 90 278 4 528

tranche A2 111 505 5 593 18 233 165 075 8 280

tranche future 206 135 10 340 36 466 311 752 15 638

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 30

Le premier modèle est une armoire de puissance plus élevée que la seconde : ceci explique le prix d’achat plus élevé. Cette armoire fonctionne donc à une charge plus faible que la seconde. La puissance absorbée en fonction de l’utilisation étant quasi parabolique, le premier modèle consomme moins. L’achèvement des différentes tranches n’est pas encore établi de manière définitive. La tranche future n’est pas contractuelle. Les réseaux hydrauliques et aérauliques sont dimensionnés pour la tranche future, mais rien ne certifie son exécution. Sans considérer la tranche future, il est prévu pour le moment 2 ans de fonctionnement en tranche ferme avant l’achèvement de la tranche A2. Il s’agit du 1er scénario d’étude. En considérant la tranche future, je prévois un fonctionnement de 2 ans en tranche ferme, puis 3 ans en tranche A2 avant l’achèvement de la tranche future. Il s’agit du 2ème scénario d’étude. Dans les tableaux de scenario, l’écriture d’une tranche induit le fonctionnement des tranches qui la précède : - A2 signifie le fonctionnement du data center en tranches ferme+ A2 - future signifie le fonctionnement du data center en tranches ferme+A2+future

Stulz modèle 2

référence : Stulz modèle 1

1er scénario 2ème scénario

tranche

éco – perte +

tranche éco –

perte +

No

mb

re d

’ann

ée

s d

e fo

nctio

nn

em

ent

1 ferme -78,8% ferme -78,8%

2 ferme -63,1% ferme -63,1%

3 A2 -64,2% A2 -64,2%

4 A2 -52,5% A2 -52,5%

5 A2 -43,1% A2 -43,1%

6 A2 -35,3% future -35,3%

7 A2 -28,7% future -48,4%

8 A2 -23,1% future -39,9%

9 A2 -18,2% future -32,8%

10 A2 -14,0% future -26,8%

11 A2 -10,3% future -21,5%

12 A2 -7,0% future -16,9%

13 A2 -4,0% future -12,9%

14 A2 -1,4% future -9,3%

15 A2 1,0% future -6,1%

16 A2 3,2% future -3,2%

17 A2 5,2% future -0,5%

18 A2 7,0% future 1,8%

19 A2 8,7% future 4,0%

20 A2 10,2% future 6,0%

- Pendant le 1er scénario, la première solution permet de réaliser des économies d’énergie mais est moins rentable que la deuxième solution jusqu’à la 14ème année de fonctionnement du data center. A partir de la 15ème année, la première solution devient la plus économe et la plus rentable. - Pendant le 2ème scénario de fonctionnement la première solution devient la plus économe et la plus rentable qu’à partir dès la 18ème année.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 31

5. Changement de fournisseur d’armoire de climatisation

Après consultation des armoires de climatisation, plusieurs fournisseurs ont répondu aux caractéristiques techniques demandées : Stulz, Emicon, Emerson, Swegon, et Ciat.

ACL : 8-13 consommation annuelle (kWh)

fournisseur Stulz Stulz Emerson Emicon Ciat Swegon

nom modèle 1 modèle 2

tranche ferme 61 133 90 278 112 098 87 779 75 378 96 726

tranche A2 111 505 165 075 209 302 161 951 134 863 178 623

tranche future 206 135 311 752 399 801 306 357 250 202 339 654

Les armoires Stulz modèle 1 sont les plus économes. Cependant les armoires Emicon sont les moins chères. Pour l’étude des 2 scénarii, je prends comme référence les armoires les moins chères : les armoires Emicon. D’après le bureau d’études Ingerop, les armoires Emicon sont adaptées pour un usage industriel et non pour un usage tertiaire. Elles sont donc écartées de la comparaison. Les armoires Swegon deviennent la référence. Dans le but de préserver l’information sur le prix des offres des différents fournisseurs, je présente dans les scénarii uniquement l’écart relatif par rapport à la solution de référence. 1er scénario :

tranche

référence : Swegon

Stulz Stulz Emerson Ciat

modèle 1 modèle 2

No

mb

re d

’ann

ée

s

de f

onctio

nn

em

ent

1 ferme 458,8% 111,0% 392,5% 534,6%

2 ferme 212,0% 52,2% 204,2% 256,3%

3 A2 166,3% - 0,1% 175,8% 195,9%

4 A2 100,1% - 2,6% 124,4% 124,4%

5 A2 66,4% - 3,8% 98,1% 88,0%

6 A2 46,0% - 4,5% 82,2% 65,8%

… … … … … …

12 A2 0,7% - 6,2% 47,0% 16,9%

13 A2 - 2,4% - 6,3% 44,5% 13,5%

14 A2 - 5,1% - 6,4% 42,4% 10,6%

… … … … … …

19 A2 - 14,1% - 6,7% 35,5% 0,9%

20 A2 - 15,3% - 6,8% 34,5% - 0,4%

- Les armoires Stulz modèle 2 consomment moins que les armoires Swegon, mais sont plus chères. Cependant elles deviennent les plus rentables dès la 3ème année de fonctionnement. - Les armoires Stulz modèle 1 deviennent plus rentables que la référence à partir de 13 ans de fonctionnement, et les armoires Ciat à partir de 20 ans de fonctionnement. - Les armoires Emerson ne sont pas rentables sur une période de 20 ans.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 32

2ème scénario :

tranche

référence : Swegon

Stulz Stulz Emerson Ciat

modèle 1 modèle 2 N

om

bre

d’a

nn

ée

s

de f

onctio

nn

em

ent

1 ferme 458,8% 111,0% 392,5% 534,6%

2 ferme 212,0% 52,2% 204,2% 256,3%

3 A2 166,3% - 0,1% 175,8% 195,9%

4 A2 100,1% - 2,6% 124,4% 124,4%

5 A2 66,4% - 3,8% 98,1% 88,0%

6 future 46,0% - 4,5% 82,2% 65,8%

7 future 65,9% - 20,6% 108,1% 91,7%

8 future 43,4% - 18,0% 88,8% 66,4%

… … … … … …

13 future 0,7% - 12,9% 52,0% 18,5%

14 future - 3,1% - 12,5% 48,8% 14,3%

15 future - 6,2% - 12,1% 46,2% 10,8%

… … … … … …

19 future - 14,6% - 11,1% 38,9% 1,3%

20 future - 16,1% - 10,9% 37,6% - 0,3%

- Les armoires Stulz modèle 2 deviennent rentables qu’à partir de la 14ème année. A titre d’exemple sur le scénario 1, j’effectue une comparaison complète en intégrant les armoires Emicon : 1er scénario avec référence Emicon :

tranche

référence : Emicon

Stulz Stulz Emerson Ciat Swegon

modèle 1 modèle 2

No

mb

re d

’ann

ée

s

de f

onctio

nn

em

ent

1 ferme 895,5% 512,3% 822,4% 979,1% 390,0%

2 ferme 433,7% 257,6% 425,1% 482,5% 200,1%

3 A2 380,2% 196,8% 390,8% 413,0% 196,9%

4 A2 246,8% 133,6% 273,6% 273,6% 136,4%

5 178,8% 101,4% 213,7% 202,5% 105,5%

… …

10 A2 63,2% 46,6% 112,2% 81,8% 53,1%

15 A2 29,7% 30,8% 82,7% 46,9% 37,9%

20 A2 13,8% 23,2% 68,7% 30,2% 30,7%

- Les armoires Stulz modèle 1 et les armoires Ciat consomment moins que les armoires Emicon. Le prix très bas des armoires Emicon permet de les maintenir au rang d’armoires les plus rentables pour notre data center.

6. Changement de taille de groupe froid

Pour les scénarii des groupes froids, j’intègre la durée de vie moyenne : Un groupe froid à vis a une espérance de vie de 100 000 heures, soit environ 11 ans. Un groupe froid en scroll a une espérance de vie de 35 000 heures, soir environ 4 ans. Lors du changement du groupe froid, je considère une augmentation du prix de 2% par an.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 33

1er scénario : A

nn

ées

Tranche Installé

GF à vis GF en scroll

Utilisés en tranche ferme

Utilisés en tranche A2

A remplacer Utilisés en

tranche ferme Utilisés en tranche A2

A remplacer

1 ferme 2 GF

+ 2 Aéro

1 1

2 ferme 1 1

3 ferme 1 1 1 1

4 A2 1 GF

+ 1 Aéro

1 1 1 1 1

5 A2 1 1 1 1

6 A2 1 1 1 1 1

7 A2 1 1 1 1

8 A2 1 1 1 1 1

9 A2 1 1 1 1

10 A2 1 1 1 1 1

11 A2 1 1 1 1 1

12 A2 1 1 1 1 1

13 A2 1 1 1 1 1

14 A2 1 1 1 1 1

15 A2 1 1 1 1

16 A2 1 1 1 1 1

17 A2 1 1 1 1

18 A2 1 1 1 1 1

19 A2 1 1 1 1

20 A2 1 1 1 1 1

21 A2 1 1 1 1

22 A2 1 1 1 1 1 1

23 A2 1 1 1 1

2ème scénario :

An

es

Tranche Installé

GF à vis GF en scroll

A remplacer A remplacer

1 ferme 2 GF + 2 Aéro

2 ferme

3 ferme

4 A2 1 GF + 1 Aéro 1

5 A2

6 A2 1

7 future 1 GF + 1 Aéro

8 future 1

9 future

10 future 2

11 future 1

12 future 1

13 future 1

14 future 2

15 future

16 future 1

17 future 1

18 future 2

19 future

20 future 1

21 future

22 future 1 2

23 future

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 34

MTA nous a proposé une variante sur les groupes froids à vis. Deux modèles de groupes froids permettent de répondre aux caractéristiques techniques demandées. Le premier modèle est considéré comme référence ; il est plus cher que le second mais consomme moins. Le premier modèle délivre une puissance frigorifique de 433 kW et présente un EER de 2,98. Le second modèle délivre une puissance frigorifique de 400 kW et présente un EER de 2,89. L’étude comparative est réalisée avec un régime d’eau de 8-13.

GF MTA à vis modèle 1

MTA à vis modèle 2

par an : conso (kWh)

facture élec (€)

plus-value achat (€)

conso (kWh)

facture élec (€)

tranche ferme 473 281 23 741 5 224 484 972 24 327

tranche A2 904 876 45 390 2 612 919 600 46 129

tranche future 1 705 267 85 539 2 612 1 790 210 89 800

Le premier modèle est un groupe froid de puissance plus élevée que le second : ceci explique le prix d’achat plus élevé. Ce groupe froid fonctionne donc à une charge plus faible que le second. La puissance absorbée en fonction de l’utilisation étant relativement linéaire, le premier modèle devrait consommer plus. Or ce n’est pas le cas. Le premier modèle consomme moins que le second car il possède un EER plus faible : pour fournir 400 kW comme le second modèle, le premier modèle consomme moins d’énergie. Nous étudions maintenant le retour sur investissement selon les scénarii présentés dans le paragraphe précédent. Les économies et les pertes sont comparées sur le coût énergétique (facture kWh), et sur les coûts d’achat et de remplacement des groupes froids et aéroréfrigérants.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 35

MTA à vis modèle 2

référence : MTA à vis modèle 1

1er scénario 2ème scénario

tranche

éco – perte +

tranche éco –

perte +

No

mb

re d

’ann

ée

s d

e fo

nctio

nn

em

ent

1 ferme - 3,5 % ferme - 3,5 %

2 ferme - 3,0 % ferme - 3,0 %

3 A2 - 2,8 % A2 - 2,8 %

4 A2 - 2,5 % A2 - 2,5 %

5 A2 - 2,1 % A2 - 2,1 %

6 A2 - 1,9 % future - 1,9 %

7 A2 - 1,6 % future - 1,7 %

8 A2 - 1,4 % future - 1,4 %

9 A2 - 1,2 % future - 1,1 %

10 A2 - 1,1 % future - 0,9 %

11 A2 - 1,2 % future - 0,7 %

12 A2 - 1,1 % future - 0,6 %

13 A2 - 1,2 % future - 0,5 %

14 A2 - 1,1 % future - 0,4 %

15 A2 - 1,0 % future - 0,4 %

16 A2 - 0,9 % future - 0,3 %

17 A2 - 0,8 % future - 0,3 %

18 A2 - 0,7 % future - 0,2 %

19 A2 - 0,6 % future - 0,2 %

20 A2 - 0,6 % future - 0,2 %

21 A2 - 0,5 % future - 0,2 %

22 A2 - 0,7 % future - 0,1 %

23 A2 - 0,6 % future - 0,1 %

- Pendant les deux scénarii, la première solution permet de réaliser des économies d’énergie mais n’est jamais plus rentable que la deuxième solution.

7. Changement de fournisseur et de technologie de groupe froid

Après consultation des groupes froids, plusieurs fournisseurs ont répondu aux caractéristiques techniques demandées : Trane, Ciat, Swegon et MTA. Trane, Swegon et MTA proposent un groupe froid à vis. Ciat et MTA proposent un groupe froid en scroll. Seuls Ciat et Trane m’ont fourni les performances détaillées de leur groupe froid afin de réaliser des calculs précis. Pour Swegon et MTA, je me suis basé sur les performances théoriques d’un groupe froid Carrier fournies par le bureau d’études Ingerop.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 36

GF : 8-13 consommation annuelle (kWh)

fournisseur Trane Swegon MTA MTA MTA Ciat

technologie vis vis vis vis scroll scroll

nom modèle 1 modèle 2 modèle 3

tranche ferme 452 790 570 534 473 281 484 972 543 152 481 129

tranche A2 851 145 1 082 965 904 876 919 600 1 042 445 896 396

tranche future 1 671 757 2 096 752 1 705 267 1 790 210 1 920 220 1 852 617

Le groupe Trane est le plus économe. Cependant le groupe Ciat est le moins cher. Pour l’étude des 2 scénarii, je prends comme référence le groupe le moins cher : le groupe Ciat.

GF : 8-13 plus-value achat (€)

fournisseur Trane Swegon MTA MTA MTA Ciat

technologie vis vis vis vis scroll scroll

nom modèle 1 modèle 2 modèle 3 référence

tranche ferme 5 526 13 784 21 480 16 256 7 716 0

tranche A2 2 763 6 892 10 740 8 128 3 858 0

tranche future 2 763 6 892 10 740 8 128 3 858 0

Dans le but de conserver l’information sur le prix des offres des différents fournisseurs, je présente dans les scénarii uniquement l’écart relatif par rapport à la solution de référence. 1er scénario :

référence : Ciat

économie – / perte +

tranche

Trane Swegon MTA MTA MTA

vis vis vis vis scroll

modèle 1 modèle 2 modèle 3

No

mb

re d

’ann

ée

s d

e fo

nctio

nn

em

ent

1 ferme 6,9 % 13,2 % 17,6 % 13,5 % 7,6 %

2 ferme 5,8 % 13,7 % 15,8 % 12,3 % 8,1 %

3 A2 5,3 % 14,2 % 15,2 % 12,0 % 8,7 %

4 A2 - 4,5 % 5,1 % 4,2 % 1,7 % 9,5 %

5 A2 - 4,6 % 6,4 % 4,0 % 1,8 % 10,0 %

6 A2 - 11,2 % 0,0 % - 3,5 % - 5,3 % 10,4 %

7 A2 - 10,8 % 1,4 % - 3,2 % - 4,7 % 10,8 %

8 A2 - 15,8 % - 3,5 % - 8,7 % - 10,0 % 11,1 %

9 A2 - 15,2 % - 2,2 % - 8,2 % - 9,3 % 11,4 %

10 A2 - 19,2 % - 6,2 % - 12,6 % - 13,5 % 11,5 %

11 A2 - 12,6 % 1,0 % - 5,4 % - 6,6 % 11,7 %

12 A2 - 16,4 % - 2,9 % - 9,7 % - 10,6 % 11,8 %

13 A2 - 10,6 % 3,5 % - 3,3 % - 4,5 % 12,0 %

14 A2 - 14,2 % - 0,4 % - 7,4 % - 8,4 % 12,1 %

15 A2 - 13,9 % 0,4 % - 7,1 % - 8,0 % 12,2 %

16 A2 - 17,1 % - 3,0 % - 10,6 % - 11,4 % 12,3 %

17 A2 - 16,7 % - 2,2 % - 10,2 % - 10,9 % 12,4 %

18 A2 - 19,5 % - 5,2 % - 13,3 % - 13,9 % 12,4 %

19 A2 - 19,1 % - 4,5 % - 12,9 % - 13,4 % 12,5 %

20 A2 - 21,6 % - 7,2 % - 15,6 % - 16,1 % 12,5 %

21 A2 - 21,2 % - 6,5 % - 15,2 % - 15,6 % 12,6 %

22 A2 - 19,5 % - 5,0 % - 13,3 % - 13,9 % 12,6 %

23 A2 - 19,2 % - 4,3 % - 13,0 % - 13,5 % 12,7 %

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 37

- Le groupe le plus économe devient le plus rentable dès la 4ème année de fonctionnement, il s’agit du groupe Trane. - Le groupe Swegon est le plus cher et consomme 18,5% fois plus que le groupe Ciat. Cependant, la longue durée de vie de la technologie à vis permet à Swegon d’être plus rentable que la solution Ciat dès la 8ème année. - Les groupes MTA modèle 1 et 2 deviennent plus retable que le groupe référence Ciat dès la 6ème année de fonctionnement. 2ème scénario :

référence : Ciat

économie – / perte +

tranche

Trane Swegon MTA MTA MTA

vis vis vis vis scroll

modèle 1 modèle 2 modèle 3

No

mb

re d

’ann

ée

s d

e fo

nctio

nn

em

ent

1 ferme 6,9 % 13,2 % 17,6 % 13,5 % 7,6 %

2 ferme 5,8 % 13,7 % 15,8 % 12,3 % 8,1 %

3 A2 5,3 % 14,2 % 15,2 % 12,0 % 8,7 %

4 A2 - 4,5 % 5,1 % 4,2 % 1,7 % 9,5 %

5 A2 - 4,6 % 6,4 % 4,0 % 1,8 % 10,0 %

6 A2 - 11,2 % 0,0 % - 3,5 % - 5,3 % 10,4 %

7 A2 - 8,5 % 3,1 % - 1,0 % - 2,4 % 9,3 %

8 A2 - 13,0 % - 0,8 % - 6,3 % - 7,1 % 8,8 %

9 A2 - 12,7 % 0,4 % - 6,4 % - 6,8 % 8,3 %

10 A2 - 19,1 % - 6,3 % - 13,7 % - 13,7 % 8,1 %

11 A2 - 14,3 % - 0,7 % - 8,7 % - 8,6 % 7,8 %

12 A2 - 16,9 % - 3,2 % - 11,7 % - 11,3 % 7,6 %

13 A2 - 12,7 % 1,5 % - 7,4 % - 7,0 % 7,4 %

14 A2 - 17,7 % - 3,8 % - 12,8 % - 12,2 % 7,3 %

15 A2 - 17,3 % - 3,0 % - 12,6 % - 11,8 % 7,1 %

16 A2 - 19,2 % - 4,8 % - 14,7 % - 13,8 % 7,0 %

17 A2 - 15,7 % - 1,0 % - 11,1 % - 10,2 % 6,9 %

18 A2 - 19,6 % - 5,2 % - 15,3 % - 14,3 % 6,9 %

19 A2 - 19,2 % - 4,5 % - 15,0 % - 13,8 % 6,8 %

20 A2 - 20,7 % - 6,1 % - 16,7 % - 15,4 % 6,7 %

21 A2 - 20,3 % - 5,4 % - 16,4 % - 15,0 % 6,6 %

22 A2 - 20,9 % - 6,3 % - 17,0 % - 15,7 % 6,7 %

23 A2 - 20,6 % - 5,7 % - 16,7 % - 15,3 % 6,6 %

- Avec la prise en compte de la tranche future, les écarts de consommation et financier se creusent entre le groupe Trane et le groupe référence Ciat.

Remarque importante

Les consommations des groupes MTA et Swegon ont été calculées à partir de valeurs extrapolées à partir d’un groupe Carrier de même technologie scroll. La variation de l’EER selon la charge et la température extérieure n’étant pas connue avec certitude, les calculs de consommation sont à comparer avec un regard critique.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 38

8. Changement de température extérieure de travail

Les groupes froids doivent fournir 400 kW pour une température extérieure de 41°C. Il fait très rarement 41°C à Gradignan. Une telle température a lieu quelques heures seulement et uniquement lors des années de fortes chaleurs ou de canicules. Dans la première partie de ce rapport, un paragraphe fait référence aux températures ambiantes admissibles dans une salle informatique : l’ASHRAE accepte des températures ambiantes jusqu’à 32°C. Dans notre data center, la température ambiante est fixée à 23°C. J’émets une approximation rapide : j’admets que pour une même puissance frigorifique produite (400 kW), chaque degré d’élévation dans la salle informatique correspond à 1 degré d’élévation de la température extérieure. Par exemple, il fera 23°C ambiant pour 41°C extérieur et 24°C ambiant pour 42°C extérieur. 32°C degré ambiant étant admissibles, il est possible de diminuer la température extérieure dimensionnante : 35°C au lieu de 41°C

Température extérieure

Température dans salle informatique

35 23

36 24

37 25

38 26

39 27

40 28

41 29

42 30

43 31

44 32

Il est donc possible de dimensionner les groupes froids avec une température extérieure de 35°C. Jusqu’à une température extérieure exceptionnelle de 44°C, les baies informatiques ne seront pas en danger. A noter qu’à 35°C, le data center ne nécessite pas 400 kW d’apport frigorifique, mais 393 kW. Afin de rester conforme au CCTP, je ne modifie que la température extérieure de travail, et non la puissance frigorifique maximale délivrée par le groupe froid. J’ai demandé à Trane de dimensionner son groupe froid pour une température extérieure de 35°C. Trane a pu sélectionner un groupe froid et un aéroréfrigérant d’une taille inférieure, moins onéreux que ceux de la consultation de base. L’économie à l’achat est de 31%.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 39

Trane à vis

temp extérieure maxi 41°C 35°C G

roup

e

fro

id

technologie vis vis

régime d’évaporateur 8-13 8-13

régime condenseur 47-52 45-50

puiss frigo fournie (kW) 394,14 402,93

puiss élec absorbée (kW) 129,7 108,8

ro nombre de ventilateurs 12 10

puiss élec absorbée par 1 ventilateur (kW)

1,02 1,02

conso

(kW

h) tranche ferme 452 790 445 400 - 1,6 %

tranche A2 851 145 837 333 - 1,6 %

tranche future 1 671 757 1 642 296 - 1,8 %

Pour délivrer 400 kW, à pleine charge, les groupes froids n’absorbent pas autant d’énergie : respectivement 129,7 et 108,8 kW. Pour délivrer moins de 400 kW, les groupes froids fonctionnent à charge partiels. La puissance absorbée n’est pas linéaire, elle décroît plus vite que la puissance frigorifique fournie. L’écart entre la puissance absorbée du groupe dimensionné à 40°C et celle du groupe à 35°C se creuse lorsque la charge est partielle. C’est pourquoi l’abaissement de la température extérieure dans le choix du groupe froid permet de réaliser des économies dans les bas régimes de fonctionnement. Les groupes froids fonctionnent entre 60% et 90% de leur charge nominale, c’est-à-dire à des régimes relativement élevés. Ceci explique la faible économie réalisée.

9. Changement de fournisseur de pompe

Pour le choix des pompes, j’ai consulté Salmson et Grundfos.

POMPES Salmson Grundfos

par an : conso (kWh)

plus-value achat (€)

conso (kWh)

tranche ferme 183 221 1 355 165 163

tranche A2 306 388 - 43 270 272

tranche future 472 677 677 418 503

Grundfos étant moins onéreux, ses pompes sont prises comme référence.

POMPES Salmson Grundfos

par an : écart conso // référence

économie – perte +

référence

tranche ferme 10,9 % 27,3 % 0,0 %

tranche A2 13,4 % 13,0 % 0,0 %

tranche future 12,9 % 16,2 % 0,0 %

Les pompes consomment 2,5 fois plus que les armoires de climatisation. Elles sont le 2ème poste énergivore après les groupes froids. Il est donc très important de choisir des pompes économes. Grundfos est à la fois le plus économe et le moins onéreux.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 40

10. Consommation des centrales de traitement d’air

Les centrales de traitement d’air prescrites dans notre data center ne sont pas complexes. Contrairement aux groupes froids, elles ne demandent pas un long temps d’assemblage et peuvent être réceptionnées en quelques semaines seulement. La période de mon projet de fin d’études ne coïncide pas avec la période de consultation des CTA. Lors des consultations avec Ciat pour les groupes froids, aéroréfrigérants et armoires de climatisation, j’en ai profité pour demander une offre technique des CTA. Ciat m’a fourni un devis complet pour la CTA du pôle A et celle du pôle B. N’ayant pas d’offres d’autres fournisseurs, je ne peux pas comparer le matériel Ciat. J’ai uniquement calculé la consommation des deux CTA.

CTA Ciat

consommation annuelle (kWh)

Pôle A B

tranche ferme 122 051 78 452

tranche A2 122 051 78 452

tranche future 122 051 78 452

Pendant la tranche ferme, la consommation des centrales de traitement d’air représente un poste très énergivore. La part de la consommation des CTA diminue avec l’avancement des tranches.

11. Consommation théorique de la ventilation d’extraction

De manière semblable aux CTA, la période de mon projet de fin d’études ne coïncide pas avec la consultation des ventilateurs d’extraction. Je n’ai pas profité de consultations annexes pour obtenir une offre de ce poste. La consommation théorique de la ventilation est la suivante :

VENTILATION EXTRACTION

fournisseurs à consulter

consommation annuelle (kWh)

tranche ferme 4 059

tranche A2 6 705

tranche future 9 356

12. Calcul de PUE, pôle A

1. PUE : changement de régime d’eau :

Groupes froids : MTA modèle 1 Aéroréfrigérants : Thermokey Armoires de climatisation : Stulz, modèle 1 en salle informatique Pompes : Grundfos CTA : Ciat

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 41

Ventilation : théorique

(kWh) Consommation

informatique

Consommation non informatique

Consommation du site

7-12 8-13 9-14 7-12 8-13 9-14

tranche ferme 2 365 200 1 070 220 1 075 887 1 132 828 3 470 461 3 476 186 3 533 708

tranche A2 4 257 360 1 687 237 1 700 108 1 810 259 6 005 232 6 018 234 6 129 509

tranche future 8 041 680 2 821 797 2 819 012 3 006 279 10 974 284 10 971 471 11 160 648

PUE

7-12 8-13 9-14

tranche ferme 1,58 1,59 1,61

tranche A2 1,52 1,53 1,55

tranche future 1,47 1,47 1,50

Un régime d’eau glacée bas induit une plus forte consommation des groupes froids et une plus faible consommation des armoires de climatisation. Au final, c’est l’économie réalisée sur la consommation des armoires de climatisation qui l’emporte : le PUE décroit avec la diminution du régime d’eau. Plus le régime d’eau est bas, plus le PUE est faible et meilleur est notre data center. On note que dans notre cas d’étude, le changement de régime d’eau influe peu sur le PUE. Mais cette variation de quelques centièmes seulement est notable et non négligeable : elle est à considérer sur une consommation totale du site supérieure à 10 000 kWh par an en tranche future

2. PUE : changement de filtration :

Groupes froids & Aéroréfrigérants : Ciat Armoires de climatisation : Emerson, F7 ou G4 Pompes : Grundfos CTA : Ciat Ventilation : théorique

(kWh) Consommation

informatique

Consommation non informatique

Consommation du site

PUE

Emerson Emerson Emerson

F7 G4 F7 G4 F7 G4

tranche ferme 2 365 200 1 132 700 1 105 543 3 533 578 3 506 144 1,61 1,60

tranche A2 4 257 360 1 789 425 1 735 845 6 108 462 6 054 335 1,55 1,54

tranche future 8 041 680 3 160 027 3 054 420 11 315 965 11 209 280 1,52 1,51

Le changement de filtration sur les armoires de climatisation de la salle informatique permet de réaliser des économies d’énergie et une économie directe à l’achat. Du point du vue du PUE, le gain est faible avec une filtration moindre.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 42

3. PUE : changement de taille d’armoire :

Groupes froids & Aéroréfrigérants : Ciat Armoires de climatisation : Stulz, modèle 1 ou 2 en salle informatique Pompes : Grundfos CTA : Ciat Ventilation : théorique

PUE

Stulz

modèle 1 modèle 2

tranche ferme 1,59 1,60

tranche A2 1,52 1,54

tranche future 1,49 1,51

Le changement de taille d’armoire permet de réaliser une économie d’énergie, d’où l’obtention d’un PUE plus faible pour le cas des armoires de climatisation modèle 1 en salle informatique. Cependant, le calcul des scénarii a montré que les armoires de climatisation modèle 1 étaient plus rentables qu’à partir de la 15ème ou 18ème année de fonctionnement.

4. PUE avec un changement de fournisseur d’armoires de climatisation

Groupes froids & Aéroréfrigérants : Ciat Armoires de climatisation : Stulz 1ou 2, Emerson, Ciat, Swegon, Emicon Pompes : Grundfos CTA : Ciat Ventilation : théorique

PUE

Stulz modèle 1

Stulz modèle 2

Emerson Ciat Swegon Emicon

tranche ferme 1,59 1,60 1,61 1,60 1,61 1,60

tranche A2 1,52 1,54 1,55 1,53 1,54 1,54

tranche future 1,49 1,51 1,52 1,50 1,51 1,51

La configuration avec les armoires Stulz modèle 1 permettent d’obtenir le meilleur PUE. Cependant, elles ne deviennent plus rentables que les armoires Swegon qu’à partir de la 13ème ou 14ème année de fonctionnement selon le scénario. En 2nde place arrive les armoires de climatisation Ciat, mais celles-ci ne sont pas rentables selon les 2 scenarii étudiés. Les armoires Stulz modèle 2 présentent un PUE moyen et sont les plus rentables dès la 3ème année de fonctionnement

5. PUE : changement de taille de groupe froid

Groupes froids : MTA modèle 1 ou 2 Aéroréfrigérants : Thermokey Armoires de climatisation : Stulz, modèle 1 en salle informatique

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 43

Pompes : Grundfos CTA : Ciat Ventilation : théorique

PUE

MTA

modèle 1 modèle 2

tranche ferme 1,59 1,59

tranche A2 1,53 1,53

tranche future 1,47 1,48

Par rapport au groupe MTA modèle 1, le modèle 2 est plus petit, moins onéreux, plus énergivore, et plus rentable par les scénarii de fonctionnement. Les PUE calculés avec les modèle 1 et 2 sont très proches. Celui du modèle 1 est légèrement meilleur. Un choix est à faire entre faible différence de PUE et différence de rentabilité. Le léger surdimensionnement des groupes froids permet d’obtenir un meilleur PUE, mais la rentabilité est longue (supérieure à 20 ans pour notre cas d’étude) et la production frigorifique dans les faibles taux de charge est plus difficile.

6. PUE : changement de fournisseur de groupe froid

Groupes froids : Trane, Swegon, MTA 1 ou 2 ou 3, Ciat Aéroréfrigérants : variable Armoires de climatisation : Stulz, modèle 1 en salle informatique Pompes : Grundfos CTA : Ciat Ventilation : théorique

PUE

Trane Swegon MTA

modèle 1 MTA

modèle 2 MTA

modèle 3 Ciat

vis vis vis vis scroll scroll

tranche ferme 1,58 1,63 1,59 1,59 1,62 1,59

tranche A2 1,51 1,57 1,53 1,53 1,56 1,52

tranche future 1,47 1,53 1,47 1,48 1,50 1,49

D’un fournisseur à l’autre, la variation du PUE est notable : 6 centièmes d’écart entre le meilleur et le moins bon. Le choix des groupes Trane permet d’obtenir le meilleur PUE. Les groupes Swegon permettent d’obtenir le pire PUE parmi les 6 modèles comparés. Cependant, ils deviennent plus rentables que les groupes en scroll (Ciat et MTA modèle 3) à partir de la 8ème et 10ème année de fonctionnement selon le scénario.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 44

7. PUE : changement de température extérieure de travail

Groupes froids : Trane 41C ou 35°C Aéroréfrigérants : Trane Armoires de climatisation : Stulz, modèle 1 en salle informatique Pompes : Grundfos CTA : Ciat Ventilation : théorique

PUE

Trane

41°C 35°C

tranche ferme 1,58 1,57

tranche A2 1,51 1,51

tranche future 1,47 1,46

Le dimensionnement des groupes froids selon une température extérieure plus faible que la température maximale prescrite par le CCTP et plus élevée que celle prescrite par la RT2005 permet de réaliser de faibles économies d’énergies sur les groupes froids : le PUE est légèrement plus faible lorsque la température extérieure de travail diminue. De plus, l’économie directe à l’achat pour un groupe dimensionné à une température extérieure plus faible est notable (31%).

8. PUE : changement de fournisseur de pompe

Groupes froids & Aéroréfrigérants : Ciat Armoires de climatisation : Stulz, modèle 1 en salle informatique Pompes : Grundfos, Salmson CTA : Ciat Ventilation : théorique

PUE

Grundfos Salmson

tranche ferme 1,59 1,60

tranche A2 1,52 1,53

tranche future 1,49 1,50

Le changement de fournisseur de pompe influe peu sur le PUE. Le PUE calculé avec les pompes Grundfos est légèrement plus faible que celui calculé avec les pompes Salmson. De plus, le pompes Grundfos sont, dans notre cas d’étude, moins onéreuses et plus économes.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 45

9. PUE : cas le plus favorable, cas le plus défavorable, cas le moins onéreux

Pris séparément, le changement de fournisseur pour un seul matériel influe peu sur le PUE. Nous étudions ici les PUE extrêmes calculés à partir de toutes les consultations. CAS LE PLUS FAVORABLE : Groupes froids & Aéroréfrigérants : Trane Armoires de climatisation : Stulz modèle 1 Pompes : Grundfos CTA : Ciat Ventilation : théorique CAS LE PLUS DEFAVORABLE : Groupes froids & Aéroréfrigérants : Swegon Armoires de climatisation : Emerson Pompes : Salmson CTA : Ciat Ventilation : théorique CAS LE MOINS ONEREUX : Groupes froids & Aéroréfrigérants : Ciat Armoires de climatisation : Emicon (refusé par Ingerop), Swegon Pompes : Grundfos CTA : Ciat Ventilation : théorique

PUE

Le plus favorable

Le plus défavorable

Le moins onéreux

Emicon Swegon

tranche ferme 1,58 1,66 1,60 1,61

tranche A2 1,51 1,61 1,54 1,54

tranche future 1,47 1,56 1,51 1,51

La variation du PUE est significative d’une configuration à l’autre. Sur la tranche future, la consommation totale du site s’élève à 10 940 000 kWh pour le cas le plus favorable et 11 255 000 kWh pour le cas le moins onéreux avec les armoires de climatisation Swegon ; soit une différence par an de 3 150 000 kWh ou 15 800 euros. Si l’entreprise en charge des travaux se dirige vers la configuration la moins onéreuse, alors elle manque une économie d’énergie possible. Trouver le cas le plus favorable nécessite des calculs de consommation pour chaque matériel du système de refroidissement. Bien évidemment, ces calculs préalables doivent être effectués avant le choix des matériels. Mais il n’existe actuellement ni méthode réglementaire, ni logiciel pour effectuer ces calculs. Pourtant les enjeux énergétiques sont énormes.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 46

Partie 4 : Free cooling sur l’eau

Le free cooling sur l’eau permet de réaliser des économies d’énergie en mettant à l’arrêt les groupes froids et les pompes, mais ce mode opératoire nécessite l’installation d’un réseau hydraulique et d’un échangeur de 400 kW pour chaque groupe froid non utilisé. Afin de connaître la pertinence du free cooling sur l’eau, j’ai consulté Ciat pour l’échangeur de chaleur qui sert à by-passer les groupes froids et qui permet l’échange direct entre les aéroréfrigérants et les armoires de climatisation. Ciat a dimensionné un échangeur à plaques d’une puissance de 400 kW. Cet échangeur est relié aux armoires de climatisation en eau glacée de régime 8-13 et à un aéroréfrigérant en eau glycolée de régime 6-12 :

fig 11 : extrait de consultation Ciat : échangeur pour free cooling

source : Ciat Ciat me fournit une simulation thermique avec l’échangeur précédemment dimensionné et les aéroréfrigérants issus de son offre remise avec les groupes froids :

fig 12 : extrait de consultation Ciat : simulation pour un aéroréfrigérant prescrit en offre avec groupes froids

source : Ciat

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 47

Avec l’aéroréfrigérant sélectionné avec les groupes froids, le free cooling sur l’eau n’est possible que si la température extérieure est nulle ou négative.

fig 13 : pertinence du free cooling jusqu’à 0°C

source : production personnelle A Bordeaux, la température extérieure est inférieure à 1°C 3,6% du temps, c’est-à-dire 13 jours par an. L’investissement financier des échangeurs et du réseau hydraulique dans le but de réaliser une économie annuelle si brève n’est pas justifiée. J’ai donc choisi de ne pas étudier ce mode d’économie d’énergie qui, pour notre cas d’étude, n’est pas une solution économiquement viable.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 48

Partie 5 : Free cooling sur l’air

1. Quantifier les ressources

Les armoires de climatisation recyclent l’air ambiant. Les armoires de la salle informatique recyclent et refroidissent l’air jusqu’à une température de soufflage de 15°C. Ces mêmes armoires fonctionnent en continu, été comme hiver. Il en va de soit que le système de refroidissement qui aliment ces armoires fonctionnent aussi en continu.

fig 14 : pertinence du free cooling jusqu’à 14°C

source : production personnelle A Bordeaux, la température extérieure est inférieure à 15°C 57,2% du temps, c’est-à-dire 209 jours par an. C’est alors que l’on se pose la question de l’utilisation du free cooling sur l’air ? Le data center d’AGIRC-ARRCO comporte déjà une centrale de traitement d’air, mais celle-ci ne sert qu’à injecter dans la salle un faible débit d’air neuf. Elle ne peut pas être utilisée pour le free cooling sur l’air : il faut donc installer une centrale de traitement d’air dédiée au free cooling, notée plus simplement CTA-FC dans la suite du rapport. J’ai choisi d’étudier le free cooling sur l’air uniquement dans la salle informatique car cette salle représente la majeure partie de la consommation totale du data center.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 49

2. Scénario de fonctionnement

Le free cooling permet de réaliser des économies d’énergie en mettant à l’arrêt certains matériels énergivores. Ci après les scénarii de fonctionnement des équipements CVC pendant la période de free cooling, de –10°C à 14°C extérieur :

marche arrêt

armoires de climatisation de la salle info X

toutes les autres armoires de climatisation X

groupes froids alimentant toutes les armoires sauf celles de la salle info

X

aéroréfrigérants alimentant toutes les armoires sauf celles de la salle info

X

pompes Réseau 1 & 2 alimentant toutes les armoires sauf celles de la salle info

X

pompes des groupes froids et des aéroréfrigérants X

Ventilation d’extraction X

CTA d’amenée d’air neuf (existante) X

CTA-FC (à installer) X

3. CTA-FC

1. Caractéristiques

Pendant la période de free cooling, la CTA-FC remplace le rôle assuré par les armoires de climatisation de la salle informatique : - l’air soufflé par la CTA-FC est aux mêmes conditions : 15°C, 50%, - le débit soufflé en faux plancher est le même : Débit soufflé par la CTA-FC = Σ (Débits des armoires) - la pression disponible de l’air soufflé est la même : Pression disponible par la CTA-FC = Σ (Pression disponible des armoires) - la répartition du soufflage doit être autant uniforme qu’est la disposition des armoires dans la salle informatique.

2. Dimensionnement

Pour le calcul du débit soufflé par la CTA-FC, je me base sur les données des armoires de climatisation de Stulz en régime 8-13 :

Stulz régime 8-13 : salle informatique

1 armoire tranche ferme :

6 armoires tranche A2 : 12 armoires

tranche future : 24 armoires

fourn

i Puiss frigo fournie (kW) 79,8 478,8 957,6 1 915,2

Débit soufflé (m3/h) 22 000 132 000 264 000 528 000

Pression dispo (Pa) 20 120 240 480

à f

ourn

ir

Puiss frigo à fournir (kW) 229,948 456,100 904,100

Taux de charge 478,8 / 229,948

= 0,48 0,48 0,47

Débit à souffler (m3/h) 0,48 x 132 000

= 63 394 125 742 249 251

Pression dispo 20 120 240 480

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 50

Ci-après le débit soufflé par la CTA-FC par tranche :

Débit à souffler (m3/h)

Débit soufflé en free cooling

(m3/h)

Nb de CTA-FC cumulé

Débit soufflé par 1 CTA-FC

Débit total soufflé par les CTA-FC

Sur-débit

tranche ferme

63 394 63 394 2 31 700 63 400 63 400- 63 394

= 6

tranche A2

125 741 125 741 4 31 700 126 800 1 059

tranche future

249 251 249 251 8 31 700 253 600 4 349

Il y a un léger sur-débit pour les tranches A2 et future. Il est volontairement choisi des CTA-FC identiques sur toutes les tranches, quitte à avoir un sur-débit. En envisageant d’acheter un lot de CTA identiques, cela permet une négociation plus simple avec le fournisseur. De plus, le réseau aéraulique est à dimensionner pour la tranche ferme et est duplicable sur les autres tranches ; cela permet une simplicité dans l’achat et l’installation des réseaux.

3. Réseau aéraulique

Pour assurer l’uniformité du soufflage en faux plancher, je choisi de placer autant de diffuseur que d’armoires. Chaque diffuseur est placé à proximité d’une armoire et constitue une antenne de soufflage. A chaque antenne de soufflage correspond une antenne de reprise placée de l’autre côté de la salle informatique, en partie haute. Pour 1 CTA-FC il y a donc : 6 (armoires) / 2 (CTA-FC) = 3 antennes de soufflage et de reprise. Le débit d’1 antenne est de : 31 700 (m3/h) / 3 (antennes) = 10 567 m3/h La vitesse de soufflage et de reprise est choisie volontairement élevée car la place dans la salle informatique est restreinte. Installer de grandes antennes encombrerait la salle informatique et le faux plancher et diminuerait le volume de la salle, et ainsi engendrerait des points chauds et des pannes informatiques. La vitesse de soufflage et de reprise dans les antennes est fixée à 8,2 m/s. La dimension d’une antenne est de 600 mm x 600 mm. La vitesse de soufflage et de reprise d’une gaine commune à 3 antennes est fixée à 8,8 m/s. La dimension d’une gaine commune à 3 antennes est de 1250 mm x 800 mm. Maintenant que les réseaux d’antennes de soufflage et de reprise sont dimensionnés, je me base sur les plans d’exécution, fournis par le bureau d’études Clima Project, pour placer et tracer le réseau aéraulique. Je choisis de placer les CTA-FC en toiture. Je mesure ensuite les tracés pour calculer le poids de gaine et la surface de calorifuge nécessaire. Je compte le nombre de volets coupe-feu, de registres de réglage, de diffuseurs et de grilles. J’associe à tous ces matériels des temps de pose. Cegelec possède une base de données des coûts des matériels CVC. Avec cette base de données, j’établis un devis pour l’ensemble du réseau aéraulique. Le prix de vente fourni-posé est de 57 884 €.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 51

4. Consultation

Le réseau aéraulique est chiffré. Par le tracé du réseau aéraulique sur les plans, je repère les pertes de charges singulières (coudes, tés, changement de taille, diffuseurs) et les pertes de charge linéaires (métré). A cette perte de charge, j’ajoute les 3 x 20 Pa de pression disponible des 3 armoires de climatisation. J’obtiens une pression fournie par le ventilateur de la CTA de 250 Pa. La CTA-FC doit répondre aux caractéristiques suivantes : conditions extérieure : -15°C, 90% conditions de reprise : 29°C, 40 % conditions de soufflage : 15°C, 60% séparateur de gouttelettes caisson de mélange 2 voies ventilateur : aubes à réaction débit constant : 31 700 m3/h vitesse : 8,8 m/s pression disponible : 250 Pa batterie chaude électrique : il n’y a pas de production d’eau chaude dans le data center

humidificateur à pulvérisation filtration G4, F7 : identique à la filtration des armoires de climatisation Je choisis de consulter Ciat pour la CTA-FC. Ciat m’indique le prix public d’une CTA-FC : 31 441 €.

4. Consommation

1. Principe de calcul : CTA-FC

Ciat me fournit les données suivantes : - la puissance du ventilateur - les puissances des deux batteries électriques, et les caractéristiques de l’air en entrée et en sortie - le débit de pulvérisation de l’humidificateur, et les caractéristiques de l’air en entrée et en sortie. Avec ces données, j’effectue un calcul de consommation de la CTA-FC selon la méthode de calcul de consommation de la CTA d’amenée d’air neuf du data center (la méthode est décrite dans le chapitre précédent La principale différence avec le calcul de consommation standard est que la CTA-FC fonctionne uniquement lorsque la température extérieure est inférieure à 15°C.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 52

2. Résultats

Le réseau de free cooling sur l’air représente un investissement global de : Réseau + CTA-FC x 2 = 57 884 + 31 441 x 2 = 120 766 € Ci après le résultat des calculs de consommation :

consommation (kWh)

investissement (€)

investissement cumulé (€)

tranche ferme 844 776 120 766 120 766

tranche A2 1 689 552 60 383 181 149

tranche future 3 379 104 60 383 241 532

La CTA-FC consomme énormément. Cette forte consommation est due aux deux batteries électriques dimensionnées pour réchauffer de l’air de –7°C (après mélange) à 15°C. L’optimisation de la consommation n’est pas possible : - le mélange ne peut pas excéder –7°C à cause de problème de condensation dans la CTA-FC - aucune production d’eau chaude n’est présente dans le data center, les batteries électriques ne peuvent pas être remplacées par des batteries à eau chaude

3. Principe et résultats du calcul des autres postes

Lors d’un fonctionnement « normal » sans free cooling, les calculs de consommation des groupes froids, des aéroréfrigérants, des armoires de climatisation et des pompes ont été réalisés mensuellement selon la température extérieure et le coefficient d’utilisation (cf. chapitre précédent). Pour calculer la consommation de ces différents postes pendant la période de free cooling, de –10°C à 14°C, il suffit de modifier le temps de fonctionnement mensuel de 15°C à 40°C et d’ôter à la charge de fonctionnement normale la part dédiée aux armoires de la salle informatique. Les armoires de la salle informatique étant à l’arrêt pendant la période de free cooling, les groupes froids et les pompes Réseau 1 & 2 fonctionnent à charge fortement réduite. Or ces 2 matériels ne fonctionnent qu’à partir d’une charge minimale proche de 20% de leur puissance nominale. Afin d’atteindre ces 20%, une vanne de décharge est installée par groupe froid et par pompe afin d’augmenter la charge et d’atteindre la cible de fonctionnement minimum. Ainsi, selon la température extérieure et donc selon la charge à fournir, les groupes froids et les pompes fonctionnent à 20% de leur puissance alors que théoriquement ils devraient fonctionner à moins de 20% : il y a donc une surconsommation inévitable pour alimenter les armoires de climatisation hors salle informatique. Une optimisation est réalisée sur cette surconsommation : lors des tranches A2 et future, plusieurs groupes froids et pompes fonctionnent simultanément. Pendant le free cooling, il choisi de n’utiliser qu’un seul groupe froid et qu’une seule pompe de chaque réseau pour alimenter le data center. La charge de fonctionnement n’est plus répartie sur 2, 3 ou 4 matériels, mais sur 1 seul : l’unique matériel utilisé fonctionne pendant le free cooling à une charge inférieure mais proche de 20%. L’augmentation de la charge par la vanne de décharge ne concerne plus qu’un seul matériel : la surconsommation persiste mais est réduite.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 53

fig 15 : optimisation du nombre de groupes froids utilisés en période de free cooling

source : production personnelle Si toutes les armoires de climatisation sont à l’arrêt, alors le système de refroidissement et d’alimentation hydraulique est aussi à l’arrêt. Le free cooling aurait dû concerner toutes les armoires de climatisation, et non uniquement celles de la salle informatique afin d’éviter les problèmes de surconsommation par la vanne de décharge. Alimenter en free cooling toutes les salles ayant des besoins frigorifiques, revient à réaliser un réseau aéraulique complexe et plus encombrant, et d’installer d’autres CTA-FC. Je n’ai pas dimensionné l’utilisation du free cooling sur l’ensemble des armoires de climatisation. Cependant, pour estimer la consommation énergétique du data center en free cooling total, je considère que les besoins frigorifiques des armoires de climatisation (hors salle info) nécessitent l’installation d’1 CTA-FC pour les tranches fermes et A2 et 1 CTA-FC pour la tranche future.

PUE

Fonctionnement normal

Free cooling sur salle info

Free cooling total

tranche ferme A2 future ferme A2 future ferme A2 future

PUE 1,58 1,51 1,47 1,86 1,81 1,78 2,00 1,89 1,87

Contrairement à ce qui peut être pensé, le free cooling par l’air dans ce data center n’est pas un apport de froid « gratuit » : cette solution est très énergivore. Dans un data center les conditions d’ambiance doivent être stables et maintenues proche de la valeur de consigne. L’air froid extérieur ne peut pas être injecté sans traitement dans la salle informatique, il doit répondre à des conditions de température et d’hygrométrie très strictes. Le free cooling sur l’air dans un data center nécessite un traitement de l’air extérieur : mélange avec la reprise, pré-chauffage, humidification, chauffage. C’est ce traitement entièrement électrique qui consomme énormément et qui rejette le choix de l’utilisation du free cooling sur l’air dans notre data center.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 54

Ci-dessous un comparatif de consommation sur l’ensemble du data center :

Co

nso

mm

atio

n (

kW

h)

Fre

e c

oo

ling to

tal fu

ture

789 7

57

88 2

57

190 1

68

9 3

56

122 0

51

4 2

23 8

80

5 7

75 1

69

2 9

89 6

67

1,8

7

A2

408 1

18

47 7

41

129 3

04

6 7

05

122 0

51

2 1

11 9

40

3 1

10 5

58

1 4

64 1

71

1,8

9

ferm

e

224 6

13

21 0

31

70 9

52

4 0

59

122 0

51

1 2

67 1

64

1 9

64 0

69

809 6

74

2,0

0

Fre

e C

oo

ling

su

r sa

lle info

futu

re

863 6

22

102 2

57

231 2

43

9 3

56

122 0

51

3 3

79 1

04

5 0

65 3

33

2 2

79 8

31

1,7

8

A2

487 9

83

58 8

04

165 1

55

6 7

05

122 0

51

1 6

89 5

52

2 8

14 9

49

1 1

68 5

72

1,8

1

ferm

e

304 4

78

36 4

23

106 8

03

4 0

59

122 0

51

844 7

76

1 6

6 7

89

611 3

94

1,8

6

Fon

ction

ne

me

nt

norm

al

futu

re

1 6

71 7

57

206 1

35

418 5

03

9 3

56

122 0

51

0

2 7

85 5

02

Réfé

rence

1,4

7

A2

851 1

45

111 5

05

270 2

72

6 7

05

122 0

51

0

1 6

46 3

77

Réfé

rence

1,5

1

ferm

e

452 7

90

63 1

33

165 1

63

4 0

59

122 0

51

0

1 0

55 3

95

Réfé

rence

1,5

8

Tra

ne

Stu

lz

Gru

ndfo

s

-

Cia

t

Cia

t

Tra

nche :

GF

& A

éro

Arm

oire

s

Po

mp

es

Ve

ntila

tion

CT

A-A

N

CT

A-F

C

TO

TA

L

Diffé

ren

ce

PU

E

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 55

Conclusion Le 21ème siècle est l’ère de l’informatique et des nouvelles technologies. Les data centers sont nés d’un réel besoin de traitement de l’information virtuelle, les amenant ainsi à se développer de manière considérable en moins de dix ans. Désormais, ils représentent une part significative de la consommation énergétique mondiale (1%). Il est surprenant de constater que, malgré la politique actuelle de limitation des consommations, aucune réglementation ni aucun logiciel de calcul de PUE n’existent. Il est aussi surprenant de constater que la récupération de chaleur sur ces ouvrages frigorifiques que sont les data centers, ne soit pas obligatoire. La méthode de calcul établie par ce projet de fin d’études constitue une première approche dans le calcul des consommations des équipements climatiques d’un data center. La méthode de calcul à permis d’établir un choix cohérent entre technicité et prix d’achat. De plus, elle a permis d’effectuer des comparaisons entre équipements en modifiant certains paramètres de conception. Ces comparaisons, corrélées à l’aspect financier de l’exploitation du data center, montre au Maître d’ouvrage l’importance d’un investissement initial lors d’une démarche durable : le choix du scénario détermine le temps de retour sur investissement. Cependant, dans la méthode de calcul présentée un certain nombre d’hypothèses ont été posées. Il conviendrait pour fiabiliser la méthode de lever les approximations. L’évolution des technologies est rapide et les besoins en traitement informatique est exponentielle. La réalisation des data centers est en pleine expansion ; ils constituent un nouveau pôle de compétence au sein du secteur climatique. Les enjeux en termes d’économie d’énergie sont considérables. Ces ouvrages feront l’objet dans la décennie actuel d’un enseignement au sein des écoles d’ingénieurs.

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 56

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 57

Bibliographie

Ouvrages : Neil Ramussen, - Options d’architecture pour la distribution d’air dans les installations critiques, Livre blanc 55, APC-Schneider - Affectation des coûts énergétiques et des émissions de CO2 aux utilisateurs informatiques, Livre blanc 161, APC-Schneider - Mise en œuvre de data centers éco-énergétiques, Livre blanc 114, APC-Schneider - Calculer la totalité des besoins en refroidissement des centres de données, Livre blanc 25, APC-Schneider Modélisation du rendement électrique, Livre blanc 113 APC-Schneider

John Nieman, - Confinement de l’allée chaude / Confinement de l’allée froide, Livre blanc 135, APC-Schneider

Isabel Rochow, - Systèmes avancés de distribution d’eau réfrigérée pour centres de données, Livre blanc 131, APC-Schneider

Suzanne Niles, - La virtualisation : une alimentation et un refroidissement optimisés pour des bénéfices accrus, Livre blanc 118, APC-Schneider

Victor Avelar, - Méthode de calcul de l’efficacité énergétique (PUE) dans les data centers, Livre blanc 158, APC-Schneider - Calcul de l’ensemble des besoins en alimentation électrique des centres de données, Livre blanc 3, APC-Schneider

Anonyme, - Comment éviter les coûts liés au surdimensionnement d’infrastructure de centres de données et de salles réseaux, Livre blanc 37, APC-Schneider

Fiches techniques : Trane, Ciat, MTA, Swegon, Stulz, Emerson, Emicon, Salmson, Grundfos.

Internet : http://www.greenit.fr/article/materiel/serveur/internet-consommera-autant-d-energie-que-l-humanite http://www.greenit.fr/article/acteurs/hebergeur/pue-yahoo-et-cap-gemini-en-dessous-de-108-3211 http://www.greenit.fr/article/materiel/serveur/cloud-computing-2000-milliards-de-kwh-en-2020 http://gridatacenter.org/quelle-maturite-pour-la-mesure-du-pue/ http://gridatacenter.org/datacenter/ http://www.zdnet.fr/actualites/reportage-dans-un-corridor-froid-le-datacenter-du-futur-39712242.htm http://www.hebergeur-web.net/testimonials.html http://www.thegreengrid.org http://royal.pingdom.com/2008/04/11/map-of-all-google-data-center-locations/ http://actualite.lachainemeteo.com/actualite-meteo/2009-09-28/paris-banlieue---9--d-ecart_-2638.php http://www.conteg.fr/confinement-d-allee-froide http://www.conteg.fr/allee-chaude-froide/ http://www.conteg.fr/alimentation-en-salle-avec-retour-par-plenum/ http://www.atos-racks.com/fiche,allee_froide,109.html http://www.schroff.fr/internet/html_f/service/pressreleases/sro1003.html http://www.alunys.com/page/53/virtualisation http://www.eco-info.org/spip.php?article140 http://neo.sci.gsfc.nasa.gov/Search.html?datasetId=MOD11C1_M_LSTDA

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 58

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 59

Sommaire des annexes

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 60

François BOUCHEIX étude d’un data center Armel JEGOU en phase d’exécution, Charles CHRISTIN du 7 février au 29 juillet 2011 61

Présentation de l’entreprise Cegelec fait partie du groupe Vinci depuis le 14 avril 2010. Cegelec réalise un chiffre d’affaires annuel de l’ordre de 2,8 milliards d’euros et emploie plus de 25 000 personnes dans une trentaine de pays. L’agence Grands Projets et Infrastructures Sud-Ouest de Cegelec se situe à Toulouse, 11 impasse des Arènes. L’agence GPI-SO est totalement indépendante des autres agences Cegelec présentes à Toulouse. Elle répond à des projets de valeur supérieure à 500 000 euros dans les lots suivants : Courants Faibles, Courant Forts, Photovoltaïque, CVC, Plomberie, Fluides Spéciaux, Désenfumage, Maintenance.

fig 16 : Cegelec - 6 agences régionales en France source : www.cegelec.fr