Stratégies et techniques pour le refroidissement des serveurs
Avoir une salle de serveurs haut de gamme n’a pas de sens, si elle n’est pas efficacement refroidie. Le refroidissement assure le bon fonctionnement de l’équipement, et permet de se prémunir contre les erreurs critiques du système causées par la surchauffe. La température ambiante des salles de serveurs, doit être gardée entre 20˚C et 25˚C, car toute température supérieure ou inférieure à cette norme, est susceptible de nuire aux fonctionnalités du serveur.
A mesure que les technologies évoluent, l’énergie consommée au sein des salles des serveurs s’est fortement intensifiée. Maintenir un refroidissement régulier de la salle des serveurs, devient de plus en plus une tâche ardue. Aujourd’hui, de nombreuses entreprises utilisent des serveurs lames, qui sont des serveurs allégés, ne comportant que les fonctionnalités nécessaires à leur fonctionnement. Bien que les serveurs lames économisent de l’espace, et permettent à une salle de serveurs ou à un centre de données de stocker plus de données en général, ils produisent également plus de réchauffement. Pour les serveurs traditionnels, on utilise environ 1,7 kW par rack, alors que pour les serveurs lames, on utilise 20 kW dans le même espace. Cette incrémentation de la consommation d’énergie de 1079%, entraîne des changements importants dans la production de chaleur. Dans un contexte marqué par une consommation d’énergie beaucoup plus élevée qu’auparavant, dans la salle des serveurs, des stratégies et techniques de refroidissement innovatrices et perfectionnées, doivent être impérativement mise en place.
Lutter contre la stratification de l’air
Le problème ne réside pas seulement dans le fait que la salle des serveurs peut devenir trop chaude, d’ailleurs c’est impossible de garder une température constante dans une salle, particulièrement lorsque plusieurs éléments, sont refroidis et chauffés d’un seul coup dans un espace clos. En réalité, c’est la stratification de l’air qui se produit, qui correspond au moment où se réalise, une superposition des couches d’air à différentes températures. La couche la plus chaude remontant vers le haut, une température acceptable reste suspendue au milieu, et l’air le plus froid descendait vers le bas. Lorsque la stratification de l’air survienne, tout ce qui se situe à l’extérieur du juste milieu tempéré, est trop chaud ou trop froid pour assurer un fonctionnement optimal du serveur, et par conséquence, des dommages peuvent être provoqués. De plus, si la température globale de l’air est mesurée au moyen d’un seul thermomètre, les différentes couches d’air ne seront pas prises en compte dans la mesure. Cela peut conduire à négliger les variations de température à long terme, endommageant ainsi les équipements sensibles et coûteux.
Garder les choses bien organisées
La première chose à envisager pour mieux réguler et refroidir une salle de serveurs est de commencer par la ranger. Il est tentant pour certains de considérer la salle des serveurs comme un espace de stockage supplémentaire. Toutefois, cela réduit le débit d’air et peut engendrer une surchauffe. Un bon entretien de la salle des serveurs, consiste à s’assurer que toutes les allées sont dégagées et qu’aucune ventilation n’est partiellement couverte ou complètement bloquée. Un nettoyage régulier est également bénéfique pour garder les salles de serveurs au froid, car la poussière et les débris pénètrent dans les systèmes de refroidissement, et perturbent leur fonctionnement voire les endommager.
Une fois la salle des serveurs est rangée, la répartition de la charge est l’un des moyens pour contrecarrer le problème de la surchauffe. Il s’agit de la répartition des serveurs 1U et des serveurs lames sur plusieurs racks. Ainsi, on s’assure qu’aucune unité rack ne dépasse sa puissance maximale d’alimentation, en raison de la densité, car la haute densité des racks regroupés, provoquera un point chaud vertical sur le rack, et conduira au réchauffement accru de celui-ci. Des panneaux d’obturation doivent être utilisés lors de la mise en œuvre de la répartition de la charge, afin d’améliorer la performance de refroidissement globale.
Refroidissement supplémentaire ou complet de la pièce
Le refroidissement supplémentaire est une alternative pour éviter la surchauffe des racks. Il consiste en la mise en place d’équipements tels que des échangeurs de chaleur à porte arrière et des échangeurs de chaleur suspendus. Les échangeurs de chaleur à porte arrière sont installés sur des étagères et ne prennent pas d’espace au sol, mais ils nécessitent une source d’eau glacée. C’est une excellente option à adopter pour les installations de petite taille. Les échangeurs de chaleur suspendus sont suspendus entre les baies. Ils doivent être utilisés en complément des systèmes d’allées chaudes et d’allées froides existants, aspirant l’air chaud provenant des allées chaudes de chaque côté et refroidissant l’air avant de l’expulser vers le bas.
La climatisation de l’ensemble de la salle n’est pas une bonne option, pour un refroidissement constant des serveurs, mais cela vaut la peine d’être mentionné. La climatisation complète d’une salle est juste comme elle le semble : essayer de refroidir une salle entière avec de l’air conditionné, pour maintenir les serveurs à une température stable. Alors que c’est possible, c’est un véritable gaspillage et c’est très coûteux. En outre, pour fonctionner correctement, il doit refroidir en permanence, l’ensemble de la pièce au plus haut niveau de chaleur produite. C’est une démarche inutile, coûteuse et néfaste pour l’environnement.
Haute Densité Haute Chaleur
La façon la plus facile pour préserver le refroidissement, est de designer une zone à haute densité. Les serveurs de puissance thermique la plus élevée, sont donc placés dans une seule partie de la salle des serveurs, et un point chaud vertical est créé dans une zone isolée. Un système de refroidissement supplémentaire peut alors être appliqué à cette zone, pour aider à maintenir les serveurs les plus performants au frais, tout en permettant au reste de la pièce de rester à une température plus ambiante sans soutien additionnel. Pour ce modèle, il faut utiliser des panneaux de régulation du débit d’air.
Consulter un professionnel
Pour bien réguler le débit de l’air, il est également possible de recourir à un professionnel pour effectuer une consultation. Un professionnel peut faire un diagnostic de la salle de serveurs, mesurer le débit d’air et de l’espace, puis proposer des suggestions sur les moyens de refroidissement adéquats pour les zones problématiques ainsi que sur l’espace unique au sein de la salle de serveurs. Les professionnels peuvent assister au paramétrage du système de refroidissement d’origine, pour aider le département informatique dans son implémentation, et lui permettre de se concentrer uniquement sur la maintenance.
Consolider les serveurs
Pour réduire le nombre de serveurs utilisés et, par conséquent, la quantité de chaleur produite, les serveurs peuvent être consolidés. La virtualisation des serveurs représente un moyen d’y parvenir. Selon Best Strategies for Cooling Server Rooms au SMBs par Yuval Shavit, « L’objectif [de la virtualisation des serveurs] est de réduire le nombre de serveurs inactifs à un moment donné en faisant tourner plusieurs serveurs, dont aucun ne nécessite une utilisation complète du CPU, sur le même système hôte. » En supprimant les serveurs inactifs, la chaleur dans la salle des serveurs diminuera, ce qui réduira la consommation d’énergie utilisée pour refroidir la salle tout en réalisant des économies de coûts considérables.
Installer les capteurs
Enfin, la surveillance de l’environnement est un excellent moyen de maintenir une salle de serveurs à une température idéale et d’économiser de l’argent. L’installation de capteurs dans une salle de serveurs avec accès à distance, permet aux membres des services informatiques de surveiller la température de la salle de serveurs, et d’effectuer des ajustements aux différents systèmes de refroidissement. Les capteurs peuvent également alerter le service informatique lorsque les températures deviennent trop élevées ou trop basses, ce qui aide à protéger l’équipement.
Plusieurs possibilités permettent de maintenir la température dans une salle de serveurs entre les niveaux idéaux de 20˚C à 25˚C. Ces techniques peuvent également être utilisées de façon synergique, en déployant plusieurs à la fois pour maintenir une salle de serveurs à une température parfaite. Quelle que soit la méthode utilisée, maintenir une salle de serveurs refroidie signifie maintenir les serveurs en parfait état de fonctionnement tout en se prémunissant contre les pannes de serveurs.
Liens :
https://blog.schneider-electric.com/datacenter/2011/09/22/5-cooling-strategies-for-high-density-racks-and-blade-servers/
http://www.42u.com/cooling-strategies/
http://searchitchannel.techtarget.com/feature/Best-strategies-for-cooling-server-rooms-at-SMBs
http://archive.42u.com/cooling/supplemental-cooling.htm