Desde 2011, los expertos recomiendan mantener temperaturas más elevadas en los centros de datos como estrategia para aumentar su eficiencia: fue a partir de este año cuando la sociedad técnica internacional, por el avance en la ciencia de la calefacción, la ventilación, el aire acondicionado y la refrigeración (ASHRAE), revisó sus estándares y amplió el número de horas sin refrigeración que recomienda para los centros de datos.
Sin embargo, aunque es evidente que reducir el gasto, en este sentido, tiene un impacto positivo en el ahorro energético, lo cierto es que es un ahorro difícil de cuantificar. Además, al permitir este aumento de temperatura, también surge la duda de hasta qué punto el calor podría comprometer la fiabilidad de los activos tecnológicos. Por estos motivos, y también por la inercia de los hábitos tradicionales, lo cierto es que la mayoría de centros de datos siguen apostando por mantener una temperatura baja y estable, a costa de un gran gasto energético.
Para saber a ciencia cierta cuál es la estrategia más pertinente a nivel de temperatura en un centro de datos, Schneider Electric ha llevado a cabo un experimento partiendo de tres escenarios para determinar cuál es el más eficiente: una temperatura media fijada en 20ºC (el típico escenario a día de hoy), una temperatura que fluctúa ente los 15,6 y los 26,7ºC y un tercer caso de temperatura fijada a 26,7ºC.
En dicho análisis se ha tenido en cuenta no solamente la temperatura óptima en términos de energía y amortización del producto, sino también la fiabilidad del equipo, otro factor a tener en cuenta para seleccionar la temperatura ideal de funcionamiento.
El estudio arroja varias conclusiones: por un lado, este trabajo demuestra que hay muchas variables que influyen en el posible ahorro de costes y, por otro, que el aumento de las temperaturas no es siempre una buena estrategia. Por ello, antes de aplicar cambios de temperatura a un centro de datos, es importante tener en cuenta las condiciones de diseño, los atributos del sistema, la carga, y otras variables que son las que marcan si el equipo puede o no asumir un aumento en la temperatura.
En concreto, del estudio se desprende que, antes de decidirse a aumentar la temperatura, los responsables de los Centros de Datos deben tener en cuenta ciertas cuestiones en particular:
[box type=»shadow» align=»» class=»» width=»»]
- Tener en cuenta prácticas de gestión del aire, tales como contención y paneles de cierre, ya que ello evitará la creación de puntos calientes.
- Consultar con los proveedores tecnológicos para entender cómo se comportará el equipo a una mayor temperatura (a nivel de consumo de energía y el requisito CFM o pies cúbicos por minuto).
- Considerar la posibilidad de ajustar la configuración BIOS del equipo tecnológico para optimizar su rendimiento a temperaturas más altas, lo cual requiere un mayor nivel de colaboración entre facilities y departamentos de TI.
- Dado que los centros de datos no están exclusivamente formados por servidores, es importante tener en cuenta el impacto del aumento de temperatura en la fiabilidad en otros equipos, como los sistemas de almacenamiento y las redes.
- Asegurar que la arquitectura de refrigeración puede funcionar a temperaturas más elevadas (por ejemplo, se da el caso de que algunos enfriadores no pueden funcionar a temperaturas de agua fría más altas).
- Es importante que el plan de crecimiento tenga en cuenta el potencial impacto energético negativo que puede suponer aumentar la temperatura de entrada. En otras palabras, quizás con una carga del 50 % el aumento de la temperatura puede suponer un ahorro y, sin embargo, puede suponer un gasto con una carga del 80 %.
- Hay que tener en cuenta también cuánta energía se puede ahorrar mediante el aumento de las temperaturas, en comparación con otras estrategias de optimización. Algunas empresas cuentan con software que permite analizar la dinámica del sistema de un centro de datos específico. Esto es fundamental, ya que cada centro de datos se comporta de manera distinta.
- Al evaluar los cambios, hay que tener en cuenta el consumo total de energía, ya que tener en cuenta solamente métricas como el PUE (power ussage effectiveness) por sí solo puede ser engañoso.[/box]
En resumen, a la hora de decidir apostar o no por aumentar la temperatura en los centros de datos, lo cierto es que no hay una respuesta correcta y universal. Cada operador debe preguntarse por las especificidades de su caso: ¿Es seguro hacerlo? ¿Cuál es la temperatura adecuada? ¿Vale la pena el aumento del riesgo?
Para responder a estas cuestiones, el análisis de Schneider Electric demuestra que, lo esencial, es tener en cuenta la arquitectura de refrigeración y la ubicación geográfica (ya que cada zona cuenta con una climatología distinta), puesto que tienen un impacto significativo en el punto de referencia de temperatura TI óptima; asimismo, también es importante la forma de la curva de ventilador del servidor y los pies cúbicos por minuto, que son factores clave. Condiciones de operación como el porcentaje de carga o el sobredimensionamiento/redundancia del CRAH (computer room air handler) también tienen una influencia destacada.
En definitiva, si bien elevar la temperatura mejora la eficiencia en la refrigeración, este ahorro puede ser reducido o incluso desaparecer si tenemos en cuenta el aumento en el consumo de energía global.
Por ello, es imposible afirmar que el aumento de la temperatura es siempre y en todos los casos algo positivo: para tomar una decisión es necesario entender la dinámica de cada sistema específico por completo, analizándolo de un modo global y particular.
Luis Lopes, responsable de DataCenter & IT Segment Sales en Schneider Electric