A fondo: ¿Cómo combaten el calor los datacenters?

Las altas temperaturas que sufrimos durante los meses de verano suponen todo un desafío para los datacenters. ¿Qué se puede hacer para refrigerarlos?

Aunque las temperaturas parecen haber aflojado en los últimos días en buena parte de nuestro país, el verano ha entrado con fuerza. La pasada ola de calor tan sólo ha sido el preámbulo de un verano que se pronostica más cálido de lo normal en casi toda nuestra geografía, tal y como pronostica eltiempo.es.

Por tanto, tenemos que estar preparados para sufrir los rigores de la canícula veraniega. Y este calor supone un reto particularmente intenso para los centros de datos (CPD). Como explica Abel Pedrós, Industrial Air & Horeca marketing director de Eurofred, explica que los desafíos que se presentan en la refrigeración de los datacenters en estos meses más calurosos “son los mismos que en el aire acondicionado de confort –como un split o un cassette, por ejemplo-, con la salvedad de que los sistemas instalados para refrigeración en un centro de datos no se pueden parar nunca. Deben de funcionar las 24 horas y los 365 días del año”.

Aprovechar los recursos naturales

La refrigeración de los datacenters no es un asunto baladí. Estos sistemas son una pieza fundamental para garantizar el correcto funcionamiento del CPD y evitar posibles averías y caídas de servidores por sobrecalentamiento. Pero también hay que tener en cuenta el impacto económico que supone su enfriamiento. Y una ola de calor obliga a que los equipos de refrigeración trabajen a pleno rendimiento durante varios días, con el coste energético que esto supone.

Para una gran empresa como Google, Facebook, Amazon o Microsoft, que manejan ingentes cantidades de información y cuentan con varios centros de datos repartidos por el mundo, el incremento de la factura eléctrica puede hacer un ‘roto’ imprevisto en sus cuentas.

Por este motivo, este tipo de corporaciones están buscando soluciones ingeniosas para reducir el consumo energético de sus datacenters. Por ejemplo, Facebook alojó su primer centro de datos fuera de Estados Unidos en The Node Pole. Se trata de un hub de alta tecnología al norte de Suecia, cerca del círculo polar ártico. La compañía fundada por Mark Zuckerberg se instaló allí buscando el frío, con una temperatura media en invierno en torno a 20 ºC.

Google también ha apostado por latitudes septentrionales para dar respuesta a los retos de la refrigeración. En 2009 adquirió las instalaciones de una empresa papelera finlandesa y las convirtió en un centro de datos. En este caso, la compañía de Mountain View se sirve del agua fría del mar que baña la bahía de Hamina para refrigerar y abaratar los costes.

Asimismo, Microsoft ha puesto sus ojos el mar para enfriar sus centros de datos, pero de una manera mucho más rompedora: emplazándolos bajo el agua. Bajo el nombre de Proyecto Natick, la compañía de Redmond está haciendo pruebas para conocer las posibilidades y dificultades que tendría instalar datacenters submarinos. Las primeras pruebas se han realizado cerca de la costa, conectados a la red eléctrica existente. Pero al emplazarse en el mar, estos CPD también podrían llegar alimentarse de energía mareomotriz o undimotriz, aprovechando el mar como fuente renovable.

Otra forma de aprovechar las condiciones de la naturaleza para reducir la factura eléctrica es la utilización del viento. El Clone Data Center de Facebook, que se sirve de la producción de energía eólica, gracias a las fuertes rachas de viento que se registran en esta zona de Irlanda.

Soluciones ‘terrenales’

Aunque las grandes ideas que están poniendo en marcha los gigantes tecnológicos son muy apreciables, los centros de datos de todo el mundo necesitan soluciones más accesibles y convencionales para combatir el calor de los meses de verano.

De este modo, en el mercado hay equipos que garantizan su funcionamiento por encima de los 50 ºC  de temperatura exterior. Pedrós especifica que este tipo de unidades “tienen la limitación del tamaño para adecuarse a las salas de datos y a la geometría de las ubicaciones donde se concentran todos estos recursos tan especialmente sensibles a las condiciones térmicas, los racks”. Además, puntualiza que “han de diseñarse en función del tipo de rack y el calor que éste es capaz de generar”. Por ejemplo, hay unidades de media densidad (<20 kW/RACK), desde los 9 a los 155 kW de potencia frigorífica nominal; y unidades de alta densidad (>20 kW/RACK), desde los 25 a los 45 kW de potencia frigorífica nominal; así como unidades compactas y autónomas para estaciones remotas de telecomunicaciones, desde los 4 a los 29 kW.

Contamos con diferentes sistemas para dar respuesta a las necesidades de refrigeración de los datacenters. A grandes rasgos, disponemos de sistemas que generan aire frío a partir de agua refrigerada, aire frío o gases refrigerantes. Estos equipos recogen el aire caliente que generan los servidores, lo refrescan y lo devuelven a la sala. “Los sistemas más empleados son sistemas de expansión directa condensados por aire de manera remota, sistemas hidrónicos con producción de agua fría mediante enfriadoras, sistemas de doble fluido con condensación remota por aire, sistemas de expansión directa con condensación por agua, y unidades compactas-autónomas de expansión directa para interior e intemperie, entre otras. Las citadas configuraciones pueden permitir unidades full inverter, ventiladores EC plug fan, sistemas free cooling, etc.”,  comenta el responsable de Eurofred.

Cada una de estas soluciones presenta unas ventajas e inconvenientes que hay que valorar a la hora de escoger el sistema más apropiado. “El agua permite más polivalencia y no hay límites de instalación, mientras que la expansión directa elimina el riesgo de fugas hidráulicas que podrían afectar a los equipos de datos. Además, unas unidades son más eficientes, otras cuentan con mayores posibilidades de instalación, otras más silenciosas…”, señala Pedrós. Así, la decisión sobre el método de refrigeración empleado deberá basarse en los requisitos de tiempo de actividad, densidad, ubicación geográfica, tamaño del entorno informático a proteger, disponibilidad y fiabilidad de los sistemas de los edificios existentes y el tiempo y dinero disponible para el diseño e instalación del sistema, tal y como se explica en el informe ‘The Different Technologies for Cooling Data Centers’, elaborado por Schneider Electric.  Por otro lado, hay que tener en cuenta que este tipo de instalaciones han de complementarse con unos difusores de aire adecuados, detectores de fuego, humo o agua, humidificadores, etc.

En cuanto a la evolución del sector y la innovación, el representante de Eurofred afirma que “la tendencia es implantar tecnologías que permitan mayor vida útil y, sobre todo, una mayor adaptación a las ampliaciones y actualizaciones cada vez más frecuentes que sufren estos centros de datos”. De este modo, puntualiza que “dichas tecnologías adaptativas afectan desde al cableado que nos permitirá controlar el sistema hasta unidades totalmente modulares, tanto a nivel de estructura como a nivel de funcionamiento frigorífico, etc.”.