La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

Las realidades de un Centro de Datos “green”

Por Olof Sandstrom. Director General de Operaciones de Arsys


Cada vez se habla con mayor frecuencia de conceptos como Green TIC, Green Hosting o Green Data Center. Todos ellos hacen referencia a entornos en los que se cuida especialmente la eficiencia energética de los distintos elementos que soportan las operaciones TIC de las empresas y hacen especial hincapié en los centros de proceso de datos o Data Centers (en adelante, DC).

Antes que nada, hay que comprender que un DC es una instalación compleja con un consumo de electricidad muy elevado, que se reparte  principalmente entre la alimentación de los servidores que prestan el servicio (50%) y la alimentación destinada a los sistemas de climatización necesarios para disipar el calor que generan los servidores (35%). El 15% restante de la potencia se destina a la distribución eléctrica, la iluminación y otros elementos técnicos.

Actualmente, una empresa comprometida con el medioambiente con un centro de datos “green” debe centrar sus esfuerzos en dos líneas de trabajo:

1. Aumentar, en la medida de lo posible, el porcentaje de electricidad destinado al equipamiento IT.

2. Mejorar el rendimiento del equipamiento IT,  de forma que, prestando el mayor servicio posible, se reduzca su consumo total.


1. Optimizar el porcentaje de electricidad destinado a IT

En un DC ideal, cada kilovatio (kW) que se utilice debería estar destinado al equipamiento IT. Esto supondría que no tenemos perdidas en el sistema eléctrico y que no necesitamos climatizar la sala. Esto es utopia: el equipamiento genera calor y, a la vez, es necesario controlar la temperatura y las condiciones ambientales de las salas técnicas. Por tanto, es necesario ser lo más eficientes posibles.

El indicador mas extendido para medir esta eficiencia se denomina PUE, de sus siglas en ingles Power Utilization Effectiveness. El PUE es  la relación entre la electricidad total que consume un Centro de Datos y la electricidad que consume su equipamiento IT. Con lo cual, idealmente, debería tener un valor 1. Generalmente, un  Centro de Datos tiene un PUE de 2. Es decir, por cada kW que se destina a IT hace falta otro para mantenerlo alimentado y climatizarlo. Actualmente, los Centros de Datos que se están esforzando en ser “Green” trabajan con valores PUE entre 1,3 y 1,7, aunque hay algunos casos de éxito con valores de 1,2.

Casi todos los esfuerzos para mejorar el PUE se centran en la optimización del sistema de climatización o en la reducción de las perdidas del sistema de distribución eléctrica.


1.1. Mejoras en la distribución eléctrica

La electricidad en un Centro de Datos es crítica. Como es evidente, si un DC se queda sin suministro eléctrico, sus servidores dejan de funcionar. Y estamos hablando de entornos que no pueden tener paradas, ni de un único segundo. Un corte de electricidad de sólo un segundo implica que todos los sistemas se caen y levantarlo de nuevo puede llevar varias horas de trabajo. Estamos hablando de entornos que tienen que estar disponibles a cualquier hora y cualquier día del año; ni siquiera es planteable el escenario de quedarse un segundo sin suministro eléctrico, ya que supondría un perjuicio económico considerable para cualquier empresa.

Por estos motivos,  la instalación eléctrica de un DC parece diseñada por un paranoico. Todos los elementos tienen que estar duplicados y redundados. Los sistemas se alimentan a través de una acometida eléctrica de compañía, pero, por si acaso hay interrupciones de suministro, se tiene que instalar un grupo electrógeno que suministre electricidad. Y, como el grupo electrógeno tarda unos segundos en arrancar y empezar a proporcionar corriente eléctrica, hace falta un sistema basado en baterías que alimente la instalación durante ese periodo de tiempo, un Sistema de Alimentación Ininterrumpida (SAI). Para complicarlo un poco mas, todos estos elementos deben estar duplicados, por si resulta que, cuando tengan entrar en funcionamiento, alguno de ellos presente alguna anomalía. Al final, se necesitan dos acometidas, dos grupos y dos SAI. Todo esto, sólo por si acaso.

Estas instalaciones eléctricas tan complejas tienen unas perdidas eléctricas considerables por los niveles de redundancia de los equipos y las ineficiencias que van acumulando. Por tanto, es muy importante diseñar la instalación utilizando equipamiento de última generación que minimice estas pérdidas. En concreto, la innovación que se ha producido en los últimos años en los SAI puede reducir de forma drástica estas pérdidas.


1.2. Mejoras en la climatización

En la climatización también algunos aspectos que es necesario cuidar, como el aprovechamiento de la temperatura ambiente, la separación aire frío/caliente o la calibración de las temperaturas:

a) Aprovechamiento de la temperatura ambiente (freecooling)

Para que los equipos IT funcionen adecuadamente les debe llegar el aire a alrededor de 20 grados centígrados. En muchos emplazamientos, la temperatura ambiental se sitúa durante bastantes horas al año por debajo de esa temperatura. Por tanto, al diseñar el sistema de climatización se debe prever la posibilidad de utilizar el frío de la temperatura ambiente para controlar la temperatura de la sala.

En este sentido, hay tecnologías que permiten inyectar directamente aire del exterior cuando su temperatura es inferior a 20 grados, de forma que la inversión en climatización se reduce. Por contrapartida, estos sistemas requieren de la instalación de unos filtros de aire de grandes dimensiones y con un coste de mantenimiento elevado. Otra forma de hacerlo es que los sistemas de climatización incorporen un modulo que utilice el frío exterior para enfriar el agua en lugar de los compresores cuando la temperatura exterior lo permita.

También se pueden utilizar otros tipos de sistemas, como torres de evaporación que enfrían el agua antes de que llegue a los compresores. Estas torres aumentan el rendimiento cuando la temperatura exterior es baja y hacen que el agua le llegue a los compresores a una temperatura lo suficientemente baja como para que no tengan que enfriarla más.


b) Separar el aire frío del aire caliente

Es fundamental hacer llegar de la forma más directa posible el frío que hemos generado a los equipos IT. Los equipos IT cogen aire frío por delante y sueltan el aire caliente por detrás, por lo que si no se aísla adecuadamente el aire frío del caliente, estos se mezclan y al final le llega a los equipos mas caliente de lo que sería deseable. Consecuentemente, si el aire le tiene que llegar a los equipos entorno a los 20 grados pero se mezcla con aire caliente, será necesario que su temperatura esté por debajo,  hasta 17 ó 18 grados.

Para hacer esto, se suele cerrar completamente el pasillo por donde circula el aire frío, de forma que no haya posibilidad de que se mezcle el aire caliente. También es fundamental aislar los huecos de los racks que no tienen servidores instalados, de forma que el aire caliente no vuelva al pasillo frío por esos espacios.

c) Calibrar adecuadamente las temperaturas de consigna

Los equipos de climatización tienen unas temperaturas de consigna para trabajar, de forma que cuanto mas bajas sean estas temperaturas de consigna, mas frío habrá que introducir en la sala.

La tendencia de muchos técnicos es a bajar estas consignas de forma que las maquinas trabajen con una temperatura más fría, creyendo que los equipos trabajan mejor a menos temperatura. Esto no es estrictamente así: hay unos márgenes de temperatura de trabajo.

Hoy en día se considera aceptable que el aire le llegue a los equipos hasta 27 grados, por lo que si consignamos los sistemas de climatización para que el aire le llegue a los equipos (por ejemplo, a 20 grados) se estará haciendo un consumo extra de electricidad que no es necesario.

La calibración de los distintos elementos del sistema de climatización para ajustar estas consignas suele ser bastante delicada y depende de cada Centro de Datos, así que los propios técnicos tendrán que realizar los ajustes necesarios hasta conseguir el  equilibrio entre el rendimiento de los equipos IT y el consumo eléctrico derivado de la climatización.

2. Mejorar el rendimiento de la plataforma IT

Durante años, lo importante para un Centro de Datos ha sido tenerlo lleno de servidores. Sin embargo las tecnologías de virtualización han permitido dar un paso más y hacer que lo importante no sea tenerlo lleno de servidores, sino que cada kW que se consuma se destine a algo productivo.

Es muy normal que un servidor tenga la carga de CPU por debajo del 15%. Por tanto, en principio es posible que un único servidor haga el trabajo que hasta ese momento hacían seis y se pueden prescindir de cinco servidores y de los recursos necesarios para su funcionamiento. Todo ello sin afectar a la calidad del servicio. Esto significa que la virtualización reduce drásticamente del consumo eléctrico del DC y, por lo tanto, se consigue un uso más responsable de los recursos energéticos.

Si tuviéramos que traducirlo a un ejemplo más cercano,  se podría decir que todo lo que se ha hablado hasta ahora (mejorar la distribución eléctrica, la climatización…) tiene como objetivo tener la flota de autobuses más moderna y respetuosa con el medio ambiente del mercado, pero la compañía será poco eficiente si los autobuses de 72 plazas siguen viajando sólo con ocho pasajeros. Por tanto, ahora es necesario un esfuerzo de I+D+i y de gestión para conseguir que los autobuses salgan siempre con al menos 65 pasajeros y así ser realmente competitivos y respetuosos con el medio ambiente.

En este sentido, resulta imperativo consolidar maquinas dentro del Centro de Datos mediante el uso del cloud computing y las tecnologías de virtualización, que permiten reducir el numero total de servidores necesarios para prestar el servicio. Si un DC consigue pasar de tener 2.000 servidores en producción a tener 400 (unas cifras que, teniendo en cuenta las tecnologías actuales de virtualización, no resultan disparatadas) habrá pasado de consumir unos 500 kW en su equipamiento IT a consumir unos 120 kW. Y todo ello, sin afectar al nivel de servicio prestado, que seguirá siendo el mismo.

Deja un comentario

Scroll al inicio