Según los analistas, el problema reside en que sólo una parte de la energía utilizada en estos centros (se mencionan cifras de entre un 6-12%) se emplea para el procesamiento que están realizando los sistemas habitualmente; el resto se utiliza fundamentalmente para mantener el exceso de capacidad que las empresas han de tener disponible para mantener los picos de demanda. La demanda de datos es impredecible, con grandes fluctuaciones, y los picos pueden ser enormes.

Algunas compañías utilizan sistemas de enfriamiento y software para ahorrar energía. Pero, aún así, los expertos reconocen que la mayoría de las infraestructuras de TI están infrautilizadas. Aunque la virtualización ayuda a mejorar estos ratios, muchas compañías siguen teniendo miles de servidores x86, la mayoría basados en procesadores Intel, corriendo en estanterías en enormes centros de datos.

Los sistemas, especialmente los utilizados para aplicaciones de Big Data (bases de datos gigantescas con información a la que se accede rara vez), tienen unos niveles de utilización del 18%, según estudios realizados por IBM. De hecho, las instalaciones no virtualizadas tienen los peores niveles de utilización de su capacidad, entre un 5 y un 7% mientras que los sistemas virtualizados consiguen utilizar entre un 25 y un 40% de su capacidad.

Las instalaciones Unix son un poquito más eficientes que las descritas anteriormente, con niveles de utilización de su capacidad de un 62%. Pero los servidores System Z de IBM logran alcanzar niveles de utilización de un 76% dada la virtualización inherente de los mainframes, que fueron diseñados desde el principio para llevar a cabo múltiples procesos simultáneamente. En algunos casos, se ha constatado que los clientes de IBM han conseguido una utilización de la capacidad disponible en sus mainframes de hasta un 90%.

Una de las razones para la infrautilización de los centros de datos ha sido que tradicionalmente los directores de TI no han tenido responsabilidad sobre la factura de electricidad de la compañía. Su preocupación ha estado más, de manera justificada, en no quedarse cortos en capacidad de procesamiento y almacenamiento por lo que han tenido que hacer sobre-inversiones en servidores.

Ahora que los presupuestos son más ajustados, los directores de TI pueden buscar nuevas tecnologías para incrementar la eficiencia de sus centros de datos: pueden utilizar sistemas de enfriamiento de chips por agua, técnicas de evaporación, reutilización de agua caliente… También pueden buscar situar sus centros de datos en localizaciones con un clima más frío. Pero también pueden buscar incrementar la capacidad que ya tienen en sus sistemas.

En la parte del mainframe, IBM sigue haciendo mejoras. Recientemente anunció sistemas con rendimiento mejorado mientras mantenía niveles constantes de utilización de energía. Los nuevos sistemas Puresystems, con sus altos niveles de integración, ahorran energía mediante la recolocación de recursos compartidos como los de red y almacenamiento.

Una buena aproximación a la resolución de este problema es no buscar reducir el uso total de energía sino medir la capacidad de cálculo por watio, por euro y maximizar el rendimiento. Los directores de TI deberían preguntarse: ¿cuánto debo pagar por la capacidad que estoy obteniendo de este presupuesto de electridad? La eficiencia es la clave para mantener esta cifra baja.