La compañía Hewlett Packard Enterprise HPE, junto con el Laboratorio Nacional de Energía Renovable de EEUU, han desarrollado una serie de mejoras tecnológicas en IA y ML, con el objetivo de automatizar y mejorar su eficiencia operativa, la disponibilidad y el uso de la energía en centros de datos en la era de la exaescala.
Este esfuerzo es parte de la misión del NREL como líder mundial en la mejora de la eficiencia energética y las tecnologías de energías renovables, para crear e implementar nuevos enfoques que reduzcan el consumo de energía y los costes operativos.
«Nuestra colaboración en la investigación abarcará las áreas de gestión de datos, análisis de los mismos y optimización de IA/ML, para mejorar tanto la gestión manual como autónoma en la operación del centro de datos.Estamos entusiasmados por el hecho de unirnos a HPE en este proyecto a largo plazo y esperamos crear capacidades que nos lleven a construir unas mejores infraestructuras inteligentes y avanzadas después de demostrar estas técnicas en nuestro actual centro de datos”, afirma Kristin Munch, gerente de NREL.
La colaboración como objetivo
Las empresas HPE y NREL, han presentado los datos recopilados durante los últimos cinco años, obtenidos a través de sensores de las supercomputadoras del NREL, Peregrine y Eagle. Las cuales, están capacidadas para entrenar modelos de detección de anomalías que puedan predecir y prevenir problemas antes de que ocurran.
Además, la unión de las empresas es también la muestra del esfuerzo que han dedicado en abordar el consumo futuro de agua y energía en los centros de datos. Y es que, solo en EE.UU. alcanzará aproximadamente los 73 mil millones de kilovatios y 660 litros de agua para 2020.
Los primeros resultados obtenidos con los modelos predictivios han permitido identificar con éxito sucesos que previamente ocurrieron en el centro de datos del NREL, demostrando su utilidad y las mejoras a realizar en los data centers.
«Creemos que el camino que estamos haciendo para desarrollar y probar mejoras en las operaciones basándonos en IA con NREL, uno de nuestros socios más duraderos e innovadores, permitirá a la industria construir y mantener centros de datos de supercomputación más inteligentes y eficientes a medida que continúan aumentando su potencia y rendimiento”, comenta Mike Vildibill, vicepresidente de HPE.
Código abierto y bibliotecas Machine Learning
El proyecto se basa en un software de código abierto y bibliotecas de Machine Learning, que se encargan de desarrollar algoritmos como TensorFlow, NumPy y Sci-kit. Las áreas clave en las que trabaja son:
- Monitorización: recopila y procesa grandes volúmenes de telemetría de TI y servicios asociados.
Este esfuerzo es parte de la misión del NREL como líder mundial en la mejora de la eficiencia energética y las tecnologías de energías renovables, para crear e implementar nuevos enfoques que reduzcan el consumo de energía y los costes operativos
- Análisis: utiliza Machine Learning para analizar los datos y la obtención de mejoras operativas.
- Control: se aplican algoritmos para que las máquinas puedan resolver problemas de forma autónoma, así como automatizar de forma inteligente las tareas repetitivas y realizar el mantenimiento predictivo tanto en el departamento de TI como en el centro de datos.
- Operaciones del centro de datos: AI Ops ha evolucionado para convertirse en una herramienta de validación para la integración continua (CI) y la implementación continua (CD) de las funciones básicas de TI que abarcan las modernas instalaciones de los centros de datos.
Presentación de la solución HPE
Con la mejora del sistema HPE High Performance Cluster Management, la compañía tiene previsto demostrar capacidades adicionales en el futuro. De esta forma, se ampliarán hasta los 100.000 nodos los clústeres, de manera rápida y eficaz.
La solución se presentará en el stand 1325 de HPE en Supercomputing 2019 en Denver, Colorado.