Fujitsu ha presentado una innovadora tecnología de middleware en inteligencia artificial (IA) que optimiza el rendimiento de las GPU, especialmente en un contexto de creciente escasez global de estos recursos. Esta herramienta, basada en la asignación inteligente y dinámica de GPU desarrollada por Fujitsu, permite una distribución adaptativa de las GPU en tiempo real para maximizar su uso eficiente y acelerar el procesamiento de IA mediante avanzadas técnicas de optimización.
Tras finalizar una serie de pruebas piloto con éxito, la empresa TRADOM Inc. comenzará a implementar soluciones basadas en esta tecnología a partir de octubre de 2024. De forma similar, SAKURA internet Inc. ha iniciado un estudio de viabilidad para evaluar la incorporación de esta tecnología en sus operaciones de centros de datos. Además, Fujitsu ha llevado a cabo desde mayo de 2024 pruebas de desempeño con compañías como AWL, Inc., Xtreme-D Inc., y Morgenrot Inc., observando mejoras notables en sus operaciones, incluyendo un aumento de 2,25 veces en la eficiencia computacional de ciertos procesos de IA, así como un incremento significativo en la cantidad de procesos gestionados simultáneamente en infraestructuras de servidores y nubes.
La disponibilidad comercial de esta tecnología en Japón está programada para el 22 de octubre de 2024, y se extenderá a otros mercados globales en etapas posteriores. Fujitsu tiene como objetivo continuar apoyando tanto a usuarios finales como a proveedores de servicios en la nube que buscan reducir sus costos de GPU y aumentar su capacidad operativa en IA.
Enfrentar la creciente demanda de IA y el desafío energético
Con el crecimiento exponencial de aplicaciones de IA, especialmente en IA generativa, la necesidad de GPUs ha crecido de manera considerable, y se espera que la demanda se multiplique aproximadamente por 20 para 2030. Esto ha creado una preocupación adicional respecto al consumo energético en centros de datos, cuya demanda podría representar el 10% de la electricidad mundial para 2030.
El middleware asigna dinámicamente los recursos de la GPU por GPU, optimizando la asignación de recursos y la gestión de la memoria en diversas plataformas y aplicaciones de IA.
Para abordar este reto, Fujitsu desarrolló en noviembre de 2023 su tecnología de asignación adaptativa de GPU, capaz de optimizar el uso de recursos de CPU y GPU en tiempo real, priorizando procesos con alta eficiencia de ejecución. Esta tecnología ya ha sido probada en múltiples plataformas, mostrando su capacidad para maximizar el aprovechamiento de la infraestructura.
Características del nuevo middleware de intermediación en IA
El nuevo middleware actúa como un intermediario inteligente, integrando la asignación adaptativa de GPU con técnicas avanzadas de optimización de procesamiento, lo cual permite gestionar y optimizar automáticamente la asignación de GPUs entre múltiples procesos de IA.
En lugar de asignar recursos a nivel de tarea, esta tecnología de intermediación distribuye los recursos a nivel de GPU individual, lo que permite una mayor disponibilidad y mejor administración de la memoria de la GPU. Esto posibilita que las empresas puedan ejecutar numerosos procesos de IA de forma simultánea, incluso en condiciones de alta demanda de recursos.
Las pruebas demostraron un incremento de hasta 2,25 veces en la capacidad de procesamiento de GPU y la capacidad para gestionar hasta 150 GB de datos en procesos de IA, superando con creces la capacidad física de la GPU.