Simplivity ha presentado hoy en rueda de prensa en nuestro país su modelo de infraestructura hiperconvergente y de arquitectura de datos que simplifica las TI, los datos y operaciones, ofreciendo unos ahorros del 300% en costes operativos.
SimpliVity es una compañía fundada en la creencia de que los centros de datos post-virtualizados necesitan ser enormemente simplificados. ¿Por qué? Porque las arquitecturas de almacenamiento tradicionales van por detrás de las necesidades de las cargas de trabajo virtualizadas.
Las compañías se enfrentan a cantidades masivas de datos que cuestan millones de dólares para recoger, almacenar y gestionar. La continua inversión en hardware de servidores, almacenamiento y de red que utiliza métodos ineficientes para el almacenamiento y procesamiento de datos no es la respuesta adecuada, como tampoco lo es la forma en que se gestionan estos componentes de TI en silos funcionales. Este enfoque es complejo, laborioso y costoso- y se dificulta cada año con el crecimiento exponencial del volumen de datos. SimpliVity ofrece una revolucionaria y disruptiva innovación diseñada para simplificarlo, de lo que resultan grandes ahorros en capital y costes operativos.
¿Cuál es el problema que resuelve SimpliVity?
El centro de datos definido por software (SDDC) abstrae el control de todos los elementos de la infraestructura, incluyendo CPU, almacenamiento y redes, desde el hardware y permite la distribución de servicios y la gestión automatizada a través del software. Hasta ahora, la virtualización de servidores se ha visto frenada por los silos de almacenamiento físico y de activos de red. La virtualización se sigue ejecutando en sistemas de hardware especializados en el data center. Estos recursos de almacenamiento y de red no son escalables, ni están agrupados y a menudo están sobre aprovisionados para soportar las cargas de trabajo de los servidores virtualizados. El entorno resultante es complejo y costoso de gestionar, y la escala solo agrava el problema.
Hay algunas cuestiones respecto al almacenamiento de datos para cargas de trabajo virtualizadas que no se pueden resolver con una infraestructura de montones de silos heredada:
Rendimiento
La infraestructura virtual cambia la relación one-to-one entre el servidor físico y el almacenamiento, hacia una relación many-to-one entre las máquinas virtuales y un único controlador de almacenamiento que presenta un único LUN para el hipervisor. Cuando existen múltiples cargas de trabajo con diferentes flujos IO que están siendo multiplexados por el hipervisor, el resultado son flujos IO aleatorios que compiten por los recursos, lo que aumenta las IOPS necesarias para dar servicio a las cargas de trabajo virtuales. Para hacer frente a los problemas de rendimiento, los administradores de almacenamiento suelen añadir más discos. Sin embargo, esto también aumenta la capacidad. Esta provisión excesiva conduce a un mayor coste por gigabyte de almacenamiento asignado a cada máquina virtual.
Capacidad
La virtualización de las cargas de trabajo deriva en un aumento de los requisitos de capacidad de almacenamiento. Dado que las máquinas virtuales encapsulan el sistema operativo, las aplicaciones y los datos, el centro de datos virtualizado agrega un volumen masivo de datos redundantes, y crea una enorme ineficiencia en la capacidad de almacenamiento. También lo hace la expansión incontrolada de máquinas virtuales. El rápido despliegue de máquinas virtuales –cada una de las cuales requiere una asignación de almacenamiento- aumenta el volumen de almacenamiento necesario para la infraestructura virtual. A medida que el número de máquinas virtuales aumenta, también lo hace el volumen de instantáneas que consume capacidad de almacenamiento.
Movilidad y gestión
Las máquinas virtualizadas son portátiles, sin embargo, siempre están atadas al almacenamiento de datos en el dominio de virtualización – que está atado a un sistema de almacenamiento físico en silos. Además, el almacenamiento asociado con las cargas de trabajo virtualizadas se gestiona normalmente desde el punto de vista del sistema de almacenamiento: LUN (o montajes NFS), volúmenes, grupos RAID (o agregados) y discos físicos. Las políticas para la replicación o instantáneas, por ejemplo, se configuran a nivel de la unidad de almacenamiento- un LUN. Esto significa que los almacenes de datos en el mismo LUN heredan las políticas basadas en LUN. La toma de instantáneas y/o replicar un LUN que aloja decenas o cientos de máquinas virtuales cuando se necesita sólo una única copia de la máquina virtual resulta en un uso ineficiente de la capacidad de almacenamiento y ancho de banda de red. Al mismo tiempo, la virtualización es un modelo de abstracción que permite una gestión VM-céntrica donde los recursos se asignan, se definen y están optimizados a nivel de máquina virtual y sin limitaciones físicas.
La revolucionaria plataforma de virtualización de datos de SimpliVity es la primera y única tecnología que de forma integral – y sencilla- resuelve estos problemas. Lo hace suministrando una nueva arquitectura de datos sobre la infraestructura hiperconvergente.