Almacenamiento en la nube, tecnología flash, el poder de la virtualización, la importancia del data center, plataformas convergentes e hiperconvergentes, seguridad y protección de datos… Mucho ha cambiado este mercado con respecto a hace unos años. La evolución es muy rápida debido, en buena medida a que cada vez se crea un mayor número de datos e información que es necesario guardar. La diferencia con respecto a antaño es que ya no se busca un almacenamiento de todo: de lo que se trata ahora es de saber gestionar de forma correcta el dato, ver que no existen duplicidades, y extraer aquello que realmente puede ser útil para las organizaciones.
Las tendencias indican que el almacenamiento que hoy conocemos, con todas sus nuevas tecnologías, no tendrá nada que ver con el de dentro de unos pocos años. La principal característica del almacenamiento de hoy en día es que cada vez más, las empresas se encuentran con la necesidad de analizar la información de la que disponen, para desarrollar el negocio de sus compañías y posicionarlas de un modo ventajoso respecto a la competencia, con independencia del sector en el que se encuentren. Para realizar este análisis de la información se usan diferentes tipos de datos (estructurados y no estructurados) que proceden de diferentes fuentes y que requieren herramientas específicas que sean capaces de exprimir la información para obtener su parte más valiosa. ¿Cómo se hace este análisis?, José Antonio Corredor, Storage Specialist de Dell asegura que para realizarlo de forma correcta, “es necesario apoyarse en infraestructuras de almacenamiento diferentes a las tradicionales, más flexibles, fáciles de implementar, gestionar y escalar, poniendo los datos extraídos al servicio del negocio de una forma rápida. Diferentes tecnologías y arquitecturas aportan su granito de arena al compendio de necesidades que demandan los entornos de negocio actuales. Algunas, como la hiperconvergencia aún son tendencias, aunque si seguimos los informes de las compañías de estudio e investigación en IT, parece claro que estas tecnologías se consolidarán como parte de las alternativas disponibles en el mundo del almacenamiento. Otras están claramente consolidadas, como la virtualización del almacenamiento o el uso de tecnología flash”.
Otra característica es que a medida que las empresas avanzan hacia el mundo digital, siguen brotando las demandas de almacenamiento en muchos entornos de TI y no parece que se vayan a acabar pronto. Cada vez surgen más modelos empresariales ante la necesidad de adquirir y controlar las crecientes montañas de información. Aunque los costes asociados al hardware de almacenamiento siguen disminuyendo, el crecimiento de la capacidad supera en muchos casos los recortes de gastos. A medida que crecen los volúmenes, la eficacia operativa del almacenamiento cobra cada vez más importancia dado que los entornos van pasando de terabytes a petabytes y más allá.
Según afirma Alejandro Solana, director técnico de VMware Iberia, “el almacenamiento definido por software volverá a definir la tecnología y el modelo operativo del almacenamiento: aprovechando el menor coste de la tecnología estándar a la vez que se introduce un modelo operativo muchísimo más eficiente. La próxima generación de centros de datos está claramente definida por software: toda la infraestructura está virtualizada y se entrega como servicio con un control plenamente automatizado mediante software. Para sacar provecho de todo el potencial del centro de datos definido por software, se deben virtualizar todas las disciplinas de las infraestructuras y someterlas al control automatizado. Esto supone una razón independiente y más estratégica para usar el almacenamiento definido por software”.
Básicamente nos encontramos ante una vitalización del mercado del almacenamiento en el que además seguramente se vaya a producir una integración con el resto de componentes de una infraestructura de TI. Andrés Rey, Ingeniero de Sistemas Senior de Nutanix Iberia afirma que “esta es la única opción para poder competir en un mercado cada vez más definido por SDDC. Además de la integración y vitalización, veremos unidades cada vez más rápidas basadas en all-flash, las cuales no servirán de mucho si antes no se consiguen eliminar los problemas heredados de rendimiento por el uso de controladoras”. Este directivo cree que además se puede apreciar que las organizaciones están evolucionando hacia una “cloud mixta”, con lo que cada vez estamos más abocados al uso de Datacenters mixtos basados en Clouds públicas y privadas. El mercado de almacenamiento debe adaptarse a nuevos requerimientos como la integración con proveedores externos para compartir de forma transparente el uso de almacenamiento e integrar el reparto de cargas entre Datacenters.
Rey asegura que “en lo que respecta a la gestión de los backups, y a pesar de que esta opción aún se sigue considerando antes que la creación de Snapshots de LUN, es importante reseñar que esta forma de trabajar cambiará, dando paso a una visibilidad a nivel granular de VM o APP para realizar Backups eficientes sin tener en cuenta dónde esté el dato”.
La gestión del dato
Una de las claves en la evolución del almacenamiento se encuentra en la necesidad de las empresas de entender el dato. Para poder entenderlo, lo primero es hacer una correcta gestión del mismo: en definitiva, limpiar aquello que no es Alti para la evolución de la empresa. Una correcta gestión de los mismos requiere un análisis, que bien se puede realizar por tecnologías de BI tradicionales que con técnicas de Big Data. Éste último es uno de los términos de moda dentro del mundo TI, pero hay que decir que no todas las empresas necesitan subirse al carro de Big Data. Es cierto que para aquellas que Big Data sea necesario, puede resolver muchos problemas. Uno de los actores más relevantes en el mercado del almacenamiento es Hitachi Data Systems. Desde esta corporación nipona se asegura que el fenómeno de Big Data, la necesidad de almacenar y procesar cantidades ingentes de información no estructurada, etc. está cambiando el concepto del almacenamiento. ¿Qué suponen estas tendencias para el mercado? En esta nueva era de grandes volúmenes de datos, el mayor desafío para el negocio es encontrar mejores maneras de analizar la información para obtener beneficios económicos. La gran cantidad de datos no estructurados que deben ser analizados de manera rápida exige un nuevo tipo de arquitecturas scale-out, que puedan crecer de manera dinámica según crece la necesidad de la empresa y donde se proteja la inversión ya realizada. Y es que, desde el punto de vista de HDS, las organizaciones que consigan tomar decisiones de negocio en tiempo real basadas en los resultados de los análisis de su propia información prosperarán, mientras que las que no puedan abrazar esta herramienta se encontrarán cada vez más en desventaja competitiva en el mercado”.
En la actualidad, la mayoría considera a Big Data como la nueva fuente de innovación y el eje central del desarrollo de la economía digital que ofrece muchas promesas de crecimiento y progreso. Sin embargo, mientras Big Data comienza a infiltrarse en las empresas y los servicios públicos, el desafío que se plantea no está en el volumen de datos, sino en cómo aprovecharlo. Para Javier Martínez, director técnico de NetApp, “la clave está en convertir los datos en conocimiento dinámico que, básicamente, permita el desarrollo de nuevos productos y servicios, nuevos procesos de trabajo y nuevos modelos empresariales. Las compañías que establezcan de forma proactiva estrategias de Big Data y den prioridad al diseño y análisis de Big Data serán los ganadores. La definición de una estrategia de Big Data implica la capacidad de pasar del análisis tradicional (qué ocurrió, dónde y qué impacto tuvo) al análisis predictivo: creación de modelos de escenarios, anticipación de actividades y elaboración de respuestas. Implica salir de una perspectiva estática para pasar a una visión dinámica prospectiva”.
Lo cierto es que Big Data es ya una realidad que está impulsando nuevas aproximaciones al mundo de la tecnología empresarial, no solo en el almacenamiento. A medida que se incremente la implantación de este tipo de soluciones, junto con otras que utilizan infraestructura similar a la que usa Big Data para almacenar la información, es decir, basadas también en servidores x86, podemos ver una tendencia en la que el mercado de estos servidores crezca a costa del almacenamiento tradicional. En cualquier caso deberá pasar tiempo para que esto tenga una repercusión significativa. El portavoz de Dell añade que adicionalmente “este enorme crecimiento en las cantidades de datos a gestionar, a menudo estáticos, requiere de discos de poco rendimiento y cada vez más grandes, que sean capaces de albergar mayores volúmenes de información por disco.
Por último, en el extremo contrario al anterior, otra parte de la información, requiere de un rendimiento mayor al que ofrecen los discos rotacionales, para conseguir ofrecer el resultado esperado en un menor tiempo. Esto está potenciando el uso de tecnologías SSD cada vez más diversas, que permiten aproximar la tecnología de forma más fina”. Por su parte, Julián Jiménez Ovelar, Director de la unidad de Almacenamiento de IBM SPGI afirma que “Tradicionalmente, las soluciones de Big Data están concebidas para ser ejecutadas en infraestructura con almacenamiento con disco interno. Este tipo de arquitectura es poco flexible y poco eficiente en la gestión de la capacidad. Nuestros clientes demandan soluciones más elásticas que permitan crecer independientemente su capacidad de computación o su capacidad de almacenamiento. Apostamos por soluciones de Big Data a dos niveles, un primer nivel compuesto por la capa de computación y un segundo nivel dedicado al almacenamiento, todo ello conectado a través de redes IP/infiniband de alta velocidad”.
Lo que está claro es que el estado del almacenamiento de las empresas de hoy en día es diverso y presenta claras oportunidades de mejora. Por una parte, los sistemas de almacenamiento modernos ofrecen funciones potentes para almacenar, gestionar y proteger los datos. Sin embargo, son completamente diferentes los unos de los otros: con funciones exclusivas y su propio modelo de gestión. Crear un modelo operativo uniforme para distintos tipos de almacenamiento sigue planteando un reto.
Los sistemas de almacenamiento de hoy en día desconocen las necesidades de aplicaciones dinámicas y a menudo son incapaces de reaccionar a tiempo ante los cambios. Las funciones críticas (instantáneas, réplicas, encriptado, etc.) están a menudo vinculadas a tipos de sistemas específicos, lo que impide los métodos estandarizados y alineados en diferentes tipos de almacenamiento. Como asegura el portavoz de VMware, “en general, el modo operativo de almacenamiento de hoy en día suele estar divorciado de la entrega de servicios para aplicaciones específicas de nivel superior lo que genera la clara oportunidad de integrar estos servicios de almacenamiento con otros servicios de aplicaciones”.
Aunque no sea un almacenamiento definido por software propiamente dicho, la llegada del almacenamiento basado en software (software de almacenamiento que se ejecuta en un hardware de servidor estándar) está brindando nuevas e interesantes oportunidades para activos de almacenamiento más rentables. Será necesario gestionar estos métodos más novedosos en paralelo con los sistemas de almacenamiento tradicionales. A medida que se extiende la popularidad de las nubes híbridas, los entornos de almacenamiento deben ser más uniformes en nubes internas y externas: con una manera estándar de expresar los requisitos de las aplicaciones de almacenamiento y validar el cumplimiento de las normas. Alejandro Solana de VMware cree que “limitarse a ampliar los métodos de almacenamiento tradicionales no cerrará la creciente brecha y es necesario encontrar un método nuevo, el del almacenamiento definido por software. En el modelo de almacenamiento definido por software (SDS, software-defined storage) de VMware, los servicios de almacenamiento se componen dinámicamente, se alinean con los contornos de las aplicaciones y dependen de las políticas”.
Definido por Software
Es el almacenamiento definido por software una de las tendencias clave en las que se sustenta el mercado actual. Como afirma el CEO de Solid Blue, José Carlos Sánchez, el SDS triunfa entre las organizaciones, principalmente porque reduce los costes que hasta ahora suponía el almacenaje de datos: “Produce un ahorro considerable, muy similar a lo que la virtualización de servidores hace unos cuantos años. En la actualidad, las empresas exigen utilizar los sistemas al 100% y este tipo de tecnologías hacen alcanzable este objetivo”.
La aparición del SDS es uno de los motivos por los que el mercado está sufriendo una auténtica revolución. De hecho, los fabricantes de soluciones ya consideran el almacenamiento definido por software como una gran amenaza. Estas empresas están acostumbradas a vender “hierro” cuando deberían ser un aliado para posicionarse como empresas que ofrecen soluciones. De igual forma, el almacenamiento definido por software representa un cambio de filosofía, tanto en la forma de trabajar, monitorizar, etc. En el almacenamiento definido por software podemos gestionar 1GB o Petabytes de una forma sencilla, asegurando una mayor escalabilidad y sin afectar al rendimiento, además de obtener una visión global de nuestro almacenamiento mediante la eliminación de silos. Importante también es el mayor rendimiento conseguido cuando el almacenamiento por software utiliza hardware distribuido.
Desde HDS, se asegura que “hoy en día, mientras que tenemos que seguir apoyando a nuestras aplicaciones claves de negocio, necesitamos invertir más presupuesto de TI en nuevas aplicaciones móviles, de análisis y en la nube. Con el fin de hacer todo esto, la infraestructura debe ser flexible y adaptable al entorno cambiante de las aplicaciones, y debe garantizar que esto pueda seguir siendo así en el futuro. Una pieza clave para ello es el software que gestiona esa infraestructura y le aporta una determinada funcionalidad. Pero “definido por software” no significa que todo lo que se realiza sucede gracias al software y el hardware es indiferente. Infraestructura definida por software es una combinación de hardware y software inteligente. Una comparación la podríamos encontrar en los coches, que cada vez tienen más prestaciones basadas en un software, pero el “hardware” sobre el que se apoyan no da igual, hay diferencia de unos modelos y fabricantes a otros. Algo similar se puede pensar en TI y, pese a que los fabricantes que venden exclusivamente software tratan de inculcar que su producto es el único que importa, la realidad es bastante diferente”.
Convergencia e hiperconvergencia
Si el SDS está cambiando el mercado, las plataformas convergentes e hiperconvergentes son otro apartado que está revolucionando el mundo del almacenamiento. Y lo hacen por una sencilla razón: simplifican las tareas. Cuanto mayor sea la convergencia más se gana en simplicidad. Esta perspectiva no solo se ve afectada por el aspecto técnico de las soluciones, sino por la cantidad de fabricantes que pueda necesitar la solución, la unificación de los soportes, etc. La visión que se tiene tanto desde el punto de vista de los clientes como desde el de los fabricantes de cuál debe ser el futuro de la tecnología empresarial, no pasa solo por las capacidades funcionales o de rendimiento de los entornos. La potencia tiene que estar acompañada de elementos simplificadores como los comentados, evitando tener que usar tiempo y recursos que no tienen aportación al negocio. Tal y como asegura Cesar Funes, Enterprise Channel SE – South Region de Commvault, lo que están posibilitando estas tecnologías es que “se están rompiendo las barreras entre los componentes tradicionales de IT: almacenamiento, comunicaciones, computación, Sistemas Operativos, seguridad, aplicaciones. La integración deja de ser responsabilidad (y riesgo y coste) de los departamentos de IT, al ser ofrecida por las soluciones de fábrica”. Por su parte desde Nutanix se asegura que “hasta hace relativamente poco tiempo, una Infraestructura convergente, como VCE, o hiperconvergente, como Nutanix, se consideraba que no tenia cabida en la empresa española; era algo destinado a otros países con mayores empresas o poder económico. Sin embargo, esta tendencia está cambiando ahora. En este sentido, y si es cierto que los entornos convergentes no dejan de ser entornos tradicionales con un nuevo nombre, los entornos hiperconvergentes están cada vez más en “boca de todos” debido, principalmente, al rendimiento que aportan, su escalabilidad, gestión, actualizaciones integradas… Además, los costes se han reducido, por lo que cada vez se realizan más implantaciones en las empresas españolas. En una serie de entrevistas a vExperts en el último VMworld, a la pregunta sobre hiperconvergencia, la respuesta fue unánime: “una moda que llego para quedarse y consolidarse”.
La nube híbrida
La nube es un movilizador del mercado del almacenamiento. Cada vez más, la nube supone un nuevo estilo de aplicaciones (y desarrollo de aplicaciones) está prevaleciendo en los entornos de TI. Ya sean aplicaciones móviles, analítica predictiva o nuevas integraciones entre componentes existentes de aplicaciones, este Nuevo estilo de desarrollo de aplicaciones hace necesarios cambios en la infraestructura de TI. Estas nuevas aplicaciones son bastante más dinámicas en sus requerimientos que las aplicaciones empresariales tradicionales. Evolucionan más rápido, deben reaccionar más rápido y deben adaptarse a los requerimientos inmediatos. Otros ejemplos más avanzados querrán comunicares con sus entornos, en función de su rendimiento y ajustando los recursos y servicios según se necesite.
Cloud Computing lleva ya varios años influyendo en este mercado, pero la novedad radica en que las empresas comienzan a apostar por arquitecturas de nube híbrida, sobre todo debido a aspectos relacionados con la seguridad. ¿Puede esta situación derivar en que las compañías apuesten de nuevo por soluciones onpremise? Desde Dell consideran que “los sistemas on premise siempre han estado vivos. Más que la concepción del almacenamiento desde un punto de vista de componentes, la Cloud híbrida sí cambia el concepto de cómo se usan los recursos de almacenamiento y la flexibilidad en el uso de los mismos. Por ejemplo, se pueden poner a nuestra disposición más o menos recursos (tanto desde el punto de vista de la capacidad como de rendimiento) de forma puntual. Otro cambio de concepto que introduce el almacenamiento en la Cloud Híbrida es el de modelo de pago que también mencionamos con anterioridad. Además, algunas tecnologías de almacenamiento se adaptan mejor a este tipo de entornos Cloud híbrida, pero no son arquitecturas exclusivas ya que pueden ser aplicadas a entornos no cloud”. Por su parte, Javier Martínez de NetApp asegura que “la capacidad de acceder al instante a datos operativos críticos representa tanto las oportunidades como los riesgos de las implementaciones de servicios en cloud. Hoy más que nunca, la capacidad de una empresa para acceder, compilar y obtener inteligencia a partir de datos con eficiencia y eficacia es crucial, por lo que las tecnologías cloud seguirán en auge en los próximos años. Nuestra estrategia Data Fabric, o tejido de datos, evita los riesgos inherentes a la adopción del cloud, ya que la vuelta atrás es sencilla, aparecen alternativas “near-cloud”, con los datos seguros en una cabina que es propiedad del cliente, hay alternativas totalmente en el cloud de proveedores hyper-escalares, o de proveedores mucho más cercanos, de los presentes en nuestro mercado nacional”.
Pero a pesar de ello, el almacenamiento tradicional no está muerto. Al menos así lo ven en IBM: “Hoy en día por motivos de seguridad, privacidad, rendimiento, etc, muchas aplicaciones y cargas de trabajo no son susceptibles de pasar a la nube pública. Quizá evolucionen a un modelo híbrido que facilite además la integración con las nuevas cargas de trabajo. En cualquier caso la tecnología actual de almacenamiento ha evolucionado para ser capaz de desplegarse en modo cloud privado, ofreciendo los beneficios de la nube a las empresas y manteniendo los requerimientos de rendimiento, seguridad o control de la disponibilidad. En ciertos entornos, como por ejemplo proveedores de servicio de nube pública, buscando la flexibilidad y los ahorros, se pueden desplegar soluciones basadas en hardware comoditizado gestionado por software, muy adecuadas a las nuevas cargas de trabajo con grandes cantidades de información normalmente no estructurada. Aplicaciones maduras o muy customizadas, entornos de procesos y transacciones complejas, con datos sensibles, de proceso intensivo o por motivos reguladores, seguirán ejecutándose sobre almacenamiento tradicional”.
Virtualización del almacenamiento
Otra de las características que está afectando a este mercado es que está cambiando la virtualización del almacenamiento hacia entornos más globales, donde se manejan diferentes sistemas de almacenamiento físico, independientemente de dónde estén situados, ¿qué está suponiendo esta variación? ¿Qué ventajas aporta a las empresas? Alejandro Solana de VMware cree que el SDS “permite que el modelo de recursos sea enteramente centrado en la aplicación: los servicios se componen en nombre de contenedores de aplicaciones individuales, son ajustados a las mismas fronteras, monitorizando y la monitorización y los informes se hacen dentro de los límites de la aplicación y así sucesivamente. Esto contrasta con una aproximación tradicional en la que los recursos subyacentes, (incluido el almacenamiento) no entiende fácilmente los límites de la aplicación y las políticas deseadas. Este modelo centrado en la aplicación es más natural y se alinea mejor con como los usuarios ven las TI: en el contexto de aplicaciones o servicios específicos. Normalmente se dedica mucho tiempo a entender las conexiones lógicas entre una aplicación (o un set de aplicaciones) y la infraestructura que la soporta. Con un almacenamiento basado en el software, la unidad básica para la Gestión es un contenedor de aplicaciones o una máquina virtual”.
Finalmente el portavoz de Nutanix asegura que “sin duda alguna la gestión de entornos centralizados está aportando entre otras cosas: Flexibilidad que nos permite balancear cargas de trabajo entre diferentes fabricantes pudiendo aprovechar almacenamiento nuevo/antiguo y adaptación del dato según rendimiento. En segundo lugar permite un ahorro de costes ya que al poder agrupar almacenamiento y compartir grandes capacidades de almacenamiento entre servidores y aplicaciones sin tener en cuenta el hardware sobre el que está soportado. También aporta sencillez ya que es mucho más fácil para los administradores gestionar un solo almacenamiento “virtual” en lugar de tener que realizar múltiples operaciones sobre almacenamiento tradicional. Finalmente aporta escalabilidad es decir, la posibilidad de ampliar la capacidad de almacenamiento se convierte en un proceso sencillo”.