La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

almacenamiento empresarial

Cómo está evolucionando el almacenamiento empresarial

Se habla de forma intensa sobre la importancia de extraer el valor del dato. Analítica o Big Data son dos tendencias que están de forma continua en las estrategias de venta de las empresas de TI. Sin embargo, parece que se ha olvidado que para poder aplicarlas es necesario el almacenamiento.

La realidad es que el número de datos se incrementa cada día. La nube ha permitido poder afrontar la avalancha de información que tienen las empresas, pero la primera de las obligaciones es gestionar de forma eficiente una cantidad de datos que se ha convertido en uno de los desafíos más importantes a los que se enfrentan los departamentos de TI. Llevar una correcta gestión de aquello que se almacenan es un elemento esencial que puede determinar la evolución de cualquier organización. Acumular sin gestionar la información puede suponer que la viabilidad de una empresa quede en entredicho.

Pero hay más aspectos. Como afirma Alejandro Solana, director técnico de Nutanix, “los datos no estructurados están creciendo exponencialmente y las infraestructuras de almacenamiento tradicionales obstaculizan la eficiencia, el uso de la analítica y la capacidad de monetizar el conocimiento que propician los datos. Al mismo tiempo, los entornos cloud y multicloud están experimentando un crecimiento enorme en los últimos tres años, sobre todo como una evolución de la adopción de la nube híbrida. Entre los beneficios que aportan estos modelos se encuentran la seguridad, el coste, la interoperabilidad y la movilidad de aplicaciones”.

Es en los datos no estructurados donde parece que está uno de los principales retos a los que se enfrenta el mundo del almacenamiento. Sin ir más lejos, según Gartner, las tasas de crecimiento de los datos no estructurados han alcanzado el 30% anual, lo que significa que los volúmenes totales de datos no estructurados casi se cuadruplicarán en 2027. Este crecimiento de los datos es un reto en sí mismo, a lo que hay que añadir que los datos no estructurados tienen una gran variedad de tamaños y pueden almacenarse como archivos u objetos, con unas necesidades de rendimiento de almacenamiento cada vez más exigentes. En este sentido, Adela Toledo, Country Manager de Pure Storage considera que “esto ha dado lugar a la aparición de una nueva categoría de almacenamiento que ofrece un almacenamiento rápido y unificado de archivos y objetos que optimiza el rendimiento del almacenamiento para acceder a estos datos no estructurados. Para contextualizar, la diferencia entre los sistemas de archivos y el almacenamiento de objetos está en la estructura. Los sistemas de archivos utilizan un sistema jerárquico basado en directorios y el almacenamiento de objetos utiliza una estructura «plana» con objetos a los que se les asigna un identificador individual y metadatos que pueden utilizarse para contextualizar estos objetos. Por lo tanto, los productos emergentes de almacenamiento rápido de archivos y objetos ofrecen una serie de ventajas que los convierten en ideales para las nubes híbridas, con datos no estructurados que pueden pasar de una ubicación a otra en la nube”.

Es en los datos no estructurados donde parece que está uno de los principales retos a los que se enfrenta el mundo del almacenamiento

Pero hay todavía más retos. Desde Synology destacan que estos son cuatro fundamentales. El primero de ellos tiene que ver con la creciente complejidad de las infraestructuras TI. A medida que las tecnologías avanzan, los equipos TI se encuentran ante el reto de gestionar una gran cantidad de dispositivos de almacenamiento, usuarios y servicios que tienen que estar todos interconectados entre sí. La solución es utilizar sistemas de almacenamiento y soluciones que permitan integrar de forma centralizada y simplificada la gestión de los datos.

Otro de los retos a los que se enfrentan las empresas es el continuo crecimiento de datos y una gestión eficiente de ellos. La complejidad de su gestión, los costes y el espacio de almacenamiento se tornan más complejos a medida que los datos crecen por lo que resulta fundamental implementar estrategias hibridas de almacenamiento para conseguir una gestión optima de estos.

Desde la multinacional, creen además que la protección y la rápida restauración de los datos ante los crecientes e incesantes ataques es otro de los retos a los que se enfrentan las empresas hoy en día. Por este motivo, resulta necesario establecer políticas de protección de datos y de recuperación para garantizar la continuidad de la actividad de las empresas y, potencialmente, su futura supervivencia, ya que el riesgo de pérdida de datos, actualmente, resulta, en muchos casos, fatídico. Finalmente, desde Synology, también apuntan a que todavía las empresas se encuentran ante el reto de proteger las infraestructuras ante el acceso remoto de múltiples usuarios ante el teletrabajo, como también de optimizar la gestión de accesos de forma fluida de múltiples empleados, y de integrar dentro de una única infraestructura segura las comunicaciones, transferencia de archivos, colaboración y acceso remoto a los datos.

Gestionar el dato

El aumento de megas, teras o petabytes implica que cada vez sea más difícil gestionar los datos. Por ello es necesario contar con una estrategia que permita administrar de forma correcta cada uno de ellos. Desde Fujitsu consideran que para que esa estrategia sea la adecuada “es necesario conocer primero qué datos tiene la organización para poder explotarlos. Para ello existen herramientas que realizan este análisis en los sistemas de almacenamiento primarios y secundarios de las empresas. Es el punto de partida para establecer la estrategia de explotación de los datos”.

Rainer W. Kaese, director senior de Desarrollo de Negocio de la división de Productos de Almacenamiento de Toshiba, cree que “nos encontramos justamente en los albores de la denominada era del big data. Sin embargo, todavía en muchas organizaciones las estrategias de gestión se datos se basan en los requerimientos anteriores propios de los denominados entornos “paperless”, limitándose a la compartición de archivos”. La clave, de todas formas, es que como asegura Fernando Egido, director general de Infinidat, “hace tiempo que las soluciones de almacenamiento dejaron de ser meros “sistemas para guardar datos” para formar parte del core del negocio de los clientes aportando un importante valor en la gestión del dato y en la llamada “monetización de la información”. Una correcta estrategia en la gestión del dato tiene un impacto directo en la mejora de la rentabilidad y en la generación de nuevo negocio”.

En general, casi todas las empresas tienen una estrategia, pero, ¿cómo se lleva a cabo una correcta estrategia de almacenamiento? Para Israel Serrano, responsable de Scality en España, es esencial “entender qué parámetros de negocio son relevantes a la hora de implantar y evolucionar los sistemas de almacenamiento. No requiere la misma arquitectura de almacenamiento una aplicación de on-line masivo que un archivado de larga retención y de preservación, por ejemplo. Es vital entender la cadena de valor y los procesos de negocio que hacen uso de esos datos”.

Los expertos estiman que los flujos de datos a nivel global están creciendo alrededor de un 30% cada año (IDC DataAge 2025 report). A pesar de que no es necesario analizarlos todos de manera inmediata, sí que tiene que ser posible almacenarlos. Si los definimos como si fuera un termómetro, podemos hablar de datos Calientes, Templados y Fríos, dependiendo de si se accede a ellos de manera frecuente, menos frecuente pero que son necesarios para realizar informes o análisis; y aquellos que son para archivarse. Por todo ello, a la hora de establecer una estrategia de gestión del dato hay que “contar con una arquitectura en niveles en la que los datos se puedan mover rápidamente desde y hacia cada nivel de almacenamiento. El nivel Caliente estaría compuesto por sistemas de unidades de estado sólido; el nivel Templado por unidades de disco duro con recuperación rápida de datos; y el nivel Frío estaría compuesto principalmente por grandes cantidades de datos semiestructurados y no estructurados, y utilizaría HDD o cinta”, afirma Florence Perrin, responsable de ventas de Western Digital para el sur de Europa.

En lo que se refiere al software, hay un elemento que también está jugando un papel importante para gestionar el almacenamiento. Se trata de los contenedores, los microservicios y kubernetes. Los contenedores, Kubernetes y los microservicios son fundamentales y que son la prueba de cómo la industria está reinventando la forma en que construimos y ejecutamos las aplicaciones, son cruciales para la agilidad de TI moderna y el despliegue de aplicaciones, y su adopción e importancia sólo está creciendo. Los contenedores facilitan el despliegue de aplicaciones basadas en la nube porque contienen toda la información necesaria para ejecutarlas en paquetes manejables, y Kubernetes crea la orquestación impulsada por los equipos que puede gestionar todos estos fragmentos de aplicaciones y ensamblarlos en una aplicación compuesta según sea necesario. Para sacar todo jugo, Adela de Toledo de Pure Storage cree que “como mejor práctica, hay que elegir una solución que ofrezca los servicios de datos nativos en Kubernetes que requieren tanto las aplicaciones nativas en la nube como las tradicionales. Esto significa ofrecer servicios de almacenamiento de bloques, archivos y objetos, en múltiples clases de rendimiento, aprovisionados bajo demanda como requiere Kubernetes. Significa proporcionar acceso instantáneo a los datos, protección frente a todo tipo de fallos, la capacidad de movilizar datos entre nubes e incluso hacia/desde el Edge”.

Extraer el valor del dato

Almacenar datos, evidentemente, no es el objetivo de ninguna de las empresas. En realidad lo de entender cada dato y saber dónde reside su valor es algo que se lleva haciendo desde el inicio de la comunidad. Los humanos somos transmisores de datos que nos han servido para evolucionar desde el principio de los tiempos. Lo que cambia en la actualidad es que el número de datos es cada vez mayor y llegan desde múltiples fuentes. Ante esta situación, la tecnología actual permite no sólo almacenarlos, sino también analizarlos y extraer el valor de cada uno de ellos. Ese debe ser el siguiente paso en cualquier estrategia de almacenamiento una vez que la parte del almacenaje haya quedado resuelta. Como afirma Manel Picalló, Account Technology Specialist, “las empresas son conscientes de que almacenar datos exclusivamente para su salvaguarda y no sacarles partidos, no es una alternativa válida hoy en día, y por ello dedican parte de su tiempo y sus recursos, no solo a gestionar sus datos, sino también a extraer el valor competitivo que hay en ellos”. Una de las ayudas para extraer el valor del dato puede consistir en “apoyarse en un entorno de almacenamiento unificado que otorga a las empresas mayor libertad y más control sobre su almacenamiento, tanto si las cargas de trabajo se despliegan en sus instalaciones, en una nube híbrida o en una arquitectura multicloud. Permite extraer mayor valor de los datos porque brinda acceso a más administradores y analistas que pueden optimizar los recursos y las operaciones y analizar y monetizar la información no estructurada. En otras palabras, proporciona la velocidad, la escalabilidad y la simplicidad que el negocio digital va a requerir cada vez más”, afirma Alejandro Solana de Nutanix.

Fernando Ejido de Infinidat cree que “el almacenamiento de datos ha dejado de ser un mero sistema de protección y salvaguarda del dato (que suponía un foco más de gasto) a convertirse en un área estratégica para cualquier organización. Existe una tendencia imparable por la búsqueda de sistemas cuya aportación de valor juegue un destacado papel en el proceso de negocio. Por ejemplo, cuando una organización se plantea el despliegue de un nuevo servicio o línea de negocio, se espera que la tecnología sea flexible, ágil y aporte una ventaja competitiva”.

Ante toda esta realidad, está surgiendo un nuevo tipo de solución para gestionar y analizar cada dato: se trata de la infraestructura como código. El aprovisionamiento de los recursos de infraestructura necesarios para crear y gestionar aplicaciones puede ser a menudo un proceso imprevisible, que provoca cuellos de botella y problemas de rendimiento en todo el entorno, pero especialmente en el área clave del almacenamiento de datos.

En lugar de sucumbir a la naturaleza compleja, altamente manual y lenta de la gestión de TI, las nuevas soluciones y marcos de gestión pueden ayudar a crear más simplicidad y facilidad. Las infraestructuras modernas que emulan un modelo de funcionamiento como en la nube son capaces de priorizar la flexibilidad, la agilidad y la velocidad, además de permitir la fiabilidad y el rendimiento. Lo que inicialmente comenzó con la prolífica adopción de la infraestructura como servicio ha allanado el camino a la infraestructura como código.

En este sentido, Adela de Toledo, Country Manager de Pure Storage considera que “una plataforma de infraestructura como código integra experiencias de TI de autoservicio y soluciones escalables y bajo demanda que superan las limitaciones de la arquitectura física. Básicamente, permite a las organizaciones adoptar un modelo operativo de nube sobre su infraestructura para ofrecer una experiencia similar a la de la nube para los equipos de TI y los consumidores de almacenamiento. El almacenamiento empresarial debe evolucionar para ofrecer una experiencia de almacenamiento como código tanto para los consumidores como para los administradores de almacenamiento. Esto significa automatizar las tediosas funciones de gestión del almacenamiento y, al mismo tiempo, posibilitar una solución de escala simple en la que las limitaciones de la arquitectura física no supongan un obstáculo para los grupos de almacenamiento”.

El portavoz de Toshiba, por su parte, considera que “nos encontramos en el inicio de la era del big data y, de alguna manera, resulta divertido que una de las aplicaciones de la inteligencia artificial (IA) considerada de mayor valor actualmente sea el recomendador (en una tienda online, por ejemplo, cuando obtenemos información sobre el producto recomendado en función de nuestros pedidos y búsquedas anteriores). Si nos fijamos en las curiosas propuestas que sugieren estas recomendaciones, creo que todavía existen muchas oportunidades para extraer todo el potencial valor del big data”.

El papel de la nube

Pero si hay un elemento que ha transformado de forma radical el mundo del almacenamiento ese es la nube. Y concretamente, los entornos híbridos que permiten una mejor gestión del almacenamiento y el posterior análisis de los datos. Como asegura el portavoz de NetApp, “la nube híbrida ofrece simplicidad, rendimiento y robustez. Permite que los datos se almacenen de forma local y además fuera de los centros de datos tradicionales de los clientes, y por tanto más cerca de las aplicaciones como servicio propias del cloud público. Al combinar nube pública y privada se genera un conjunto flexible de servicios que aporta mayor agilidad, escalabilidad y predictibilidad. La elección de que porcentaje usar de cada una de ellas, dependerá de la estrategia inicial que se quiera implementar y a los cambios que se requieran en el tiempo para adaptarla al negocio. Un claro ejemplo de lo anterior es la escalabilidad, donde la nube hibrida nos permite afrontar crecimientos imprevisto de la demanda de almacenamiento de forma ágil y sin incurrir en costes innecesarios”. Por su parte, Alejandro Solana, cree que “la nube implica dejar atrás las ataduras de los tradicionales entornos de TI, más lentos, complejos e ineficientes. Cloud ofrece una experiencia de consumo y una orientación a servicio para cada nivel de infraestructura (cómputo, almacenamiento, red, seguridad) y ubicación (on-premise, Edge o nube pública). Además, facilitan la estandarización de los procesos y sus operaciones, respetando la capacidad de elección en sus componentes. Y ahora mismo no hay nada más escalable que la nube. Si hay algo que tenemos muy claro es que el futuro es híbrido y multicloud, es decir, que la opción más demandada por las empresas será trabajar con diferentes nubes y balancear sus cargas de trabajo entre todas ellas en función de las necesidades del negocio. El problema que han descubierto algunas empresas es que les resultaba más caro mantener en la nube determinadas aplicaciones y volvieron a alojarlas on-premise. Hasta ahora esto requería una nueva arquitectura de almacenamiento, pero ya no. Gracias al almacenamiento unificado, que funciona exactamente igual en el centro de datos que en una cloud pública de un tercero, los datos pueden ir y venir sin problemas de la nube a un servidor propio y viceversa cuando sea necesario”.

La apuesta de Nutanix pasa claramente por ese entorno híbrido y de diferentes nubes, pero lo cierto es que las empresas tienen dificultades a la hora de decantarse por un modelo u otro. Tal y como afirma la responsable de Pure Storage, “no es tan sencillo determinar qué entorno de nube es el adecuado, ya que no existe un enfoque único para todos. Las empresas deberían abstenerse de la estrategia de «la nube primero» y optar por el enfoque de «la mejor nube». Esto significa alinear la nube con la estrategia empresarial, y no al revés. De este modo, se evita gastar en exceso para obtener un rendimiento insuficiente y se mantiene la alineación de las TI con las necesidades del negocio. Tanto las nubes públicas como las privadas tienen diferentes casos de uso y ambas pueden ser fundamentales para que las empresas alcancen sus objetivos. Por ejemplo, la nube pública es ágil, escalable y fácil de usar, ideal para los equipos que buscan ponerse en marcha rápidamente. Pero ¿y si fuera posible aprovechar simultáneamente la nube privada, con sus capacidades de nivel empresarial, y la nube pública, con toda la agilidad, facilidad de uso y dinamismo que ofrece? Por supuesto, esto puede hacerse a través de la nube híbrida”.

Los modelos de nube híbrida siguen ganando adeptos. No es de extrañar que estos modelos se adopten a un ritmo tan rápido, ya que ofrecen a las empresas lo mejor de ambos mundos de la nube, y proporcionan a las empresas la agilidad que tanto necesitan. “Por ello, la tecnología híbrida se está convirtiendo rápidamente en un principio básico de las empresas digitales”, afirma la máxima responsable de Pure Storage en nuestro país.

Independientemente de la elección, la nube, es una muy buena solución para la gestión del almacenamiento, incluso puede ser la solución más acertada en casos como la tercera copia (para entidades reguladas) o la copia de resguardo para empresas con un sólo centro de datos. Pareo además hay que tener más factores en cuenta. En este setido, desde Fujitsu consideran que es importante que el departamento de TI considere también “la protección de los datos y el esquema de resguardo de los mismos. La nube pública requiere tener en cuenta factores específicos como el trasiego de datos y el coste que conlleva, y las crecientes restricciones en soberanía de datos, aunque en España estamos en una situación muy ventajosa ya que los principales hyperescalers han abierto ya o planean abrir durante el próximo año regiones en el País. También existen en el mercado opciones de extensión de almacenamiento de nube privada a pública, y de espacios de datos de alto rendimiento y securizados en nube pública. Estos esquemas son muy beneficiosos en entornos de TI Híbrida. Actualmente, es muy conveniente diseñar la estrategia de almacenamiento alrededor del ciclo de vida del dato y los requisitos en cada fase de este ciclo”.

Pero no todos están de acuerdo en que la nube aporte sólo bondades al mercado del almacenamiento. Son muchos los CIOs que ya están mostrando quejas acerca, sobre todo, de los precios que supone la nube, independientemente de su sabor. Una opinión que también comparte el portavoz de Toshiba que considera que “cloud resulta óptimo para entrar con pocos obstáculos en todo tipo de entornos. Es un modelo habilitador que ha resultado clave para muchos avances tecnológicos y sociales durante las últimas décadas. Sin embargo, los servicios en la nube también tienen un coste y este coste es mayor que el de operar equipos propios. Efectivamente, hay ventajas en términos de capacidad de escalar y de economía de escala, pero cuando esa escala tiene las mismas dimensiones, la nube resulta normalmente más cara”.

Las nuevas tendencias tecnológicas

No hace mucho tiempo, la mayoría de los datos se generaba y procesaba en centros de datos. Ahora se está desplazando cada vez más hacia el edge de la red. Para 2025, Gartner estima que la mayoría de los datos se recopilarán fuera del centro de datos. Y la explicación a este cambio no es fácil: puede ser por la creciente importancia de la computación remota y en la nube, o por la existencia de una infraestructura de TI híbrida. Por eso, como opina Florence Perrin de WD, “el Internet de las cosas (IoT) y la inteligencia artificial (IA) se están volviendo cada vez más importantes. A medida que crece el volumen de datos no estructurados, la presencia de soluciones adecuadas para su almacenamiento también aumenta. Las empresas deben considerar una amplia gama de factores para conciliar el almacenamiento, el procesamiento de datos y el IoT. El cambio del cloud computing al edge computing es clave”.

Es decir, cómo asegura Israel Serrano de Scality, IA o el Machine Learning, lo que están aportando es “más y más necesidad de capacidad de almacenamiento. Estas tecnologías requieren, en general, de acceso a gran cantidad de datos para poder hacer sus modelos de predicción y analítica. El proceso de negocio que se base en el uso de este tipo de aplicaciones tiene que ser rentable y una parte muy importante del coste se refiere al almacenamiento físico de esos datos. Este tipo de tecnologías por su uso masivo de dato no estructurado son un claro impulsor de arquitecturas de almacenamiento de objetos scale-out y definidas por software”.

Para establecer una estrategia de gestión del dato hay que contar con una arquitectura en niveles en la que los datos se puedan mover rápidamente desde y hacia cada nivel de almacenamiento

Fernando Egido, por su parte, cree que todas estas tecnologías “son fundamentales en la gestión del dato y juegan un papel vital tanto en la simplificación de las operaciones de TI a gran escala así en la mejora del rendimiento y en la gestión comercial de la información. En el caso de Infinidat, nos diferencia, por ejemplo, nuestra apuesta por la tecnología AIOps, que permite aplicar la inteligencia artificial para centralizar las operaciones, e incluso adoptar modelos StaaS a escala Petabyte. O tecnologías como la caché neuronal, que aporta capacidades de Deep Learning para conseguir una automatización autónoma que permita optimizar continuamente la infraestructura y adaptarse a las demandas cambiantes de las aplicaciones sin afectar a la carga administrativa. Estas tecnologías forman parte de la estrategia fundacional de Infinidat y pensamos que son ya en un elemento absolutamente esencial en la estrategia de cualquier cliente”.

El Big data, la IA/ML tienen en común el manejo de datasets que son ordenes de magnitud superiores a los que se suele manejar en entornos de aplicaciones tradicionales de negocio (transaccional). Desde Fujitsu consideran que “estos datasets pueden llegar a ser realmente grandes, del orden de varios cientos de TB, y para gestionarlos no son válidas las soluciones de almacenamiento y de gestión del dato tradicionales. El mercado está muy activo en ese espacio; como ejemplo podemos citar el almacenamiento y procesamiento de datos genómicos que son enormes y necesitan de un almacenamiento especial y de sistemas de gestión especializados para poder sacar valor de ellos con IA y/o ML. Por otro lado, está creciendo de forma exponencial un nuevo tipo de dato llamado “series en el tiempo – Time series data” originados por el mundo del IoT que genera también grandes cantidades de información en el tiempo y que necesita de sistemas de almacenamiento y gestión también especializados y completamente distintos a los mencionados para genómica. Los sistemas de almacenamiento también usan información de los propios datos, metadatos, etc, para optimización de este y maximizar el rendimiento. Muchas de las herramientas analíticas utilizan técnicas de IA para poder ofrecer resultados más adecuados en la toma de decisiones”.

Deja un comentario

Scroll al inicio