La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

nuevo almacenamiento

Los retos del nuevo almacenamiento

El objetivo era tratar los retos y las tendencias a los que se enfrenta el nuevo almacenamiento. El encuentro comenzó tratando cuáles eran las principales tendencias en el mundo del almacenamiento. Iván Abad, Technical Services Manager de Commvault, fue el encargado de iniciar el debate asegurando que “lo más destacable es que todo tiende a estar virtualizado. Todos los fabricantes, además, se están posicionando en discos de estado solido. Bien mediante compras o desarrollos, todos se están posicionando. Ahora vamos a mas volumen de datos, más información y menor tiempo de respuesta”, Para Rafael Díaz-Guardamino, Storage Specialist de Dell, “las novedades vienen dadas desde la propia arquitectura de los sistemas que lo conforman, y el gran cambio es el modo de consumo. Ya no solo como se trata el gasto de TI sino que ahora se va más alla y se mira al almacenamiento para sacar mayor información. Flash es otra tendencia que se ha introducido en el mercado y que va a desbancar al disco rotacional tradicional”.

En el nuevo almacenamiento todo tiende a estar virtualizado

En este punto, José María Revuelta, consultor preventa de almacenamiento de HPE afirmó que “el tema de flash es una realidad que está acabando con la capa de disco tradicional. Los cambios también están en el apartado del almacenamiento definido por software. Otras tendencias las podemos encontrar en lo que se refiere al “Object Storage”, la necesidad de sacar valor al dato para mejorar relaciones con proveedores y clientes. Finalmente, destaca también el tema de la protección de datos para tener una integración entre el almacenamiento primario y el almacenamiento de backup”. Javier Martínez, Director Técnico de NetApp Iberia aseguró que “la parte de tecnología flash ya ha pasado el punto de inflexión y este año es el estándar. Es más barata una solución con flash que con disco convencional. La otra gran tendencia en el nuevo almacenamiento es la virtualización y el almacenamiento definido por software. El hardware es cada vez más commodity y la diferencia se encuentra en el software”. Para Luis Rico Morales, Senior Solution Architect – Storage  de Red Hat, la clave reside en que “todo tiene que ser definido por software y esa es la tendencia principal. Esto es así porque va a ser de las pocas soluciones que van a poder soportar las cargas de trabajo que se avecinan. Se necesita una escalabilidad que sólo las soluciones Software Defined Storage pueden realizar”. Para Miguel López, director de Barracuda, “el crecimiento casi exponencial en la cantidad de información generada así como en su criticidad obliga a las organizaciones a contar con volúmenes de almacenamiento cada vez mayores, más rápidos y fiables. Precisamente estos factores han llevado a la necesidad de herramientas de backup de nueva generación basadas en appliances HW híbridos (combinados con cloud) que permitan una mayor fiabilidad de los datos salvaguardados así como mayores velocidades de copia y respaldo”.

La influencia de Big Data

Big Data es uno de los elementos clave para entender el mercado del nuevo almacenamiento. Ya no se trata de almacenar datos, sino de sacar información relevante a esos datos. Así que el siguiente tema tratado fue el de su influencia en el mercado de almacenamiento. Para el portavoz de Red Hat, la clave va a residir en que “las cabinas de almacenamiento tradicionales se tienen que adaptar en escalabilidad y capacidad ante la llegada de Big Data. Las soluciones de Big Data están cambiando estas cabinas. Para ello, se necesita una solución escalable y que a la vez tenga acceso al dato”. Por su parte, desde NetApp se aseguró que “más que hablar de Big Data nosotros hablamos de la tercera plataforma. La figura de la cabina monolítica se ha quedado obsoleta. En este tipo de entornos encaja mal. Nos vamos a arquitecturas más distribuidas en los que la capa de software aporta la capacidad adicional”. El portavoz de HPE afirmó que “un 80% de la información está desestructurada. Se trata de sacar partido a la información y nos vamos a encontrar con un mercado grande que va a seguir creciendo con IoT, con análisis de la información, etc.. Va a seguir habiendo mercado para los fabricantes”. Por su parte el portavoz de Dell afirmó que “el procesamiento de Big Data es interesante para cualquier empresa. Cuando hablamos de Big Data, la tecnología flash aporta muchos beneficios. Gracias al Software Defined Storage se permite este procesamiento. La capacidad de escalabilidad es fundamental”.

La otra gran tendencia en el nuevo almacenamiento es la virtualización y el almacenamiento definido por software

Finalmente el portavoz de Commvault aseguró que “Big Data es una oportunidad para los fabricantes tanto hardware como software. Podemos facilitar más negocio porque utilizamos datos que antes no empleábamos. Con los proyectos Big Data empiezas a utilizar ese dato que no estaba estructurado. La IT empieza a dar un valor añadido adicional que hasta ahora no se daba”.

Almacenamiento definido por Software (SDS)

Se trata de uno de los apartados más relevantes en el mundo de las TI actuales. Como señaló Iván Abad, “al final, el software es el que empieza a dar el valor añadido a toda la información. Poder empezar a montar proyectos a más velocidad y poder acercarse a la capa de negocio de los clientes es lo que está posicionando al SDS”. Para Rafael Díaz-Guardamino, “el almacenamiento definido por software da al cliente flexibilidad, escalabilidad y sencillez. El hecho de aislar capas de hardware y software, puede hacer que el servicio técnico se disgregue. Para ello es fundamental que las empresas facilitemos a los clientes mantenimientos unificados para tener éxito”.

Pero a pesar de que todas las tendencias en el nuevo almacenamiento parecen apuntar al almacenamiento definido por software como el principal impulsor del mercado, no todo son ventajas, como señala José María Revuelta: “El SDS tiene grandes ventajas: precio, sencillez, rapidez… Pero también tiene problemas. Son los sistemas hiperconvergetes los que solucionan estos problemas. Los fabricantes tenemos que ofrecer al al cliente soluciones que no sean traumáticas”. Por su parte el portavoz de Red Hat aseguró que su compañía lleva trabajando en el mercado del almacenamiento desde 2011, “porque para nosotros se trata de dar un valor a los clientes porque el almacenamiento definido por software proporciona flexibilidad, ya sea en servidores commodity x86 y asumir cargas de trabajo y escalabilidad que permita crecer sin tener límites. Para nosotros los beneficios de SDS es que no necesitas tener una gran cabina en tu sede sino que puedas crecer y pagar según crezcas, lo que se traduce en una reducción de costes”.

Pero a pesar de que todas las tendencias en el nuevo almacenamiento parecen apuntar al almacenamiento definido por software como el principal impulsor del mercado, no todo son ventajas

En cuanto a los sistemas convergentes e hiperconvergentes, Luis Rico aseguró que “la sencillez de este tipo de soluciones va a ser un beneficio para todos los clientes. De hecho es una tendencia cada vez más agresiva porque el cliente quiere esa reducción de costes. Es importante porque este tipo de plataformas permiten garantizar un performance y tener una base sobre la que trabajar y que sabemos que solucionan las necesidades de los clientes.” Para Javier Martínez de NetApp, convergencia e hiperconvergencia “son dos aspectos que están para quedarse. Sigue siendo una evolución de la arquitectura que ya estamos utilizando que no vemos para todos los clientes pero que tiene mucho sentido”. Por su parte, Rafael Díaz-Guardamino de Dell afirmó que “los sistemas hiperconvergentes pueden cubren desde escalas más discretas a otras de más tamaño. El mercado de la hiperconvergencia es el que va a tener un crecimiento mucho más importantes que otros”.

La aportación la nube

La nube es un movilizador en el mercado del nuevo almacenamiento. Cada vez más, la nube supone un nuevo estilo de aplicaciones (y desarrollo de aplicaciones) y está prevaleciendo en los entornos de TI. Ya sean aplicaciones móviles, analítica predictiva o nuevas integraciones entre componentes existentes de aplicaciones. ¿Qué está suponiendo el mundo de la nube para el mercado del almacenamiento? Para el portavoz de Commvault, “el almacenamiento va a seguir funcionando. Independientemente de que esté en cloud u onpremise. Al final iremos a hablar con los proveedores cloud. en el nuevo almacenamiento, la nube, para empresas tipo medio, les encaja perfectamente. En entornos más grandes, lo normal es que sea híbrido, en los que habrá que proteger los datos”. Desde HPE se afirma que cloud “va a cambiar la forma en la que se adquiere el almacenamiento. En mi opinión, iremos más hacia la cloud privada. Los datos van a seguir estando en las empresas. Para pymes que no se pueden permitir tener un departamento IT se apuntan a soluciones para facilitar al cliente su día a día”. Javier Martínez expuso que “desde hace más de dos años nuestra estrategia es que los datos de los clientes se muevan. Queremos que los datos salgan de los sistemas de almacenamiento y entendemos que vamos a un mundo híbrido que toma decisiones que nada tienen que ver con la tecnología. Llevamos mucho tiempo trabajando con los proveedores de servicio y nosotros facilitamos esos movimientos porque entendemos que es por dónde va a ir el mercado”. “Nosotros lo que vemos es que los clientes demandan que las infraestructuras que tienen onpremise sea igual en la cloud. Todos quieren que todo sea gestionado como un servicio definido por software y pr supuesto que el dato sea móvil”, afirmó el representante de Red Hat. Para el portavoz de Barracuda, “El Cloud Computing y otras tendencias orientadas a externalizar procesos del datacenter contribuyen a compensar el crecimiento exponencial en la necesidad de almacenamiento de datos en la empresa. No obstante en la mayoría de los entornos ya sea por seguridad o por conveniencia en el acceso se siguen manteniendo repositorios de información que es preciso mantener al día por lo que no creo que la necesidad de almacenamiento local desaparezca a corto o medio plazo”.

Big Data es uno de los elementos clave para entender el mercado del nuevo almacenamiento

Seguridad

Finalmente se abordó el apartado de la seguridad del dato en el nuevo almacenamiento, algo que cada vez cobra más importancia para los departamentos TI de las empresas. Uno de los problemas viene con el backup. “Sobre todo, con la nueva generación de cargas de trabajo, de lo último que se acuerdan es del backup. Se trata de nuevas cargas de trabajo y el problema se convierte en exponencial. Las soluciones SDS y que hacen scale out de forma automática y que sean capaces de cubrir la demanda de autoprotección. La tendencia es que sea lo más autoprotegido posible”, afirmó Luis Rico de Red Hat. Para el portavoz de HPE, “efectivamente las empresas tienen que autoprotegerse. En los entornos tradicionales, el backup tiene que protegerse porque un tercio de los clientes tiene problemas de backup”. Y es que como señaló el portavoz de Dell, “el backup es el gran olvidado. Si el backup no funciona, el usuario no se entera. Sólo se da cuenta cuando hay un desastre. Es verdad que emergen nuevas corrientes en el proceso de protección del dato,se generan nuevas copias, y no todas son válidas. Los nuevos sistemas hacen que podamos reducir el número de copias. Las tendencias apuntan a reducir ese número y optimizarlas”. Finalmente para el portavoz de Commvault, “lo que detectamos es que cada vez hay mas datos que hay que proteger. Esa protección viene dada de la protección que hacemos nosotros para facilitar el la recuperación. Lo crítico es cuánto va a tardar la recuperación en caso de desastre. El gran problema del backup es que es información que nadie está utilizando. 1Tb de disco con unas retenciones de bakup estándares se convierten alrededor de 30Tb de backup. Esos 30 Tb no se están utilizando para nada y por eso empezamos a montar worlflows con los que puedes hacer un análisis forense de esa información” Además, añadió, “nos encontramos con el problema de los datos duplicados. Sólo hay que pensar que cada vez que alguien manda un correo con una presentación a 25 personas, son 25 presentaciones. Estás multiplicando x25 el tamaño. Son problemas que estamos resolviendo. A día de hoy sobre todo se trabaja en la deduplicación de objetos. Vamos hacia ahí”. Para el portavoz de Barracuda, “No sólo el tiempo de recuperación se ha convertido en un aspecto fundamental sino que las soluciones más avanzadas permitimos también la utilización del propio Backup como solución de Disaster Recovery permitiendo la utilización del propio Backup como elemento de producción sin necesidad de restaurarlo. Adicionalmente, la posibilidad de disponer de múltiples copias de recuperación (en local, en cloud, en almacenamiento,…) se ha vuelto crítico ya que por la importancia de los datos así como por requerimientos legales siempre es preciso disponer de , al menos, dos copias y las cintas se han convertido en algo a extinguir, precisamente por su baja fiabilidad y elevados tiempos de recuperación”.

Deja un comentario

Scroll al inicio