El debate comenzó con el análisis de la situación del mercado de la virtualización. Fue David Ayllón, director de ventas y marketing de OVH, quien destacó que, en estos momentos, el mercado tiene un problema que consiste en que muchas veces no se entiende bien por parte de las empresas en qué consiste la virtualización: “Hay que trasladar el mensaje de una forma más clara sobre todo a la pyme. Las grandes empresas sí conocen la virtualización pero la pyme, no. Hay que trasladar ese mensaje para que entienda la pyme las ventajas que tiene la virtualización. Tenemos que trasladar confianza al mercado para que las pequeñas empresas se animen a trabajar con soluciones virtualizadas”. Para Iván Abad, technical services manager para Iberia de Commvault, “todo el mundo tiene implementadas soluciones virtualizadas, con distintos hipervisores, etc. pero para el tejido empresarial español hay mucha empresa que todavía no lo tiene claro y prefiere tener el servidor debajo de la mesa, sobre todo en la pyme. Ahí nos queda todavía mucho por avanzar”. En la misma línea argumental se situó Diego Gómez Ruiz De Arcaute, responsable de producto de hybrid cloud de Microsoft quien aseguró que “tenemos una mediana y gran empresa en la que la virtualización está consolidada. En la pyme, no tanto. Estamos viendo una virtualización más híbrida con una extensión del data center en la parte de virtualización. Hay que ver qué se puede hacer con la pyme si lo que van a hacer es utilizar más hosting o si directamente van a pasar de lo físico a una nube más pública”.
La virtualización se ha convertido en una commodity. El foco ya no está en la virtualización sino en lo que hay a su alrededor
Pablo Ráez, jefe de producto de servidores de HPE, cambió de análisis y consideró que en general hay que empezar del la computación definida por software. Para este portavoz, “ahora, si queremos hablar de virtualización tenemos que hablar de Software Defined Compute. Ahora parece que está de moda todo lo definido por software pero el problema es que la virtualización la hemos asociado a la parte de cómputo cuando es algo que sirve para cómputo, almacenamiento o red. Así que deberíamos hablar de Software Defined. Tenemos que dar un mensaje sencillo para que el cliente entienda qué debe virtualizar y qué debe tener en su data center. Vamos a entornos híbridos por eso están triunfando los sistemas hiperconvergentes”. Finalmente, Tomás von Veschler, principal solution architect de Red Hat cree que “a nivel tecnológico, la virtualización ya ha llegado a su punto de madurez. Hay muchas soluciones que ya te permiten conseguir el ROI de forma fácil. En mi opinión, la virtualización se ha convertido en una commodity. El foco ya no está en la virtualización sino en lo que hay a su alrededor”.
Las ventajas
Dado que según la mayoría de participantes en el evento aseguraron que muchas veces no se comunican bien las ventajas que ofrece la virtualización, el siguiente punto tratado fue analizar los beneficios que proporciona a la empresa. Para el portavoz de Red Hat, “hay que destacar las operaciones en caliente, que no es de los beneficios más destacables, pero que son importantes. Estas operaciones en caliente permiten añadir recursos de computación, de almacenamiento, etc, cosa que si tienes un blade físico te va a ser imposible hacer. Por otra parte, también destacaría la abstracción del hardware que ya no tienen que tener un sistema operativo que tenga soporte para diferentes modelos de hardware, tarjetas… sino que tienes un hardware único independiente de lo que tengas debajo”. Por su parte, Pablo Ráez de HPE consideró que “la principal ventaja es que uno puede ajustar los requerimientos de máquina a los que necesita una determinada aplicación. Si tienes una aplicación que apenas utilizas, estás gastando muchos recursos en tu servidor físico. La parte buena de la virtualización es que uno puede ajustar los requisitos de infraestructura virtual a lo que necesita la aplicación. Antaño, la virtualización se quedaba corta por el almacenamiento limitado. Ahora ese problema ya no existe”.
Pero no siempre se aplica la virtualización de forma correcta. Para Diego Gómez Ruiz De Arcaute de Microsoft, “en muchas ocasiones nos encontramos con una máquina virtual para una sola aplicación y esto no tiene mucho sentido. Lo que se empieza a ver es que donde ahora estamos utilizando maquinas físicas las empresas se están moviendo a la parte de contenedores, que proporcionan agilidad y que es algo que la virtualización per se, no consigue. Hemos visto que sí, que a una máquina virtual le puedo dar recursos de manera dinámica, pero sigue funcionando bajo un sistema operativo. Hay un cambio de paradigma que va de un concepto de IT puro a un concepto de desarrollo”. Para solucionar este problema el portavoz de HP, afirmó que “se trata de alinear la IT al negocio. Antes, el departamento IT iba a su aire y ahora negocio pide e IT tiene que estar alineado con negocio para dar un producto o servicio a los clientes. La virtualización en un formato o en otro, es adaptar las necesidades del negocio al departamento IT para surtir las necesidades de la empresa”.
Tendencias
¿Cuáles son las principales tendencias, actuales y futuras, que afectan al mercado de la virtualización? Datos, contenedores, cloud computing… fueron algunas de las figuras esenciales que aparecieron en este apartado del debate. Para David Ayllón, “el dato va a ser el centro principal de cualquier negocio. Las empresas necesitan de ese dato y ese análisis del dato para poder crecer. Todo el análisis permite a cualquier cliente establecer unos perfiles diferentes de cliente y tratar con ellos de una forma más efectiva. En definitiva, destacaría como tendencia el control del dato”. Para Iván Abad, “se está dando un paso más que son las clouds, los sistemas de contenedores, etc. pero obviamente vamos hacia abstraernos lo máximo de la capa hardware, a virtualizar toda las soluciones y empezar a ofrecer capacidades ágiles que a día de hoy no existen.”
Es en los contenedores donde se encuentran algunas de las claves de la virtualización en el mercado tecnológico actual. Al menos así lo afirmó el portavoz de Microsoft: “La tendencia actual se basa en los contenedores. Además, está apareciendo una capa intermedia de gestión: algo que ayude a la empresa a gestionar su centro de datos en la nube, a su proveedor de servicios etc. para que el cliente tenga una visión única”.
Para Pablo Ráez de HPE, aún mostrándose de acuerdo en todas estas tendencias hay que distinguir en el tipo de cliente para el que se desarrollan: “La pyme está en el paso de los sistemas convergentes a los sistemas hiperconvergentes en el que no es importante sólo la parte correspondiente al cómputo, sino también la parte del almacenamiento. Es aquí donde aparece nuevamente la importancia del dato. La hiperconvergencia es el dato. En la gran empresa, la tendencia pasa por los contenedores que tienen la ventaja de que el cliente se encarga de desarrollar sus soluciones a su medida”. En este sentido, el portavoz de Red Hat aseguró que “los contenedores irán evolucionando y creemos que es una tendencia clara. Además destacaría que las herramientas IT se están orientando en cómo sacar un mayor partido a la virtualización y no sólo enfocándose en los ahorros de costes. Y es que, cuando una empresa ya tiene un desarrollo importante en virtualización se da cuenta de que puede sacarle más partido a esa virtualización en términos de mejor utilización de hardware, y en concreto, con un uso más inteligente de los recursos humanos. Hay muchas empresas que ya llevan muchos años trabajando en entornos virtualizados y ahora están adoptando cosas como Capacity Planning o automatización para hacer más inteligente a la virtualización”.
Elegir la plataforma
El mercado ya no se encuentra en ese punto en el que sólo destacaban un par de productos. Ahora, las empresas tienen múltiples soluciones para poder elegir. La competencia es buena, pero muchas veces las organizaciones no saben qué elegir. Preguntamos a los ponentes qué apartados son los más relevantes a la hora de elegir una u otra solución. Para Tomás von Veschler de Red Hat, “uno de los grande puntos debería ser el precio. Estamos viendo clientes que eligen la plataforma de virtualización en base al precio. Incluso ya hay varias herramientas para poder migrar entre plataformas. Es raro el cliente que tiene una única plataforma y que la utiliza para todo, sobre todo en lo que se refiere a mediana y gran empresa”. Para el portavoz de Commvault, “la empresa compra el servicio como tal, con lo cual los parámetros a la hora de decidirse va más orientada al servicio que necesite. Por supuesto el precio también es importante. Lo que más encaje desde el punto de vista de negocio es lo que más va a orientar decantarse por una u otra opción”. .
Además del precio, Diego Gómez Ruiz De Arcaute, responsable de producto de hybrid cloud de Microsoft señaló a la interoperabilidad como una de las claves para poder facilitar la elección. Para este portavoz, “es verdad que muchas empresas miran el precio, pero éste, si me voy a una plataforma que es muy barata pero no me deja irme de una plataforma a otra, pues seguramente no le vaya a ser útil. La clave, tanto en hardware como en software, está en elegir la plataforma más abierta o que tenga mayor integración con el resto. Por eso la palabra clave es interoperabilidad”
Virtualización de redes
La virtualización de las redes, por ser de las últimas en llegar a este mundo fue otro de los apartado que se trataron durante el desayuno tecnológico. Para David Ayllón de OVH, “la clave está en integrar el conjunto completo de hardware virtualizado. Sea lo que sea todo definido por software. El cómputo lleva virtualizado desde hace años, luego el almacenamiento y la red son los siguientes pasos”.
Una de las cosas que estamos viendo es que hay un problema con la virtualización y es que cualquier administrador puede coger una máquina virtual, cogerla en un pendrive y montársela en su casa
Iván Abad de Commvault no consideró que la virtualización de la red sea un reto al que tengan que enfrentarse las empresas: “Las VPNs existen desde hace mucho. Ahora estamos dando un paso más con el software defined, pero a la virtualización de la red no lo veo como un reto nuevo sino como un paso adelante más dentro de este mundo”. Para Pablo Ráez de HPE, “lo que ocurre es que a la red siempre se la ve como algo más complejo y delicado. Tanto por la parte del que ofrece el servicio que quiere una configuración de la red más sencilla como por parte del cliente que quiere agilidad y que se le ofrezca un servicio rápido. Los beneficios son claros tanto desde el punto de vista de uno como del otro”. Finalmente el portavoz de Red Hat afirmó que “los problemas de la virtualización son la inflexibilidad de las redes y del almacenamiento. No se está poniendo el foco en mejorar esto. Hablando de la virtualización de redes en nuestra opinión no hay cloud sin SDN. La otra cara además, está en la seguridad y tener la capacidad de reaccionar a los ataques y poder redirigir tráfico.
Seguridad
Finalmente se abordó el apartado de la seguridad. Para Diego Gómez Ruiz De Arcaute de Microsoft, “la seguridad no es lo primero. Una de las cosas que estamos viendo es que hay un problema con la virtualización y es que cualquier administrador puede coger una máquina virtual, cogerla en un pendrive y montársela en su casa. Con esto ha robado todo un servidor. Ahora estamos viendo las máquinas virtuales blindadas en las que se encuentra todo encriptado. Otro problema viene por los contenedores que no son seguros por defecto. Si tú tienes dos contenedores en una misma instancia, un contenedor puede hablar con el de la compañía rival. Lo que estamos sacando nosotros son los contenedores HiperV para que esto no suceda”. Para Iván Abad de Commvault, “la seguridad per se es un reto independientemente de que sea física o virtual. Los mayores ataques ahora son los criptolockers y no atacan a plataformas virtualizadas. Si hablamos de entornos virtualizados a un cliente le preocupará la seguridad y se protegerá a través del contrato que firme. Pero repito que los grandes ataques son en entornos no virtualizados”. Y es que, como aseguró el portavoz de OVH, “la seguridad es una responsabilidad compartida del proveedor y del cliente. Debemos dar toda la tecnología para que el servicio que el proveedor ofrece sea lo más seguro posible. Pero esto no sirve para nada si el cliente no tiene claro este concepto de seguridad y se salta todas las reglas básicas de actuación”.
Pablo Ráez consideró que a día de hoy un Centro de Datos es seguro y tiene poco riesgo. Pero hablando del data center, aseguró que al cliente hay que enseñarle con no todo se puede virtualizar: “Llega un momento en que los requisitos de una aplicación van más allá de la virtualización. Hay que pensar en hacer un buen diseño de la arquitectura del DC que incluya el cómputo, el almacenamiento y la red. A día de hoy, empresas medianas y grandes trabajan todavía con sistemas heredados que no se puede virtualizar”