La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

A por el servidor virtualizado

El mercado del servidor se ha transformado por completo. La virtualización ha sido una de las principales responsables en esa transformación. Para analizar la evolución del mercado BYTE TI organizó un desayuno con algunas de las principales empresas responsables del mismo. Al acto asistieron Óscar Gómez, Product Manager Enterprise, Dell España; Sergio Reiter, Senior Product Manager Servidores de Fujitsu; Daniel Olaso, Hitachi Data Systems Consultant Solutions; Antonio Sánchez, Director Técnico de Omega Peripherals; Rafael Godinez, Solution Architect Manager de Red Hat; Jorge Hormigos, Responsable de la línea de negocio de Ciberseguridad de Trend Micro y Alejandro Solana, Director Técnico de VMware.

El acto se abrió hablando de la situación por la que atraviesa este mercado. En general todos estuvieron de acuerdo en que nos encontramos ante un mercado que evoluciona favorablemente y, sobre todo en el apartado tecnológico a una velocidad imparable favorecidos sobre todo por los entornos virtualizados.. En este sentido, Jorge Hormigos, Responsable de la línea de negocio de Ciberseguridad de Trend Micro, afirmó que “los servidores virtualizados tienen un dinamismo tremendo. A día de hoy nos encontramos con que hay muchas tendencias y tecnologías que sin virtualización sería imposible que existieran. Uno de los problemas se encuentra en la seguridad porque seguimos teniendo las mismas problemáticas del entorno físico más unas variables que son nuevas”. En la misma línea se situó Alejandro Solana, Director Técnico de VMware: “Hoy es factible gracias a tecnologías como la virtualización hacer cosas que antes eran impensables. Lo mejor es que el usuario es ahora el centro del mundo TI.  Los servidores virtuales y el modelo cloud se centra en la eficiencia (no sólo costes sino sacar partido de toda la capacidad que tengo disponible), la agilidad y la fiabilidad. La virtualización favorece todo esto para garantizar la experiencia del usuario”.

Es la virtualización la que ha favorecido este crecimiento y las empresas se ha aprovechado de ello, porque tal y como apuntó Óscar Gómez, Product Manager Enterprise, Dell España, “se trata de maximizar los recurso disponibles, la maximización de la eficiencia energética y una mayor flexibilidad operativa que permite responder antes ante determinados cambios”. No obstante y como dejó claro Sergio Reiter, Senior Product Manager Servidores de Fujitsu hay que tener en cuenta que “la virtualización es un paso, no un fin en sí mismo. Es verdad que te da posibilidades y te ofrece otro camino. Lo más importante es que antes había alta disponibilidad pero la cuestión era a qué coste, así que la virtualización es algo que favorece esa disponibilidad. Lo que ocurre es que la consolidación mediante la virtualización es mucho más simple y le quitamos el peaje tecnológico que muchas empresas, por know-how no podían acometer”. En este aspecto, Daniel Olaso, Hitachi Data Systems Consultant Solutions añadió que además “hay que hacer hincapié en la eficiencia. Para ver las ventajas de la virtualización hay que remontarse al principio y ésta apareció porque la tecnología estaba infrautilizada. Depende de en qué fase se encuentre el cliente tendrá unas ventajas u otras porque, al final, de lo que se trata es de convertir el CPD en software y básicamente se trata de infraestructura como servicio”.

La realidad es que la virtualización ha llegado para quedarse y ofrece numerosas ventajas. Para Rafael Godinez, Solution Architect Manager de Red Hat, “la ventaja de utilizar la virtualización es que se abre un camino para acercarnos a otra forma de trabajar. Se trata de convertirse en un proveedor de servicios, no sólo de tecnología. La virtualización te proporciona la posibilidad de hacer las cosas de una forma diferente. Si no virtualizas no das el paso de ir a otras formas de trabajar”. Finalmente, Antonio Sánchez, Director Técnico de Omega Peripherals aseguró que “lo más importante es el valor de la infraestructura porque proporciona valor en almacenamiento, backup, disaster recovery, etc. Cuando un cliente virtualiza, convierte su TI en algo más dinámico y que aporta valor al negocio. No hace falta irse a una consolidación de servidores, con sólo virtualizar un servidor ya le estamos dando valor”.

Clientes

En todos los segmentos del mercado TIC existen una serie de empresas para los que un producto o una solución parecen estar más enfocados. O eso, o son las propias empresas, de según qué sectores, las que poco a poco van decidiendo cuál es el producto o servicio que mejor se adapta a sus necesidades. Para Antonio Sánchez, Director Técnico de Omega Peripherals, “las soluciones de virtualización dan respuesta a cualquier tipo de cliente. Esto se produce porque el coste de virtualizar es cada vez más bajo y cada cliente puede buscar una solución concreta que de respuesta a sus necesidades. Además todas las pegas que se tenían sobre la virtualización ya están solucionadas. Ahora mismo, cualquier cliente puede abordar un sistema de virtualización y a un coste bajo”. En esta misma línea se situó Rafael Godinez de Red Hat. Para este directivo, actualmente “no hay sectores y tipo de empresas. Cualquier compañía está adoptando soluciones de virtualización. Prácticamente todo el mundo virtualiza al menos algo”. “Más que por el tamaño de la empresa habría que hablar de madurez. Normalmente cuando estás en la primera fase eres un poco receloso y a medida que se va madurando se va mejorando la solución de alta disponibilidad y  tolerancia a fallos y es entonces cuando las compañías empiezan a instalar aplicaciones de misión crítica en entornos virtuales. Todos nuestros clientes tienen algún entorno virtualizado”, afirma Daniel Olaso, Hitachi Data Systems Consultant Solutions.

Según pusieron de manifiesto la mayoría de los presentes, la evolución del mercado de la virtualización es que al haber dejado de ser ya un fin en si mismo, los proyectos son de tan diversa índole que hay miles de proyectos de virtualización diferentes, así que toca evolucionar la plataforma de virtualización. En este sentido, Alejandro Solana de VMware, esta evolución, “facilita que los clientes tengan la capacidad de elección para saber cuál es la rentabilidad de un determinado servicio. Todo va asociado al servicio y es el usuario el que elige.

El papel del integrador

Es uno de los jugadores principales a la hora de que un proyecto de virtualización tenga éxito ya que es él el que conoce a la perfección las necesidades de su cliente y lo que ofertan los desarrolladores. En este sentido, Sergio Reiter, Senior Product Manager Servidores de Fujitsu, afirmó que “el integrador ofrece toda la tecnología en toda su potencia. Es necesario un canal perfectamente formado porque tiene que haber una solución hardware perfectamente llevada. Para eso se necesita un canal que conozca tu hardware y tu software para que ofrezca una solución perfecta para el cliente. Es necesario un canal certificado que te permita alcanzar la capilaridad necesaria y con un know-how sobresaliente”.

De la importancia del integrador, nada mejor que sea el propio protagonista el que hable. En este sentido, Antonio Sánchez, Director Técnico de Omega Peripherals, afirmó que “el integrador ayuda al fabricante a dar una mayor satisfacción al cliente porque conoce al cliente, conoce la aplicación. El integrador es el que mejor puede dar un servicio porque es el que mejor conoce determinadas soluciones y es el que mejor conoce al integrador. Nosotros somos los que estamos al lado del cliente, pero somos los que estamos también al lado del fabricante. Somos fundamentales porque estamos en todas las partes y podemos dar la mejor solución al cliente”.

Los elementos clave

Hoy en día se puede virtualizar casi todo, así que son varios los elementos que “iran del carro de la virtualización” como aseguró Alejandro Solana, Director Técnico de VMware, “al final la virtualización más que un fin en si mismo es un medio y ha llegado al almacenamiento, al networking, etc. La realidad es que hemos pasado de virtualización para x86 a proyectos más complejos. De hecho lo más complicado ahora es pasar de cómo adaptarme a los nuevos entornos sin tener que tirar lo que ya tengo”. Daniel Olaso, Hitachi Data Systems Consultant Solutions, asegura que “todo software es virtualización. Virtualizar al final es una capa software por encima de una de hardware y de lo que se trata es de que el usuario pueda interactuar con el hardware. Donde veo que todavía hay que mejorar es en las redes. Al final te das cuenta de que hay problemas en las redes y cuando lleguemos a superar esa barrera el CPD será extendido, es decir, geográficamente disperso”. En este sentido el portavoz de Red Hat aseguró que “el tema del data center extendido y virtualizado es una tendencia muy importante. No solo con la virtualización del escritorio, ya que va un poco más allá”.

Para Antonio Sánchez de Omega Peripherals, “la virtualización ha sido la apuesta de los fabricantes, de los integradores y de los usuarios. Por tanto la evolución ha salido de forma natural. Cualquier producto o solución que salga al mercado tiene ahora un componente de virtualización”.

La seguridad

Siempre que se habla de entornos virtualizados, la seguridad aparece en escena. Y es que cuando se intenta virtualizar una de las primeras dudas que surgen en las organizaciones empresariales es si será seguro. El desayuno contó con una de las principales empresa de seguridad a nivel mundial: Trend Micro. Jorge Hormigos, Responsable de la línea de negocio de Ciberseguridad de la compañía aseguró que “la virtualización tiene unos retos nuevos en seguridad, pero esto no quiere decir que sea más insegura. Bajo mi punto de vista creo que es justo todo lo contrario. Se trata de una nueva tecnología y hay que aplicar nuevas políticas. Lo que no vale es pasar la política de seguridad tradicional al mundo de la virtualización. Hay que ver cuáles son los nuevos retos para hacer frente a estos problemas. Tenemos que tener claro que si yo no soy el dueño de mi Data Center, obligatoriamente hay que tomar una serie de medidas adicionales que pasan porque o bien la persona que me da el servicio de ese entorno se comprometa a dar una seguridad o bien ponerla yo mismo, sabiendo desde el principio que yo soy el máximo responsable de la información guardada en el Data Center externo”. Óscar Gómez, Product Manager Enterprise, Dell España, se mostró totalmente de acuerdo y afirmó que “la virtualización no es insegura si llevamos una política de seguridad concreta específica. No podemos pensar que por tener un proyecto de virtualización vamos a ser más inseguros pero eso no implica que no llevemos la seguridad en el proyecto”.

Deja un comentario

Scroll al inicio