La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

entornos virtualizados

La clave está en la virtualización

La virtualización ya está plenamente integrada dentro de las infraestructuras de TI de las empresas. Ventajas como alta disponibilidad, recuperación frente a desastres, balanceo de carga o reducción de costes ha hecho posible que los entornos virtualizados sean ya una commodity.
El mercado de la virtualización sigue creciendo a pasos agigantados gracias a la extensión de este concepto (abstracción, creación de pools y automatización) a todos los servicios y recursos del centro de datos en lo que llamamos el centro de datos definido por software. Esta arquitectura agiliza y simplifica considerablemente el aprovisionamiento inicial y la gestión continua de recursos informáticos, de almacenamiento y de red completamente virtualizados mediante una potente automatización basada en políticas.
Para poder darnos cuenta de la evolución de este mercado sólo hay que ver a una compañía, el paradigma de la virtualización: VMware. Esta multinacional, pertenciente a EMC (ahora Dell) y que trabaja de forma independiente con respecto a su matriz ha obtenido en el tercer trimestre del año, una facturación de más de 1.600 millones de dólares a nivel global, lo que supone un crecimiento del 10%. Tal y como asegura Alejandro Solana, director técnico de la compañía en nuestro país, “el centro de datos definido por Software, la nube híbrida y la movilidad seguirán siendo la línea estratégica definida por VMware. Estamos seguros de que estas soluciones pueden ayudar a las empresas de nuestro país a optimizar sus sistemas y hacerlas más competitivas y eficientes”.
La realidad es que si miramos este mercado con 10 años de perspectiva, y nos situáramos en 2004, el año en el que EMC adquirió VMware, las empresas que se encontraban en este mercado eran muy pocas. En 2015 la situación es completamente diferente. Casi todo el sector tecnológico está involucrado en este mercado. Y todo apunta que la virtualización se introducirá en todo: ya no son sólo los servidores de antaño. El siguiente reto es el Centro de Datos virtualizado, que ya empieza a ser algo más que una tendencia. El mercado por tanto, crece. Manuel Vidal, director de preventa de sistemas de Oracle asegura que “Si nos centramos en la virtualización de servidores debemos resaltar que un porcentaje muy alto de los servidores actuales utilizan la tecnología de virtualización, en sus distintas modalidades,  para optimizar el uso de los recursos físicos. Si aludimos a los sistemas convergentes, muchos de ellos se basan en la virtualización para poder prestar todas sus funcionalidades. También se está extendiendo el paradigma en el mundo del almacenamiento, si bien lo hace mucho más lentamente y en algunos tipos concretos de clientes. También se está introduciendo la virtualización de las redes”. Por su parte el director general de Nutanix, Francisco Dalmau afirma que “en España, hablar del mercado de virtualización es hablar ya del 80% de las instalaciones de cualquier empresa en el Data Center. La virtualización está totalmente expandida y son ya muy pocos los que siguen ligados a entornos no-virtualizados. De hecho, estos escenarios -no-virtualizados- responden, principalmente, a limitaciones impuestas por algunos ‘vendors’ que siguen ralentizando dicha evolución por “agendas” propias. La virtualización aporta flexibilidad y agilidad; une el negocio del cliente con el mercado en el que trabaja”.
La situación económica también ha repercutido en el desarrollo de los sistemas virtualizados. Julián Jiménez, Director de Soluciones y Preventa de Almacenamiento de IBM dice que “aunque la situación económica esté cambiando, los CIOs continúan disponiendo de presupuestos ajustados en sus departamentos y necesitan justificar con detalle cada inversión ante la junta directiva. No obstante, cada vez son más conscientes de que la virtualización es una tecnología que supone importantes ahorros, además de ser clave si se desea aprovechar todo el potencial de las tecnologías Cloud. En este sentido, las pymes españolas continúan apostando por proyectos de virtualización como paso natural a crecer y ser más eficientes”.
Control
La virtualización es una tecnología beneficiosa no sólo por la reducción de costes asociada a la consolidación de equipos; además, aporta fiabilidad a la infraestructura gracias a soluciones de alta disponibilidad, virtualización de puestos de trabajo o recuperación ante desastres. Y aporta todas estas ventajas con un coste muchísimo menor que las soluciones tradicionales. Por eso, cualquier momento es bueno para comenzar a planteárselo, pero siempre como una estrategia a largo plazo. Está claro que Una de las ventajas de la virtualización son la agilidad y la flexibilidad pero, ¿esto no se puede convertir en un inconveniente al tener que controlar un creciente número de sistemas virtualizados? ¿Cómo se debe realizar este control? Miguel Perez Colino, Solution Architect de Red Hat señala que “en el sector de virtualización tradicional, el número de sistemas virtualizados es un número muy creciente y hay que tener mucho cuidado de no tener sistemas sin uso dentro de la infraestructura, porque esto hace que se desperdicie una cantidad enorme de recursos. Para esto se necesita una capa de gestión por encima que ayude a tener mayor control sobre ello. Es lo que se denomina cloud manegement platform, una plataforma de gestión cloud, que ayude a gestionar tanto la virtualización tradicional como las cargas de infraestructuras de cloud, de IaaS. Una vez que tenemos la plataforma de gestión de cloud desplegada y completamente integrada, todos los mecanismos que se pueden poner en marcha para controlar que no haya problema de máquinas sin uso, de máquinas que no cumplen con el compliance de seguridad, desaprovechar el espacio en disco, o simplemente el poder prever cuando vas a necesitar más hardware, pues se controla desde este punto centralizado”. Para el portavoz de IBM es control “es sencillo si se cuenta con herramientas de gestión fiables y sencillas. Si se gestionan bien los recursos virtuales, ofrecer servicios de mayor calidad es una consecuencia directa. La definición de un catálogo de servicios virtualizado de almacenamiento y computación habilita una provisión automática de estos servicios permitiendo a las empresas disminuir el time to market de nuevas soluciones. Lo que a su vez supone reducir los costes de gestión y la complejidad de la gestión de infraestructura. Sin duda, una buena elección de las herramientas a utilizar en el camino a la virtualización puede suponer ahorros o por el contrario mayores costes, en este sentido desde IBM siempre apostamos por arquitecturas sencillas con funcionalidades avanzadas totalmente integradas en la capa de virtualización permitiendo una gestión única de sus infraestructuras”.
Pero el problema existe. Como afirma el portavoz de Oracle, “sin duda, la explosión del número de máquinas virtuales está creando graves problemas de gestión en muchas organizaciones de TI. Algunas de ellas no saben cuántas máquinas virtuales tienen ni el propósito de las mismas. Esta situación puede conllevar distintos tipos de riesgos para las organizaciones así como graves ineficiencias. Hay herramientas de gestión específicas para entornos virtualizados, por lo que cualquier organización que implemente masivamente la virtualización de servidores debe disponer de una herramienta de gestión específica para este tipo de entornos”. Por su parte, Gloria Touchard, directora técnica de Alcatel-Lucent para España y Portugal, cree que “la virtualización es una herramienta que va a simplificar la operativa a costa de introducir una mayor complejidad. Para poder abordar esa complejidad se están desarrollando herramientas que permiten monitorizar y controlar todo nuevo evento que tiene lugar en el entorno virtualizado y trasladar la información convenientemente a los distintos elementos. La automatización en un sistema virtualizado es clave y para ello se han desarrollado elementos como SDN que permite automatizar la conectividad de todos los sistemas virtualizados o como la capa de orquestación que automatiza y controla la asignación de recursos”. Y es que la automatización, tiene la llave de un correcto control de los sistemas virtualizados. Tal y como afirma Guillermo Fernández, Sales Engineer de WatchGuard, “la automatización es la clave para una correcta gestión. Gracias a la misma, los tiempos de puesta en marcha de nuevos proyectos se reducen y es más sencillo atender las demandas de negocio”.
El Centro de Datos
Todo pasa por el centro de datos, toda vez que el mundo del servidor empresarial se encuentra totalmente virtualizado. Como asegura José Vicente Espinosa Business Technology Architect de CA Technologies, “la virtualización de servidores es una corriente a la que prácticamente se han sumado todas las compañías en mayor o menor medida. Ahora llegan nuevos desafíos en torno a la virtualización de otros recursos del centro de datos como pueden ser las redes y el almacenamiento para ganar agilidad y flexibilidad”. En el caso del almacenamiento, se consigue habilitar arquitecturas de Centros de Procesos de Datos ACTIVO/ACTIVO, la compresión de datos en tiempo real, eliminar las migraciones de datos de forma definitiva, aumentar el ciclo de vida de las inversiones en hardware de almacenamiento y muchos otros beneficios que anteriormente no eran posibles. “La adopción ha sido muy rápida en todo tipo de compañías, tanto en grandes corporaciones como en pymes y en todos los sectores de negocio. Si se analizan estos datos, bajo mi punto de vista esto significa que la tecnología de virtualización de almacenamiento está permitiendo la digitalización empresarial y habilita en el futuro la adopción del cloud”, asegura el portavoz de IBM. Y es que, para muchas empresas la virtualización les permitió pasar de tasas de uso de los servidores X86 inferiores al 10% a tasas de uso por encima del 60%. Estas tasas de uso conllevaban grandísimas ineficiencias energéticas en los Centros de Datos de comienzo del siglo XXI. Por lo tanto, la acogida de la virtualización de servidores en el mundo X86 ha sido masiva. La virtualización de servidores y sistemas convergentes está mucho más extendida que la del almacenamiento. Javier Gallego, Enterprise Solutions Manager de Dell, en lo que se refiere a la virtualización del Centro de Datos, “Las ventajas, sin duda, vendrán por la velocidad de provisión, transformación o eliminación de servicios en nuestro centro de datos. La gestión total por software ayuda también a un uso más elevado de los recursos hardware, es decir, rompemos los tradicionales silos para entender, al menos de forma lógica, que nuestro centro de datos en un gran y único recurso de computación y almacenamiento. La capacidad de imputar costes en entornos multi-compañía o multi-departamento y funcionalidades como el autoservicio completan una visión del todo definido por software”. Desde el punto de vista de Nutanix, para quienes poseen un Data Center gestionado por Software, todo son beneficios. Desde obtener nuevas funcionalidades con una simple actualización de software -sin tener que cambiar o modificar su estructure- hasta poseer una visión total de lo que esta sucediendo en su entorno con un solo click. “La simplicidad es la nota predominante. Por todo ello, podemos afirmar que las ventajas superan con creces los riesgos, aunque el riesgo numero uno es el de estar estancado y no evolucionar al mundo software. En todo caso, ninguna empresa de software puede tampoco desestimar el valor del hardware. El Data Center del futuro es aquel donde el software aporta su inteligencia, apoyado por un hardware standard de mercado como puede ser la plataformas SuperMicro o Dell, entre ellas”, asegura el portavoz de Nutanix. Las ventajas son muchas. Tal y como asegura Santiago Campuzano, Country Manager de Citrix, las ventajas son innumerables: “Flexibilidad, rapidez, seguridad. Al final son muchos factores, lo más importante es que mejora una característica clave como es la continuidad del negocio”.
Y es que, definiendo el centro de datos por Software, abstraemos todos los recursos del hardware y los agrupamos en un único conjunto de recursos. Es decir, hemos conseguido  extender los beneficios de la virtualización a todos los dominios del centro de datos (computación, almacenamiento, redes y servicios de disponibilidad y seguridad asociados), con nuevos productos que hemos anunciado hace relativamente poco y que están teniendo un alta demanda entre nuestros clientes, por lo que de cara al futuro somos muy optimistas.
Al ampliar los principios de virtualización de abstracción, agrupamiento y automatización en todos los recursos y servicios del centro de datos, la arquitectura del centro de datos definido por software puede simplificar y acelerar el aprovisionamiento y la gestión de los recursos de computación, de almacenamiento y de redes mediante la automatización mediante políticas.
En una encuesta que realizó VMware recientemente, descubrimos que dos tercios de los encuestados decían poder generar nuevos ingresos para sus negocios al ampliar el uso de la virtualización. De aquellos negocios que pudieron sacar máximo provecho a una arquitectura completa del centro de datos definido por software, el 85% pudo generar hasta un 22% de nuevos ingresos para sus empresas. Otro de los aspectos fundamentales por los que muchas empresas optan por la virtualización es precisamente para garantizar la continuidad del negocio y evitar tiempos de servicio interrumpido. Precisamente mejorar la continuidad del negocio y la recuperación ante desastres sigue iendo la razón primordial por la que los clientes optan por virtualizar sus sistemas. Proteger los datos es clave para la continuidad de cualquier negocio y para la estrategia de recuperación ante desastres
A modo de resumen, Alejandro Solana de VMware muestra cuáles son las principales ventajas del Centro de Datos definido por Software:

  • Considerable aumento de la eficiencia y costes más bajos. Los servicios de TI virtualizados y la gestión automatizada de las operaciones impulsan nuevos niveles de uso de recursos y productividad del personal.
  • Despliegue de aplicaciones en unos minutos. La configuración basada en políticas permite distribuir cargas de trabajo en solo unos minutos, con un ajuste automático de los niveles de recursos para satisfacer las demandas empresariales en constante cambio.
  • Disponibilidad y seguridad adecuadas para cada aplicación. La continuidad del negocio automatizada y la seguridad con reconocimiento de la virtualización combinadas para proporcionar un tiempo de actividad excepcional y un control sin parangón del acceso y la distribución de los recursos.
  • Entrega de cualquier carga de trabajo en cualquier lugar. Permite ejecutar tanto las aplicaciones nuevas como las existentes en diversas plataformas y clouds, con despliegue instantáneo en cualquier usuario en cualquier escritorio o dispositivo móvil.

Seguridad
La seguridad hoy en día, en virtualización no es un problema, aunque sí es cierto que es una cuestión que nos preocupa a todos. Se trata de una tecnología bastante segura, basada en comunicaciones cerradas con VPN, y cuya seguridad, además, se sigue mejorando continuamente. La protección de la información pasa en primer lugar por identificar qué datos y con que nivel de disponibilidad y protección son necesarios para el negocio. Una vez hecho esto, se ha de buscar la tecnología necesaria para proporcionar dichos niveles, siendo necesaria en algunos casos la definición de toda la arquitectura de la aplicación con esos parámetros
Sin embargo, a pesar de que los entornos virtualizados son completamente seguros, muchas empresas siguen desconfiando. Desde Trend Micro, Francisco Verdugo, responsable del negocio Cloud da las siguientes claves de los entornos virtualizados en materia de seguridad:

  • SEGURIDAD. Supongamos que necesitas instalar un servidor LAMP (Linux, Apache, MySQL, PHP, esto es un servidor para montar páginas web) y un servidor de archivos puede optar por dos opciones. Instalar en un único servidor ambos servicios, LAMP y servicio para compartir archivos. Todo funcionaría bien, ¿pero qué ocurriría si un hacker encontrara una vulnerabilidad en la web del cliente y pudiera tomar el control del servidor? No solo tendría acceso a los archivos de tu web, sino que también a todos los archivos que tienes compartidos, con lo cual desde un fallo en la web se han comprometido todos los archivos de la empresa. En cambio si se hubiera escogido una solución virtualizada se habrían podido crear en el servidor 2 máquinas virtuales. En la primera se instalaría el servidor LAMP, y en la segunda se instalaría el servidor de archivos. En este escenario el hacker que consiga encontrar una vulnerabilidad en la web sólo tendría acceso a la máquina virtual que aloja el servidor LAMP. Y aunque habría conseguido comprometer tu web los archivos de tu empresa aún seguirían aislados y seguros. Es por este motivo por el que para muchos administradores la solución ideal es crear una máquina virtual por cada servicio que tenga un riesgo medio/alto de ser vulnerado.
  • COPIAS DE SEGURIDAD. La mayoría de los servicios que utilizamos hoy en día disponen de mecanismos para hacer copias de seguridad y poder restaurarlas en caso de fallos. Pero también es cierto que las copias de seguridad a veces no son completas, contienen datos pero no guardan configuraciones o perfiles específicos. Si utilizamos máquinas virtuales, nosotros podemos programar en el servidor de forma automática que cada día haga una copia de la máquina virtual, de modo que si queremos restaurar una copia de seguridad bastará con arrancar la máquina que tenemos copiadas y funcionarán sin tener que tomar ninguna medida más.
  • PROTECCIÓN CONTRA ERRORES HARDWARE. Uno de los problemas que más daño puede crear a un administrador de sistemas es que falle un componente crítico del servidor, la placa base, por ejemplo. Si esto ocurre y hay que sustituir este elemento y reinstalar todo el sistema operativo, configurarlo, instalar los programas, configurarlos y cargar las copias de seguridad para poder seguir trabajando. Todo esto tiene un coste en tiempo y esfuerzo bastante alto. Sin embargo si estamos trabajando con máquinas virtuales si falla el servidor podremos sustituirlo, copiarle las máquinas virtuales y arrancarlas. Esta solución no lleva ni una décima parte de tiempo que si se tuviera que reconfigurarlo todo.
  • MIGRACIÓN DE SERVIDORES SIN RECONFIGURACIONES. Aplicando lo dicho en el punto anterior, te puedes dar cuenta de que si tu servidor se queda pequeño y, necesitas uno más grande tan solo hay que conectarlo, pasarle las máquinas virtuales y empezar a trabajar, sin necesidad de reconfigurar todo lo que tenías hecho en el servidor antiguo.
  • REALIZAR PRUEBAS SIN RIESGO. Una de las características más interesantes de la virtualización es que podemos hacer «puntos de retorno» o «Snapshots». Esto significa que si nosotros estamos dudando sobre si instalar un programa o no, podemos crear un punto de retorno «snapshot», instalar lo que necesitemos y, si detectamos alguna incompatibilidad y creemos que lo mejor habría sido no instalarlo, podemos volver al punto de retorno y la máquina virtual volverá al estado en el que hicimos el snapshot, sin dejar ningún rastro de todo lo que hayamos hecho tras el punto de retorno.

A pesar de todo ello, la seguridad total es una utopía. En este sentido ocurre lo mismo que con los sistemas físicos, ya que ningún sistema de seguridad puede considerarse 100% infalible. Ante esto, José Luis Laguna, Systems Engineer Manager Fortinet cree que “la mejor aproximación es la Defensa en Profundidad, o dicho de otro modo, combinar diferentes medidas de seguridad para proporcionar una mejor protección y minimizar los riesgos a los que se ven expuestos los sistemas virtualizados. Quizás la diferencia más importante entre un sistema físico y un sistema virtual sea el acceso a la red. Sabiendo que es posible introducir protección de red NGFW en los sistemas virtuales, podremos proteger estos del mismo modo que se protegen los sistemas físicos. El resto de medidas de seguridad que se aplican a sistemas físicos (instalación de parches de seguridad, protección con software antivirus, copias de seguridad, etc.) se pueden aplicar igualmente a los sistemas virtuales y en ocasiones se puede llegar a reducir aún más el nivel de riesgo con los sistemas virtuales, ya que en la realización de copias de seguridad, copias instantáneas (snapshoots), sistemas en alta disponibilidad (shadow VM), etc. los sistemas de virtualización ofrecen una mejor disponibilidad para los servicios y aplicaciones que se ejecutan en  máquinas virtuales”.

Deja un comentario

Scroll al inicio