La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

El momento de la hiperconvergencia

La hiperconvergencia combina componentes virtuales y físicos y en ella entran servidores, almacenamiento y redes de comunicaciones que son controladas con un único software. Algunos lo denominan como el data center definido por software aunque, en este sentido, no todo el mundo está de acuerdo en esta última afirmación. En principio, la ventaja más relevante es que, mediante software, se pueden ejecutar todas las aplicaciones de forma más eficiente. La hiperconvergencia es fundamental para los centros de datos, sobre todo en un tiempo en el que se hace necesario analizar los datos prácticamente en tiempo real. Es el siguiente paso que deben dar las empresas más exigentes, con centros de datos propios e involucradas en un proceso de transformación digital. Tal y como afirma Germán Sánchez Prudencio, Director de Servidores de IBM “entre las principales ventajas de esta tendencia destaca la sencillez para llevar a cabo la implementación inicial y la administración de la solución. Permiten desplegar un entorno de cloud privado sin esfuerzo y además, se eliminan puntos de fallo intermedios (cables, switches de SAN, energía, ventilación, etc.). Otra de las grandes ventajas de la hiperconvergencia es que incluyen ya el software de virtualización, y facilita la creación de nubes privadas y conectividad con la cloud pública para generar nubes hibridas”.

Para poder hablar de las ventajas de la hiperconvergencia, lo primero que hay que tener claro es qué es la hiperconvergencia y de dónde proviene.

Las ventajas son claras. Como asegura XXX de Scale Computing, “las soluciones de hiperconvergencia ofrecen, en un único appliance de hardware, todos los diferentes elementos que se necesitan para crear un Data Center de virtualización. Incorporan los aspectos de almacenamiento (NAS), servidores, hipervisor, sistema de alta disponibilidad y redundancia, e incluso Disaster Recovery; todo ello dentro del mismo equipo de hardware, vendido y soportado por el mismo fabricante. Las ventajas de este sistema son: facilidad de implantación y administración; menores costes; y punto único de soporte técnico. Por supuesto, la calidad de la solución también es mayor, al estar diseñado especialmente para este fin”. Por su parte, Gabriel Chapman, Director general de NetApp HCI, afirma que “las principales ventajas para muchos de los sistemas de la primera generación de infraestructuras hiperconvergentes se encontraban en su rápida instalación, una gestión sencilla, una fácil ampliación, un coste total de la propiedad (TCO) reducido y en la integración con el hipervisor para ofrecer unos componentes de virtualización completos. A medida que madure el mercado de la hiperconvergencia, necesitaremos evolucionar para ocuparnos de muchos de los retos que las soluciones de la primera generación no tuvieron en cuenta, como la consolidación de cargas de trabajo, un escalado independiente y flexible y el rendimiento previsible”.

Para poder hablar de las ventajas de la hiperconvergencia, lo primero que hay que tener claro es qué es la hiperconvergencia y de dónde proviene. Se trata de una evolución natural de lo que ha venido llamándose convergencia. Una infraestructura convergente consiste básicamente en la consolidación de diferentes recursos hardware, séanse éstos recursos de computación, almacenamiento y red, en un mismo equipo. El poder consolidar estos tres elementos dentro de un mismo equipo permite una mejor optimización de los recursos hardware del data center, reducción de consumo eléctrico, así como el evitar tener cada uno de estos recursos (computación, almacenamiento y red) separados en silos, teniendo cada uno de éstos con una administración independiente (administradores de servidores, administradores de almacenamiento, administradores de la SAN, etc). Una infraestructura hiperconvergente es una evolución de la convergencia, en la que se le añaden diferentes capas de software, como SDS (Software Defined Storage), y virtualización/hypervisor. Este conjunto HCI, permite a los clientes una optimización en la forma de administrar tanto los diferentes recursos hardware (computación, almacenamiento y red), como software (creación de máquinas virtuales por ejemplo), desde una misma interfaz común, llamada SDDC (Software Defined Data Center). En definitiva, y como afirman desde Huawei, “toda esta infraestructura hiperconvergente permite, por tanto, una fácil administración de los recursos del datacenter, rápidos despliegues y una fácil escalabilidad, ya que los incrementos en nodos permite un incremento proporcional de los recursos de computación, almacenamiento y red, así como el reparto de los mismos debido a la virtualización de estos recursos por las diferentes capas software de virtualización existentes. Además, la virtualización de los recursos permite mover fácilmente aplicaciones entre los diferentes nodos en función de los requisitos deseados”.

Retos

El reto número uno es combinar almacenamiento, redes rápidas, escalabilidad y supercomputación (máximo rendimiento a gran escala), ya que la hiperconvergencia combina componentes de hardware para cómputo, almacenamiento y networking en un único dispositivo o bloque definido por software. En este sentido, los centros de datos privados que fueron diseñados hace apenas unos años necesitan una actualización, pero no sólo en cuanto a tecnología, sino también en lo que respecta a la filosofía del diseño de su arquitectura. Según José Antonio Corredor, Ingeniero de Sistemas en Dell EMC, “uno de los retos se encuentra en que los departamentos de IT deben conocer los beneficios que esta tecnología es capaz de aportar y así poder decidir hasta qué punto se adapta a los servicios que prestan. La sencillez es una de las claves para la adopción de la hiperconvergencia. Pero si nuestro entorno no va a poder beneficiarse de ella, tal vez podamos optar por otras alternativas tecnológicas que nos aporten más valor. A día de hoy, en entornos de enorme criticidad, hay soluciones basadas en plataformas tradicionales que podrían adaptarse mejor a este tipo de requerimientos. Más allá de la tecnología es interesante considerar el papel que juegan aquellos que tienen la responsabilidad de mantener ese tipo de servicios críticos y que durante muchos años lo han gestionado con éxito usando infraestructuras más tradicionales. Esto es algo que posiblemente vaya evolucionando a medida que los entornos hiperconvergentes se asienten definitivamente”. Por su parte, XXX de Scale Computing afirma que “muchos clientes ya han realizado una inversión considerable en infraestructuras tradicionales de data center; y encuentran difícil justificar una nueva inversión en infraestructura para el mismo fin. Este es prácticamente el único motivo válido por no apostar por una solución de hiperconvergencia. Por otra parte, los clientes que no hayan realizado grandes inversiones en infraestructura, tienen mucho más fácil justificar la inversión en una nueva infraestructura de Hiperconvergencia. Según los analistas del sector, durante los próximos 5 años la inmensa mayoría de las empresas que actualmente no utilizan soluciones de virtualización, pasarán a entornos virtualizados gracias a las facilidades y bajos costes que supone la Hiperconvergencia”.

Son muchos los retos donde la hiperconvergencia puede aportar valor al cliente. La rapidez de despliegue y crecimiento de la solución permite reducir los tiempos de implantación de la solución a horas en vez de días, y hacer con que el crecimiento sea un proceso de “un click” y unos pocos minutos. Tal y como asegura Francisco Miller Guerra, Responsable de Soluciones de Hiperconvergencia de Cisco, “con la virtualización extendida hasta el almacenamiento, todas las aplicaciones y datos en una infraestructura hiperconvergente disfrutan automáticamente de alta disponibilidad (incluso hasta DR) pero sin toda la complexidad que tradicionalmente estos entornos acarrean. Hay muchos más ejemplos, pero sin duda que el factor más importante es que simplifica el CPD a través de su extraordinaria simplicidad de gestión, hecha con una única herramienta que aglutina toda la infraestructura de computación, almacenamiento y red. Simplificar es algo que todos los clientes valoran mucho, ya que muchas veces sienten que sus CPDs son excesivamente complicados de gestionar”.

Desde Scale Computing afirman que «la clave de la Hiperconvergencia es que incluye todos los elementos de infraestructura de hardware, soportado por el mismo proveedor dentro de un único appliance de hardware diseñado específicamente para este fin»

Finalmente, desde NetApp, Gabriel Chapman considera que “igual que ocurre con cualquier mercado que está madurando, existen unos retos invisibles que los primeros en adoptar la tecnología encontrarán difíciles de superar y que se basan en sus opciones relacionadas con la arquitectura. Ya hemos visto que HCI se aprovecha como un nuevo silo para aplicaciones y casos de uso específicos. Dependiendo de la elección del diseño, algunas de estas soluciones de la primera generación de HCI tendrán limitaciones en cuanto a su escalado y serán utilizadas solo en entornos más reducidos. Casi todas las soluciones de la primera generación de HCI cuentan con los mismos problemas de rendimiento de almacenamiento que afectan a los sistemas de almacenamiento tradicionales, principalmente los de “vecinos ruidosos” o las cargas de trabajo que consumen más recursos de lo que debieran. También observamos que el enfoque “todo en uno” para combinar almacenamiento y computación en cada nodo proporcionado puede dejar recursos en desuso o no disponibles para las cargas de trabajo que no utilizan la solución HCI. Muchas veces hay un desequilibrio de recursos (computación-memoria-almacenamiento) que acaban bloqueados o excluidos de los usos no virtualizados. Los clientes ven ahora que las estrategias del tipo planteamiento único pueden ser costosas, especialmente en lo que se refiere a las licencias. Los clientes se ven obligados a pagar un “impuesto” de HCI a medida que amplían su capacidad, debido a los costes generales del control de máquinas virtuales habituales en las soluciones la primera generación de HCI”.

No es lo mismo que data center definido por software

Como decíamos al principio, son muchos los que consideran que la hiperconvergencia es lo mismo que el data center definido por software. Sin embargo esta afirmación no es del todo cierta. “La hiperconvergencia es el paso previo al software defined data center, pues lleva un componente que ayudará a las empresas a automatizar su CPD. A día de hoy, la adopción del SDDC está en camino. En los últimos tiempos hemos presenciado cómo las infraestructuras están cambiando a gran velocidad. Tradicionalmente las empresas de TI han trabajado en silos separados, por un lado el cómputo, por otro el almacenamiento o el networking. Hace unos años asistimos a la era de convergencia y ya hoy vivimos en un mundo hiperconvergente”, afirma Ángel Ruiz, director de Lenovo Data Center Group para España y Portugal.

Desde Scale Computing aseguran que “efectivamente, no es lo mismo, en absoluto. La clave de la Hiperconvergencia es que incluye todos los elementos de infraestructura de hardware, soportado por el mismo proveedor dentro de un único appliance de hardware diseñado específicamente para este fin. Entre sus muchas prestaciones está incluida la consola de gestión del Data Center, la cual debe abarcar la gestión completa de todos los aspectos del sistema. Muchos fabricantes de hardware (e incluso de software) ofrecen un bundle que llaman Hiperconvergencia, los clientes deben tener claro que estas soluciones “Frankenstein” (soluciones de diferentes componentes, cada uno de otro proveedor). Estas soluciones realmente no son una solución de Hiperconvergencia”.

Y es que, se estima que, para 2020, mientras las infraestructuras tradicionales experimentarán un crecimiento plano, las convergentes aumentarán un 5% y las hiperconvergentes un 32%. Todo esto es el camino previo al software defined data center, las infraestructuras hiperconvergentes están preparando la hoja de ruta para la llegada del CPD automatizado.

¿Un único proveedor?

A la hora de apostar por una infraestructura hiperconvergente, en principio, lo mejor es apostar por un único proveedor, lo que puede ser un problema, por ejemplo, en el momento de adoptar nuevas tecnologías. Desde Lenovo se asegura que “el tener un único proveedor puede ser una ventaja a la hora de resolver problemas, evitando que éstos pasen de un proveedor a otro. De igual forma, la puesta en marcha de una solución con un único proveedor es más rápida y más sencilla. La fiabilidad y flexibilidad que puede aportar una solución integrada puede compensar en muchos casos”. Por su parte, desde Scale Computing aseguran que contar con un único proveedor es una de las principales ventajas: “una de las principales ventajas de la hiperconvergencia es tener un único proveedor (y un único fabricante) para todo. De esta forma no sólo se ahorra en costes, sino en problemas de soporte técnico ya que el fabricante de Hiperconvergencia centraliza el soporte técnico en un único punto. El cliente debe considerar este aspecto al elegir la solución de Hiperconvergencia”.

En la hiperconvergencia todo son ventajas: se controla con único software muchos elementos de una infraestructura TIC, lo que incrementa la sencillez, la productividad y por supuesto, reduce los costes

Igualmente desde NetApp, Gabriel Chapman, afirma que “en última instancia depende del cliente elegir lo que desea instalar en sus entornos. Una pila de software de HCI diseñada en, por ejemplo, 2009 puede no satisfacer las necesidades de las cargas de trabajo en 2017 o en el futuro. El objetivo de muchas tecnologías es hacer irrelevante el hardware, pero la realidad es que el HCI añade un gran valor cuando hablamos de la gestión del ciclo de vida, la seguridad y las prestaciones. El HCI desea ser una solución estrictamente definida por software que puede funcionar en una plataforma x86, aunque aún tendremos necesidad de combinar el valor del software y del hardware en esas mejores soluciones de su clase que desean utilizar los clientes, especialmente en las cargas de trabajo de Nivel 1”.

Finalmente desde Huawei consideran que “una infraestructura de hiperconvergencia conlleva la unión de los recursos de cómputo, almacenamiento y red en un mismo equipo de un mismo fabricante. Del mismo modo, las capas de SDS (Software Defined Storage) y virtualización también pueden ser del mismo fabricante o de diferente. En el caso de Huawei, la capa de virtualización puede tener un hipervisor de terceros, como VMWare, o el hipervisor propio de Huawei, llamado FusionCompute/FusionSphere. Desde Huawei no consideramos que apostar por un único proveedor sea un problema ya que se trabajan con protocolos abiertos/estándar, no con protocolos propietario. El mundo de la virtualización permite independizar las aplicaciones/sistemas operativos del hardware donde se está agilizando. Además, esto permite que existan métodos de migración de aplicaciones que residen en máquinas virtuales tipo VMWare a máquinas virtuales tipo FusionCompute/FusionSphere, por ejemplo”.

Precio de licencias

En principio, en la hiperconvergencia todo son ventajas: se controla con único software muchos elementos de una infraestructura TIC, lo que incrementa la sencillez, la productividad y por supuesto, reduce los costes. ¿O no? Evidentemente, las empresas se ahorrarán una parte importante en el hardware. También en software, ya que todo se controla desde una única consola con una única aplicación. Pero, ¿no se incrementa el precio de las licencias? Al llegar a un determinado punto de escalabilidad, ¿no empezaría a ser más costosa que otro tipo de modelo? Gabriel Chapman, Director general de NetApp HCI, cree que “con muchas soluciones de la primera generación de HCI eso era lo que ocurría. Cuando un cliente alcanza un número de sistemas especifico, el coste total de la propiedad puede incrementarse a medida que aumentan los sistemas. Por ello, vemos a menudo el número de grandes instalaciones de HCI limitadas a 12 sistemas o menos. Los problemas de rendimiento a gran escala también pueden ser un reto para algunas soluciones de HCI y, por lo tanto, observamos que los casos de uso a los que se dirige esta tecnología se centran más en aplicaciones únicas en vez de un esfuerzo de consolidación de cargas de trabajo a un nivel más amplio. A medida que avancemos en el futuro, necesitaremos ofrecer los mismos resultados y beneficios que ofrece la hiperconvergencia, haciéndolo de forma que no obligue al cliente a pagar un impuesto por ello. La habilidad para ampliar el almacenamiento y la computación de forma independiente nos ayudará verdaderamente a ocuparnos de este reto, además de consolidar unas cargas de trabajo más diversas en una plataforma habitual, sin el riesgo de degradar el rendimiento a medida que el cliente amplía la cantidad de cargas de trabajo a un nivel óptimo”. Por su parte, José Antonio Corredor, Ingeniero de Sistemas en Dell EMC, “es cierto que las soluciones hiperconvergentes tienen un coste de licencias propias de la solución, asociado a cada uno de los nodes del cluster y que por cada nodo que se añade se tiene que imputar de nuevo ese coste. Dependiendo del fabricante, también puede existir la necesidad de saltar de un tipo de licenciamiento a otro a medida que se incrementa el número de nodos. Aquí es importante conocer el modelo de licenciamiento de la soluciones hiperconvergentes que estemos barajando y ver cuáles son las características de los niveles de licenciamiento y cómo de cerca nos podemos encontrar del siguiente salto (ya sea por número de nodos o por funcionalidades).Podría entenderse como una ventaja el hecho de que la hiperconvergencia usa un escalado basado en iguales (o al menos en similares), es decir, si mi infraestructura hiperconvergente actual está compuesta por 4 nodos y el coste de cada uno de ellos fue “x”, sé que mi próximo nodo tendrá ese mismo coste (aproximadamente), y que por tanto voy a tener siempre claro el coste de escalado. Sin embargo, también puede ser considerado una desventaja ya que no hay una economía de costes a medida que mi infraestructura crece. Esta economía de costes sí puede producirse en soluciones tradicionales, en las que podemos hacer crecer la parte de cómputo sin que crezca la de almacenamiento o viceversa”.

Finalmente, desde Scale Computing se afirma que el precio de las licencias no tienen porque elevar su coste: “Algunas soluciones de Hiperconvergencia (como las basadas en KVM) eliminan por completo la necesidad de pagar licencias de software del hipervisor (que suele ser el coste de software más alto en cualquier data center). Igualmente, la mayoría de las soluciones de Hiperconvergencia incorporan elementos como Alta Disponibilidad, Backup, Disaster Recovery, etc. que eliminan la necesidad de comprar licencias de software de terceros”.

Cómo elegir

Existen un montón de factores que condicionan a una empresa a la hora de decidirse por la infraestructura hiperconvergente que más se adecúe a sus necesidades. Su manejabilidad, el tipo de hardware con el que cuente la empresa, su arquitectura o su disponibilidad, son algunas de las características que hay que tener en cuenta a la hora de elegir la infraestructura perfecta para cada empresa.

Moisés Navarro, Business Solutions Strategist de VMware Iberia, considera que “a medida que las organizaciones trabajan para identificar la solución adecuada, un gran primer paso es hacer una lista de lo más importante en cada caso específico. ¿Qué es lo más importante para su negocio hoy? ¿Y en el futuro? Tal vez sea la contención de costes o la escalabilidad, el crecimiento flexible o la facilidad de administración. Identificar las áreas de mayor prioridad, y buscar las soluciones que satisfagan esas necesidades.En esa lista habría que tener en cuenta las necesidades de almacenamiento al añadir nuevos aplicativos, la compatibilidad con el hardware y el cumplimiento de estándares, los costes, la escalabilidad y sobre todo, como impactará en los usuarios”. Por su parte el portavoz de IBM cree que a la hora de elegir “es fundamental analizar el tipo de carga de trabajo a la que se va a dar servicio. Si el objetivo es dar servicio cargas de trabajo de misión críticas o cognitivas (Big Data, Machine Learning e Inteligencia Artificial), que implican bases de datos abiertas o almacenamiento a gran escala, los sistemas hiperconvergentes de IBM® basados en Nutanix son la mejor solución, porque están basados en servidores diseñados específicamente para la analítica de datos”.

Desde Scale Computing creen que para elegir hay que centrarse en diferentes factores. Su portavoz, XXX, afirma que “en primer lugar, el cliente sólo debe considerar las soluciones de Hiperconvergencia verdaderas, es decir: una solución que incluya, dentro de un único appliance de hardware, todos los elementos que necesita para su Data Center de virtualización. Si el soporte técnico no se centraliza en un único fabricante, no es una solución recomendable; las soluciones “Frankenstein” que aglutinen diferentes componentes de diferentes fabricantes, no aportan las mismas ventajas. En segundo lugar, el cliente tener en cuenta el coste total de propiedad, no sólo el coste inicial del hardware. Los costes “ocultos” que pueden encarecer el proyecto son: los servicios de implantación; formación a los administradores; licencias del hipervisor; prestaciones opcionales como Disaster Recovery, Alta Disponibilidad, etc; y el coste anual de mantenimiento”.

Deja un comentario

Scroll al inicio