No sólo es la crisis la que está aupando a la virtualización a lo más alto del mercado. El ahorro de costes que ofrecen este tipo de soluciones a las organizaciones empresariales es muy importante, pero lo fundamental es que resuelve muchos problemas. Entre otras cosas, permite:

– Reducir costes

– Aumentar la continuidad de negocio

– Mejorar el soporte

– Mejorar el alineamiento con el negocio

– Facilitar la Consolidación

– Reducir el consumo energético

Se podría decir que virtualización es la eliminación de cualquier recurso, sistema o referencia física dentro de una organización de IT. Si bien lo más común suele ser la virtualización de Servidores, esto es correr bajo un sistema operativo “hipervisor” numerosos sistemas operativos virtuales, también hay que tener en cuenta la virtualización de otro tipo de elementos tales como aplicaciones, sistemas de almacenamiento, dispositivos de red de comunicaciones, etc. Y es que virtualizar no es más que optimizar los recursos del hardware empleando tiempos muertos y usando herramientas software específicas. Entre las herramientas actuales para la virtualización de servidores, en la actualidad se cuenta con un amplio abanico, siempre orientadas a la partición de máquinas en submáquinas, a la creación de máquinas virtuales, a la asignación dinámica de recursos a la aplicación que lo requiera, al pago por uso, a la capacidad bajo demanda y a la tolerancia a fallos y a desastres. También hay otras utilidades para la virtualización del almacenamiento y de las redes de comunicación, aunque, en general, se trata de tener más posibilidades de hacer cosas con menos elementos físicos.

Pero, ¿cuál es la situación del mercado virtual? Para  Alberto García, director comercial técnico de STG de IBM, “Los presupuestos de TI continúan siendo ajustados y es necesario justificar muy bien ante Dirección en qué áreas se va a invertir. No obstante, la virtualización es una tecnología que supone un ahorro a corto, medio y largo plazo y cada vez son más las organizaciones de todos los tamaños y sectores que la adoptan, ya que les permite ahorrar costes y ser más eficientes. Asimismo, también cabe mencionar a las pymes, la mayor parte del tejido empresarial de nuestro país, que apuestan cada vez más por esta tecnología. De hecho, desde hace años estamos siendo testigos de cómo la virtualización se ha convertido en uno de los proyectos TIC prioritarios para los CIOs españoles. En un sentido práctico y con visión de futuro, la virtualización debería ser el primer paso para aprovechar al máximo las ventajas de las tecnologías analíticas y las plataformas cloud”. Por su parte, Javier Prieto Gamo, Cross Domain Insfrastructure Sales Engineer, cree que “En primer lugar habría que destacar que la virtualización del servidor se ha convertido actualmente en una commodity, y hay una clara tendencia a que el mercado de la virtualización siga creciendo y evolucionando en los próximos años. Pero hay que tener en cuenta que cuando hablamos de virtualización, no solo hablamos de servidores, si no de crear un entorno de TI que responda eficientemente al nuevo concepto de centro de datos unificado, que consiste en combinar las capacidades de cómputo, almacenamiento, red, virtualización y administración, en una única plataforma. En este sentido, los analistas pronostican que el mercado de la virtualización de servidores va a experimentar un crecimiento  superior al 27% en el período 2013-2018[i] y en un nivel más general se cree que el mercado mundial de servicios de virtualización crecerá a una tasa compuesta anual del 10,35 % en el mismo período. A pesar de la crisis económica, el mercado de la virtualización no se ha visto muy afectado, y se ha convertido en la principal prioridad dentro de las estrategias TI de las empresas. Esto es debido entre otros motivos a que esta tecnología  permite ahorros importantes de costes y ayuda a crear nuevas oportunidades de negocio, algo que no todas las tecnologías pueden ofrecer”. Casi en la misma línea se puede situar  Francisco Verdugo Navarro, responsable del negocio Cloud & Datacenter de Trend Micro quien afirma que “Actualmente se está empezando a virtualizar a un nivel mucho más efectivo redes de datos (incluyendo seguridad) así como también se están comenzando a implantar soluciones de virtualización de almacenamiento. La crisis está afectando en el sentido de que a las empresas les cuesta renovar servicios de virtualización de última generación y prefieren aguantar más tiempo con sus viejos sistemas de virtualización”.

La realidad es que el mercado de la virtualización se ve favorecido por Una de las mayores ventajas de la virtualización es el gran ahorro de costes que permite, entre un 30% y un 70% de los costes de capital, así como otro tanto de los costes de operaciones gracias a las posibilidades de automatización que proporcionan estas tecnologías permitiendo un uso mucho más eficiente de la infraestructura y energía eléctrica. En términos medioambientales, un CPD sin virtualizar es algo tremendamente contaminante, se tienen servidores al 5% de uso generando grandes cantidades de CO2. Un cliente que disponga de 1.500 servidores puede tener un consumo estimado de unos 1,05 Megawatios. Sólo con virtualizar los primeros 400 servidores, vería cómo el consumo de electricidad se reduciría en unos 250 kilowatios. Pero existen otros beneficios que los clientes consideran también muy importantes. Uno de ellos es el incremento de la agilidad de negocio en referencia a la velocidad de despliegue de las nuevas aplicaciones que se reduce de semanas a horas, con la consecuente reducción del impacto sobre la continuidad de la actividad y mejorando la respuesta de la empresa aportando flexibilidad y rapidez. Alejandro Solana, director técnico de Vmware, asegura que “Dado que los recortes de presupuesto y el socorrido mantra de “hacer más con menos” dificultan enormemente la tarea de garantizar el buen desarrollo de las operaciones cotidianas, el cloud computing puede ayudar a mejorar la respuesta a las necesidades del negocio mientras se ahorran costes. Sin duda, este sería un gran paso para hacer el tejido empresarial español un poco más competitivo y retomar la senda del crecimiento. El centro de datos definido por Software, la nube híbrida y la movilidad seguirán siendo la línea estratégica definida por VMware. Estamos seguros de que estas soluciones pueden ayudar a las empresas de nuestro país a optimizar sus sistemas y hacerlas más competitivas y eficientes”.

Ventajas

No sólo el ahorro de costes es la única ventaja de las soluciones virtualizadas. Ésta lleva intrínsecas muchas otras, aunque es cierto que ahorrarse unos euros es lo primero que entra por los ojos. ¿Cuáles son estas ventajas? Para Javier Prieto Gamo, Cross Domain Insfrastructure Sales Engineer de Dell, “ eisten múltiples ventajas asociadas a las soluciones de virtualización. En primer lugar, reducir la huella en el centro de datos mediante la consolidación de servidores físicos, almacenamiento y hardware de red, permite mejorar la utilización de los activos, reduciendo así los costes de energía y refrigeración. Además la virtualización permite reducir los puntos de contacto en la gestión, acelerar la entrega de servicios “time to market”, y automatizar las operaciones diarias, todo esto gracias a la utilización de soluciones basadas en estándares. Además, la virtualización se ha convertido en una tecnología muy popular debido a los avances en Cloud Computing, gracias a lo cual se ha incrementado la adopción de entornos virtuales basados ​​en la web por parte de los usuarios finales, logrando una reducción de costes y un aumento de la eficiencia y la seguridad”. Por su parte, Tomas von Veschler, Senior Solution Architect de Red Hat asegura que “diversos informes indican que los servidores empresariales están ampliamente infrautilizados, hasta el punto de llegar a tan sólo un 10% de su capacidad. La virtualización permite consolidar más cargas por servidor físico con lo que se aprovecha mejor la potencia de los servidores, necesitando un menor número de ellos con las consiguientes ventajas de ahorro en espacio y energía. También se consigue una mayor rapidez a la hora de provisionar recursos de computación, tareas de mantenimiento, backup & recovery, etc. repercutiendo directamente en un ahorro de costes”.

Otras ventajas asociadas a la virtualización, como podrían ser:

  • Outsourcing de TI: La administración, la vigilancia del día a día y la alimentación de los sistemas en muchos casos se mueven de la empresa local hacia el proveedor de servicios (ISP). Esto permite liberar recursos de TI internos , y trasladar parte del presupuesto de TI hacia los esfuerzos que permitan avanzar en cada negocio.
  • Rápida Adopción: El plantearse el camino hacia la “nube” es relativamente sencillo y rápido cuando hablamos de colaborar con proveedores externos. Además, los servidores, los dispositivos y licencias perpetuas de software desaparecen cuando se utiliza un servicio de este tipo.
  • Pay-as-you-go: Un ejemplo se puede encontrar en Software-as-a-Service (SaaS) de aplicaciones disponibles en la actualidad que permiten  la descarga de los requisitos básicos de TI a través de los proveedores de servicios Cloud. Solo se pagara por lo que se necesite y use. Las compañías no tendrán que  seguir invirtiendo en muchos de los productos que se utilizan para soportar la red y los sistemas, tales como spam / anti-virus, encriptación, archivo de datos, servicios de correo electrónico y el almacenamiento ya que se encontraran fuera de su centro de datos.
  • Escalabilidad: Mediante el uso de la “nube”, las compañías podrán escalar temporalmente su capacidad de TI por los requisitos de alta demanda de cómputo a un proveedor externo. Como resultado, como se mencionó anteriormente, solo se pagará por lo que necesite y use, y sólo en el momento en que se necesite. Hay que tener en cuenta, sin embargo, que los servicios de virtualización y de nube no dan cobertura a todas las problemáticas de negocio posibles.

¿Y los problemas?

El despliegue de soluciones de virtualización no es un camino de rosas. Cualquier tecnología innovadora conlleva unos procesos de adaptación y esto es especialmente relevante en casos como la virtualización y por extensión en soluciones de cloud computing (privadas, públicas o híbridas). Más que denominarlos problemas, sería más apropiado tratarlos como posibles desafíos a tener presentes para incorporar las herramientas adecuadas que faciliten sacar el mayor partido a los entornos de virtualización y cloud computing de la forma más automatizada posible. Para Manuel Vidal, director de preventa de sistemas de Oracle “la virtualización no es un fin en sí mismo, utilizamos las tecnologías de virtualización para mejorar la eficiencia del uso de los recursos sin penalizar otras características de los servicios de TI como el rendimiento, la seguridad, etc. Proponemos a los clientes virtualizar la computación para determinadas cargas de trabajo, también proponemos virtualizar el networking cuando tiene sentido. La respuesta a la crisis pasa por generar eficiencias y cuando pensamos que la virtualización es la respuesta a un problema de un cliente se la proponemos”. Por su parte, José Vicente Espinosa, Business Tech Architect de CA considera que “la virtualización ha sido asimilada en los departamentos de TI como símbolo de agilidad, especialmente, en el proceso de aprovisionamiento. Esto es claramente un factor diferenciador, si lo comparamos con los tiempos en los que se trabajaba con hardware físico para cada servidor. Su contrapartida está en la dispersión desmesurada. Pensemos en el número de máquinas virtuales que se crean con suma facilidad sin considerar el impacto en cuanto a sistema operativo, gestión, seguridad, etc. Asimismo, existe el fenómeno conocido como sobresubscripción que conlleva el riesgo asociado al impacto en el rendimiento por compartición de recursos, y otro de infrautilización, debido a la flexibilidad en la asignación de recursos”.

Retos y tendencias

El futuro de las compañías pasa por reforzar todas sus estructuras y las infraestructuras tecnológicas no son ajenas a este proceso. Hacer más con menos es la máxima del mercado en estos momentos y se corresponde totalmente con la oferta que hace la VMware a las empresas, que están desarrollando proyectos de contención de gastos y también de ahorro de costes. El cloud es una realidad ya y la virtualización es el único medio que permite plantear este modelo de forma eficiente. Alejandro Solana de Vmware asegura que “Lo que ahora empiezan a demandar las empresas es la virtualización de las redes. Esto es la reproducción completa en software de una red física. Las redes virtuales cuentan con las mismas características y garantías que una red física. Sin embargo, ofrecen los beneficios operativos y la independencia del hardware de la virtualización: aprovisionamiento rápido, implementación sin interrupciones, mantenimiento automatizado y compatibilidad con aplicaciones nuevas y heredadas”. Desde IBM se asegura que “la tendencia fundamental de la virtualización se basa en la redefinición del modelo tecnológico hacia la prestación de servicios, donde juega un papel importantísimo la estandarización de procesos y la automatización del aprovisionamiento. Las tecnologías de virtualización están siendo ya implementadas en los centros de datos con éxito, aunque todavía existen muchas tareas manuales y aquí es donde comienza el protagonismo de cloud. En este sentido, podemos decir que la virtualización se ha consolidado como la tecnología que abre la puerta a cloud computing, que también requiere estandarización. En este sentido, podríamos decir que si virtualizando nuestra infraestructura abrimos la puerta al cloud computing, es estandarizando los procesos y mejorando las automatización como nos metemos de lleno en esta nueva era de la computación. Una vez que las empresas han adoptado entornos virtualizados, el siguiente paso va encaminado a ofrecer servicios de auto aprovisionamiento de las TI, que simplifiquen la gestión de las infraestructuras y que reduzcan el time-to-market de sus productos o servicios. El objetivo es ofrecer un mejor servicio a sus clientes de una manera mucho más veloz y competitiva a la vez que se obtiene un mayor ahorro de costes”. De acuerdo con diversos informes, algunas de las tendencias para los próximos años en el mercado irán enfocadas hacia la convergencia entre las nubes y los servicios en nubes privadas y las nubes externas (públicas). Así, la inversión en el desarrollo de nubes híbridas por parte de las empresas, será algo a tener en cuenta en el futuro, y puesto que el entorno “cloud” se basa en la infraestructura virtual, los administradores de virtualización juegan un papel importante en el éxito de la adopción de tecnologías en la nube.

Para el portavoz de Dell, “de la misma manera posiblemente el Centro de datos definido por Software (SDDC), el Software Defined Network (SDN) y el Software Defined Storage  (SDS), son aspectos que también van a generaran mucho debate en los próximos años. Por último, desde Dell apostamos por adoptar un sistema de gestión de operaciones de virtualización y presentar un portfolio  formado por tres soluciones de software que tienen como finalidad ayudar a las empresas, independientemente del tamaño, a optimizar las iniciativas de virtualización, almacenamiento y el “cloud computing”. Estas novedades abarcan sistemas de Dell como “Foglight for Virtualization”, “Enterprise and Standard Editions” y “Foglight for Storage Management”. Dichas novedades abordan varios desafíos en cuanto a la transformación de los centros de datos, desde la optimización del rendimiento y la eficacia en el entorno virtual, hasta la resolución de los desafíos en cuanto a almacenamiento “end-to-end”y “virtualización”, tanto en sistemas complejos, como en sistemas basados en la nube”. En esa misma línea se sitúa Isabel Ruipérez Palmero, VMware Brand Manager en Arrow ECS para quien, “la tendencia más importante es el centro de datos definido por software (SDDC), extendiendo la virtualización mucho más allá de la capa de servidores y cubriendo también las redes, el almacenamiento, los puestos de trabajo, las aplicaciones, etc…. para conseguir un centro de datos totalmente gestionado y automatizado por software”. Por su parte desde Red Hat, se asegura que “la integración de capacidades que nacen en los entornos cloud, como el Software Defined Networking, así como el Software Defined Storage, serán claves en el entorno de la virtualización y para la evolución de los sistemas virtualizados. Así mismo, hay una tendencia clara hacia una mejora en la utilización de recursos, aún mayor que la que proveen los hypervisores tradicionales, mediante el uso de tecnologías como los containers. Los containers permiten compartimentar un único sistema operativo en unidades de cómputo más pequeñas, con lo que se ahorra mucho overhead de tener que virtualizar y gestionar sistemas operativos completos e independientes”. Finalmente, desde Trend Micro se afirma que “creemos que la tendencia es máxima e indiscutible. En estos años veremos cómo aumentan el número de empresas con escritorios virtuales y con sistemas de redes y almacenamientos 100% virtualizados.

Seguridad

Uno de los problemas que normalmente se asocian con la virtualización es la que hace referencia a la seguridad. La virtualización es una tecnología madura y un servidor virtual se enfrenta a las mismas amenazas que un servidor físico (malware, vulnerabilidades de SO…), con la ventaja de que se pueden trasladar en segundos a otro entorno físico, simplemente copiando dichos ficheros, lo que les confiere mayor disponibilidad. Los servidores virtuales están aislados, aunque corran en una misma máquina, pero el concepto de seguridad de un entorno virtual  es muy parecido al de un entorno tradicional. Hay que hacer lo que se lleva haciendo desde hace años: parchear servidores, segmentar servicios, poner cortafuegos, proteger mediante sistemas de detección de intrusos, detectar y bloquear código malicioso, hacer copias de seguridad, etc. Para todas estas amenazas hay soluciones y formas de implementarlas desde hace años que ahora hay que aplicar en servidores virtuales. Para el portavoz de Dell, “el impulso de la virtualización traerá consigo nuevos riesgos. La rápida adopción de nuevas funcionalidades, la implementación fragmentada y la falta de estandarización de las infraestructuras virtuales provocarán vacíos en la seguridad, en las copias de seguridad (Backups) y en la alta disponibilidad de los entornos virtuales. Además las redes empresariales, los nuevos conceptos de centro de  datos y las implementaciones de “nube” se están convirtiendo cada vez en algo más complejo y difícil de manejar. Esto es debido a las cambiantes demandas empresariales derivadas de las nuevas implementaciones de cargas de trabajo y a la necesidad de los usuarios para trabajar dese cualquier lugar, en cualquier momento y en cualquier dispositivo, con el objetivo de obtener una mayor productividad. A la hora de evitar la pérdida de datos, es importante, en primer lugar, crear un plan de acción ante desastres, antes de que ocurra la pérdida de datos. Esto ahorrará tiempo y reducirá el riesgo de pérdida de datos. También es importante contar con un proveedor de confianza para la recuperación de los entornos virtuales. Además es fundamental mantener documentada, actualizada y viva la información del plan, pudiendo acceder a ella de la manera más fácil. Por último, la formación es esencial, es decir, que los equipos internos conozcan los procesos de recuperación”. Para el portavoz de CA, “Con la virtualización surge una nueva frontera similar a la de la seguridad física. Los administradores de los entornos virtuales, y en ocasiones los propios usuarios, tienen capacidad para crear y eliminar recursos del entorno. Es fundamental poder segregar e instrumentar la seguridad de la gestión de estos entornos”.

Por su parte, Alberto García, director comercial técnico de STG de IBM considera que “la virtualización, bien gestionada, ofrece las mismas o incluso mayores medidas de seguridad que un entorno físico de TI. Para proteger los datos eficazmente, ofrecer acceso ininterrumpido a los datos, cumplir los requisitos normativos y archivar la información confidencial, las organizaciones necesitan una solución que pueda gestionar datos primarios y de copia de seguridad activos, inactivos e incluso archivados. Como el volumen de información que se almacena, continúa aumentando, la protección de datos suele volverse más compleja. Esto puede incluir el traslado de más datos primarios a cinta, copias de seguridad continuas, simplificación de la recuperación fuera de las instalaciones, verificación de la recuperación en caso de desastre (DR) y muchos otros objetivos y procesos para garantizar un nivel profesional de continuidad empresarial”.

Ser conscientes

A menudo las empresas no conocen  las ventajas que les puede reportar las soluciones de virtualización, en muchas ocasiones porque se ha convertido en un simple recurso de marketing que, además, se confunde con Cloud Computing. Hoy todo el mundo entiende que la virtualización y el Cloud Computing están íntimamente ligados. El concepto de Cloud simplemente significa un nivel de abstracción mayor, cubriendo fundamentalmente un modelo compartido donde los recursos, el software y la información es proporcionada a los usuarios o dispositivos “on-demand” como una “utility”, proporcionando niveles de agilidad, escalabilidad y flexibilidad muy significativos gracias a la virtualización. Hoy en día existen multitud de aproximaciones y definiciones de Cloud Computing que pueden estar generando confusión en los usuarios y en las empresas. Probablemente, el primer error es concebir el Cloud Computing como un destino, cuando realmente se trata de un modelo que permite aumentar la agilidad y reducir los costes de acuerdo a las necesidades específicas de una organización, respetando y manteniendo las inversiones y el “know how” adquirido a lo largo del tiempo de forma efectiva. Para Alejandro Solana de Vmware, “al tratarse de un modelo que permite plantear las Tecnologías de Información como un servicio, una de las grandes ventajas del cloud computing es el pago por uso, lo que permite a las empresas ajustar las inversiones en infraestructura que tenían que realizar hasta ahora, así como en costes operativos. Gracias al modelo de cloud computing, cada empresa puede disfrutar de aquellas soluciones que necesita de forma personalizada, en aproximaciones privadas, públicas o híbridas, lo que permite a los usuarios plantearse la posibilidad de alquilar la capacidad necesaria para ejecutar un determinado servicio o aplicativo pagando exclusivamente por su uso, y garantizando el mismo control y seguridad que se podría proporcionar mediante su implementación en un entorno privado, o incluso aumentándola. Esto es especialmente útil para las pequeñas y medianas empresas que pueden beneficiarse de la economía de escala, ajustando de una forma más óptima sus presupuestos para seguir compitiendo con las grandes corporaciones; básicamente ajustando sus inversiones al uso real que hacen de sus servicios”. Para este especialista en virtualización lo que las empresas deberían ver es que “Gracias a la virtualización y al cloud computing, cualquier empresa, incluso las Pymes, pueden beneficiarse de una reducción de costes de mantenimiento (y gastos de energía), liberación de espacio físico en la oficina y, sobre todo, una mayor disponibilidad de las aplicaciones. De esta manera, todas las aplicaciones, incluso las más críticas, se convierten en una “utility”, como el agua, la electricidad y el gas, por lo que los responsables de las empresas pueden dedicarse a actividades que impacten al negocio directamente y no perder tiempo en gestionar las infraestructuras tecnológicas, instalar actualizaciones, etc. Por tanto, estamos convencidos de estar ante una tecnología más que probada y consolidada que, además, aporta una serie de ventajas que las organizaciones pueden aprovechar para tomar ventaja en un entorno económico como el actual. Una de las mayores ventajas de la virtualización es el gran ahorro de costes que permite, así como las posibilidades de automatización que proporcionan estas tecnologías permitiendo un uso mucho más eficiente de la infraestructura. Pero existen otros beneficios que los clientes consideran también muy importantes. Uno de ellos es el incremento de la agilidad de negocio en referencia a la velocidad de despliegue de las nuevas aplicaciones que se reduce de semanas a horas, con la consecuente reducción del impacto sobre la continuidad de la actividad y mejorando la respuesta de la empresa aportando flexibilidad y rapidez. También se mejora la disponibilidad y, por tanto, la garantía de servicio”.



La virtualización, vector de cambio para el almacenamiento en la era del ‘Big Data’

Tomás García, Director de Almacenamiento de IBM

A raíz del incremento exponencial de los volúmenes de datos a nivel mundial y la creciente dificultad de las empresas para guardar y acceder a la información, el almacenamiento, uno de los pilares de la informática, está cobrando una nueva relevancia y experimentando interesantes innovaciones, impulsado sobre todo por las nuevas tecnologías de virtualización.

En la era del Big Data es esencial tener la capacidad de gestionar enormes cantidades de datos que se mueven rápidamente y analizarlos en tiempo real –o prácticamente en tiempo real– para obtener información de valor para el negocio. Las empresas quieren que el Big Data y las herramientas analíticas proporcionen, por ejemplo, una mejor experiencia de compra a sus clientes, unos servicios sanitarios más proactivos y preventivos, así como servicios financieros más personalizados.

No obstante, nada de eso es posible si los datos se encuentran almacenados en sistemas no escalables, aislados unos de otros en silos o incapaces de integrar cargas de trabajo no predecibles basadas en los datos.

Existe una nueva generación de tecnologías de almacenamiento que responde a esta necesidad: el almacenamiento definido por software, que utiliza software inteligente para gestionar la infraestructura de almacenamiento, un planteamiento totalmente distinto al del hardware.

El almacenamiento definido por software utiliza un conjunto de innovaciones en materia de virtualización de software que comparte los datos de diferentes ordenadores simultáneamente y los lee en paralelo. Estos nuevos sistemas son capaces de analizar patrones de acceso a los datos, adaptarse y mejorar el rendimiento. Gracias a sofisticadas herramientas analíticas integradas posicionan automáticamente los datos en la “capa” o lugar adecuado. Los datos se sincronizan automáticamente y la información llega a los usuarios allá donde se encuentren, sucursales bancarias, juzgados o centros de salud, por citar varios casos de uso.

Esta nueva tecnología de almacenamiento permite mejorar de forma espectacular el rendimiento y la escalabilidad de los sistemas. Por ejemplo, algunos de los últimos sistemas soportan 1.000 millones de petabytes (es decir, un yottabyte). Y recordemos que solamente un petabye es equiparable al contenido de 20 millones de armarios archivadores de cuatro cajones.

Transformación en las empresas

Las organizaciones están pasando de tener sistemas tradicionales y centralizados (por ejemplo, las cifras de venta dispuestas en filas y columnas de una hoja de cálculo) a funcionar con sistemas más colaborativos que incorporan tecnologías móviles y sociales para fomentar una mayor interacción y que, a menudo, están basados en la nube.

Tras muchos años invirtiendo en las estructuras tradicionales –hay que mantenerlas, porque siguen siendo críticas para el negocio–, las empresas ahora están dedicando el grueso de su capacidad de inversión e innovación en actualizarse con respecto a los nuevos requerimientos en materia de analítica de datos, social y de movilidad. Al mismo tiempo, las estructuras tradicionales se están optimizando, también, con tecnologías innovadoras como Flash y la propia virtualización.

De hecho, y según una encuesta de IBM, el 78% de los CEOs afirma sentir presión por el control de los costes informáticos, y el 71% menciona los datos como la mayor amenaza para su empresa y reconoce, al mismo tiempo, que las empresas que gestionan los datos adecuadamente superan en gran medida a su competencia.

El almacenamiento definido por software también contribuye a solventar un reto que ha surgido a medida que las empresas han ido poniendo en marcha iniciativas de Big Data y analítica de datos. En muchas empresas, distintos grupos concretos llevan a cabo estrategias de analítica individuales y cada uno de ellos depende de un silo de almacenamiento diferente. Esto ha conducido a la ineficiencia, a tener recursos de almacenamiento separados y, por tanto, infrautilizados, y a un mayor coste de mantenimiento de los sistemas.

Eliminar esos compartimentos estancos facilita que el almacenamiento sea más “elástico”, es decir, que las empresas puedan crear un almacén común del que se nutran diferentes cargas de trabajo y que este almacén se pueda integrar con la cloud. Esto es de especial relevancia para  los análisis de negocio, porque implica  no tener que mover los datos para analizarlos.

En la actualidad, los mejores sistemas de almacenamiento incorporan almacenamiento Flash de alto rendimiento y baja latencia y que son capaces de gestionar soluciones de almacenamiento de uno o más vendedores en un almacén virtual compartido, optimizando el almacenamiento en entornos cloud muy virtualizados. Y por último, permiten a las empresas ampliar y optimizar los datos de todos y cada uno de sus departamentos y sedes. La tecnología Flash ha alcanzado ya economías de escala suficientes como para que, junto con tecnologías de almacenamiento definido por software, pueda ya hoy resultar más económica que el almacenamiento tradicional en discos magnéticos, ocupando menos espacio y consumiendo mucha menor energía.

Todo el potencial del nuevo almacenamiento está al alcance de las organizaciones si su infraestructura ya está virtualizada. Sin duda, poder acceder de manera rápida a información de valor contribuye a su éxito. Y para alcanzarlo, el almacenamiento definido por software es, cada vez más, una parte importante de la ecuación.


Hacia la empresa definida por software

Alejandro Solana, director técnico de VMware Iberia

Todos sabemos que los departamentos de TI afrontan ahora más exigencias que nunca. La proliferación de la tecnología ha creado un mundo donde todo es móvil, conectado, interactivo, inmediato y fluido. Al mismo tiempo, la dirección de las organizaciones exige a los departamentos de TI compromisos difíciles de mantener, ya sea habilitar nuevas líneas de productos o servicios, evolucionar y automatizar la cadena de suministro para obtener mayor eficiencia, habilitar prácticas laborales modernas, o transformar el servicio de atención al cliente o el modelo de lanzamiento de productos al mercado para el negocio.

La mejor manera de satisfacer las demandas de las empresas y las necesidades de control y seguridad de los departamentos de TI el adoptando un modelo cloud. El viaje hacia este modelo cloud y la entrega de la tecnología como servicio (ITaaS) comienza con la virtualización, y evoluciona hacia lo que en VMware llamamos el centro de datos definido por software (SDDC).

El primer paso, la virtualización, hace posible que se puedan ejecutar varios sistemas operativos y aplicaciones, de forma que la infraestructura sea más sencilla y eficiente. Las aplicaciones se implementan más rápido, el rendimiento y la disponibilidad mejoran y las operaciones se automatizan, con la consiguiente simplificación de la infraestructura de TI, que es más fácil de implementar y menos costosa de adquirir y gestionar.

Pero la evolución natural de este proceso de virtualización es lo que llamamos el centro de datos definido por software, en el que se extiende la virtualización a todos los elementos del centro de datos: servidores, redes, almacenamiento, etc.

Con demasiada frecuencia, las empresas se ven limitadas por una infraestructura de TI anticuada que es demasiado rígida y compleja para satisfacer fácilmente las necesidades empresariales. La virtualización de servidores supuso un importante avance que redujo considerablemente los costes de TI, al tiempo que impulsó la eficacia y el rendimiento. La pregunta es entonces: ¿hacia dónde nos dirigimos? Extender la virtualización a una mayor variedad de cargas de trabajo aumentará con seguridad las ventajas en términos de costes y disponibilidad, pero la oportunidad que se presenta es mucho mayor: virtualizar el resto del centro de datos para que todos sus servicios sean tan económicos y fáciles de suministrar y gestionar como las máquinas virtuales.

La arquitectura para esta infraestructura totalmente virtualizada es el centro de datos definido por software. El SDDC, una tecnología en la que VMware ha sido pionera y que cuenta con el reconocimiento del sector y los analistas, amplía los conceptos asociados a la virtualización ya conocidos (abstracción, creación de pools y automatización) a todos los servicios y recursos del centro de datos. De esta manera, se agiliza y simplifica considerablemente el aprovisionamiento inicial y la gestión continua de recursos informáticos, de almacenamiento y de red completamente virtualizados mediante una potente automatización basada en políticas. Como resultado, se obtienen niveles de transformación de la agilidad empresarial, además de eficiencia operativa, control y más posibilidades de elección para el departamento de TI y la empresa.

Un centro de datos definido por software consta de dos componentes. En primer lugar, la virtualización del entorno informático, la virtualización de redes y el almacenamiento definido por software proporcionan niveles de abstracción, agrupación en pools y automatización de la infraestructura informática, de red y de almacenamiento. En segundo lugar, la gestión automatizada proporciona un marco para la gestión basada en políticas de las aplicaciones y los servicios del centro de datos.

En definitiva, con el fin de cubrir las necesidades de las organizaciones para simplificar la TI, esta transformación es capaz de ayudar a los departamentos de TI a acelerar la adopción de una arquitectura de centro de datos definida por software y aprovechar el valor de la virtualización avanzada en áreas como las redes, la seguridad, el almacenamiento, la disponibilidad, la gestión y la automatización.



[i]
[i] Fuente “Server Virtualization Market in the US 2014-2018