La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

Servidores, ¿cuál es su futuro?

Los diferentes informes hablan de caídas. Las empresas, sobre todo las más pequeñas, ya no apuestan por adquirir nuevas máquinas. La nube les está ofreciendo muchas de las cosas que antes les daba un servidor. Pero aunque es cloud compunting uno de los culpables de este descenso, también es ella la que asegura la existencia de estas potentes máquinas: los data centers los necesitan… y cada vez más. Para Sergio Reiter, product manager de Primergy de Fujitsu, “El mercado de servidores en España está en un estado latente Si comparamos en unidades los primeros trimestres del 2012 con los del 2013, los crecimientos, parecen planos y la demanda está estabilizada en las cantidades que podríamos considerar como la base del mercado se servidores en España. En cuanto a su evolución , los factores a valorar podrían ser :uno la crisis económica que parece va finalizando y esto puede incentivar a activar una demanda que de manmento está contenida, y por  otro, que es un mercado solido donde tanto en la gran cuenta como en la pyme la incorporación de procesos y tendencias  como la virtualizacion , el cloud como solución externalizada a  los procesos antes propios de cada compañía pueden también  empezar a dar sus frutos y movilizar esa demanada contenida.  Por lo cual, si creo que asistiremos pronto a una renovación marcada por la demanda de los clientes que buscan ser más competitivos, eficientes energéticamente y rebajar sus costes mejorando sus procesos.


Descárgate gratis el Tema de Portada completo en PDF


La realidad es que, según los datos de IDC correspondientes al segundo trimestre del año, los ingresos mundiales procedentes de la venta de servidores disminuyeron un 6,2 por ciento interanual hasta los 11.900 millones de dólares (8 por ciento de caída en el Q1 2013), mientras la venta de unidades se redujo un 1,2 por ciento hasta los 2 millones de unidades. Se trata así del segundo trimestre consecutivo de caídas -tanto en servidores de volumen como en equipos de gama media y alta-, motivado principalmente por la situación macroeconómica, que está retrasando el ciclo de renovación. Por su parte, los datos de Gartner correspondientes al mismo período sitúan el descenso en facturación mundial en el 3,8 por ciento, aunque a diferencia de IDC estima que la venta de unidades creció un 4 por ciento. En EMEA, el descenso en la venta de unidades alcanzó el 5,9 por ciento y el 4,6 por ciento en términos de ingresos. Estos datos son los que le sirven a Manuel Vidal, director de preventa de Hardware, de Oracle Ibérica para afirmar que “hay varios segmentos que se comportan de forma muy diferente. El segmento de pequeños servidores (low-end) se está mostrando muy débil, el de servidores medianos (mid-range) algo mejor,  pero el segmento de grandes servidores, que es en el que más foco tenemos, está mostrando un crecimiento significativo. Desde el punto de vista geográfico, en las regiones en las que se están prestando servicios de cloud se están viendo beneficiadas respecto a las que no lo hacen.

Por último, los proveedores de sistemas integrados estamos vendiendo muchos servidores en soluciones integradas”. Por su parte, Enric Subirana, responsable de la división de almacenamiento y servidores de Lenovo cree que “lo que tenemos que tener claro los fabricantes es que debemos trabajar en máquinas que respondan a las nuevas necesidades de las empresas, sin comprometerlas a hacer excesivas inversión. La situación económica actual influye, evidentemente, pero no debemos escudarnos en ello ya que estamos viviendo una época de grandes cambios y debemos saber responder a ellos. Por ejemplo, en esta época del denominado Big Data (o grandes volúmenes de datos) se ha incrementado notablemente la necesidad de contar con sistemas de TI optimizados que permitan gestionar grandes volúmenes de información generados por múltiples dispositivos. Lo importante es que seamos también capaces de crear soluciones que sean capaces de integrarse fácilmente en las actuales infraestructuras tecnológicas, que manejan exigentes cargas de trabajo de virtualización y cloud y hacen un uso intensivo del procesador.  Y todo ello con una gestión avanzada del consumo energético a un precio más asequible”.

En este sentido el portavoz de Fujitsu señala que la situación del mercado del servidor no es tan mala dependiendo de con qué se compare. En su opinión, “es cierto que existe una demanda contenida y efectivamente no experimentamos los crecimientos de años pasados. Sin embargo, considerar que el mercado está en caída libre, creo que es exagerado.  La crisis nos ha afectado a todos, la evolución de los CPDs no pasa por un momento álgido, sin embargo, en comparación trimestral con el año pasado, no se aprecia tal desmoronamiento. Estamos contemplando una evolución sobre cómo se atiende la demanda de proceso en las compañías, no toda la pérdida de servidores se debe a la crisis, sino también a la migración a entornos cloud, la virtualización y consolidación de  sistemas. La virtualizacion es una herramienta muy valiosa para esta optimización y la evolución de los centro de datos ya se está consolidando, aunque eso signifique una reducción en el número de servidores necesarios”. Y es en esa misma línea en la que se sitúa Óscar Gómez, Enterprise Field marketing manager de Dell España que afirma que si se deja a un lado el factor crisis económica, “lo que observamos es que debido a cambios de modelo las ventas de servidores se concentran en clientes de gran volumen que proveen servicios a hasta ahora potenciales consumidores”.

Así que parece que son las empresas las que están cambiando su modelo y eso afecta al mercado del servidor. No sólo la crisis es la culpable. La virtualización, como han respondido la práctica totalidad de los encuestados para realizar este reportaje es el factor fundamental. Otra prueba de ello la aporta el portavoz de Cisco: “En el mercado servidor, las organizaciones se están centrando en iniciativas de consolidación, migración y virtualización de servidores, con el fin de reducir los costes de infraestructura, incrementar su eficiencia y adoptar el nuevo modelo de TI como servicio que facilita el Cloud. A su vez, la situación macroeconómica está retrasando el ciclo de renovación de equipos, y desde hace tres años asistimos a una tendencia constante: los servidores estándares x86 y dentro de este apartado el segmento blade son los que más crecen en el mercado, frente al retroceso de sistemas RISC si atendemos al tipo de procesador y equipos Unix teniendo en cuenta el sistema operativo”.


La nube

Cloud Computing está cambiando drásticamente la forma de trabajar de las empresas y con este cambio en los modelos también se afronta un cambio en el equipamiento y en la adquisición de equipos TIC. El servidor no es ajeno a esta realidad. A nadie le interesa ya tener un gran parque de servidores, que se tiene que gestionar en la propia empresa, que pueden fallar y que consumen grandes cantidades de energía. Al migrar micha información y datos hacia la nube muchos de esos aparatos, antaño indispensables, van a verse reconvertidos en carne de residuo. El hábitat natural del servidor se encuentra en el centro de datos, un CPD que en muchas ocasiones la empresa no sabe ni dónde se encuentra porque lo único que le interesa es poder acceder a su información con seguridad y sabiendo que nunca se va a perder. Como afirma el portavoz de Lenovo, “Debido a la coyuntura económica en la que nos encontramos, muchos clientes buscan soluciones de almacenamiento que les ayuden a ahorrar tanto en tiempo como en dinero, y ven una clara ventaja en la agilidad y eficiencia del almacenamiento en la nube. Aunque el modelo de almacenamiento existente no tiene que desaparecer a favor de entornos cloud. Las fronteras son muy tenues, y las soluciones cloud se construyen sobre almacenamiento «tradicional».  Esto exige que los sistemas de almacenamiento para la nube proporcionen funciones como la virtualización, gestión avanzada, uso eficiente de la jerarquía de almacenamiento o aprovisionamiento virtual”.

Según el tercer Índice Global de Cloud que Cisco acaba de presentar, el tráfico Cloud crecerá un 35 por ciento anual entre 2012 y 2017, y en 2017 supondrá más de dos terceras partes (5,3 Zettabytes) de todo el tráfico data center global (7,7 Zettabytes). Con respecto a las cargas de trabajo, en 2014 el 51 por ciento del total de cargas de trabajo será procesado en el Cloud, frente al 49 por ciento que se gestionará en CPDs tradicionales, y para 2017 esta cifra se situará en el 63-37 por ciento, respectivamente.

En este sentido el portavoz de esta multinacional norteamericana asegura que “Cloud Computing es una tendencia imparable como modelo de entrega de aplicaciones y servicios de TI, y en Cisco creemos que habrá múltiples tipos de Clouds -públicos, privados, híbridos o de comunidad (por ejemplo, de finanzas o salud)- y que estarán todos interconectados. Los servidores estándares y modulares y capaces de unificar los componentes del CPD -computación, redes, acceso al almacenamiento, virtualización y toda la gestión- en un mismo sistema constituyen los bloques fundacionales de estos entornos Cloud, por lo que seguirán teniendo una mayor demanda que el resto”. Por su parte, Sergio Reiter de Fujitsu cree que “el cloud es un elemento aún por consolidarse como solución, el proceso, vendido como servicio y pagado por uso, es algo que se extenderá, sí o sí , pero con el tiempo. ¿Lo que aporta? Pues un elemento más que ayuda a las compañías, pero que debe ser entendido por los departamentos de TI de estas, como algo nuevo en su forma de atender sus procesos internos. Lo más normal es que continuemos con soluciones híbridas de cloud con CPD tradicional propietario como lo más novedoso y vanguardista, especialmente en las PYMES”.


La realidad pasa por el CPD

Hay alguien que, sin embargo va a seguir necesitando de los servidores. Se trata de los CPDs. Los centros de datos están experimentando un vertiginoso crecimiento. Ello se debe a que el número de datos crece exponencialmente y, obviamente, se necesita algún sitio físico en el que almacenarlos. La diferencia con respecto a no hace muchos años se encuentra en que buena parte de esa información ya no se encuentra en las máquinas de las propias empresas, sino que se hayan en servidores que en muchos casos no se sabe a ciencia cierta dónde se sitúan. El crecimiento de los datos seguirá produciéndose, así que es necesario preguntarse hacia dónde van los CPDs.

Las estrategias referentes a los centros de datos  están centradas en la evolución hacia una infraestructura más inteligente. Durante años, los centros de datos han experimentado una proliferación de servidores, un crecimiento desmesurado de las necesidades de almacenamiento por el aumento del volumen de información que manejan las empresas,  y la creación de distintas redes de comunicaciones. Esto ha tenido como resultado una gran dificultad para gestionar el entorno, así como la creación de componentes de infraestructura aislados y una escasa flexibilidad para poder dar respuesta a las cambiantes necesidades del negocio.

La reducción de costes, de manera fundamental, está haciendo que muchas empresas estén apostando por almacenar sus datos en centros de datos que pertenecen a otras compañías asumiendo, de esta manera, determinados riesgos. Además en la actualidad, nos encontramos en un entorno empresarial que se encuentra en constante cambio, por lo que las organizaciones tienen que moverse rápidamente para adaptarse, aprovechar nuevas oportunidades y satisfacer nuevas demandas. Todo ello, con el objetivo de obtener una mayor productividad con costes más reducidos. De esta forma, a medida que se amplían las cargas de trabajo y los requisitos empresariales, las organizaciones deben compaginar sus recursos informáticos con sus necesidades actuales de negocio. Esto sólo es factible mediante el acceso total y flexible a las operaciones de los sistemas de información, con el objetivo de que puedan adaptarse a los cambios y a la vez mantener ventaja competitiva.

Mediante la externalización de los centros de datos, ya sea total o parcialmente, las empresas pueden obtener servicios rápidos, fiables y altamente seguros, adaptándose a las necesidades del mercado, de forma que las organizaciones no tengan que asumir costes adicionales en hardware y software.

Pero qué es lo que pide un CPD a un centro de datos. Sergio Reiter de Fujitsu afirma que “la construcción de data center sostenibles, flexibles y de gran potencia. En el diseño y construcción de un centro de datos, la sostenibilidad es una prioridad.  Fujitsu ha potenciado una interesante política green, en la cual el peso de la innovación es altamente importante. Por otro lado, creamos centros de datos dinámicos que incorporen las tecnologías más recientes de virtualización y automatización. En definitiva, una idea donde el hardware  y la arquitectura software de próxima generación se centran para aportar excelentes servicios al usuario final y potentes niveles de servicio”.

Luis Palacios, director de Data Center y Virtualización en Cisco afirma que “en general, los CPDs han crecido de forma descoordinada y en la mayoría de los casos están sobredimensionados e infrautilizados, y por tanto no son lo suficientemente eficientes, sencillos ni ágiles para adaptarse a la movilidad, la virtualización y el Cloud Computing. De esta forma, el nuevo modelo de CPD requiere arquitecturas unificadas que eliminen los silos tecnológicos y simplifiquen enormemente la gestión, reduciendo el número de equipos físicos, automatizando los procesos y aprovechando el potencial de la virtualización”, mientras que Enric Subirana, responsable de la división de almacenamiento y servidores de Lenovo asegura que “Los CPDs modernos exigen a un servidor, potencia, fiabilidad, alta disponibilidad, ahorro energético y herramientas sencillas y fiables para administrarlo. Por otro lado, también debe disponer y estar preparado para poder gestionar múltiples solicitudes de conexión concurrentes y disponer de las conexiones de red adecuadas y de alta velocidad para poder dar servicio”.


Tendencias

Como hemos venido diciendo durante el reportaje, el mercado del servidor se encuentra en descenso. Un dato que corroboran la práctica totalidad de fabricantes y que cuenta con opiniones como el portavoz de Dell en este sector: “Claramente es un mercado que tiende hacia bajada en los consumos, ya no solo en la parte del servidor, sino de la energía necesaria para refrigerar la infraestructura, y la máxima utilización del espacio con servidores de alta densidad. Además, hay que destacar la especificidad de los servidores, en lugar de utilizar servidores multipropósito se está detectando la necesidad de cubrir los requerimientos específicos para soluciones determinadas por las características del servicio”. Por su parte desde Cisco se asegura que junto a la apuesta por servidores unificados, están observando una importante demanda por soluciones convergentes preparadas para entornos de cargas de trabajo intensivas en datos (Big Data). Según el Informe Cisco Connected World Technology Report -basado en encuestas a profesionales de TI de 18 países- el 60 por ciento de los consultados creen que Big Data puede ayudar a las empresas y a los países a optimizar la toma de decisiones y la competitividad global, y más de un tercio de los consultados consideran que será una prioridad estratégica para sus compañías en 2013 y en los próximos cinco años, de forma que más de la mitad esperan que las estrategias de Big Data incrementen sus presupuestos de TI durante 2013.

En este sentido, Cisco y NetApp anunciaron en julio la disponibilidad de FlexPod Select, la primera oferta del porfolio FlexPod (que incluye los servidores Cisco UCS C-Series, los sistemas de almacenamiento NetApp E-Series y FAS los switches Cisco Nexus y el software de gestión de Cisco en una misma arquitectura) enfocada en cargas de trabajo dedicadas, como aplicaciones de alto rendimiento. Inicialmente, esta nueva categoría se centrará en los requisitos intensivos en datos de las aplicaciones de Big Data basadas en la plataforma Hadoop para servicios financieros y de la Administración, retail, fabricación y otros segmentos de mercado.

Enriq Subirana de Lenovo afirma por su parte que “durante años, los centros de datos han experimentado una proliferación de servidores, un crecimiento desmesurado de las necesidades de almacenamiento por el aumento del volumen de información que manejan las empresas. Esto ha generado una gran dificultad para gestionar el entorno, así como la creación de componentes de infraestructura aislados y una escasa flexibilidad para poder dar respuesta a las cambiantes necesidades del negocio”, y añade para demostrar su afirmación: “Nosotros estamos trabajando para mejorar lo que creemos que es más importante, y son servidores que ofrezcan más rendimiento, mayor capacidad de almacenamiento y gestión avanzada del consumo energético a un precio más asequible. Además, hoy en día la protección de la información es crucial para las empresas, las organizaciones necesitan una solución con capacidades avanzadas de copia de seguridad y protección de la información que sea rentable. Lenovo EMC  acaba de firmar un acuerdo con Acronis Backup Appliance, para ofrecer una nueva solución de protección de datos para servidores, NAS y PCs que combina a la perfección un hardware avanzado con un software de copia de seguridad innovador. Todo ello en una única solución de alto rendimiento que no necesita o requiere ningún hardware o software adicional, lo que lo hace mucho más sencillo. Lo ponemos todo junto en un solo producto que creemos que es la solución de copia de seguridad más fiable y fácil de usar del mercado en la actualidad”.

Por su parte Reiter, de Fujitsu cree que las tendencias “se encuentran en el incremento de la eficacia energética, la mejora en los procesos y la integración entre sistemas Virtualizados propios con entornos cloud, para llegar a soluciones perfectamente equilibradas, en cuanto a su coste y su rentabilidad. Elementos como el consumo por nodo, la tasa de fallos y su integración en soluciones más complejas (en su estructura, pero no en su gestión)  constituyen una tendencia hacia el centro de datos flexible y autodimensionable, al que todos queremos llegar.  Sin embargo,  dependerá de cada empresa y en que momento de esta evolución se encuentre,  la tendencia que elegirá o la que le podamos proponer”.


Los chinos al ataque

Una de las características del mercado del servidor es que es propiedad de unos pocos fabricantes, muy estables desde hace muchos años. IBM, HP, Fujitsu, Dell, Cisco y Oracle ocupan las primeras posiciones siempre. Pero parece que el nuevo jugador procedente de China y que está entrando en este mercado tan poco atomizado hace temblar los cimientos de los tradicionales. Si hace unos años fue Lenovo ahora le toca dar el salto a Huawei que parece tener una propuesta más que correcta pero que se basa principalmente en el precio para poder atacar a los posibles clientes. ¿Qué piensan el resto de fabricantes de la aparición de este nuevo jugador? Luis Palacios de Cisco afirma que “la llegada de ofertas nuevas debe analizarse siempre teniendo en cuenta no sólo su coste, sino múltiples parámetros: si se trata de una verdadera innovación de sistemas o de una copia o imitación, la inversión y trayectoria del fabricante en el mercado (si es a largo plazo o pasajera o coyuntural), su capacidad de soporte, su relación con los partners en caso de que se trate de venta indirecta, su capacidad para invertir en I+D y seguir evolucionando el sistema, su oferta de servicios, etc. Por otro lado, No creo que las aproximaciones basadas en el precio y no en la innovación vayan a transformar el mercado. Lo que demandan los clientes -además de tener en cuenta los parámetros comentados en la pregunta anterior- son servidores unificados, con un gran rendimiento, escalabilidad y eficiencia energética, y sobre todo capaces de reducir costes y automatizar las tareas, establecer un punto único de gestión para todos los equipos físicos y virtuales y que permitan liberar al departamento de TI de las tareas manuales para que pueda centrarse en la innovación”. Óscar Gómez de Dell cree por su parte que “es cierto que en la situación actual todo el mundo mira más el coste de los productos, pero no es menos cierto que ante dos opciones con diferencias ajustadas en este aspecto, la que mayor fiabilidad aporte a entornos críticos de negocio es la que tiene más opciones. Desde esa perspectiva los jugadores tradicionales tendrán que optimizar sus costes para intentar ajustar los precios a las situaciones de mercado sin descuidar la calidad y la fiabilidad de sus sistemas. Un buen soporte será fundamental para convencer a los clientes de que el precio no es lo único que importa y sobre todo adaptarse a las necesidades de los clientes tratando involucrarse en las necesidades que tienen y planteando soluciones realistas a los restos que se les presentan día a día a nuestros clientes”. Sin embargo es el portavoz de Oracle, Manuel Vidal, el que se muestra más radical ante la posible aparición de este nuevo jugador. En opinión de este directivo, “El mercado de servidores comoditizados no tiene futuro desde el punto de vista de los márgenes y ningún fabricante de servidores será capaz de tener un negocio sano en ese espacio. Se trata de un mercado, el de los servidores comoditizados, que ya ha reventado y ningún fabricante de servidores tiene un negocio sano en ese espacio. Las compañías que quieran permanecer en esta industria tendrán que apostar por la integración entre hardware y software”.



Computación unificada: transformando la dinámica del data center


Luis Palacios, director de Data Center y Virtualización en Cisco España


A medida que las organizaciones se apoyan cada vez más en las TI para soportar su estrategia de negocio, necesitan una infraestructura más ágil, económica, y escalable que nunca. Es así como los centros de proceso de datos (CPDs) deben sufrir una nueva transformación, ya que en las dos últimas décadas sus principales componentes -servidores, redes y sistemas de almacenamiento- se han comportado como silos independientes, provocando una gran ineficiencia que continúa incrementando los costes operativos, la complejidad y el consumo energético.


Mientras los recursos siguen estando infrautilizados (habitualmente se utilizan entre el 20 y el 30 por ciento de todos los activos de un data center), cerca del 70 por ciento del presupuesto tecnológico de las empresas se destina a mantener estos CPDs complejos e inconexos. A su vez, Intel estima que un tercio de los servidores en producción tienen más de cuatro años, siendo su coste de operación uno de los más elevados.


Nuevo modelo de arquitectura servidor

Con el fin de resolver esta problemática, cada vez cobra más importancia la computación unificada, una innovadora aproximación que propone la unificación de los elementos dispersos del data center -servidores, redes y sistemas de almacenamiento- bajo una misma arquitectura que se apoya en la virtualización y en la gestión unificada.

Precisamente, tras la consolidación, automatización y virtualización, la unificación constituye la cuarta fase del centro de datos, conformando el trampolín necesario para optimizar los data centers y dar el salto a la siguiente etapa: modelos de TI como servicio basados en el Cloud Computing.

Según reconocen las principales consultoras como Gartner o Forrester, Cisco ha sido pionero en la informática unificada, presentando hace cuatro años Cisco UCS (Unified Computing System), la primera plataforma de la industria capaz de unificar los servidores, las redes, el acceso al almacenamiento, la virtualización y toda la gestión en un mismo sistema escalable y modular.

Pero además, los servidores UCS se apoyan en un Fabric Unificado o estructura de cableado único -estableciendo un canal único de transporte para las redes LAN y SAN- y en una red IP inteligente capaz de priorizar el tráfico, unificar los servicios y entregar los recursos de TI bajo demanda en cualquier momento y lugar.

Igualmente, al aplicar una gestión integrada tanto para servidores blade como en rack y reducir enormemente el número de cables y conexiones, los costes de administración del centro de datos se reducen hasta en un 61 por ciento.

De esta forma, uno de cada tres CIOs españoles sitúan el fabric unificado como su principal estrategia para gestionar los centros de datos, y siete de cada diez empresas consultadas respaldan la creciente importancia de la red debido a su posición central en el data center y su capacidad para unificar y gestionar recursos.


Transformación del mercado

La apuesta por arquitecturas unificadas y basadas en estándares ha provocado también un cambio en el mercado servidor, que desde hace tres años sufre una tendencia constante: los servidores x86 y dentro de este apartado el segmento blade son los que más crecen, frente al retroceso de sistemas RISC si atendemos al tipo de procesador y equipos Unix teniendo en cuenta el sistema operativo.

De esta forma, la arquitectura x86 se está convirtiendo en el estándar de facto en el mercado de servidores, desplazando a los sistemas RISC al poder soportar aplicaciones críticas y ofrecer un mejor precio-rendimiento, mayor flexibilidad y capacidades de unificación y virtualización.

Y dentro de este segmento x86, la plataforma UCS de Cisco -que utiliza los procesadores de Intel- ha logrado alcanzar en tan solo cuatro años la segunda posición en servidores blade x86 en Estados Unidos y EMEA, y ostenta casi el 20 por ciento de cuota de mercado mundial en términos de ingresos (segunda posición mundial) según IDC.

Cisco también es la única compañía que ha entrado en el cuadrante de Líderes de Gartner relativo a servidores en menos de tres años, además de situarse como primer proveedor de infraestructura para el Cloud en el primer trimestre del año según Synergy Research.

Gracias a la computación unificada, los CPDs están dejando a un lado la complejidad para convertirse en entornos dinámicos que permiten automatizar múltiples tareas y convertir las TI en un activo capaz de responder a las cambiantes necesidades de cada negocio; un nuevo escenario donde los responsables de TI se centran en ayudar al resto de departamentos a generar valor para el negocio mediante la innovación.


Cómo pueden los CIOs valorar los beneficios de una solución de consolidación de datos y servidores


En este artículo, Miguel Ángel García, Country Manager Iberia de Riverbed Technology, habla de soluciones de almacenamiento y de cómo pueden satisfacer de forma efectiva las necesidades de las sedes remotas mediante el uso mejorado de los activos TI, menores recursos de TI y una mejor retención y protección de datos.

A principios de 2013, entre sus 10 prioridades de negocio los CIOs mencionaban las siguientes: reducir los costes empresariales, mejorar las aplicaciones e infraestructura de TI, mejorar la eficiencia y mejorar los procesos de negocio (Gartner Executive Program Survey 2013).

Con este telón de fondo, muchos CIOs están centralizando el almacenamiento y el backup en sus centros de datos principales en lugar de mantener el hardware y los datos en las oficinas remotas y sucursales. Esto tiene mucho sentido desde el punto de vista de la simplificación, y aporta un enfoque “práctico” a la gestión de dispositivos, reduciendo los riesgos de seguridad y la complejidad de tener múltiples sistemas de backup y datos dispersos. A esto se añade que empresas con oficinas en localizaciones con poca estabilidad pueden preferir no almacenar nada en ellas por cuestiones de seguridad y riesgo de pérdida de datos.


Claves de Negocio

Sin embargo, un factor clave en la consolidación del almacenamiento en muchos casos es el coste. Las empresas quieren maximizar sus inversiones en almacenamiento en red (SAN) y alcanzar las ventajas del almacenamiento centralizado. La principal de esas ventajas es la reducción del coste de TI mediante la eliminación de la necesidad de adquirir y mantener servidores y almacenamiento locales. Aparece aquí la tecnología de entrega de almacenamiento como nuevo concepto que cubre ese hueco.

Los CIOs van siendo conscientes de que pueden resolver las prioridades del negocio, pero que necesitan atacar primero los procesos claves de TI y transformar el CPD. Como parte de este movimiento, los responsables de TI pueden ampliar la capacidad y llevar los beneficios de un enfoque consolidado a oficinas más grandes y aplicaciones más potentes que antes eran difíciles o imposibles de consolidar.


El cambiante escenario de TI

La consolidación tiene el potencial de permitir a empresas de cualquier tamaño eliminar servidores y datos de las sedes remotas y centralizarlos en el CPD, con otro nivel de seguridad, sin sacrificar la experiencia del usuario. Este nuevo enfoque de arquitectura hace posible centralizar las operaciones de backup y eliminar datos de localizaciones de alto riesgo, a la vez que incrementa la agilidad de respuesta y reduce los costes de gestión de la infraestructura remota. Para tener éxito en el dinámico entorno actual los responsables de TI necesitan agilidad, seguridad y control, mientras que los usuarios demandan rendimiento.

Sirviendo la información adecuada en el momento oportuno y en el lugar preciso, las empresas dan un mejor servicio a sus clientes, toman mejores decisiones y reaccionan más rápido ante cambios del entorno. Estas necesidades a menudo se dan juntas en las oficinas remotas. Así, uno de los aspectos más críticos de los procesos de decisión de TI actualmente es identificar de forma adecuada el lugar correcto donde instalar infraestructura como servidores y almacenamiento. Cuando se consigue enlazar en una solución conjunta las zonas remotas de la empresa con el núcleo del centro de datos es posible centralizar el control, la seguridad y la protección de los activos distribuidos (servidores y almacenamiento) a la vez que se asegura un acceso (o recuperación) rápida de los datos y aplicaciones de los que dependen los usuarios.


Protección de datos

A medida que crecen los volúmenes de datos, las empresas deberían ir desmantelando los sistemas de backup y recuperación de las oficinas remotas para mover las operaciones de protección de datos a la seguridad del CPD, donde pueden aprovechar sus depurados procesos y sistemas, así como el cualificado personal.

Los snapshots son un mecanismo fundamental para garantizar que las operaciones de TI funcionan sin problemas. En los entornos actuales los administradores deben ser capaces de asignar políticas de snapshot horarias, diarias o semanales de forma rápida, para asegurar la protección consistente de los datos aprovechando los sistemas de almacenamiento del CPD.

Además de usarlos para recuperaciones rápidas, muchas empresas utilizan los snapshots como origen del backup a almacenamiento secundario externo, como cinta o almacenamiento en la nube.


Conclusión

Los fundamentos y necesidades de información de las organizaciones cambian constantemente a medida que varían las necesidades de su negocio o de sus clientes.

La consolidación de los sistemas y de la información entre las sedes remotas y los CPDs ha de contemplarse como un proceso continuo e iterativo, de forma que cualquier sistema que se instale, sea remoto o en el CPD, debe conseguir que ese proceso sea más rápido y ligero operacionalmente, ahora y en el futuro.

La clave para conseguirlo es una implantación eficiente de las soluciones, que incluya el ajuste de los procesos relacionados (por ejemplo, el despliegue de aplicaciones y el backup). Una implantación bien pensada ayuda también a extender el uso de la solución a otros grupos de usuarios y a otros servicios. Por último, una implantación sensata facilita  la reacción de la empresa ante condiciones de negocio cambiantes o nuevas necesidades de aplicaciones en el dinámico escenario de TI.

Deja un comentario

Scroll al inicio