La gran cantidad de información que antes era sólo útil para un determinado momento, ahora se recopila, se clasifica, jerarquiza y se almacena en los grandes repositorios de datos de las grandes compañías. Y decimos grandes porque debido al brutal descenso en los precios de los equipos de almacenamiento, estas empresas no han tenido reparos en adquirir más y más unidades de backup. Han sido ellas las que dieron el pistoletazo de salida, pero, en la actualidad las pymes y micropymes también quieren tener sus datos bien guardados.
La importancia del almacenamiento es algo de lo que ya no se puede dudar. La seguridad y la disponibilidad de la información están empezando a ser una necesidad imperiosa. La continuidad de negocio es un factor esencial hoy en día. Por eso, es especialmente importante simplificar la gestión del almacenamiento.
Para muchas organizaciones, la disponibilidad de los datos críticos del negocio, junto con los recursos de TI utilizados son de suma importancia. Así, los recursos sustanciales se han dedicado a garantizar la continuidad de las operaciones del negocio (transacciones con interrupciones limitadas tales como fallos del sistema, ataques de hacker, servicio de denegación de ataques y errores en los programas) y la recuperación ante desastres (ante eventos naturales inesperados).
En nuestro país, tendencia que es parecida en el resto de los países, la demanda de sistemas de almacenamiento se ha disparado, lo que ha supuesto que las infraestructuras hasta ahora existentes tengan que evolucionar y adecuarse a nuevos retos.
La fuerte competencia en el mercado de almacenamiento está obligando a los proveedores a diferenciarse en aspectos clave como los servicios, simplicidad de gestión, nuevas funcionalidades en los equipos, como la deduplicación, y otros aspectos más novedosos como la eficiencia energética. En el segmento pyme, por ejemplo, existe aún mucha cuota de mercado disponible, ya que este tipo de empresas empiezan ahora a buscar sistemas de almacenamiento centralizados, dadas las crecientes necesidades de guardar y proteger su información. Hay que recordar que para este tipo de empresas sus datos son igual de importantes que los de las empresas de mayor tamaño. Según Daniel Calvo, Director de preventa de EMC, “el crecimiento del volumen de información es imparable. Cada vez son más las empresas que comprenden que la información es el centro neurálgico de su negocio. En un entorno como el actual las empresas demandan soluciones completas que les permitan optimizar costes, mejorar la eficiencia y obtener el máximo valor de su información. Consolidación, recuperación, gestión, virtualización, seguridad son temas claves en la estrategia de TI de las empresas”.
Situación de mercado
El mercado de almacenamiento está creciendo, en términos de facturación, a un ritmo ligeramente superior al del total de los servidores, como señala el último informe de IDC. Este estudio indica que, aunque la situación económica actual impacta en el gasto en hardware, el mercado de almacenamiento sigue estable, con un sólido crecimiento interanual. A pesar de los recortes de presupuesto, las empresas se muestran son reacias a reducir el gasto en esta área. España se ha caracterizado en los dos últimos años por ser un mercado más dinámico que otros países de la Unión Europea, como es el caso del Reino Unido, Alemania o Francia. Lo que sí se observa es un cambio en la tendencia del mercado. En la actualidad las compañías optimizan las adquisiciones de hardware de almacenamiento y el coste total de propiedad. Por eso se tiende a adquirir tecnologías de infraestructura de información que facilitan el paso de los tradicionales datos estáticos gestionados en compartimentos estancos, a una información dinámica que «sigue» a las personas a donde quiera que vayan en un entorno de “cloud computing”. Para José Luis García, director de almacenamiento de Sun Microsystems, “el mercado del almacenamiento en 2009 alcanza ya los 40.000 millones de dólares, y hoy en día está experimentando un cambio de tendencia similar al que ocurrió a mediados de los noventa en el mercado de servidores. La demanda de los clientes de innovadores sistemas de almacenamiento, con arquitecturas abiertas y de fácil despliegue se incrementará drásticamente. La actual situación en los mercados financieros ha convertido al ahorro de costes en el factor más relevante y durante 2009 éste será fundamental en las decisiones de compra de tecnología de cualquier empresa”.
La situación económica, no obstante, afectará a este mercado. Tal y como apunta Miguel Ángel Martín, Arquitecto de Soluciones de CA, “el abaratamiento del almacenamiento disparó un crecimiento desorbitado y falto de control, pero la presión sobre los presupuestos está marcando el rumbo actual orientado a optimizar los recursos, controlar los gastos y reducir los gastos de propiedad (CAPEX). Las empresas intentan hacer un uso mas racional de los recursos ya que se han dado cuenta de que un crecimiento descontrolado del almacenamiento afecta desde el puro gasto de adquisición hasta su gestión y disponibilidad de los datos”. No obstante, El almacenamiento es y seguirá siendo un área de inversión para muchas compañías. Los datos siguen creciendo año tras año y los clientes siguen buscando soluciones para almacenar y gestionar de forma eficiente toda esa información. Además la virtualización está generando nuevas necesidades de almacenamiento en los clientes y cada vez más lo fabricante están planteando soluciones para optimizar estos entornos. Tal y como apunta Isabel Ruiperez, Business Development Manager de Unitronics, “no creo que sea un mercado saturado, efectivamente hay muchos fabricantes y multiples soluciones en el mercado; pero también mucho tipos de clientes con necesidades, problemáticas y presupuestos muy diferentes requiriendo día a día soluciones de este tipo”.
Virtualización como tendencia
En el mundo actual, la incorporación de sensores en todo tipo de dispositivos interconectados a través de Internet es una realidad, lo que ha generado un mercado de más de un billón de aparatos inteligentes que generan ingentes volúmenes de información. De hecho, IDC estima que el negocio de tecnología y servicios dirigidos a gestionar la convergencia entre infraestructuras tecnológicas y físicas alcanzará los 122.000 millones de dólares en 2012. En respuesta a todos estos retos, la demanda va dirigida a sistemas de almacenamiento que ayuden a los clientes a integrar sus infraestructuras digitales y físicas. En definitiva, los clientes demandan la capacidad de gestionar con más seguridad y eficiencia los 15 petabytes de información que se generan cada día en el mundo, respondiendo a las masivas necesidades de información generadas por los actuales retos de seguridad, disponibilidad o cumplimiento de normativas legales a los que se enfrenta la sociedad. Para el responsable de almacenamiento de IBM, Shayke Banaim, la virtualización será una de las principales tendencias: “Esta tecnología nos permite tener los recursos corporativos de manera consolidada, independientemente de dónde estén ubicadas las máquinas, con un acceso rápido y seguro. Además reduce el número de operaciones y costes de gestión, incrementando el grado de utilización y atendiendo a las necesidades de empresa y cliente. Es una tecnología en claro auge y que aporta grandes ventajas. La popularización de la tecnología cloud es una de las últimas novedades en cuanto a virtualización”. A esta línea se suma también la responsable de HP, Sara Martínez que apunta que la ventaja de la virtualización es que “ésta consiste en poner una capa intermedia entre la realidad y lo que percibimos, con el objetivo de mejorar el rendimiento, la consolidación, la sencillez de manejo, el coste, etc… Se puede hacer virtualización dentro de la cabina de discos, en la red SAN o LAN, en los procesadores, e incluso en los puestos de trabajo”. Igualmente, en Dell, se ve a la virtualización como el nuevo paradigma del almacenamiento. Para Óscar Gomez Corrales, Enterprise Field Product Manager de Dell en España, “la virtualización permite maximizar los recursos de hardware, ofreciéndonos ventajas en aspectos tan importantes como el ahorro energético y la mejora en la refrigeración de equipos, al permitir una mayor consolidación. No hay que olvidar tampoco que se simplifican tanto la gestión como el mantenimiento de la infraestructura. Respecto a las últimas novedades, apuntan principalmente a la virtualización del puesto de trabajo, acelerado por la movilidad que esto supone. También es importante la aparición de hipervisores más ligeros y embebidos en el propio soporte servidor”.
Actualmente empresas de todos los tamaños han descubierto en la virtualización una herramienta que puede ser muy útil para adaptarse a las necesidades de cambio impuestas por el negocio, empresas que necesitan crecer rápidamente y para las que su propia complejidad y heterogeneidad puede convertirse en un lastre. Los principales beneficios que pueden obtenerse de la virtualización se relacionan con un aumento de la flexibilidad de la infraestructura de almacenamiento, mayor facilidad para el movimiento de información y reducción de la complejidad en la gestión. Son aquellos clientes con infraestructuras complejas, con múltiples plataformas y entornos heterogéneos los que más demandan una solución de virtualización que les permita unificar y simplificar procesos (aprovisionamiento, D/R, terceras copias,…) reduciendo riesgos y complejidades, y por tanto costes. Por consiguiente, esto no será una moda pasajera, ya que estos beneficios son y serán fundamentales para las empresas de todos los tamaños.
Según un estudio realizado por IT Community Research los dos beneficios principales de las tecnologías de virtualización son la optimización del hardware y la reducción del costo de la implementación y administración de aplicaciones. La encuesta indicó que las capacidades futuras de virtualización de software más importantes incluyen la facilidad de administración de entornos virtuales, soporte a servidores de terminales y la virtualización de parches para sistemas operativos. Esta tendencia hacia la aplicación de la virtualización en PC clientes se contrapone con otra revelada por la consultora Natick. Un informe de esta compañía, realizado a partir de las respuestas de 265 responsables de TI de compañías con más de 500 empleados en los EE.UU., el 38% de las empresas encuestadas planea desplegar tecnología de virtualización de servidores a lo largo del próximo año. Sin embargo, el porcentaje de organizaciones que cumplirá estos planes será aproximadamente la mitad o incluso menos del 20 por ciento.
Además, las organizaciones que ya aplican la virtualización de servidores o que están interesados en esta tecnología lo hacen para incrementar la eficiencia y la utilización de sus servidores, en un 84% de los casos, y para reducir los costos de su centro de datos, en un 72% de los encuestados.
Sólo un 28% dijo que está interesado en la virtualización de servidores para disponer de mayor capacidad de computación.
La apuesta de las empresas
A pesar de que los entornos virtualizados crecen día a día, no todas las empresas confían demasiado en este tipo de tecnología. Y es que la virtualización tiene sus riesgos. Según la Asociación de Empresas de Consultoría la virtualización de servidores ofrece beneficios irresistibles a las empresas, pero también puede ocasionarles complejos quebraderos de cabeza. Entre los primeros cabe destacar el ahorro de aparatos hardware en el centro de datos –y el consiguiente ahorro de espacio- la agilización de las cargas de trabajo, una mayor flexibilidad en la recuperación ante desastres, la reducción de costes, y, por ende, la disminución de las emisiones de carbono que perjudican a nuestro planeta. Todas estas ventajas tienen, no obstante, un precio, que puede llegar a ser muy alto si la planificación no es la adecuada. En el camino hacia la virtualización existen algunos obstáculos difíciles de superar y que la empresa debe conocer y prever de antemano. Un tropezón podría llegar a arruinar cualquier proyecto de esta naturaleza. Sin duda, le resultará traumático el darse cuenta repentinamente de que la plantilla TI de su empresa no está preparada para llevarlo a cabo y requiere una importante formación al respecto, por ejemplo. O quizá se lleve una sorpresa desagradable al no haber previsto que le llevaría al menos un mes tomar el control de su entorno servidor para poder empezar a trabajar en su transformación. También podría verse obligado a gastar dinero extra para cubrir algunos costes ocultos o comprar nuevo equipamiento, porque -sí, así es- para lo que se supone un proyecto de consolidación servidor, probablemente necesitará al principio adquirir nuevas máquinas. E incluso si consigue apañárselas para salir airoso de estas y algunas otras dificultades, lo más probable es que, al menos en algunos momentos, se sienta confundido ante los numerosos -y, a veces, contradictorios- reclamos de liderazgo en rendimiento de los diferentes suministradores de virtualización. Probablemente existe un exceso de marketing en los discursos de los suministradores de este tipo de tecnologías. Bajando a la realidad, podría decirse que, en rigor, el rasgo esencial de la virtualización servidor consiste en romper el matrimonio tradicional entre el hardware y el software (en este caso, entre el sistema físico y el software de sistema operativo), y en permitir, como consecuencia, que un único servidor físico hospede muchos servidores virtuales con sistemas operativos diferentes.
A pesar de esto, los fabricantes de soluciones de almacenamiento (y por tanto, que apuestan por la virtualización) no creen que los clientes sean reacios a la hora de adquirir este tipo de herramientas. Por ejemplo, el portavoz de Sun afirma que “la compleja situación económica por la que atravesamos ha obligado a muchas compañías a reducir su presupuesto global para TIC, y por ello tecnologías como la virtualización son muy valoradas en la medida que aportan importantísimas reducciones de costes porque, una vez ocupado el espacio no asignado, no es necesario adquirir más capacidad de almacenamiento. Otra característica especialmente valorada por los clientes al afrontar un proceso de virtualización de plataforma es la disminución de riesgos porque permite añadir, actualizar o reemplazar dispositivos sin interrupciones en la disponibilidad de las aplicaciones o los servidores”. Igualmente el portavoz de CA cree que “la virtualización poco a poco va llegando a los entornos de producción para apoyar aplicaciones tanto críticas como no críticas, y también para apoyar sus sistemas de continuidad de negocio y recuperación ante desastres. Aquellos clientes que pueden probar las bondades de la virtualización y calcular el ahorro de costes que conlleva, apuestan por esta tecnología”. Jesús Aguado, responsable de almacenamiento de FSC cree que “las empresas cada vez conocen mejor los beneficios de la virtualización; la misma ofrece numerosas ventajas, tales como: la reducción de los costes ya que las soluciones de virtualización basadas en hardware permiten consolidar una mayor cantidad de aplicaciones en menos servidores físicos y evitar de esta manera la expansión costosa del centro de datos, además de reducir los costos de administración; también valoran los clientes el incremento de la eficiencia: gracias a los procesadores se obtiene más desempeño multi-core y un mayor margen de ampliación para optimizar el desempeño de la virtualización. La tecnología de virtualización integrada reduce la necesidad de traducciones de software de uso intensivo de cómputo entre los sistemas operativos host e invitados (SOs). Finalmente la virtualización proporciona una mejor gestión de la infraestructura ya que permite administrar varios servidores como un solo grupo de recursos, y trasladar y equilibrar las cargas de trabajo entre ellos sin interrumpir el servicio”.
Qué demandan las empresas
Actualmente lo que más buscan las empresas es decir adiós a los sistemas operativos monolíticos. La virtualización crea un cambio en la evolución de los sistemas operativos, ahora, el sistema operativo ha sido el centro de gravedad de la informática cliente/servidor, pero la aparición de nuevas tecnologías, nuevos modelos de TI y de la automatización y virtualización de la infraestructura está cambiando su arquitectura y su rol en los entornos informáticos. Los días de los sistemas operativos monolíticos y de propósito general parece que están contados. En el entorno competitivo que la virtualización está creando, caracterizado por la incertidumbre que prevalecerá a corto y medio plazo hasta que acaben despuntando unas pocas arquitecturas de control de infraestructura dominantes, A medio plazo, lo que se demanda, es alinear la estrategia de virtualización propia con el negocio. Según Miguel Ángel Martín, Arquitecto de Soluciones de CA, “debido al momento económico actual, se demandan todo tipo de soluciones de gestión que ayuden a reducir costes, lógicamente sin perder operatividad, es decir, todo lo que sirva para hacer más con menos. También soluciones que ayuden a saber qué se tiene, cómo y dónde se tiene, para poder de esta manera ayudar a la toma de decisiones, maximizando el buen uso y asegurar de esta manera la disponibilidad de su negocio”. Por su parte Ángel Pérez, Pre-Sales Manager de Claranet cree que Cada vez más se observa una mayor demanda de sistemas de almacenamiento por parte de las empresas. Principalmente se trata de sistemas SAN (Storage Area Network) sobre iSCSI. Aunque también se siguen utilizando soluciones DAS (Direct Attached Storage) o NAS (Network Attached Storage), éstas están cada vez más en desuso y parece ser que en la batalla de las tecnologías de almacenamiento, el ganador ha sido la arquitectura SAN. En cuanto a FC (Fiber Channel) o iSCSI, nuevamente, parece ser que la ya anciana tecnología Ethernet está ganando otra vez, y el protocolo iSCSI, con un rendimiento ya equiparable al FC, e incluso superior en algunas aplicaciones, está imponiéndose en la carrera. El principal motivo de este incremento en la demanda ha sido la consolidación de datos en soluciones de virtualización”.
Necesidades de almacenamiento
Como hemos mencionado al principio de este artículo, las necesidades de almacenamiento aumentan día a día. Según un estudio encargado por HP a Coleman Parkes Research, el centro de datos está al límite de su capacidad y los CIOs están sometidos a intensas presiones para reducir costes y, a la vez, aumentar el valor de las TI. Al mismo tiempo, los centros de datos son cruciales para el negocio, pero la dirección aún no tiene asumida la estrecha relación entre TI y negocio. Aunque hay proyectos tácticos de mejora planificados y en funcionamiento, éstos no siempre responden a una estrategia consensuada. Otras conclusiones del informe son las siguientes:
• Los centros de datos están trabajando al 82% de su capacidad, dato bien conocido por los responsables de negocio, lo que habilita iniciativas de uso de nuevas tecnologías que reduzcan el gasto total, maximizando las inversiones actuales.
• Se predice un crecimiento en el número de proyectos de mejora, de un 46% para los próximos tres años en España, lo que refleja un potencial problema para los centros de datos actuales. Además, el número de proyectos refleja una gran actividad alrededor de iniciativas de consolidación y racionalización.
• Los principales retos en la gestión de los centros de datos son la gestión de la inversión anual, la implantación de nuevos servicios y aplicaciones con la adecuada rapidez, la necesidad de una mayor flexibilidad/agilidad de TI y, por supuesto, la reducción de los costes.
• En cuanto a los principales retos en la gestión actual, comparado con los próximos tres años, los más importantes son la necesidad de reducir los costes, la incapacidad de generar auténtica inteligencia de negocio y la gestión de la inversión anual.
• Tanto para los CIOs como para los responsables de negocio, el centro de datos es esencial para el adecuado desarrollo del negocio, lo que explica por qué crece su número y por qué se necesitan proyectos de mejora y transformación.
• Los CIOs creen que los responsables de negocio no son conscientes de la problemática actual y futura alrededor de los centros de datos.
De todo ello se deduce que transformar los centros de datos para que estén preparados para futuras exigencias se ha convertido en algo prioritario para los CIOs, como una forma de que las TI aporten verdadero valor al negocio.
Con esto se demuestra que las necesidades de almacenamiento crecen de forma rápida y constante. Para el portavoz de Unitronics, “según algunos estudios recientes de mercado, en breve, cada usuario en la red generará 1 PB de información, fotografías, videos, archivos personales, digitalización de las facturas, informes médicos, radiografías, esto afecta tanto a los usuarios como a las empresas. Por otro, los retos de las empresas en el clima económico actual son, mayor eficiencia de su empresa, mayor beneficio con los recursos humanos disponibles, innovación, agilidad, riesgo. En medio de este clima, las empresas están abocadas al “cambio”, nuevos modelos comerciales de oportunidad, nuevas iniciativas, mayor eficiencia en los procesos optimizando la gestión de su almacenamiento, minimizando el ROI al mínimo posible con el mismo personal. Las empresas que antes se adapten a este cambio, tendrán ventaja sobre sus competidores”.
Por su parte, Shayke Banaim, director de la división de almacenamiento de IBM cree que “el principal problema con el que se encuentran las empresas es la reducción de presupuestos y la necesidad de ahorrar costes. Por tanto, deben apostar por una estrategia de optimización de su infraestructura de información, invirtiendo en tecnologías innovadoras que les aporten valor y les permitan diferenciarse del mercado. Es importante por tanto que las empresas pongan al día su infraestructura de almacenamiento de datos, realizando una adecuada gestión de los mismos, que les permita responder a los retos futuros y ser más eficientes. A la hora de desplegar el centro de datos de la empresa del futuro deben disponer de soluciones escalables y que ayuden a los clientes a conservar y hacer copias de seguridad de datos críticos en centros alternativos, para garantizar la disponibilidad continuada en caso de desastre”.
A pesar de que las necesidades aumentan, no todas las empresas son conscientes de cuáles son sus necesidades de almacenamientop. Al menos, eso es lo que piensa José Manuel Bernal – director de servicios en el área de soluciones de Nextel Engineering: “Hay pocas empresas a día de hoy que tengan una estrategia clara en lo referente al almacenamiento, habitualmente se producen respuestas muy reactivas en base a las necesidades, lo que a día de hoy ocurre es que cuando surge la necesidad se cubre, por lo tanto son conscientes de la necesidad pero habitualmente prácticamente no se planifica. El problema real no es la estrategia, si no el presupuesto, además de este punto es necesario conocer perfectamente la tecnología disponible ya que las alternativas son muchas y variadas, cada fabricante ofrece un gran cúmulo de posibilidades y funcionalidades, por lo tanto se hace necesario ese conocimiento para establecer que se quiere hace y como se quiere hacer”.
La protección del activo más valioso de una empresa: la información
Hoy en día, las empresas se enfrentan a crecientes amenazas a la seguridad y disponibilidad de los sistemas de datos, como virus, piratería informática, terrorismo o desastres naturales, y a presiones internas cada vez mayores.
Además las crecientes obligaciones impuestas por las normativas exigen un control más estricto de la disponibilidad del servicio y la seguridad de los datos. Y los cambiantes modelos empresariales, como la globalización o las fusiones y adquisiciones, exigen que las operaciones se lleven a cabo las 24 horas del día, 7 días a la semana, con cambios a gran escala que aumentan la incertidumbre y el riesgo.
Desde el punto de vista del almacenamiento de los datos y de los sistemas empresariales, para la disponibilidad y la continuidad empresarial no existe una panacea única. Se trata de una progresión continua de tecnologías y soluciones que pueden implantarse por separado para solucionar un problema actual concreto de disponibilidad o protección, o bien emplearse conjuntamente para proporcionar una gama completa de protección para la información de su empresa. Las soluciones que nos encontramos a día de hoy:
Replicación local de datos
Para disfrutar de un nivel adicional de disponibilidad y continuidad del negocio, puede integrar un replicación local de datos en su solución crítica. Para ello, los datos de producción en línea se replican en un segundo disco creando copias puntuales de volúmenes de almacenamiento usando capacidades de copia instantánea y clonación (HP StorageWorks Business Copy), que se presentan posteriormente en la red SAN, y se realiza una copia de seguridad del mismo en un dispositivo de cinta. Los datos perdidos pueden recuperarse en tan sólo unos minutos a partir de la copia de datos replicados, por lo que las operaciones en curso apenas se ven afectadas.
Replicación remota de datos
Una solución de replicación remota de datos resultaría adecuada si, además de su emplazamiento principal (A), contase con un segundo emplazamiento de TI (B) en una zona geográfica diferente.
Los datos de producción en línea instalado en el emplazamiento A se duplican en otra cabina situada en un segundo emplazamiento B mediante HP StorageWorks Continuous Access. Allí estarían disponibles para poder realizar una copia de seguridad de los mismos en un dispositivo adecuado, como una librería de cintas o librerías virtuales.
Los datos perdidos pueden recuperarse en tan sólo unos minutos a partir de la copia de datos replicados, por lo que las operaciones en curso apenas se ven afectadas. Incluso puede recuperar sus datos tras producirse alguna catástrofe en el emplazamiento A través de la copia duplicada del emplazamiento B.
Soluciones de Tolerancia a Desastres
Si cuenta con una o más aplicaciones de misión crítica que requieren una protección y disponibilidad continuas, de ser posible debería ejecutarlas en un cluster. De esta manera se garantiza que, si se produce un fallo en el servidor de aplicaciones principal, la aplicación se recuperará automáticamente en otro servidor en buen estado y no se interrumpirán las operaciones.
Además, el almacenamiento en disco debe ser capaz de recuperarse con la aplicación. HP cuenta con una amplia cartera de ofertas de cluster con tolerancia a desastres entre la que se incluye HP extended Campus Cluster, Metrocluster y Continentalclusters.
Por Sara Martínez. Responsable de Soluciones de Almacenamiento Enterprise de HP Española.
Hacia un almacenamiento inteligente y dinámico
Mantener la capacidad de almacenamiento del centro de datos se ha convertido en una prioridad para los responsables tecnológicos de las empresas. Actualmente, los negocios deben responder a tales retos de seguridad, disponibilidad y cumplimiento de normativas legales que muchas veces terminan “ahogados” en la enorme cantidad de información que deben gestionar. En el mundo se generan 15 petabytes de información cada día y una empresa típica con unos 1.000 empleados gasta alrededor de cuatro millones de euros sólo en localizar información.
Nos encontramos en un mundo cada vez más interconectado, donde la cantidad de información y el número de dispositivos móviles sigue en aumento. Las empresas se encuentran, así, ante la necesidad de adaptar sus infraestructuras tecnológicas para hacerlas más dinámicas y responder a los nuevos retos del mercado global.
En el camino hacia ese modelo de “infraestructuras dinámicas”, recomendamos tener en cuenta una serie de pasos que las empresas deberían tener en cuenta para que los procesos de gestión y el almacenamiento de sus datos sean cada vez más “inteligentes”:
1. Diagnosticar la eficiencia energética.
Las soluciones de almacenamiento en la empresa consumen la mayor parte de la energía en el centro de datos, en muchos casos 13 veces más que los procesadores, según IDC. Además, según esta consultora, las necesidades de almacenamiento crecen un 50% al año en la empresa. Si el centro de datos está mal diseñado, el consumo de energía puede dispararse. El primer paso para reducir los costes de almacenamiento es diagnosticar el tipo de datos que se almacenan y el uso que se les va a dar o los requisitos que deben reunir, para posteriormente poner en marcha una política de gestión de energía en tres dimensiones, con análisis térmicos y sistemas de refrigeración para reducir notablemente el uso de energía en el centro de datos y el consumo general del edificio.
2. Construir la infraestructura adecuada.
Crear una infraestructura de almacenamiento más inteligente exige invertir en nuevas tecnologías y tiene obviamente una inversión inicial, aunque el retorno de lo invertido puede ser 10 veces mayor una vez implantada. La instalación de un hardware que tenga un consumo más inteligente puede ahorrar a toda la organización miles de euros en la factura de la electricidad. En algunos países, las empresas eléctricas ofrecen incluso tarifas más bajas a las empresas que han implementado tecnologías «verdes» en sus centros de datos.
3. Gestionar los datos.
Otro factor clave a tener en cuenta es entender la gestión del ciclo de vida de la información. La virtualización puede aumentar la tasa de utilización del almacenamiento en un 20%, reduciendo notablemente las necesidades totales de energía. Para virtualizar un entorno de almacenamiento, el director de TI debe, en primer lugar, resolver los requisitos de energía y eficiencias de los diferentes componentes del sistema para luego añadir software de virtualización de almacenamiento. Según IDC, la virtualización de almacenamiento puede, de hecho, aumentar las tasas de utilización entre un 25 y un 60%.
4. Supervisar las tasas de utilización.
Los recursos del centro de datos se asignan normalmente para gestionar picos de carga de trabajo, pero generalmente la mayor parte del tiempo funcionan muy por debajo de su capacidad real, mientras que el consumo energético se mantiene incluso cuando no se utiliza. El software de gestión automática del almacenamiento consigue importantes ahorros de costes, mientras que las herramientas de supervisión de la demanda de energía en tiempo real ayudan a modificar el consumo. También debería adoptarse una planificación para pasar al almacenamiento en cinta los datos que se usan con poca frecuencia y que residen en discos de alto rendimiento.
5. Refrigerar. Con la cantidad de hardware que se acumula en un centro de datos típico, la refrigeración se convierte en uno de sus aspectos más críticos y se ha estimado que cada año las empresas pagan una parte importante del precio de compra del centro de datos en energía, refrigeración y alojamiento de los sistemas. Sin una refrigeración adecuada, un centro de datos que funcione con generadores de respaldo, en caso de corte de energía, tendría que parar en cuestión de minutos. Realizar evaluaciones técnicas periódicas y utilizar soluciones de refrigeración adcuadas, dentro y fuera del centro de datos, reducirá extraordinariamente sus costes.
Por tanto, diagnosticar la eficiencia energética, contar con la infraestructura adecuada, gestionar los datos correctamente, supervisar su uso y refrigerar el centro de datos son los elementos fundamentales para mantener controlados los costes de almacenamiento, gestionar y analizar grandes volúmenes de información, reducir las ineficiencias e integrar todas las infraestructuras corporativas. Siguiendo estas cinco sencillas normas, los directores de TI pueden reducir de manera importante el consumo del centro de datos, así como empezar a crear un entorno de almacenamiento más respetuoso con el medio ambiente que se adapte plenamente a la perspectiva actual de un mundo más inteligente y unas infraestructuras dinámicas adaptadas a él.
Por Shayke Banaim. Director de la división de almacenamiento. IBM España, Portugal, Grecia e Israel
Almacenamiento: una cuestión de sentido común
La información es uno de los activos fundamentales de cualquier empresa y cada vez es mayor la cantidad de datos que se generan y que hay que almacenar de forma segura, evitando su pérdida bajo cualquier circunstancia. Afortunadamente, así lo están percibiendo las empresas españolas. Si bien este mercado se ha convertido en uno de los más pujantes del sector informático, sus tendencias y modelo han cambiado considerablemente en los últimos años.
El almacenamiento compartido, a través de entornos tanto NAS (Network Attached Storage o almacenamiento conectado a red) y/o SAN (Storage Area Network o red de área de almacenamiento), es ya el modelo del almacenamiento por antonomasia (camino del “almacenamiento en nube”). Las conexiones entre los elementos que componen dicho almacenamiento están sistemáticamente sometidas a la dictadura del rendimiento máximo, que deriva en la permanente presentación de nuevas tecnologías de acceso. Por tanto, convergencia e interoperabilidad entre fabricantes es lo que nos pide el sentido común: ¿es alcanzable? … o seguiremos muriendo “amortizados” en el intento.
Ante la creciente necesidad de las empresas de contar con mejores productos y sistemas de almacenar sus datos, los requisitos de disminuir costes y reducir el TCO o coste total de la propiedad, están a la orden del día.
Para que las empresas vean cumplidos sus requisitos, lo que precisan es contar con una gran eficiencia en sus sistemas de almacenamiento y la solución para ello está encerrada en un término: la virtualización, facilitar la gestión del almacenamiento resolviendo el caos de la información. Tratar de gestionar los datos de modo inteligente y a través de un software que no acentúe el vacío que existe entre las necesidades de información y las capacidades de almacenamiento es clave.
Una óptima gestión de los sistemas de almacenamiento es fundamental, por cada euro que se gasta en infraestructura de almacenamiento, si no se tiene una política de gestión adecuada, se ocasionará un gasto diferido de entre cinco y siete euros más.
Ahora bien, la proverbial austeridad con la que tienen que trabajar los Departamentos de TI, unido al aumento de la demanda de requerimientos de almacenamiento de datos y la necesidad de ofrecer soluciones de continuidad de negocio flexibles, les obliga a trabajar bajo presión, haciendo más con menos recursos. ¿Cómo?: Para empezar, aprovechando al máximo las inversiones ya realizadas (“convergencia e interoperabilidad”, ¿recuerdan?).
A los Directores Financieros, Responsables de Compras y Directores TI ya no les basta con la evaluación del almacenamiento en términos de coste por Megabyte, y cada vez tienen más en cuenta el coste total de la propiedad y los beneficios que pueden alcanzarse mediante la reducción de los costes de operación.
Para materializar un retorno en activos, las soluciones de almacenamiento por niveles y virtualización, permiten alcanzar un ahorro real en costes operativos (desde electricidad, espacio, mano de obra de gestión y mantenimiento de hardware y software, etc.) y ajustar la prioridad de la información y su ritmo de crecimiento. Así, el almacenamiento por niveles es más económico para el crecimiento de las arquitecturas monolíticas; la virtualización puede aumentar la utilización del sistema, reduciendo al mismo tiempo el coste de gestión.
En definitiva, si bien el mercado proporciona cada vez soluciones de mayor capacidad a menor coste total, sólo aplicando sentido común por parte de todos (desde fabricantes a usuarios: visión 360º) el crecimiento en volumen de la información a desduplicar, jerarquizar, respaldar, garantizar, intercambiar, movilizar, etc. conllevará unos costes totales (TCO) compatibles con la vida (para la mayoría de las empresas), dando lugar a proyectos realizables.
Por Miguel Ángel Nicolao. Director de Sistemas PANEL SISTEMAS INFORMÁTICOS
Las ventajas de la virtualización
Son muchas las ventajas que ofrece la virtualización y se podrían resumir fundamentalmente en los siguientes puntos:
– Consolidación: Permite reducir considerablemente el número de servidores dentro del CPD con los ahorros que esto supone en espacio, HW, mantenimientos, gestión…
– Flexibilidad: La infraestructura virtual permite que de forma dinámica y automática se haga un balanceo de carga y asignación de recursos para asegurar que todas las aplicaciones disponen de todos los recursos que necesitan en el momento preciso. Esto permite alinear perfectamente la TI con las necesidades del negocio.
– Despliegue de nuevas aplicaciones y servicios: Permite poner en marcha nuevas aplicaciones de forma sencilla y en cuestión de horas. De esta manera se puede responder con agilidad a las cambiantes necesidades del negocio.
– Continuidad del Negocio: gracias a la virtualización es mucho más sencillo y asequible plantear estrategias de Continuidad del Negocio.
Storage Resource Management
Los requerimientos del negocio, están generando una demanda creciente de acceso on-line a la información corporativa de las organizaciones. Dicha demanda de almacenamiento debe abordarse con un impacto mínimo sobre los presupuestos de TI y con una gestión efectiva, lo que requerirá de las organizaciones de TI que implanten herramientas robustas de gestión de recursos de almacenamiento y comiencen a clasificar la información, preparando así el terreno para una gestión de políticas adecuada.
En los últimos años las cifras sobre datos almacenados han crecido exponencialmente, por lo tanto la evolución irá marcada por el modelo de gestión a aplicar sobre las tecnologías sobre las que se apoyará el almacenamiento. En este sentido aparece un nuevo término: Storage Resource Management (SRM), que trata de aportar soluciones al problema de cómo gestionar los datos con bajo coste y de forma eficiente.
El mercado no está saturado, al contrario, la necesidad es cada vez mayor, en este sentido lo que realmente necesitan las empresas son soluciones enfocadas a gestionar lo que a día de hoy se tiene o está en previsiones.
En este sentido tal y como hemos comentado anteriormente, se hace necesaria una estrategia de gestión, esta estrategia a día de hoy es SRM (Storage Resource Management).
SRM es un conjunto de soluciones integradas que ofrecen a los administradores de TI una perspectiva a nivel de Data Center sobre sus operaciones y activos de almacenamiento, el funcionamiento se produce dentro del ámbito de arquitecturas heterogéneas; esta tecnología permite administrar el almacenamiento de forma conjunta, así pues estas soluciones facilitan la optimización y ayudan a los responsables a conocer el uso y las necesidades actuales y futuras. Dentro del mercado ya se pueden encontrar algunos fabricantes que proporcionan soluciones SRM: CA; Brocade, EMC, Hitachi, IBM, Symantec,etc.
Por José Manuel Bernal. Director de servicios en el área de soluciones de Nextel Engineering
HP prueba su propia medicina
HP cuenta con un portfolio de soluciones que da respuesta a todos los dominios de la transformación de un centro de datos, y una metodología y los recursos adecuados para llevarlo a cabo, como es HP Data Center Transformation.
Esta propuesta se basa en cuatro aspectos fundamentales: Principios (Estandarización, Simplificación, Modularidad e Integración), Actividades relacionadas con la Transformación (Consolidación, Virtualización, Integración, Gestión, Optimización, Automatización y Seguridad), Ámbitos (Instalaciones, Infraestructura de TI, Aplicaciones e Información, y Gestión y Operación), y todo ello teniendo en cuenta Personas, Procesos y Tecnología.
El proceso de transformación se lleva a cabo en tres fases diferenciadas. En la primera se analiza en estado actual y se definen la estrategia a seguir, los objetivos y las métricas. En la segunda fase se lleva a cabo la Planificación, Migración y Transformación, dando paso a una tercera y última fase en la que se llega al estado deseado, con una arquitectura que da respuesta a los objetivos y métricas planteados en la primera fase.
“Gracias a HP DCT, de islas y silos de tecnología y aplicaciones se pasa a infraestructuras y aplicaciones optimizadas y compartidas por varias líneas de negocio. De las particularidades y la excepciones se pasa a un aprovisionamiento y configuración estándar e integrada, y de una escasa flexibilidad y utilización se pasa a una gran flexibilidad y adaptabilidad”, afirma Jesús Plaza, Gerente de HP Data Center Transformation para España y Portugal. “A ello se une el paso de una escasa preocupación por la eficiencia energética a la optimización del consumo eléctrico y de una operación y administración manual a cadenas de proceso estándar con gestión automatizada. Una vez llevada a cabo esta transformación, el nuevo centro de datos se caracteriza por estar siempre disponible, ser global y virtual, estar orientado a servicio y automatizado, y ser eficiente en energía y espacio. Por todo ello, HP DTC es algo realmente único en el mercado”.
Como ejemplo práctico en 2005, la propia HP emprendió un ambicioso proyecto de transformación de sus propios centros de datos, para lo que utilizó HP Data Center Transformation. Ese año HP contaba con más de 85 centros de datos repartidos por 29 países, con más de cien localizaciones para personal de TI en 53 ubicaciones alrededor del mundo, 19.000 personas destinadas a TI, con más de cuatro mil aplicaciones, 1.200 proyectos de TI activos, una red no totalmente gestionada y menos del 50% del tiempo de las personas dedicado a innovación, con un gasto en TI que suponía más del cuatro por ciento de los ingresos de la compañía.
En 2008, una vez terminada la transformación del centro de datos, la situación era bien distinta. Con un 40% menos de servidores se obtiene un 250% más de capacidad de proceso; con menos coste de almacenaje hay el doble de capacidad de almacenamiento y con todos los datos replicados. Además, se dispone del triple de ancho de banda con un 50% menos de costes de red, y hay un 65% menos de aplicaciones que suponen un mejor servicio; a su vez, al tener menos emplazamientos, los despliegues son más rápidos.
De este modo, y gracias a HP Data Center Transformation, desde 2008 HP cuenta con centros de datos globales con unas TI de primera clase, caracterizados por una eficiencia y eficacia del personal, una gestión del porfolio y un data Warehouse empresarial. Se ha conseguido reducir el gasto de TI a menos del 2% de los ingresos de la compañía.
Conozca más sobre los servicios de Cloud Hosting, Shdsl, Adsl, VPN y Aplicación Gestionada de Claranet