Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

Hitachi Data Systems presenta las principales tendencias del mercado del almacenamiento en 2008

Hitachi Data Systems ha elaborado una lista con las principales tendencias que marcarán el mercado del almacenamiento en 2008. Según Ángel Fernández, Director General de Hitachi Data Systems en España y Portugal, las preocupaciones medioambientales y el cumplimiento de las normativas seguirán marcando la agenda de los responsables de tomas de decisiones en las empresas.
Controlar las emisiones de carbono: Dada la creciente preocupación por el calentamiento global, los gobiernos se verán obligados a imponer más directrices y legislaciones en torno a las emisiones de carbono. Las principales empresas deberán fijarse cuotas para las emisiones de carbono. Una de las principales fuentes de emisiones de carbono procede de la generación de electricidad. El aumento de la demanda de la energía, el ancho de banda de red y la capacidad del almacenamiento incrementarán la necesidad de energía y refrigeración en el data center.
El Gobierno de EEUU acaba de completar un estudio en el que estimó que el sector de las TI consumió alrededor de 61 millones de kilovatios por hora (kWh) en 2006 (1,5% del total del consumo de electricidad en los EEUU) con un coste total en electricidad de cerca de 4.500 millones de dólares. Esto se duplicará en los próximos cinco años. Algunas ciudades como Londres y Nueva York se han visto obligadas a trasladar sus data center, por la falta de capacidad eléctrica, a zonas donde la energía este disponible. Esto requerirá mejoras en las instalaciones y la inversión en tecnología “verde”.
En Septiembre de 2007, Hitachi Ltd., anunció un programa que en Japón se conoce como CoolCentre50 que está dirigido a reducir el consumo de energía en sus data center de Yokohama y Okayama en un 50% en los próximos cinco años. Este esfuerzo abarca la totalidad del grupo Hitachi, incluyendo sus subsidiarias de aire acondicionado, generación de energía, equipos de TI y software de gestión. Como apoyo a este objetivo, Naoya Takahashi, Director General Ejecutivo y Vicepresidente de Información y Telecomunicaciones del Grupo Hitachi, anunció un ambicioso Plan Verde que tiene por objeto reducir 330.000 toneladas de CO2 en los próximos cinco años a través del desarrollo de tecnologías de ahorro de energía como productos de almacenamiento y servidores de virtualización.
Incertidumbre económica: El colapso del mercado de la vivienda en los EEUU, los altos precios del petróleo y la caída del dólar generarán incertidumbre económica en 2008. Los presupuestos ajustados en TI harán que se tenga que hacer más con menos. Hacer más con menos impulsará la búsqueda de nuevas formas de consolidar los recursos de TI a través de la virtualización, el aumento de la utilización de los recursos como la capacidad del almacenamiento y el ciclo del servidor, la eliminación de redundancias donde sea posible a través de la de-duplicación y almacenamiento en instancia única, y reducir el sistema de trabajo en la producción de datos a través de la mayor utilización de los productos de archivado.
Incrementar el uso de archivos: La explosión de datos estructurados como bases de datos, ya están obligando a retener más datos por razones normativas. Los datos semi-estructurados como correo electrónico, páginas Web y gestión de documentos y datos está incrementándose significativamente. Las cuotas de los e-mail corporativos aumentarán de menos de 200 MB a 2 GB con el fin de soportar a nuevos trabajadores del conocimiento y competir con los buscadores que ofrecen correo gratis como Google y Yahoo!. Una avalancha de datos no estructurados será promovido por etiquetas RFID, tarjetas smart y sensores que monitorizan todo como los latidos del corazón o los puestos fronterizos. El nuevo Airbus y Boeing Dream Liners generarán Terabytes (TBs) de datos en cada vuelo. Todas estas presiones llevarán a la necesidad de archivar datos con el fin de reducir el trabajo de los sistemas de producción. Por ello, los nuevos sistemas de archivo podrán escalar a petabytes y proporcionar la capacidad de búsqueda de contenido a través de diferentes modalidades de datos. La creación de un archivo por cada tipo de dato no resuelve el problema.
Ser concientes de la deficiencias del almacenamiento: Habrá una creciente conciencia de que el almacenamiento de datos se ha convertido en ineficiente, de baja utilización, almacenamiento desestimado, demasiadas copias redundantes, bajas velocidades de acceso, búsqueda ineficiente y migración y movimientos disruptivos. La constante compra de la misma vieja arquitectura de almacenamiento ya no será una opción. La compra de procesadores de almacenamiento más rápidos con discos de mayores capacidades con las mismas anticuadas arquitecturas ya no será viable. Nuevas arquitecturas de almacenamiento serán necesarias para cumplir con estos cambios de la demanda. Una nueva arquitectura que pueda escalar rendimiento, conectividad y capacidad no disruptiva a múltiples petabytes será necesario. También debe ser capaz de proporcionar nuevos datos y servicios de almacenamiento como multi-protocolo y búsqueda común, a través de dispositivos de almacenamiento heterogéneo, con gestión centralizada y protección segura.
La movilidad de los datos será un requisito clave: Con la necesidad de la disponibilidad de las aplicaciones, las TIs tendrán la posibilidad de trasladar los datos sin disrupción por parte de la aplicación. El software de migración de datos, utilizado en el pasado robaba ciclos de procesamiento de las aplicaciones y su velocidad era lenta y estaba limita a las conexiones IP a la hora de mover los datos. Como el volumen de datos aumenta, esto se convierte también en disruptivo. El movimiento de datos tendrá que ser descargado a un sistema de almacenamiento que puede mover datos a través de un enlace de Fibre Channel de alta velocidad sin necesidad de aplicaciones de ciclo de procesamiento. Esto será cada vez más importante para la migración de datos durante las actualizaciones del almacenamiento y para mayor capacidad de los entornos de almacenamiento.
Unidad de Control de la Virtualización del Almacenamiento: Unidad de Control de la Virtualización del Almacenamiento será reconocido como el único enfoque de la virtualización del almacenamiento que puede añadir valor a los actuales dispositivos de almacenamiento. Analistas del mercado como Kevin McIsaac, de Intelligence Business Research Services Pty en Australia, señala que “la idea de ser capaces (basados en red) de virtualizar más dispositivos de almacenamiento existente es seriamente deficiente”. Él señala que esto se “traduce en un mínimo común denominador de la visión de la infraestructura, eliminando las valiosas características añadidas de los sistemas”. Este tipo de virtualización añade un nivel de complejidad introduciendo un cuello de botella, que se convertirá en otra fuente potencial de fracaso, y en la dependencia de un fabricante. Un enfoque basado en la unidad de control de la virtualización es capaz de movilizar toda la rica funcionalidad de la unidad de control para mejorar la funcionalidad de menor coste o legados de sistemas de almacenamiento por niveles. Un enfoque basado en la unidad de control de la virtualización permitirá a los sistemas de almacenamiento con menos capacidad utilizar los servicios de valor añadido desde la unidad de control hasta las funciones de movilidad de los datos o capacidades de thin provisioning.
Almacenamiento Orientado a Servicios: El Almacenamiento Orientado a Servicios se convertirá en un complemento necesario para la Arquitectura Orientada a Servicios (SOA, en sus siglas en inglés) en el espacio de aplicaciones e Infraestructura Orientada a Servicios a fin de lograr un dinámico centro de datos del futuro. SOA depende de un nivel de virtualización proporcionado por XML, que permite a las aplicaciones compartir información y utilizar los servicios comunes como la facturación. Las Infraestructuras Orientadas a Servicios depende de un nivel de virtualización proporcionada por productos como VMWare, que permite a los sistemas operativos compartir los recursos de procesamiento de una plataforma. El Almacenamiento Orientado a Servicios requiere un nivel de virtualización en la unidad de control del almacenamiento, que permite a otros sistemas de almacenamiento aprovechar sus servicios como caché de alto rendimiento, replicación a distancia, almacenamiento por niveles y thin provisioning.
Convergencia de Contenido, Archivo y Servicios de Almacenamiento basado en Bloque: En lugar de separar las funcionalidades de los sistemas de almacenamiento para contenido, archivo y sistemas de almacenamiento de bloque, vamos a ver la convergencia de estos tipos de almacenamiento en una plataforma común de virtualización. La alta disponibilidad de clusters de servidores de contenido y servidores de archivo utilizarán un bloque común de la plataforma de servicios de virtualización, bajo un sistema común de herramientas de gestión. De esta manera, los servidores de contenido o servidores de archivo comunes utilizarán los servicios de bloque comunes como replicación a distancia, thin provisioning o virtualización de los sistemas de almacenamiento heterogéneos.
Thin Provisioning: Thin Provisioning proporcionará los mejores beneficios con la mayor utilización del almacenamiento mediante la eliminación de los residuos asignados a las capacidades del almacenamiento no utilizados. Este ahorro se multiplica muchas veces al eliminar la necesidad de asignar copias en la capacidad no utilizada cada vez que una copia se requiera para los ciclos de backup, replicación, data mining, desarrollo de pruebas, distribución de datos, etc. La implementación de thin provisioning proporciona un servicio en una plataforma de virtualización de almacenamiento con el fin de que pueda beneficiarse de los actuales sistemas de almacenamiento a través de la virtualización. Los beneficios de thin provisioning serían superados si se requiere otro sistema de almacenamiento independiente. Esta posibilidad de aumentar la utilización sería aceptada por los defensores del medio ambiente y será visto como una manera de contener los costes.
De-duplicación: La de-duplicación será implementada por todos los principales fabricantes de backup. La de-duplicación es especialmente eficiente en la eliminación de la duplicación de datos en los backups. La posibilidad de reducir un flujo de datos en 20 ó 30 veces será significativamente valiosa en la reducción de los gastos del almacenamiento de datos hasta el punto de que será posible almacenar el backup de datos en disco en lugar de cinta donde el funcionamiento, la disponibilidad, la fiabilidad y las características son mejores. Otras formas de de-duplicación como única instancia para almacenar archivos, y la copia para escritura/lectura estarán cada vez más extendidas.

Deja un comentario

Scroll al inicio