El centro de datos se encuentra en permanente cambio. La migración hacia la nube hace que los data centers que se encuentran en las instalaciones de las propias empresas hayan reducido su presencia en las mismas pero, sin ellos, la nube y todo lo que ésta conlleva, no sería posible.
El modelo tradicional, poco a poco va dejando paso a otras fórmulas de centro de datos. Ya no se ven tantos data centers basados en silos entre otros motivos porque supone unos importantes sobrecostes, una gestión más difícil, una escalabilidad limitada y por supuesto unos consumos de electricidad que las organizaciones no pueden permitirse. Tal y como señala Roberto Moral, Director de Arquitecturas de Cisco, “el data center ya no es un lugar fijo y estático. Existe donde se crean, procesan y utilizan los datos y las aplicaciones: en ubicaciones múltiples, locales o remotas. Esto no significa que el data center desparezca, sino que se está expandiendo”.
Las empresas de todos los tamaños buscan desarrollar aplicaciones de próxima generación, crear conocimientos procesables a partir de sus datos e impulsar el crecimiento del negocio. Pero, por otro lado, también se están enfrentando a otros problemas como por ejemplo, la falta de conocimientos de TI, la reducción de presupuestos o la falta de flexibilidad para elegir la base tecnológica que mejor se adapte a sus necesidades específicas. A fin de cuentas, no quieren gastar sus recursos en la gestión de sus infraestructuras, ya sea en el extremo, en el centro de datos o en la nube. En este sentido, Galo Montes, Director de Tecnología y Preventa de HPE cree que la clave en la evolución de los centros de datos radica en que Las aplicaciones y los datos que crean y gestionan nuestras empresas viven en todas partes, en nubes públicas y privadas, dentro y fuera de las instalaciones y, cada vez más, en el extremo, lo que crea complejidad. HPE cree que la empresa del futuro necesitará estar centrada en el extremo, habilitada para la nube y dirigida por los datos para convertir todos esos datos en acción y valor para crear nuevas experiencias. Nuestros clientes necesitarán soluciones que optimicen la carga de trabajo y se entreguen como un servicio, totalmente gestionado por ellos, en un modelo de pago por uso o mediante suscripción. Por ello, HPE ha trabajado en las tecnologías, con sus partners, así como con los servicios y modelos financieros adecuados para ayudar a nuestros clientes a prosperar en sus negocios, desde cualquier punto hasta cualquier nube”.
Covid-19 como ejemplo
La importancia que han jugado los centros de datos se ha podido ver desde que se inició la pandemia provocada por Covid-19. Durante este tiempo, son muchas las empresas que han podido seguir con su labor gracias a la tecnología. Evidentemente, las redes de comunicaciones han jugado el papel más importante, pero sin los centros de datos, el trabajo a distancia y el aprovechamiento de cloud tampoco habría sido posible. El papel de los proveedores ha sido fundamental. Un ejemplo de ello es Arsys. Tal y como afirma Arsys Olof Sandstrom, director de operaciones de la compañía, “el coronavirus ha pillado al mundo por sorpresa y Cloud Computing se convirtió en uno de los salvavidas de la pandemia. Nuestros Centros de Datos han sido capaces de soportar cargas y demandas muy exigentes, con picos de tráfico altísimos en determinados momentos: desde el tsunami del teletrabajo forzado al aumento exponencial de la demanda en los hogares (videojuegos, cine, series, clases online, videollamadas…) Pero quizás lo más importante es que han servido para garantizar la continuidad de muchos negocios demostrando una gran resiliencia, flexibilidad y capacidad de adaptación a lo inesperado, a cargas o picos de tráfico sostenidos y a las nuevas necesidades surgidas de la pandemia”.
No sólo los centros de datos se han comportado de forma excepcional. La pandemia también ha supuesto un impulso en la transformación de ese data center que comentábamos al principio. Y es que, son muchas las organizaciones que, teniendo un centro de datos propios han empezado a apostar por la externalización del mismo. En este aspecto, Robert Assink, director general de Interxion afirma que “la pandemia ha impulsado la transformación digital en muchas empresas, lo que ha hecho que compañías con centros de datos propios hayan optado por externalizar su infraestructura IT y alojarla en centros especializados, con más opciones para crecer e interconectarse con proveedores telco, nubes públicas o proveedores de servicios gestionados”. Lo mismo opinan en Lenovo. En este caso, Rafael Herranz, director general de la división Data Center de la multinacional afirma que “la crisis del coronavirus ha hecho patente el papel clave del centro de datos en todas las organizaciones, incluyendo las soluciones de virtualización de escritorio y aplicaciones virtuales. La disponibilidad de las actividades del negocio de cientos de organizaciones, junto con la administración y gestión de la ingesta de datos durante este tiempo de pandemia, ha sido determinante para que, aquellas empresas que aún no tenían claro un plan de transformación digital, se dieran cuenta que no hay marcha atrás, el activo más crítico es y seguirá siendo el dato, por lo que su disponibilidad para la acertada toma de decisiones traerá consigo contar con una infraestructura de IT segura y eficiente”.
Retos
La evolución que está sufriendo el centro de datos hace que se enfrente a importantes retos. La transformación digital que están realizando las empresa ha posibilitado que el data center tenga un impulso importante y, con él, todas las áreas que lo ocupan: servidores, almacenamiento, hiperconvergencia, redes, seguridad y software. Por este motivos todas estas áreas tienen que enfrentarse a retos importantes. Pero hay más. Según Jaime Balañá, director técnico de NetApp, “factores como el espacio físico o el consumo eléctrico son muy relevantes para las empresas, pero conseguir la mayor eficiencia posible en todas las áreas y acelerar las aplicaciones y la puesta en marcha de nuevos servicios es la clave de un centro de datos realmente asequible y sostenible. Adoptar las nuevas tecnologías que constantemente van emergiendo, y que siempre buscan ocupar menos espacio, ser más veloces y eficientes, ahorrar costes a la vez que resuelven mayores retos… apostar por la innovación, en definitiva, es esencial para mantener la ventaja competitiva en un mercado en constante evolución”.
En la última década se ha podido ver visto un cambio dramático en la forma en que los centros de datos son percibidos por la industria. Hasta hace poco, eran considerados un activo esencial por muchas organizaciones, pues reflejaban el estado de madurez de su TI y eran objeto de envidia de sus competidores. Ahora son vistos como un artículo esencial, pero no como uno en el que los CIOs y los dueños de presupuestos de TI desean gastar dinero. Con el dominio global de los proveedores de nubes a hiperescala como Amazon AWS, Google y Microsoft Azure, todos pensaron que el centro de datos se convertiría en un legado, pero la realidad es que las empresas ahora se dan cuenta de que una estrategia de nube híbrida es esencial y, por lo tanto, también lo es el centro de datos.
Hasta ese momento, hemos visto el renacimiento del centro de datos, pero con modelos que reflejan el que siguen los proveedores cloud. Por este motivo, tal y como apunta Galo Montes de HPE, “los clientes continúan queriendo tener el control que tenían cuando eran dueños de sus propios activos, pero ahora quieren utilizar el espacio, la energía y la refrigeración sobre una base de consumo que refleje la de sus proveedores cloud. Además, quieren aprovechar todo el centro de datos (medioambiente, networking, informática, almacenamiento, plataformas, gestión) sobre la base del consumo cloud. Es decir, maximizar la vida útil de sus aplicaciones de negocio básicas heredadas que no pueden migrar a la nube pero que necesitan la misma experiencia que la nube pública. Por otro lado, muchas organizaciones se enfrentan ahora a importantes retos en torno a los nuevos participantes disruptivos en los mercados, con un ritmo de cambio significativo y, por lo tanto, se han centrado en la transformación digital para hacerlos relevantes en sus mercados. Habrá aún más presión para subcontratar plataformas tecnológicas y poder así centrarse en los resultados de sus respectivos mercados. Aquí es donde el modelo de «Tecnología como Servicio» realmente impulsará lo que entra en estos modernos centros de datos y quiénes son sus propietarios. Un centro de datos moderno del futuro debería ser subcontratado en un 90%, con un 10% de acceso gestionado por el cliente para sus aplicaciones personalizadas”.
La eficiencia energética es un factor fundamental porque las empresas ya no están dispuestas a soportar sobrecostes en el centro de datos debido al consumo energético
Pero si hay una palabra que realmente supone un reto para este mercado, esa no es otra que la sostenibilidad. La eficiencia energética es un factor fundamental, además de por la protección del medio ambiente, porque las empresas ya no están dispuestas a soportar sobrecostes debido al consumo energético. “Conseguir la máxima eficiencia siendo sostenibles con el medio ambiente es el gran desafío al que se enfrenta el Centro de Datos. La demanda energética está aumentando exponencialmente y lo seguirá haciendo en los próximos años. “Mantener a raya” ese consumo eléctrico, imprescindible para garantizar el funcionamiento ininterrumpido de estas infraestructuras, resulta determinante para alcanzar la eficiencia energética y cumplir con los compromisos medioambientales que tenemos todas las compañías. Por si fuera poco, el auge de la Inteligencia Artificial, el Internet de las Cosas y el Machine Learning están multiplicando la exigencia de computación y, por tanto, la necesidad de contar con nuevas y mejores soluciones para optimizar la eficiencia energética. Para conseguirlo, los Centros de Datos más modernos intentan reducir el consumo de energía utilizando sistemas de freecooling en los equipos de aire acondicionado y otras técnicas que permiten trabajar a los sistemas de IT con temperaturas más altas. En Arsys combinamos diferentes sistemas de aislamiento y control de temperaturas, así como diferentes configuraciones de aire acondicionado y climatización, para conseguir un conjunto altamente eficiente que, además, se apoya precisamente en la Inteligencia Artificial a la hora de monitorizar y controlar las salas técnicas, para serlo todavía más. La IA desempeña un papel cada vez más importante a la hora de evitar el sobrecalentamiento de los equipos. Pero la eficiencia no se consigue solo con lo anterior, sino optimizando los recursos de las infraestructuras.
«Todavía hay muchos sistemas trabajando con cargas de CPU, RAM o almacenamiento ridículas, por debajo del 20% e incluso del 15% de uso de CPU. Funcionando así por si acaso algún día hay un pico de demanda que sea necesario absorber. Es un modelo tradicional que aún se repite con demasiada frecuencia y que es claramente incompatible con la eficiencia”, afirma Olof Sandstrom de Arsys.
Tendencias
El centro de datos va a seguir evolucionando y la nube y los entornos cloud van a ser los principales responsables en esta futura evolución. Si a eso le sumamos la importancia cada vez mayor de tendencias como el Big Data, IoT, etc. el papel que van a jugar los data centers del futuro, será cada vez mayor. Y es que, los datos son el petróleo del siglo XXI. Es la base del negocio y es la pieza clave de las nuevas tecnologías que se están desarrollando, por eso, creemos que la inversión no solo en centro de datos, si no en general en soluciones o infraestructuras IT seguirá siendo importante, porque de esta manera, las organizaciones pueden garantizar ser competitivas ante un cliente cada vez más exigente e hiperconectado que quiere recibir la información en cualquier momento y en cualquier lugar. Por eso, Rafael Herranz de Lenovo cree que “las prioridades de los centros de datos tienden a centrarse en la fiabilidad, la gestión e integración de los sistemas y la mejora de habilidades del personal. Los aspectos más técnicos, relativos al consumo y suministro de energía, la refrigeración y la capacidad, serán también una prioridad. En este contexto, según IDC los retos del futuro de los data center para poder alinearse no sólo con la creciente demanda de manejo de cargas de datos, sino proveer de seguridad, minimizar la latencia y garantizar eficiencia con el Edge Computing como su principal aliado”.
Por su parte, Javier Gallego Director de Data Center Compute Solutions de Dell Technologies cree que “la principal tendencia que observamos es la constatación por parte de la mayoría de las empresas de que su futuro inmediato y a medio plazo no pasa por la adopción total e incondicional de la nube pública para sus lógicas de negocio. Las organizaciones son conscientes de su potencial digital y las múltiples dimensiones que ello significa. Observan con mayor perspectiva todos esos nuevos lugares donde se generan datos valiosos para sus organizaciones. Esto sucede en las nubes públicas, en las privadas y en entornos satélites o de “Edge Computing”, de donde se obtiene mucha información accionable para diferentes intereses corporativos y públicos. Cabe destacar que los datos que vienen de eso llamado Edge Computing no es propiedad exclusiva de las grandes corporaciones, sino que incluye cualquier tipo de dato generado por personas o máquinas en cualquier lugar que sea potencialmente útil para cualquier tamaño de empresa. La tendencia en resumen es una transición de los centros de datos clásicos a diferentes dimensiones conectadas de una forma radicalmente más eficiente con nuevas tecnologías como las redes 5G. Estos entornos de edge, nube privada y nube pública y su interconexión, serán la clave del éxito de muchas compañías en el futuro inmediato”.
Es poco probable que el centro de datos del futuro se consuma como un entorno por sí solo. Será un ecosistema de tecnología y entorno que emplee un modelo de consumo cloud. Será un sistema de construcción de componentes de tecnología que impulsan la mentalidad pura «As a service», ya sea para la comprensión de datos, la IA o algo que está por venir. Así que tiene sentido que el CPD y las certificaciones pertinentes necesiten prestar atención en este sentido. Para Galo Montes de HPE, “la certificación debe asegurar que el ecosistema de cloud híbrida está en el corazón del aprendizaje y la educación, no sólo los componentes tradicionales como la energía, la refrigeración, la distribución y la capacidad con los que estamos familiarizados y cómodos. Las organizaciones necesitan invertir fuertemente en habilidades para operar un verdadero ecosistema de centro de datos de nube híbrida (integración a la nube pública, conocimiento de datos y servicios de IA). Además, las empresas deben invertir realmente en una estrategia integral en la que el viaje del «Edge to Cloud» debe realizarse a través de un verdadero modelo «As a Service». Viviremos en un mundo en el que hacer que lo viejo y lo nuevo trabajen juntos va a permanecer durante varios años y es esencial que las viejas habilidades no se pierdan, sino que se construyan para asegurar que las empresas puedan adaptarse, adoptar y florecer en este nuevo mundo”.
La infraestructura TI de las empresas está cambiando hacia nuevos modelos, en los que las tecnologías se unen, creando un nuevo modelo de centro de datos estrechamente vinculado a la nube. En opinión de Jaime Balañá de NetApp, “en estas nuevas arquitecturas, la combinación de los sistemas HCI con las nuevas plataformas all flash y el almacenamiento definido por software permite a las empresas alcanzar mejor sus objetivos digitales. Por eso, nuestra visión nos lleva a imaginar un centro de datos que permite operar de forma flexible con la nube pública, la nube privada y las instalaciones on-premise, aprovechando las ventajas de cada modelo de infraestructura y reduciendo al máximo los costes innecesarios. Y, para su concepto de nube privada, NetApp ofrece una combinación de tecnologías que permiten a las empresas construir su nube a través del software”.
Como hemos dicho, la nube es el principal impulsor del cambio que se está produciendo en el centro de datos. La realidad ya es este data center multi-cloud e híbrido. Con las aplicaciones activas en todos los puntos de la red, el centro de datos ya no se puede limitar a un lugar específico. Se ha ‘descentralizado’, y debe actuar allí donde se encuentran los datos o donde se desarrollan o implementan las aplicaciones. Además, desde Interxion, su máximo responsable asegura que “se está observando un crecimiento del modelo colocation, por varias razones: cada vez es más difícil realizar inversiones para actualizar los centros de datos propios; las empresas necesitan alojarse en un nodo de interconexión que facilita los negocios digitales; las compañías demandan opciones privadas de conectividad (más seguridad, menos latencia y a menores costes) con las nubes públicas. También un incremento del edge computing, en el que los centros de datos deberán sumar mayores capacidades de interconexión para mover los datos que viajan entre los puntos donde se recoge y se procesa la información”.
Seguridad
Uno de los apartados que más importancia está teniendo entre todas las empresas, sobre todo a raíz de que la mayoría de empleados han tenido que trabajar desde sus casas, es el de la seguridad. La seguridad en el centro de datos cobra una mayor relevancia si cabe. Hay que reseñar que, por otro lado, los ataques son cada vez más sofisticados por lo que las medidas de protección y la inversión en dotar a los centros de datos de las herramientas necesarias de seguridad es más que necesario. Igual que los ciberataques han cambiado, también debe variar la forma en la que se despliegan las medidas de seguridad.
Como afirma Javier Gallego de Dell Technologies, “la seguridad del dato en el data center debe analizarse de una forma diferente a como lo hacíamos hasta ahora. Diferente porque vivimos una realidad distinta. Nuestros datos están diseminados por nubes privadas, nubes públicas, aplicaciones de negocio en modalidad SaaS y cada vez más empleados trabajando en remoto. La aproximación clásica ha sido defender el perímetro, nuestro castillo fortificado por diferentes soluciones clásicas de seguridad. Actualmente el perímetro se desdibuja y deslocaliza, luego las soluciones antiguas no valen para las nuevas amenazas. En Dell Technologies promovemos una aproximación de seguridad intrínseca donde por defecto nunca se confía, siempre se comprueba. El usuario, su dispositivo, así como diferentes parámetros del acceso solicitado a los datos o las aplicaciones definirán un contexto de acceso particular en cada momento. Por otro lado una combinación de amenazas clásicas y nuevos vectores están poniendo en apuros a numeras compañías que ven cómo sus datos esenciales son secuestrados por software malicioso como el ransomware. Actualmente trabajamos con nuestros clientes desde este enfoque “zero trust”, “ciber resiliencia” y “ciber recovery”.
La nube es el principal impulsor del cambio que se está produciendo en el centro de datos
Lo cierto es que las tecnologías de seguridad del dato están en constante evolución, ya que este dato es un elemento fundamental y de gran valor para cualquier tipo de empresa. Las organizaciones cada vez están más concienciadas de la importancia de salvaguardar sus datos con entornos de backup y recuperación, Disaster Recovery, garantía de privacidad y cumplimiento de normativas. Con todo ello Jaime Balaña de NetApp, se pretenden conseguir cuatro logros:
• Evitar la pérdida de datos accidental, protegerse del ransomware, virus u otros ataques maliciosos, o evitar en general que sus datos sufran ningún daño;
• Protegerse frente a fallos energéticos, cumplir los requisitos más exigentes en cuanto a puntos de recuperación, y aprovechar todo el potencial del cloud para modernizar los entornos de recuperación de desastres;
• Cumplir con las normativas gubernamentales, gestionar la seguridad de los datos de forma eficiente a lo largo de los distintos niveles de almacenamiento, incluido el cloud híbrido, y cumplir los requisitos de recuperación ante desastres y archivado sin comprometer la seguridad de los datos;
• Y bloquear los ficheros de escritura única y lectura múltiple.
La nube y sus ventajas
Cloud ha sido en buena medida el máximo responsable de la evolución que se ha producido en el data center. Según el experto de NetApp, en estos momento se está viendo una tendencia a crear centros de datos cada vez más conectados con las nubes públicas. Centros de datos que pueden convertirse en una extensión de la nube pública, donde desplegar servicios y consumir infraestructura de la misma manera que se haría en ella. Las infraestructuras hiperconvergentes facilitan ese consumo flexible y sencillo de los recursos de IT. Por ello, Balañá cree que “es necesario orquestar estas tecnologías con detenimiento para obtener una infraestructura tecnológica que esté siempre disponible. El centro de datos tiene que convertirse en una región o zona más dentro de la estrategia cloud de los clientes. Integrarlo de la forma más transparente posible es dónde está el verdadero reto”.
Lo cierto es que Gartner ha predicho que en 2025 el 80% de las empresas cerrarán sus centros de datos propios, migrando a modelos de nube. Es decir, las compañías conservarán centros de datos propios para alojar aquella parte de su IT relacionada con los sistemas legacy o con información que no puede migrar a la nube. Sin embargo, una gran parte de sus cargas migrará a la cloud pública y a los centros de datos de colocation desde los que interconectar el CPD propio y nube pública. En este sentido, Galo Montes de HPE considera que “los centros de datos tienen un papel fundamental en un mundo de clouds híbridas. Empresas de retail, bancos, aseguradoras y compañías de servicios públicos tienen una estrategia de «cloud first» y la están aprovechando, pero hay muchas aplicaciones que son el alma de estos negocios que quizás nunca migren a la nube. Así las cosas, es el papel de los proveedores de centros de datos y de los proveedores de tecnología como HPE proporcionar ecosistemas que puedan sacar el máximo provecho de estas aplicaciones y datos que necesitan permanecer al alcance de la seguridad de las empresas, los procesos de datos y los requisitos de rendimiento óptimo por encontrarse en el centro de datos”.
Lo cierto es que parece que el data center del futuro que se encuentre en las empresas estará lejos de parecerse a lo que se veía hace 10 años. Serán mucho más pequeños y destinados a aquellos datos que no puedan ser llevados a la nube. Como afirma Carlos Martínez de Vertiv, “la tendencia actual no es nube o empresa, sino un equilibrio entre cargas on-premise y externalizadas. Lo fundamental es analizar las cargas de trabajo existentes, valorar la infraestructura disponible y las alternativas que ofrece el mercado cloud y, a partir de ahí, hacer un estudio en detalle. Actualmente las cargas que se externalizan son las menos críticas, dejando on-premise aquellas más sensibles, tendiendo a soluciones híbridas”.
Y es que, la nube proporciona a las empresas innumerables ventajas que los modelos tradionales no pueden ofrecer. Según el informe «2020 Cloud Infrastructure Report», la inmensa mayoría de las empresas habrán llevado, o esperan poder hacerlo, la mayoría de sus cargas de trabajo a la nube a lo largo de este año. Nada menos que el 85% de las organizaciones, pero, además, algo más del 23% de ellas pretenden disponer sus cargas de trabajo únicamente en la Nube. Por otro lado, el 56% de los profesionales de TI están utilizando contenedores o microservicios para al menos la mitad de sus cargas de trabajo en la nube. Como afirma el portavoz de Arsys, “es una evidencia contrastada que las empresas que durante la pandemia habían iniciado sus procesos de transformación digital y había llevado sus soluciones, o parte de ellas, a la Nube han sorteado las dificultades mucho mejor que aquellas que no lo habían hecho. Entre otras dificultades, estas compañías se ahorraron los mantenimientos in situ necesarios para mantener a punto el CPD. Porque si bien podemos mantener en diferido determinados elementos (cabinas de almacenamiento, servidores, routers, switches…) hay otros como los transformadores o los sistemas de refrigeración que exigen mantenimientos presenciales. Y ningún Centro de Datos puede estar tres meses manteniéndose en remoto”. El entorno cloud, proporciona innumerables ventajas y como afirma Olof Sandtrom se podrían resumir en las siguientes:
La seguridad es uno de sus principales atractivos y para cualquier empresa que decide migrar parte de sus cargas, o la mayoría, al Cloud, la seguridad va a ser siempre lo primero, puesto que de ella depende el negocio y su futuro.
La fiabilidad es otra de las grandes cualidades que pueden llevar a las empresas a apostar por el Cloud. La Nube ha alcanzado un grado de fiabilidad o alta disponibilidad capaz de competir o mejorar la que ofrecen las infraestructuras on premise. Evitar los fallos y eventualidades que alteren el funcionamiento de cualquier negocio es una cuestión crítica porque afectan no solo a la productividad, sino que en muchos casos impacta negativamente en la experiencia de los clientes finales o en la propia reputación de las compañías.
Otra de las características más destacadas de la Nube frente a otras soluciones es la flexibilidad. Esta flexibilidad se consigue gracias a la granularidad de los recursos y al redimensionamiento en caliente de estos, que permite a las empresas dotar a sus proyectos de los recursos TI que necesitan en cada momento, sin sobredimensionar ni infrautilizar su capacidad, y asignándolos en tiempo real.
Por último, no nos podemos olvidar del coste reducido de las soluciones en el Cloud en comparación con las soluciones más tradicionales que requieren de inversión en infraestructura, mantenimiento, personal, etc.
El papel de las redes
Para un correcto funcionamiento de cualquier data center, las comunicaciones son esenciales por lo que la gestión de la red se convierte en un elemento fundamental. Llevar una correcta gestión y administración de la red hará que aplicaciones y servicios trabajen de forma correcta. En este sentido, el portavoz de Cisco asegura que “se necesitan redes capaces de auto-adaptarse a las necesidades de negocio (intent-based networking). Es lo que Cisco ofrece con ACI Anywhere, nuestra oferta SDN que permite incrementar la agilidad de negocio mediante capacidades de automatización de red, gestión simplificada y seguridad reforzada. ACI interpreta la intención de las aplicaciones para traducirla y activar esas políticas a través de la red y se integra con Cisco DNA Center, el cuadro de mandos que gestiona las redes basadas en la intención. Estas funcionalidades pueden aplicarse a cualquier combinación de cargas de trabajo en contenedores, máquinas virtuales o entornos bare-metal tanto en data centers on-premise como en la nube”.
En general, existen ciertos puntos fundamentales para la correcta administración. Según el portavoz de Vertiv, “la administración de un Data Center para que este pueda operar correctamente debe estar basada en los siguientes puntos:
Planificación y Visión Global donde haya una clara división de funciones entre las distintas áreas con una idea global del entorno;
Capacitación de los profesionales especialmente de los técnicos de IT para minimizar los tiempos de inactividad;
Inversión en Seguridad desde la topología de diseño del Data Center hasta las capas de protección de los distintos sistemas;
Actualización de los equipos e infraestructura asociada apostando por sistemas de alto rendimiento maximizando la eficiencia del Data Center
Monitorización que permita una gestión remota de los sistemas y poder así identificar predictivamente puntos débiles en la red”.
NVMe
En los últimos tiempos hay un actor nuevo en el centro de datos. Se trata del protocolo NVMe que va a suponer una revolución de los centros de datos ya que es un protocolo adaptado para los equipos de la actualidad. Los usuarios exigen tiempos de respuestas breves y la tecnología NVMe es perfecta para ello. Una de las empresas que más está apostando por este protocolo es NetApp. Su director técnico considera que “NVMe ofrece múltiples beneficios como un acceso más rápido a los datos, un menor consumo de potencia una reducción drástica de la latencia y un mayor número de operaciones de entrada / salida (IOPs). Aparte de todo esto, la tecnología NVMe abre nuevos caminos, superando con creces el límite impuesto por el protocolo SCSI, yendo de una única cola de comandos con hasta 256 comandos a una escalabilidad sin precedentes de 65536 colas con 65536 comandos cada una. De esta manera, se reducen de manera drásticas las latencias y los cuellos de botella, incrementando tanto la productividad como la eficiencia de las aplicaciones y los servidores”.
Por su parte, Galo Montes de HPE cree que “la tecnología NVMe es un nuevo estándar que acelerará las aplicaciones críticas que necesitan un rendimiento muy alto, pero para que funcione y se pueda sacar todo el partido que aporta, todos los elementos de la cadena lo tienen que soportar. Si en alguno de los puntos no se cumple dicho estándar, se producen cuellos de botella y su valor diferencial casi queda anulado totalmente. Por ello, es importante que las nuevas plataformas que se adquieran dispongan de la funcionalidad. En HPE somos conscientes de ello y nuestras plataformas HPE Primera y HPE Nimble Gen6 en sus nuevas versiones dan soporte a dicho protocolo para facilitar a los clientes una fácil transición. Pero también hay que destacar que donde es necesario aun mayor evolución es en los sistemas operativos e hipervisores, ya que todavía el soporte del NVMe es limitado. Es probable que durante el año 2021 tengamos una consolidación definitiva y sea lo más habitual”.