desayuno hpe transformación digital datacenter
desayuno hpe transformación digital datacenter

El encuentro lo abrió Juan Manuel Sáez, director de Byte TI, que hizo hincapié en que los modernos datacenters son responsables de la transformación digital y de la evolución que han sufrido las TIC en los últimos años y que por ello se hace necesario que éstos evolucionen. “Las principales tendencias van hacia un centro de datos definido por software. Aunque, el futuro va hacia el software sigue siendo importante el hardware porque incidirá en el servicio que una empresa presta con el software. La tecnología ayuda a que ese nuevo centro de datos sea una realidad. Gracias a ella los centros de datos son ahora más simples de gestionar, son más eficaces y eficientes y se encuentran optimizados tanto para aplicaciones como para operaciones. Al estar más potenciados por software, cuentan con despliegues más rápidos y con una infraestructura general diseñada para las necesidades empresariales”, concluyó Sáez.

Jorge Fernández, director de tecnología de HPE, fue el encargado de esbozar cuál es la situación en la que actualmente se encuentra el centro de datos y el papel que juega en la transformación digital. Consciente de que puede tratarse de un término muy manido, el directivo comenzó explicando la importancia que tiene la transformación digital y en qué consiste: “La nueva era digital no es más que las empresas que están utilizando las tecnologías para hacer las cosas de forma diferente. ¿Qué impacto podemos prever que puede ocurrir en los datacenters en el momento en el que el jefe diga que hay que subirse al carro de la TD?”, se preguntó. Para este directivo lo habitual es que la respuesta coincida con un cambio en los canales de interacción con los clientes a través de sistemas móviles.

Para Fernández es en ese momento “cuando empieza la pesadilla. La persona encargada de llevar a cabo esa nueva actuación empieza a ver que cualquier organización tiene oficinas de atención al cliente, campus o entornos de trabajo donde empleados y clientes se están moviendo,… así que lo primero que hay que llevar a cabo es tener las infraestructuras y dotarlas con lo necesario para satisfacer la experiencia del usuario. En la nueva era digital al usuario le gusta ser tratado de una forma diferente, lo que implica que cuando estemos haciendo una planificación tenemos que ser más sensibles a la hora de implementar la tecnología para los usuarios”.

Después de tener clara la planificación de los que se quiere realizar, el siguiente paso que debe realizar una organización es el relacionado con las aplicaciones. Concretamente dónde se guardan esas aplicaciones: ¿en la nube, en los propios servidores? La duda siempre estará presente porque lo que se exige es monetizar las infraestructuras.

En opinión del director de tecnología de HPE, “muchas veces se va hacia la nube pública por el simple hecho de que posibilita el pago por uso. Sin embargo, puede llegar un momento en que esa infraestructura que se ha trasladado a la nube pública se convierte en algo crítico y entonces, en ese momento, es cuando hay que hacerse un replanteamiento. A día de hoy hay muchas opciones financieras para el modelo de pago por uso de forma que si una empresa sigue creciendo pagará más. Hay que olvidar el concepto del cloud flexible en el que si uno quiere deja de pagarlo”.

El problema tradicional venía, sobre todo, en la infraestructura. Sin embargo y tal y como afirmó el propio Fernández durante el encuentro, empieza a haber varios modelos que también funcionan en la modalidad de pago por uso. Fernández, resalto sin embargo, que “lo que viene como una bola de demolición cuando vamos hacia la economía digital es la forma en la que construimos el software. Hoy el negocio y el desarrollo de software están interrelacionados. Ahora mismo es impensable para una empresa tener personal picando código para sacar la aplicación al cabo de un año. Esto ha cambiado. Ahora se exige acortar los tiempos. Sacar la aplicación lo antes posible. Lo que nos está viniendo a la parte de infraestructuras son equipos de desarrollo de software de metodología ágil que continuamente saca versiones, que constantemente lanzan nuevas actualizaciones, que mejoran los problemas producidos por las versiones anteriores, etc. Si no somos capaces de automatizar las aplicaciones sobre la infraestructura estaremos fallando en la transformación digital de la empresa. Por tanto, es necesario automatizar la infraestructura e integrarla con las aplicaciones”.

Durante el encuentro se habló de cuáles eran los principales cambios que se iban a dar en la transformación digital y como ésta está afectando al datacenter

Tal y como se puso de manifiesto durante la jornada, muchas empresas creen que con la virtualización ya han solucionado sus problemas. “Las infraestructuras definidas por software, cambian la forma en la que pensábamos tradicional. Ya no se es moderno porque hayamos virtualizado. Lo que nos viene son nuevas técnicas de orquestación a través de APIs que son las que nos van a permitir desplegar las aplicaciones de una forma automática. Si no lo hacemos así, no estaremos preparados para seguir el ritmo·”.

Características de la transformación digital

El director de tecnología pasó a exponer cuáles eran los principales cambios que se iban a dar en la transformación digital y como ésta está afectando a los conceptos tradicionales. El primero de ellos es el relacionado con la base de datos, “ese sitio ordenado que es posesión única de los administradores de bases de datos”, como lo definió Fernández. En la nueva era digital, la BBDD pierde buena parte de su protagonismo anterior. Empresas de la denominada nueva economía como Uber, salvo una muy concreta, el resto de bases de datos son no SQL que tienen ciertas características, como expuso el director de tecnología de HPE: “son bases de datos ScaleOut con discos conectados directamente a servidores con mucho disco y que el propio aplicativo es ScaleOut, es decir que si quiere más rendimiento, los une al cluster y eso automáticamente sin que nadie tenga que intervenir y en segundo lugar, la integridad del dato la gestionan de forma nativa, de forma que el dato ya se encargan de replicarlo en distintos sistemas o en diferentes discos o datacenters y reconstruirlo en el caso de que uno de los elementos se caiga”.

En definitiva, hay que tener en cuenta que los servidores clásicos no valen. Tampoco recurrir a una estrategia única de virtualización porque la mayor parte de este tipo de soluciones va en físico.

Big Data

Uno de los apartados más relevantes en la transformación digital es el que tiene que ver con Big Data. Aquí hay una confusión sobre lo que realmente significa Big Data. Para Fernández, “Big Data es un sistema de almacenamiento corporativo ScaleOut, con un file system que me permita acceder a todos esos datos y con una lógica por encima que me permita hacer análisis paralelizable, un Haddop, por ejemplo. Si lo que se quiere es tener una lógica de almacenamiento estructurado de información no SQL, eso también entra en la categoría de Big Data. También para lógicas de almacenamiento tipo objeto que no se almacenan en una NAS ni en un sistema de ficheros”.

Sin embargo una de las características que se suelen asociar al Big Data es el real time. Para Fernández, en este caso no siempre es así, porque en muchas ocasiones ese sistema está limitado y no permite un crecimiento ilimitado, por lo que entra más en la parte de analitycs real time que en el concepto de Big Data

Misión crítica

Es otro de los conceptos que está cambiando por la transformación digital. Tal y como aseguró Fernández, “estoy viendo muchos casos en los que el aplicativo de frontal cliente se está convirtiendo en más critico que la parte financiera. Esta anécdota es un ejemplo de como va a cambiar el mundo. Hay que ver como integrar estos sistemas en misión crítica. Y no estoy hablando del UNIX que es una tecnología que no se está proponiendo en clientes nuevos. Ahora vamos en misión critica hacia x86, salvo para clientes antiguos en la que el propio hardware es capaz de crecer en numero de tarjetas o de blades. La propia infraestructura es capaz de reorganizarse. Ya no te lo juegas todo a un solo servidor sino a varios para que si se cae algo siga funcionando. Este tipo de arquitectura permite hacer el backend de la aplicación móvil”.

Internet de las Cosas

La otra tendencia tecnológica que está creciendo cada vez más es la referente a IoT. Para Fernández, “nos encontramos ante otra tendencia tecnológica de la que todos hablan pero con unos condicionante importantes de conectividad, que no tienen capacidad de conexión a Internet ni trabaja con IPv6. No es un mundo trivial, pero valora el negocio sobre todo si tenemos clientes con los que podemos trabajar con ellos que trabajen con sensores que transformen variables físicas (con luz, sin luz, giroscopio, etc.) que nos permita crear un modelo de negocio diferente a los que estábamos haciendo hasta ahora con ese cliente. Otra de las características de IoT es que las empresas están acostumbradas a la consolidación. IoT no va con la consolidación porque lo que hace es utilizar computación en el extremo y además va a necesitar un preprocesado de la computación para llevarlo luego al datacenter. Es lo que se denomina Fog Computing”.

Seguir usando datacenters internos

Terminada la exposición, los asistentes preguntaron sobre si es aconsejable seguir usando datacenters internos o si era mejor trasladarlos a la nube. Para Fernández, “el IaaS ya no es suficiente. Si alguien se conecta a Azure, como IaaS, solo tiene tres o cuatro servicios. El resto de los servicios son PaaS,. La pregunta que se deben hacer las empresas es, ¿yo tengo capacidad financiera, me interesa como proyecto, para el nuevo tipo de aplicaciones? ¿Tengo el know how para ello? Si la respuesta es no, hay que ir hacia a una tecnología cloud de pago por uso. Ahora mismo a la nube se puede ir muy rápido y ya hay modelos de pago por uso para PaaS. Si lo que hablamos es de core IT, ¿qué pongo en cloud?, ¿la computación, los datos? Eso tiene que ir al datacenter tradicional.

Ir a la nube… para volver

Esta fue la pregunta que realizó el CIO del Congreso de los Diputados. En opinión de Fernández, “la arquitectura de cloud híbrido permite volver y elegir en cada momento dónde quieres poner los datos, elegir el número de clouds providers, etc. Esto es lo que nosotros llamamos el mundo híbrido: tener una arquitectura que sea capaz de trabajar en este mundo. Por debajo tienes que tener una infraestructura que sea muy fácil de desplegar. Cloud es una pieza de software, la inteligencia está en la transformación que yo hago con mis datos y aplicativos”.