El incremento de datos, aplicaciones, sistemas, etc. hacen que la integración sea cada vez más relevante y cobre una mayor importancia para los departamentos de TI. Abordamos en este reportaje dónde se encuentran los principales desafíos.
Aplicaciones, sistemas, procesos o datos son sólo algunos de los pilares sobre los que se sustenta la estrategia de TI de cualquier organización. La capacidad de integrar con éxito cada uno de ellos facilitará que las empresas puedan comprender de mejor forma como abordar los diferentes retos a los que se enfrentan. Y es que cada empresa posee un conjunto diverso de aplicaciones y sistemas. Por eso, las herramientas de integración juegan un papel muy relevante.
La principal característica de este mercado es que está muy maduro. Ya a finales del siglo pasado se hablaba de herramientas y soluciones de integración cuando los centros de datos estaban plagados de las denominadas “setas”, cajas individuales que soportaban cada una la aplicación o el proceso de un único departamento. Ahora es una prioridad que los sistemas funcionen en conjunto, que los datos de un proceso estén disponibles para otros (la llamada “democratización del dato”), que las APIs estén documentadas y sean accesibles, que los dispositivos remotos que capturan en tiempo real la realidad de una organización (IOT y computo en el extremo) estén conectados, y que las aplicaciones utilizadas estén estandarizadas y adaptadas constantemente a las necesidades del negocio, con un uso y coste monitorizado.
Sin embargo, como afirma Carlos Arbesú, HPE Ezmeral Business Developer – Spain & SEU de HPE, “cuando hablamos de seleccionar una herramienta o una plataforma de integración, vemos que éstas están segmentadas en categorías: podemos agilizar el desarrollo y mantenimiento de nuevas aplicaciones con herramientas CI/CD. Podemos inventariar, consolidar y hacer accesibles los datos y su valor para el negocio con herramientas de integración de datos. Podemos administrar aplicaciones dispares desde un sistema centralizado con procesos de automatización y provisión. Podemos gestionar la explosión de aplicaciones cloud-native, contratadas a veces fuera del control estricto de TI con una vuelta al pasado de las “setas”, con herramientas de integración de nube”.
Necesitamos herramientas de integración de datos que construyan los cimientos para estas transformaciones digitales presentes y futuras
Es este último campo, el de las herramientas y plataformas de integración de nube, donde veo uno de los retos actuales. A medida que los entornos de TI son más híbridos, vemos que los sistemas que soportan de forma mixta, on-premises y en la nube, están pobremente integrados, son caros de mantener y adolecen de procesos maduros de gobernanza del dato. Además, mantener la gobernanza y la seguridad de los datos en un mundo con obligaciones legales y regulatorias complejas es un auténtico desafío. Arbesú, añade que “otro reto es que estas herramientas deben ser palancas de una aproximación global que se ha denominado “Transformación Digital” y que implica revisar no solo infraestructura y aplicaciones, sino los procesos y la estrategia de la organización para conseguir una ventaja competitiva, un valor diferencial y conocer mejor las necesidades de clientes, usuarios o ciudadanos en el caso del sector público. Si nos fijamos en las razones del éxito de las transformaciones digitales más destacadas, vemos que su secreto ha estado en explotar el dato para generar conocimiento utilizando una nueva generación de herramientas de analítica avanzada e inteligencia artificial. Los datos, estructurados y no estructurados (videos, correos, redes sociales), necesarios para estas herramientas, están disponibles en las organizaciones y crecen exponencialmente, pero están localizados en sistemas y procesos dispares, distribuidos geográficamente y no siempre bajo control formal de la organización de TI. Necesitamos herramientas de integración de datos que construyan los cimientos para estas transformaciones digitales presentes y futuras”.
Datos monolíticos
Una buena parte de las organizaciones todavía tiene sistemas monolíticos. El problema al que se enfrentan es que, muy a menudo, deshacerse de ellos de forma sencilla no es posible porque el negocio depende en gran medida de dichos sistemas, ya que en su mayoría son sistemas heredados y no se pueden reemplazar por el bien de la integración. Y es que, en una arquitectura monolítica, los aspectos funcionalmente distinguibles no son componentes separados arquitectónicamente, sino que están todos entrelazados. Debido a tal arquitectura, la integración se convierte en un desafío. Un integrador de sistemas debe tener cuidado de identificar y elegir la mejor manera de integrarse con sistemas monolíticos dentro de la empresa. Por eso, José Tomás Salvador, Sales Engineer Manager de InterSystems, asegura que “en nuestra compañía, onsideramos que la integración está ligada indisolublemente a la interoperabilidad. No tiene sentido integrar sistemas, procesos y datos si, luego, no se comparten, analizan, comprenden y utilizan en beneficio del negocio. En este sentido, tanto integración como interoperabilidad, son tecnologías maduras que ya han probado su eficacia y capacidad. Los retos, por lo tanto, serán aquellos que afecten al negocio específico donde se implementen. Para nosotros son claves la facilidad de uso, la capacidad de la plataforma para transformar rápidamente y el compromiso total del equipo proveedor a la hora de realizar un proceso de integración. Pero, como decía, la tecnología está madura. Nosotros hemos llegado a realizar migraciones en solo ocho días y el sistema ha funcionado perfectamente, sin interferir en la operativa de la empresa. En el caso de grandes organizaciones el plazo puede llegar a los 30 días, sin interferencias”.
Silos de datos
Dentro de la integración, los datos suelen representar uno de los mayores problemas. Aparecen datos desde diferentes fuentes y aplicaciones de forma constante y diferentes equipos de la empresa tiene sus propios procesos para introducir y actualizar datos. Además, muchas veces esa información no se encuentra donde tiene que estar lo que provoca que aparezcan los conocidos silos de datos: si no hay coherencia en cuanto a cómo, quién y dónde se introducen y actualizan esos datos, inevitablemente estos se encontrarán perdidos silos de información a través de toda la empresa, lo que supone una pérdida de productividad, de tiempo y también de dinero. No sólo eso, sino que al haber datos en silos, muchos de ellos pueden estar duplicados o tener una calidad poco relevante para que la organización les extraiga todo su valor. Con ello, una empresa se puede encontrar con que distintos departamentos pueden estar ingresando los mismos datos en diferentes sistemas, lo que acaba en duplicaciones absurdas o, lo que es peor, en que aparezcan grandes cantidades de datos que no están actualizadas. Como afirma Carlos Arbesú, “esto es una realidad. Si el equipo de marketing usa un conjunto de aplicaciones y una copia de datos, mientras los equipos de desarrollo de productos, fabricación o RR.HH., utilizan otras aplicaciones y otra copia de los datos, los objetivos y las conclusiones de cada departamento pueden divergir y se pueden crear desconexiones departamentales y silos con impacto en el ROI de la inversión, duplicidad de esfuerzos y reducción de la eficiencia total. Es un riesgo muy real. Los datos de encuestas recientes2 muestran que las pymes usan de promedio 70 aplicaciones cloud (170 en el caso de grandes empresas), muchas de ellas con su propia copia de datos y contratadas directamente por los departamentos involucrados con presupuesto propio y poco control formal por parte de TI”.
Dentro de la integración, los datos suelen representar uno de los mayores problemas
En este sentido, el portavoz de Intersystems cree que “es aquí donde entra en juego la interoperabilidad que, a pesar de lo que muchos creen, no es lo mismo que ‘integración’. En tanto que la integración permite combinar datos heterogéneos desde muchas fuentes distintas, la interoperabilidad es la capacidad de sistemas diferentes, dispositivos y aplicaciones para acceder, intercambiar, integrar y utilizar datos de forma coordinada en las organizaciones, a nivel regional y nacional. Significa que los sistemas diferentes operan entre sí, sin limitaciones, de forma coordinada y con la facultad de discernir la información que reciben. No solo intercambian información; intercambian conocimiento. Precisamente, la interoperabilidad aparece cuando, en los años 80, organizaciones complejas como por ejemplo los hospitales comenzaron a tener más de un sistema para su gestión y debían conectarlos. La información residía, y aun hoy sucede, en cada uno de los sistemas y, en muchas ocasiones, está fragmentada en sistemas independientes. A ello se suman los datos de laboratorios, aseguradoras, farmacias, etc. La interoperabilidad es quien hace posible que el sistema vea todos los datos, en cualquier lugar, sin necesidad de réplica. La nube, el cloud, no es inmune a la aparición de silos. Estos aparecen en todas aquellas soluciones que no asumen que la interoperabilidad debe formar parte de su ADN, y eso no depende de la localización de esa solución. Una solución que no interopera, ya se ubique en la nube o en un servidor privado, se convierte en un silo. Está aislada. InterSystems IRIS Data Platform, en línea con estas necesidades, además de una plataforma de datos es una plataforma de interoperabilidad y da un paso más allá en la integración de los sistemas porque la interoperabilidad es inherente a cualquier solución desarrollada sobre plataformas como InterSystems IRIS”.
Abordar la complejidad
Los problemas parecen claros, pero establecer una estrategia de integración no es una tarea sencilla. Entran en juego diferentes factores y elementos que hacen que si no está establecida de forma correcta se puedan perder datos. En este sentido, el portavoz de HPE cree que para acabar con la complejidad “es necesario aplicar una metodología formal contrastada por la experiencia adquirida en proyectos anteriores que hemos lanzado con nuestros clientes, transcendiendo el concepto de integración y considerando el concepto más amplio de transformación digital de las organizaciones. Dado el peso cada vez mayor del dato en las transformaciones digitales, creemos además que toda transformación digital se tiene que abordar con una aproximación Data-First Transformation. En nuestro caso, tenemos nuestra metodología denominada Digital Next Advisory con la que colaboramos con los clientes a través de distintas fases o “momentos” para ayudarles a definir cuáles son las áreas de crecimiento de negocio y de productividad que tienen sentido para ellos, cuáles son las áreas que queremos digitalizar, qué tecnología queremos utilizar en esa digitalización y qué plataformas queremos emplear para sacar el máximo partido a cada tecnología”.
José Tomás, sin embargo, lo ve bajo otro prisma ya que da por hecho que acabar con la complejidad es una tarea prácticamente imposible. En su opinión, “más que acabar con la complejidad, tenemos que conseguir manejar la complejidad de la forma más sencilla posible. El objetivo, el éxito diría yo, de una plataforma de interoperabilidad como InterSystems IRIS es simplificar la gestión de lo que es complejo por naturaleza. Sí hablamos de fórmula, hablamos de ingredientes, y en nuestro caso están claros: simplicidad del framework, que nos permita hacernos con la herramienta y sacarle rendimiento de una forma fácil y rápida; flexibilidad para resolver las integraciones típicas con componentes out-of-the-box, pero permitiendo el desarrollo ad hoc de componentes o la utilización de librerías externas si fuese necesario; robustez, que nos garantice la estabilidad y tolerancia a fallos imprescindibles en este tipo de plataformas; y escalabilidad, para crecer en tamaño y capacidad en el tiempo, según se incorporen nuevos sistemas o tecnologías”.
Lo importante, de todas maneras es que un proyecto de integración esté bien desarrollado. Aunque no necesariamente tienen que ser un único proyecto para abordar todo, sino varios. Carlos Arbesú es de esta opinión puesto que considera que “lo normal es que las empresas no se enfrenten a un único proyecto de integración, sino que pasen a través de muchos en poco tiempo según se acelera su transformación. Y además, es más que probable que ejecuten varios proyectos en paralelo. Tiene que existir, por tanto, una coordinación entre las estrategias aplicadas a cada proyecto. Las organizaciones tienen que decidir cuestiones tales como: ¿qué arquitectura de capa de datos quiero utilizar? ¿cuál es mi compromiso con tendencias como Open Source? ¿Cómo voy a tratar el factor humano (gestión del cambio y formación continua)? ¿cuánto quiero reutilizar de otros proyectos? Para nosotros, los proyectos de integración deben estar encarnados en una estrategia mayor de transformación digital discutida y definida a nivel organización”. Por su parte, el portavoz de Intersystems considera que “en un proyecto de integración tiene un papel muy importante el propio liderazgo, dentro de la organización, del equipo de proyecto. Asumiendo que ese flanco está cubierto, y desde el punto de vista técnico, es muy importante asegurar que tendremos la infraestructura adecuada: elementos como firewalls, balanceadores de carga y sistemas de failover, dentro de una arquitectura que nos asegure los mínimos de alta disponibilidad y seguridad exigidos por el proyecto. Contar y tener perfectamente definido esto es, yo diría, uno de los primeros puntos de nuestra planificación”.
La nube como salvación
Hoy parece que ante cualquier problema que tenga un departamento de TI de una empresa la solución se encuentra en la nube. ¿Sucede lo mismo a la hora de establecer una estrategia de integración”? Al final, lo que aportan los entornos cloud a las soluciones de integración no es muy distinto de lo que aporta para otras. Por supuesto, por donde primero se entra es por el coste. Y es que como afirma José Tomás, “la reducción de los gastos operativos, al menos, es el más evidente sobre todo en sistemas o negocios nuevos, donde todavía no somos capaces de anticipar nuestras necesidades de recursos, o en negocios consolidados, cuando sus características hacen que nuestros sistemas deban ser capaces de adaptarse rápidamente a una demanda de recursos cambiante. Pero Cloud también permite que la empresa se centre al cien por cien en el negocio y generar valor, aumenta la productividad y la disponibilidad de los servicios y, entre otros beneficios, hace posible el acceso a información crítica desde cualquier lugar”.
Dentro de las estrategias de transformación digital, el uso de entornos cloud o de nube es un elemento que cambia tanto la forma en que se consume tecnología, con nuevos modelos como IaaS, PaaS, SaaS; como también la velocidad en el acceso a esta nueva generación de herramientas de analítica avanzada e inteligencia artificial. “Estos cambios deben ser reflejados en las soluciones de integración que conocíamos hasta ahora. Por ejemplo, las plataformas de integración de datos deben poder ayudar a crear esa capa de almacenamiento empresarial único. El concepto de Data Fabric permite acceder de forma global (con sus mecanismos de seguridad, control de accesos y gobernanza) a todos los datos disponibles, estructurados y no estructurados, utilizando una variedad de protocolos de acceso (NFS/Posix, Hadoop HDFS/HBase, JSON DB, Object Store S3, Streams Kafka), según sea necesario”, afirma el portavoz de HPE.
Pero la nube está evolucionando. Las empresas están apostando de manera clara por formaros de cloud híbrida por las ventajas que ha demostrado frente a una solución de solo nube: más flexibilidad, mayor control de los costes, mejor acceso a los datos, mayor adecuación a las necesidades de privacidad, seguridad y regulatorias del sector, mejores posibilidades de adaptar la infraestructura a cada aplicación. Se busca lo mejor del mundo cloud y lo mejor del mundo on-premises. La necesidad de maximizar estas ventajas hace que algunos clientes, ya que no todas las nubes son iguales, necesiten, además, considerar soluciones muticloud para poder conseguir los beneficios esperados. Pero Carlos Arbesú afirma que está apareciendo un tercer campo de juego: “el extremo o edge, donde cada vez se va a generar más y más volumen de datos que necesitan ser procesados allí donde se están generando para mantener la ventaja competitiva de velocidad y tiempo de respuesta. Esperamos que el 50% del cómputo y el almacenamiento a desplegar de aquí a 2025 estará en el extremo, frente a solo un 20% on-premises y un 30% en la nube. Las herramientas de integración deben ayudar, estar preparadas y no interferir con la consecución de esos objetivos de estrategia de cloud híbrida y deben considerar tanto la dimensión multi-cloud, como la dimensión edge-to-cloud. Aquí es fundamental apostar por estándares abiertos y Open Source lo más puros posible sin extensiones propietarias, tentadoras de usar, pero que generan ataduras con un vendedor. Deberíamos validar que toda la tecnología utilizada para nuestra transformación digital se puede reubicar sin grandes problemas o costosas migraciones, si fuera necesario. Por ejemplo, si uso un sistema operativo especifico, preguntarme si la tecnología que estoy usando se puede desplegar en, al menos, otro sistema alternativo. Si uso un gestor de contendedores específico, preguntarme si mis aplicaciones se pueden desplegar en al menos otro gestor alternativo. Si decido apostar por crear un Data Frame específico, preguntarme si se puede desplegar en edge, on-premises y en distintas nubes. Cuanto más grande sea una empresa, mayor interés tendrá en sacar partido a las ventajas del cloud híbrido y mayor será su inversión. Por tanto, se debería evaluar con más precisión que las herramientas de integración sean capaces de soportar alternativas”.
Modelos iPaaS
Las plataformas de integración como servicio o iPaaS cobran protagonismo en este entorno de hibridez. En teoría gracias a ellas los departamentos de TI obtienen ventajas como una mejor accesibilidad y mayor conectividad ya que ponen e contacto a las principales aplicaciones con las bases de datos más comunes. Además el modelo iPaaS permite la integración de soluciones y datos que provienen tanto de dentro como de fuera de la empresa y tanto de virtuales como de entornos locales. Por supuesto, incrementan la productividad ya que la empresa no tiene que preocuparse del mantenimiento de la infraestructura ni de las actualizaciones no de las licencias ta que corren de cuenta del proveedor. Sin embargo, no siempre resuelve los principales problemas porque como afirma José Tomás de Intersystems, “este modelo básicamente hereda las ventajas típicas de otros servicios de plataforma en la nube. En este caso más orientado a interoperabilidad, pero son muy parecidos. Para empresas que están empezando les da la agilidad necesaria para comenzar a implementar su solución de negocio, sin tener que preocuparse de tareas más tangenciales como serían las de mantenimiento, administración y actualización de una plataforma. Los sistemas en cloud, por definición, también son más accesibles desde entornos externos y van a estar más enfocados en la interoperabilidad con otros servicios en nube que nos pueden ser complementarios. Desde ese punto de vista, de disponibilidad y agilidad, puede ser la solución más rápida por la que opten algunas compañías. Que resuelva o no los problemas de la compañía, sinceramente creo que depende menos del modelo de despliegue y más de las particularidades de cada caso”. Tampoco parece muy convencido el portavoz de HPE que cree que “las fórmulas iPaaS son una opción sobre todo para organizaciones muy tecnológicas donde sus procesos están basados fuertemente en aplicaciones software cloud nativas. Pero igual que el modelo “solo cloud” está refinándose en un modelo cloud híbrido, en la búsqueda de los mejor de dos mundos, creo que tendremos que ver cómo las soluciones iPaaS se transforman en soluciones Hybrid-IT iPaaS”.
Propietario o libre
Finalmente nos encontramos con el eterno dilema entre las herramientas propietarias u Open Source. Como en casi todo, para gustos, los colores. Por ejemplo, el portavoz de Intersystems cree que “un beneficio del Open Source es permitir una evolución colaborativa rápida del software en dominios que no están consolidados. Un riesgo colateral es la posibilidad de invertir construyendo soluciones basadas en proyectos open source que son reemplazados por proyectos más nuevos y activos. La inversión realizada en los proyectos de integración e interoperabilidad es muy alta y es crítico escoger plataformas que no solo faciliten el desarrollo de estos proyectos, sino también su mantenimiento y evolución a lo largo de periodos cada vez más largos. Por eso, InterSystems IRIS propone una solución hibrida, con el core de la plataforma mantenido en modo propietario y los componentes de interoperabilidad en Open-source, de tal manera que se puedan modificar y extender por técnicas orientadas a objetos, facilitando su adecuación a casos de integración específicos no cubiertos en los estándares soportados”.
Las plataformas de integración como servicio o iPaaS cobran protagonismo en este entorno de hibridez
Por su parte, Carlos Arbesú cree que “hoy en día, el mundo Open Source es donde se está produciendo la gran mayoría de la innovación avanzada en software, por lo tanto, es el lugar donde estar si queremos tener la ventaja competitiva de usar las aplicaciones que están acelerando la transformación digital. Apostar por Open Source evita que nuestras aplicaciones se conviertan rápidamente en obsoletas y sus costes de soporte y mantenimiento crezcan exponencialmente con el tiempo. Supone también, siempre que nos mantengamos fieles a los estándares abiertos, facilitar la interconectividad entre aplicaciones y tener opciones y alternativas entre distintos proveedores y suministradores, garantizando que la inversión realizada pueda ser reutilizada sin grandes costes de migración si las necesidades de negocio así lo requieren. A cambio, supone abrazar metodologías Agile, DevOps y MLOps y entrar en la dinámica del mundo Open Source y, si tenemos capacidad e interés, incluso contribuir al propio estándar a través de nuestros propios desarrolladores. Eso implica una decisión estratégica que las empresas tienen que evaluar, en base a su tamaño y a sus recursos por un lado, y por otro, a su estrategia corporativa incluso relacionando la decisión con la estrategia de responsabilidad corporativa social en algunos casos. De todas formas, participar en el desarrollo Open Source no es una opción válida para todas las empresas, y como alternativa vemos más y más organizaciones que ofrecen soporte e integración empresarial de productos Open Source, manteniéndolos fieles al espíritu de estándares totalmente abiertos. Ese es, por ejemplo, el objetivo fundamental de la propuesta de productos HPE Ezmeral”.