La integración, aunque es un tema que se lleva pocos titulares, es indispensable ya que es necesaria para integrar nubes, aplicaciones o datos. La importancia de la integración es fundamental para los procesos de negocio y la toma de decisiones empresariales. Y es que estas herramientas permiten vincular las diferentes fuentes de información que utilizan las empresas, desde bases de datos, aplicaciones en la nube o data warehouses y los presentan a los usuarios en formatos integrados que pueden usar fácilmente. Como afirma Alberto Pan, CTO de Denodo “de esta manera, los usuarios no tienen que perder tiempo en averiguar dónde están los datos que necesitan y cómo pueden acceder a ellos. Las tecnologías de integración más avanzadas como la virtualización de datos permiten además hacer esto de manera muy ágil”.
Y es que, las herramientas de integración pueden ofrecer un desarrollo, despliegue y mantenimiento de proyectos de automatización más rápidos y menos costosos. En este sentido, Miguel Valdés-Faura, CEO y cofundador de Bonitasoft, afirma que “las plataformas DPA (Digital Process Automation: automatización digital de procesos) que ofrecen conectores nativos API y REST -y las herramientas para desarrollar conectores personalizados- ofrecen una fácil integración a los sistemas de información existentes de la empresa, incluyendo sistemas heredados y propios, con menos necesidad de desarrollo personalizado. También ofrecen un coste reducido para los proyectos de automatización de procesos durante el desarrollo, la producción y el mantenimiento, permitiendo un desarrollo ágil y una reducción de las operaciones de mantenimiento. Las plataformas DPA son ideales para aplicaciones complejas ya que pueden integrar la automatización de extremo a extremo, orquestando el trabajo realizado por personas y robots (a través de RPA) junto con la interactividad con los SI corporativos. También ofrecen una fácil integración de procesos estructurados y no estructurados, como en la gestión de casos, por ejemplo”.
La realidad es que los departamentos de TI de las empresas tienen que integrar las distintas soluciones, aplicaciones que conforman su entramado tecnológico. En las organizaciones de la actualidad es esencial que la información fluya y se transforme entre los distintos sistemas. Eso se puede hacer “a mano” programando los envíos y recepciones y transformando mediante código la información saliente y entrante, o se puede emplear una herramienta de integración. Para Miguel Ángel Díaz, Business Development Manager, AppDev & Middleware de Red Hat las soluciones de integración “tienen que permitirnos ser más ágiles; tienen que evitar errores y deben tener una única versión de la integración. Todo ello redunda en un menor coste y una mayor agilidad. Hay que tener en cuenta que las empresas tienen una diversidad de sistemas y aplicaciones que han ido desarrollando ellas mismas o que han sido desarrollados por diferentes proveedores. Es muy difícil, por no decir imposible, encontrar empresas con un stack tecnológico sencillo y/o de un solo fabricante, como sucedía hace más de 20 años. Para hacer frente a esta diversidad, las empresas tienen que recurrir a las herramientas de integración para que todos estos sistemas y aplicaciones puedan trabajar de manera conjunta. Al final, las herramientas de integración dotan de libertad a las empresas para escoger las mejores piezas tecnológicas para cada necesidad y usarlas de la manera más eficiente para la organización”.
Las herramientas de integración pueden ofrecer un desarrollo, despliegue y mantenimiento de proyectos de automatización más rápidos
Uno de los actores principales dentro del mercado de la integración es Intersystems, cuyo producto estrella InterSystems IRIS Data Platform, dota a las empresas de capacidades para una integración e interoperabilidad inteligentes en el escenario actual, donde es imperativo abordar la transformación digital y ser capaces de gestionar datos críticos a nivel mundial. En opinión de José Tomás Salvador, Sales Engineer Manager de este multinacional la clave se encuentra en que “las empresas deben ser más ágiles, moverse muy rápidamente y no solo en el mercado con su oferta de producto o servicios, sino también en el desarrollo de aplicaciones específicas e inteligentes para su negocio y su conectividad. Estas metas solo se consiguen con un control completo de los datos e integrando los sistemas de forma óptima. Además, las aplicaciones deben ser cada vez más inteligentes y basadas en datos. Deben escalarse en función de las necesidades del negocio y el volumen de datos, para gestionar grandes entradas de nuevos datos, nuevas cargas de trabajo y nuevo tamaño y formatos de datos de forma fiable, económica y rápida. En este escenario tan exigente es necesario contar con una plataforma que proporcione capacidades de integración e interoperabilidad, conectividad, capacidad para transformar los datos y ser utilizados por aplicaciones y bases de datos según los actuales estándares y protocolos”.
Los retos
A pesar de contar con las herramientas necesarias, muchas organizaciones no logran extraer todo el jugo a las soluciones de integración. En muchas ocasiones viene motivado porque no está alineadas con los objetivos del negocio, aunque también existen otros elementos que también influyen. Para el portavoz de Intersystems, “ la integración está ligada indisolublemente a la interoperabilidad. No tiene sentido integrar sistemas, procesos y datos si, luego, no se comparten, analizan, comprenden y utilizan en beneficio del negocio. En este sentido, ambas, tanto integración como interoperabilidad, son tecnologías maduras que ya han probado su eficacia y capacidad. Los retos, por lo tanto, serán aquellos que afecten al negocio específico donde se implementen. Para nosotros son claves la facilidad de uso, la capacidad de la plataforma para transformar rápidamente y el compromiso total del equipo proveedor a la hora de realizar un proceso de integración. Pero, como decía, la tecnología está madura. Nosotros hemos llegado a realizar migraciones en solo ocho días y el sistema ha funcionado perfectamente, sin interferir en la operativa de la empresa. En el caso de grandes organizaciones el plazo puede llegar a los 30 días, sin interferencias”. El portavoz de Denodo, por su parte, cree que uno de los retos principales radica en que “el volumen de datos es cada vez mayor, así como las distintas fuentes y formatos de origen del que proceden. También, cada vez más las decisiones en las organizaciones deben basarse en datos, lo que aumenta la presión sobre los departamentos de BI y TI para presentar datos en distintos formatos para múltiples casos de uso. En estas circunstancias, los métodos tradicionales de integración de datos como el uso de ETL (Extract, Transform and Load) para crear Data Marts físicos son muy costosos y lentos de implementar, lo que afecta a la operatividad del negocio. En mi opinión, la virtualización de datos evita estos problemas porque no fuerza a replicar los datos cada vez que hay que integrarlos y transformarlos de una forma distinta. Los datos permanecen en sus sistemas de origen, y se integran y se gestionan de manera unificada y en tiempo real. Esto acelera y abarata todos los procesos de integración”
Agilidad, escalabilidad y organización son sólo algunos de los retos a los que se enfrentan las compañías a la hora de gestionar este tipo de soluciones. En este sentido, el portavoz de Red Hat cree que uno de los principales problemas que tienen este tipo de herramientas es que “tradicionalmente estas soluciones de integración han sido aplicaciones monolíticas y complejas. Esto choca frontalmente con la agilidad que se busca hoy en día para satisfacer las demandas del negocio. Esta agilidad es cada vez más importante en los procesos, y cobra mucha relevancia ahora que las empresas tienen que trabajar de manera coordinada, como, por ejemplo, cuando se trata del comercio electrónico, en el que participan de manera: proveedor material, suministrador, vendedor on-line, y varios operadores logísticos en el transporte hasta el comprador. En este caso, por ejemplo, no solo es que la empresa tenga diferentes sistemas y aplicaciones, sino que necesita que fluya la comunicación con los sistemas y aplicaciones de otras empresas Por otro lado, las herramientas clásicas no escalan fácilmente, sin embargo, las empresas tienen que hacer frente cada vez más a picos de demanda provocados por los cambios de hábitos de los consumidores. En este caso, en particular, podemos pensar en los picos de demanda del Black Friday o en las constantes campañas de ventas para impulsar el consumo, por dar algunos ejemplos. Y por último, otro de los retos sería la organización, ya que la integración se atiende con centros de competencia (de expertos) que no encaja con la cultura DevOps en absoluto, y que al final están produciendo cuellos de botella”.
Las herramientas de integración dotan de libertad a las empresas para escoger las mejores piezas tecnológicas para cada necesidad
Finalmente Miguel Valdés-Faura cree que “para maximizar el beneficio de este tipo de soluciones, es importante tener el equipo adecuado, que incluya experiencia de negocio y capacidad técnica. Por lo tanto, una buena plataforma de automatización de procesos digitales debe ser utilizable partiendo desde distintos perfiles de conocimientos, para un equipo con conjuntos de habilidades heterogéneas. Una solución basada exclusivamente en low-code (código de bajo nivel) dirigida a los citizen-developers (desarrolladores con poco bagaje técnico) no es sostenible a largo plazo, y una plataforma profundamente técnica cargará innecesariamente al equipo de DevOps con el trabajo que podrían hacer los usuarios de negocio, por ejemplo, para desarrollar interfaces de usuario, actualizar las reglas de negocio, hacer cambios organizativos y, por supuesto, para los cuadros de mando para la visibilidad de los procesos en curso e históricos”.
Lo que es cierto es que, a pesar de las dificultades que puedan entrañar este tipo de herramientas las organizaciones son cada vez más conscientes de su importancia. Por eso, y como afirma José Tomás Salvador de Intersystems, “las empresas no solo quieren acceder a toda su información, sino que atienden cada vez más a la calidad de esa información sobre la que basan sus decisiones. Al tiempo, el foco debe ser compartir datos precisos, que se entreguen a quien los necesita y con el volumen y calidad con que los necesita, dentro del flujo de trabajo de su tarea”.
Y llegamos a la nube
Como se ha visto durante la crisis sanitaria, la nube ha jugado un papel fundamental para las organizaciones. Gracias a los entornos cloud se pueden conectar sistemas para obtener informes de la actividad de toda la empresa, o responder de forma inmediata a peticiones de información de usuarios. Tener datos en varios países se simplifica tremendamente al poder disponer de servidores cloud en distintas zonas geográficas que permitan acceder a la información de la manera más rápida posible. Pero por supuesto, es la flexibilidad uno de los principales elementos ya que evita problemas que pudieran surgir por temas de capacidad de procesado o almacenamiento”. Las herramientas de integración proporcionan un importante ahorro en el desarrollo de nuevas aplicaciones ya que minimizan complejidades de conectividad entre aplicaciones y reducen el mantenimiento y corrección de errores al proporcionar un punto único de gestión y monitorización del sistema. La nube, en definitiva ha venido para quedarse porque como afirma José Tomás Salvador, “lo que aporta Cloud a estas soluciones no es muy distinto de lo que aporta para otras. El primer beneficio podría ser la reducción de los gastos operativos, al menos, es el más evidente sobre todo en sistemas o negocios nuevos, donde todavía no somos capaces de anticipar nuestras necesidades de recursos, o en negocios consolidados, cuando sus características hacen que nuestros sistemas deban ser capaces de adaptarse rápidamente a una demanda de recursos cambiante. Pero Cloud también permite que la empresa se centre al cien por cien en el negocio y generar valor, aumenta la productividad y la disponibilidad de los servicios y, entre otros beneficios, hace posible el acceso a información crítica desde cualquier lugar”. Esta afirmación también es compartida por el portavoz de Red Hat quien cree que “al igual que con las aplicaciones, el cloud aporta una infraestructura elástica. Es vital para casos de usos en los que se producen picos de consumo. Pensemos, por ejemplo, en el Black Friday. No solo vamos a usar más las aplicaciones o servicios web, además éstas van a provocar mayor necesidad de integración y transformación de los datos. El cloud resuelve la capa de la infraestructura”.
Pero yendo un poco más allá, prima saber si las empresas están apostando por una nube híbrida, pública o privada o si los entornos multi-cloud se está imponiendo sobre otros. El portavoz de Denodo lo tiene claro: “Las arquitecturas de nube híbrida y Multi-Cloud se están convirtiendo en la base de la gestión de datos, pero según un estudio de Denodo, el desafío de integrar los datos en la nube casi se ha duplicado para las empresas: supone un problema para el 43% de los encuestados. Las migraciones de datos a la nube desde aplicaciones locales causan muchas dificultades a los profesionales de TI, ya que deben hacerse sin afectar al servicio y la operatividad de los usuarios de datos. Además, con la entrada en vigor de normativas de protección de datos como el GDPR, es más complicado que puedan ser lo suficientemente ágiles”. Y es que, las ventajas de las configuraciones de nube híbrida y Multi-Cloud incluyen la capacidad para diversificar su gasto y sus capacidades, potenciar su resiliencia y elegir características dependiendo de las fortalezas particulares de cada proveedor de servicio en la nube; todo ello mientras se evita el temido bloqueo del proveedor. Y la realidad es que los usuarios buscan simplificar la integración de los datos en la nube en un entorno híbrido o multi-Cloud, sin tener que depender así de una migración o replicación de gran cantidad de datos.
Para el portavoz de Intersystems, “el acceso a la nube debe realizarse con herramientas simples e intuitivas. Cuando se trata de la nube las empresas quieren agilidad, flexibilidad e independencia. Así que, para ayudar a las organizaciones a acelerar y simplificar este camino, InterSystems IRIS cuenta con un cloud manager que facilita la implementación, configuración y administración de aplicaciones inteligentes en cualquier nube: AWS, GCP, Azure o privada”.
Integrar con el negocio
Cualquier aplicación o departamento de una empresa debe de estar alineado con los objetivos de negocio. En la empresa de 2020 no caben departamentos o tecnologías que “vayan por su cuenta”, por lo que la vinculación de las herramientas de integración en la nube con este objetivo es un apartado esencial. El problema es cómo hacerlo. Para José Tomás Salvador de Intersystems, “el desarrollo de aplicaciones o el acceso a servicios en la nube no es muy diferente, conceptualmente hablando, al del modelo on-premise, pero hemos de ser conscientes de que nos vamos a mover en un ecosistema muy cambiante y que no está bajo nuestro control absoluto. Lo importante es saber muy bien qué necesitamos y ver la nube, con todas sus posibilidades de almacenamiento, computación y servicios, como un elemento más, como una ayuda para dar forma a nuestra solución o porfolio de soluciones. Las soluciones basadas en la nube pueden llegar a ser complejas de gestionar, máxime si hablamos de soluciones híbridas. Pese a que quizá sea una complejidad necesaria, aceptada y asumible, hemos de ser conscientes de ello y será muy importante contar con una plataforma de interoperabilidad que sea un buen punto de unión y orquestación entre datos y servicios de ambos mundos”.
Por su parte, el portavoz de Denodo señala que esta alineación se debe basar en la virtualización. Según su opinión, “la virtualización de datos ayuda de varias formas. Por un lado, proporciona una capa de abstracción entre los usuarios de datos y los sistemas IT. Esto quiere decir que pueden moverse datos o sistemas a la nube para abaratar costes, sin afectar a los usuarios y aplicaciones de negocio. Este cambio será transparente para ellos. Por otro lado, la replicación constante de datos requerida por los métodos tradicionales de integración puede no ser viable con los volúmenes de datos y las latencias de red que encontramos en este tipo de arquitecturas. Por el contrario, la virtualización de datos fue diseñada ya desde el principio para integrar datos que residen en distintas localizaciones, por lo que encaja directamente en las arquitecturas hibridas sin necesidad de ninguna adaptación especial”.
La era de los contenedores
El uso de contenedores y su gestión a través, por ejemplo, de Docker o Podman, está demostrando una forma muy potente para acelerar y simplificar los procesos de implementación, configuración y despliegue de aplicaciones y servicios. Su introducción paulatina en todo el pipeline de DevOps diría que lleva ocurriendo en la mayoría de las empresas de desarrollo de soluciones desde hace, al menos, un par de años. Y la apuesta por los contenedores parece clara entre fabricantes y desarrolladores. Por ejemplo, Miguel Valdés-Faura, CEO y cofundador de Bonitasoft afirma que su compañía han recurrido a la tecnología de los contenedores para facilitar la integración continua de los proyectos de automatización en la plataforma Bonita: “Hemos desarrollado trabajos Jenkins listos para usarse para la integración continua, y proveemos imágenes oficiales de Docker para facilitar la configuración de cualquier entorno de entrega continua”.
El estudio presentado por Denodo hace unos meses también hace hincapié en el poder de los contenedores. Según el mismo, los contenedores están ganando importancia, siendo los contenedores Docker los más utilizados (31 por ciento) muchas veces usando además Kubernetes (21 por ciento). Es por tanto una tecnología que puede proporcionar mucha flexibilidad en la gestión de las infraestructuras de IT, que son cada vez más complejas. Por ello, el portavoz de Red Hat afirma que “efectivamente los contenedores ayudan a resolver el problema de la complejidad en los entornos cloud, pero no solo los contenedores. Si no se monta una plataforma de contenedores idéntica entre los distintos entornos cloud el problema persiste, aunque en otra capa. Por ello es fundamental apostar por una plataforma de contenedores que funcione sobre cualquier entorno cloud”.
Y así se llega a la automatización
Y como lo que se requiere es cada vez una mayor sencillez y eliminar tareas repetitivas, la automatización está empezando a jugar un papel relevante en este tipo de herramientas. El portavoz de Intersystems afirma que “un ámbito de aplicación de las herramientas de integración es automatizar los procesos de intercambio de información entre aplicaciones, suprimiendo o reduciendo la intervención manual. En los casos donde quedan decisiones o workflow manual, las herramientas permiten, en base a suficientes ejemplos de decisión manual, usar aprendizaje maquina para reducir la frecuencia de las decisiones manuales. La automatización interviene también en la parte de monitorización de los circuitos de interoperabilidad, reduciendo la carga de trabajo de los administradores de estas plataformas, mediante una gestión de incidencias automatizadas. Por otra parte, la automatización se empieza a emplear en el ámbito de generación de integraciones basadas en ejemplos; con un conjunto de ejemplos reales de mensajería entre sistemas, la plataforma puede generar los esqueletos y las transformaciones necesarias para la integración, acelerando el trabajo de desarrollo”.
Por su parte, el CEO de Bonitasoft cree que “los DevOps pueden beneficiarse de la automatización de la integración continua y de la entrega continua de proyectos y aplicaciones que se ejecutan en una plataforma DPA. Por otro lado, necesitamos entender claramente que soluciones como RPA permiten automatizar rápidamente ciertas tareas repetitivas pero no permiten ocuparse de la automatización de un proceso completo, por lo que necesitamos considerar la automatización tanto a nivel local como integral”.