En un entorno como el actual, en el que las aplicaciones, la nube y demás tendencias necesitan hablarse entre ellas, la integración juega un papel más importante que antaño. A través de este artículo indagaremos en las ventajas que ofrece la integración en los departamentos TI.
En primer lugar hay que intentar resolver la pregunta de por qué es necesaria la integración dentro de cualquier departamento tecnológico. La respuesta la encontramos en las exigencias a las que se enfrenta una empresa en la actualidad. A las organizaciones, independientemente del sector donde operen, se les exige ser cada vez más ágiles, deben moverse muy rápidamente y no solo en el mercado con su oferta de producto o servicios, sino también en el desarrollo de aplicaciones específicas e inteligentes para su negocio y su conectividad. Estas metas solo se consiguen con un control completo de los datos e integrando los sistemas de forma óptima. A todo esto hay que añadirle, que como afirma José Tomás Salvador, Sales Engineer Manager de InterSystems, “las aplicaciones deben ser cada vez más inteligentes y basadas en datos. Deben escalarse en función de las necesidades del negocio y el volumen de datos, para gestionar grandes entradas de nuevos datos, nuevas cargas de trabajo y nuevo tamaño y formatos de datos de forma fiable, económica y rápida. Por todo ello, es necesario contar con una plataforma que proporcione capacidades de integración e interoperabilidad, conectividad, capacidad para transformar los datos y ser utilizados por aplicaciones y bases de datos según los actuales estándares y protocolos”.
Y es que, es en las aplicaciones en donde parece estar la piedra angular del desarrollo de las plataformas y herramientas de integración. En este sentido, Carlos Alberto Giraldo, Integration Specialist de Oracle, considera que una de las claves es que “las empresas tienen enjambres de aplicaciones y sistemas muy diversos para resolver sus necesidades del día a día, y normalmente muchas de esas aplicaciones necesitan compartir información entre ellas para funcionar correctamente. Una herramienta de integración intenta simplificar la complejidad que significa gestionar la comunicación entre las piezas de la arquitectura, pero también debe facilitar la configuración y construcción de orquestaciones de servicios. Una vez que una herramienta de integración se haya asentado dentro de la empresa, ayudará a simplificar los procesos empresariales, promoverá el intercambio de información y, por consiguiente, ayudará en la reducción de costes”.
Reducir la complejidad
Así que hemos dado con una de las claves por la que las soluciones de integración son cada vez más necesarias. Efectivamente, la transformación digital hace que haya cada vez un mayor número de aplicaciones, servicios, entornos, etc. por lo que reducir la complejidad es cada vez más necesario y es en este punto donde las herramientas de integración juegan un papel fundamental. Y es que, como dice Ramón Gordillo, Principal Solution Architect de Red Hat, “este tipo de herramientas facilita la cohesión entre otras herramientas y aplicaciones que disponen las empresas, sirviendo como pegamento para las necesidades de negocio. También están siendo habilitadoras de la evolución de los entornos “legacy”, permitiendo incorporarlos en las nuevas arquitecturas de microservicios y proporcionando los mecanismos que facilitan las estrategias de “apificación” de los nuevos negocios”.
La realidad es que nos encontramos ante un mercado en el que la evolución ha sido apabullante. Sólo hay que fijarse en el bajo número de herramientas de integración que había hace no muchos años y compararlo con la situación actual. La evolución de la integración ha sido enorme. Durante años, ha sido simplemente el mecanismo para conectar las aplicaciones empresariales, mientras que hoy en día no se trata sólo de eso, sino de conectar personas, dispositivos y datos, es decir, no sólo las aplicaciones empresariales. La integración es ahora una cuestión más empresarial que técnica. Como afirma José Velázquez, Director General de Infor para Iberia, “las plataformas de integración tradicionales se basaban en estándares propios, mientras que el mercado necesita ahora un enfoque basado en estándares. Esto ha dado lugar a la economía basada en las API (interfaces de programación de aplicaciones) que tenemos ahora, en la que las API simplifican y aceleran la capacidad de conectarlo todo”.
Los retos
A pesar de contar con las herramientas necesarias, se da la circunstancia de que en muchas ocasiones las empresas no logran extraer toda la potencia de una solución o plataforma de integración, en la mayoría de los casos es debido a que no están alineadas con los objetivos del negocio, aunque también existen otros elementos que también influyen. Así que son varios los retos a los que se enfrentan los departamentos TIC. En opinión de José Andrés García, responsable de Iberia y Latinoamérica de Denodo, hay varios retos: “Por un lado, cada vez más las decisiones en las organizaciones deben basarse en datos, lo que aumenta la presión sobre los departamentos de BI y TI para presentar datos en distintos formatos para múltiples casos de uso. Por el otro, el volumen de la información es cada vez mayor, así como las distintas fuentes y formatos de origen del que proceden. En estas circunstancias, depender exclusivamente de los métodos tradicionales de integración de datos, como el ETL (Extract, Transform and Load) para crear Data Marts físicos es muy costoso y resulta lento de implementar, lo que afecta a la operatividad del negocio.
La Virtualización de Datos utilizada en el Logical Data Fabric evita estos problemas porque no replica los datos cada vez que hay que integrarlos y transformarlos de una forma distinta. La información permanece en sus sistemas de origen, se integran y se gestionan de manera unificada y en tiempo real en una capa que conecta las fuentes de los datos con las aplicaciones que los consumen. Esto acelera y abarata todos los procesos de integración. Por ejemplo, Gartner, el principal analista del mercado tecnológico, estima que con esta tecnología los costes de integración bajan un 45%”.
Por su parte, el portavoz de Oracle cree que “hay dos retos fundamentales hoy día para este tipo de soluciones. El primero está relacionado con el número de adaptadores con que puede contar, y que significa básicamente con cuántos tipos de otras aplicaciones/sistemas la herramienta de integración permite conectar. El segundo reto está asociado a la evolución de la misma herramienta, tanto para hacer el mantenimiento de los adaptadores soportados en el tiempo como para seguir añadiendo nuevas funcionalidades para seguir las tendencias emergentes del mercado y las nuevas tecnologías”.
Otro apartado a considerar es que las herramientas de integración “deben, por un lado, incorporar la mayor cantidad de componentes, protocolos, estándares, etc, para dar solución a las comunicaciones con la mayor cantidad de herramientas existentes y futuras que disponga en una empresa. Por otra parte, deben ser sencillas para utilizar por diferentes usuarios, desde los desarrolladores más experimentados hasta los equipos especializados en los sistemas a integrar. En este sentido, comparten algunas características comunes a herramientas low/no-code. En los últimos años, además han tenido que evolucionar para incorporar los modelos devops, la implementación en modelos de microservicios, los despliegues elásticos en cloud y edge computing”, afirma Ramón Gordillo de Red Hat.
La integración está ligada indisolublemente a la interoperabilidad
Pero sin duda la visión más disruptiva proviene de InterSystems, un proveedor con amplia experiencia en el mundo de la integración y con una plataforma, InterSystems IRIS Data Platform, que dota a las empresas de capacidades para una integración e interoperabilidad inteligentes en el escenario actual. La clave para José Tomás Salvador, su Sales Engineer Manager, es que “nosotros que la integración está ligada indisolublemente a la interoperabilidad. No tiene sentido integrar sistemas, procesos y datos si, luego, no se comparten, analizan, comprenden y utilizan en beneficio del negocio. En este sentido, ambas, tanto integración como interoperabilidad, son tecnologías maduras que ya han probado su eficacia y capacidad. Los retos, por lo tanto, serán aquellos que afecten al negocio específico donde se implementen. Para nosotros son claves la facilidad de uso, la capacidad de la plataforma para transformar rápidamente y el compromiso total del equipo proveedor a la hora de realizar un proceso de integración. Pero, como decía, la tecnología está madura. Nosotros hemos llegado a realizar migraciones en solo ocho días y el sistema ha funcionado perfectamente, sin interferir en la operativa de la empresa. En el caso de grandes organizaciones el plazo puede llegar a los 30 días, sin interferencias”.
La nube
Como ha ocurrido en casi todos los segmentos de la tecnología, la nube ha cambiado buena parte de los paradigmas sobre los que se estructuraba el departamento TIC de una empresa. Y la aparición de la cloud, con sus diferentes sabores y entornos, hace que las soluciones de integración también sean en este aspecto un valor añadido para mejorar la eficacia y la productividad de una organización. La nube ha supuesto que cada proveedor cloud tenga que invertir más trabajo en crear adaptadores, tanto para aplicaciones propias como para aplicaciones de la competencia. El problema se amplía porque la inmensa mayoría de las organizaciones no optan por un único proveedor y cuentan, además con sistemas heterogéneos y arquitecturas híbridas. Así que los proveedores deben asegurar la interoperabilidad entre las diferentes nubes, dado que, si no hay soporte de algo concreto que necesite el cliente, terminará buscando en otros lugares hasta encontrarlo. Por eso la nube viene con nuevos retos para las herramientas de integración. En opinión del portavoz de Oracle, “en la actualidad, hay grandes retos para las herramientas de integración, ya que supone aceptar el cambio como una constante. Cada día salen herramientas nuevas y cada proveedor de cloud es líder en diferentes áreas tecnológicas. El cliente siempre está buscando soluciones simples, pero también que sean potentes y amplias en funcionalidad. Las herramientas de integración deben evolucionar continuamente, añadiendo nuevos adaptadores para poder conectarse a otras herramientas, soportando diferentes protocolos, formas de trabajo, simplificando tareas, y además manteniendo las opciones actuales sin bugs. Una herramienta de integración que no evolucione estará obsoleta en muy poco tiempo, y para los proveedores de cloud, además de la necesidad de implementar conectores propios, también debe soportar aquello que se utiliza en el mercado y la competencia, ya que al final el modelo multicloud solo ha llegado para seguir expandiéndose”.
Miguel Valdés, CEO de Bonitasoft cree que “uno de los retos que estamos viendo con los requisitos de integración de la nube híbrida y la multi-nube es la necesidad de una experiencia más amplia en el equipo técnico: además de personas con experiencia en las capacidades de integración de una plataforma basada en la nube, el equipo también necesita personas que entiendan las implementaciones de nube a nube. También es necesaria una buena colaboración entre los distintos proveedores de la nube y los equipos de TI de la empresa”. Pero uno de los problemas es que la nube no ha acabado con uno de los habituales quebraderos de cabeza de los CIOs y responsables de tecnología como es el de los silos. De hecho, en varias ocasiones, la nube ha incrementado estos silos. En este sentido, el portavoz de InterSystems asegura que “es aquí donde entra en juego la interoperabilidad que, a pesar de lo que muchos creen, no es lo mismo que ‘integración’. En tanto que la integración permite combinar datos heterogéneos desde muchas fuentes distintas, la interoperabilidad es la capacidad de sistemas diferentes, dispositivos y aplicaciones para acceder, intercambiar, integrar y utilizar datos de forma coordinada en las organizaciones, a nivel regional y nacional. Significa que los sistemas diferentes operan entre sí, sin limitaciones, de forma coordinada y con la facultad de discernir la información que reciben. No solo intercambian información; intercambian conocimiento. Precisamente, la interoperabilidad aparece cuando, en los años 80, organizaciones complejas como por ejemplo los hospitales comenzaron a tener más de un sistema para su gestión y debían conectarlos. La información residía, y aun hoy sucede, en cada uno de los sistemas y, en muchas ocasiones, está fragmentada en sistemas independientes. A ello se suman los datos de laboratorios, aseguradoras, farmacias, etc. La interoperabilidad es quien hace posible que el sistema vea todos los datos, en cualquier lugar, sin necesidad de réplica. La nube, el cloud, no es inmune a la aparición de silos. Estos aparecen en todas aquellas soluciones que no asumen que la interoperabilidad debe formar parte de su ADN, y eso no depende de la localización de esa solución. Una solución que no interopera, ya se ubique en la nube o en un servidor privado, se convierte en un silo. Está aislada”.
Para el portavoz de Red Hat, el problema se encuentra en que “la integración de datos es especialmente relevante en entornos híbridos. La posibilidad de compartir información entre diferentes tecnologías incluyendo las SaaS, hace necesario estas capacidades específicas, como por ejemplo el proyecto debezium, incorporado dentro de Red Hat Integration, que permite capturar los cambios de datos para sincronizar las aplicaciones. Lo que estamos observando es que cada vez más compañías, especialmente del sector telco, retail, industrial o motor, quieren subir los datos de los sistemas edge remotos a sus datacenters, y de allí a las nubes públicas para luego poder explotarlos. Estas necesidades requieren que las herramientas puedan trabajar en cualquiera de esos tres escenarios de forma homogénea. Facilitar esta conectividad es el mecanismo que permite acabar con los silos. Red Hat Integration permite arquitecturas para desplegar buses de eventos basados en Apache Kafka, o bien Apache Artemis/Qpid, creando redes de servicios virtuales que responden de mejor manera a entornos con alta probabilidad de desconexión”.
Complejidad
Al encontrarnos en diferentes entornos, las soluciones de integración aumentan su complejidad. Ésta viene dada por el número de variables o piezas que contiene y es casi inevitable que aumente la complejidad cada día, ya que siempre hay una solución o servicio nuevo dentro de los proveedores cloud. Hasta hace unos años la solución en integración era pasar por un bus de servicios donde se instalaba todo, el monolito. Hoy día las soluciones más comunes pasan por arquitecturas de micro-servicios. Así que todo parece que se puede solucionar con los contenedores. Sin embargo, Carlos Alberto Giraldo de Oracle cree que “es difícil decir que los contenedores sean la solución para todo, o que el día de mañana no volvamos de nuevo al monolito (como con la moda, en tecnología muchas cosas vuelven), pero es seguro que a los clientes, al mercado y los desarrolladores les gustan los contendores. Son aplicaciones que funcionan de forma independiente, y aunque añaden algo de complejidad en gestión, son más resilientes y permiten soluciones más robustas”. Una afirmación que, evidentemente, no es compartida por el portavoz de Red Hat, una de las firmas que más hincapié ha hecho en las bondades que traen consigo los contenedores. En su opinión, “la complejidad ya existe en los entornos tradicionales, ocultas bajo un nombre de producto que da sensación de simplicidad. La capacidad de desplegar e interconectar todas estas piezas de una manera homogénea, tanto en entornos “on-premise” como en cloud, acelera enormemente la realización de los proyectos y facilita su mantenimiento. Es el mismo modelo que estamos acostumbrados en los desarrollos basados en microservicios llevado al mundo de la integración. Incluso estamos viendo que el modelo de contenedores está sirviendo para extender la integración a los dispositivos remotos en los modelos edge que tantos clientes nos están mostrando su interés”.
Al encontrarnos en diferentes entornos, las soluciones de integración aumentan su complejidad
Y no es el único. El responsable de InterSystems cree que “el uso de contenedores y su gestión vía Docker, Podman, etc., está demostrando una forma muy potente para acelerar y simplificar los procesos de implementación, configuración y despliegue de aplicaciones y servicios. Su introducción paulatina en todo el pipeline de DevOps diría que lleva ocurriendo en la mayoría de las empresas de desarrollo de soluciones desde hace, al menos, un par de años. Es cierto que esta agilidad y flexibilidad puede tener un coste en cuanto a complejidad para la gestión. Para facilitarnos esa tarea, InterSystems dispone de herramientas de despliegue propias como el ICM (InterSystems Cloud Manager) pero también se facilita el uso de orquestadores de contenedores como Kubernetes que, prácticamente, es un estándar de facto del mercado, a través del IKO (InterSystems Kubernetes Operator). Con el IKO podemos desplegar un cluster complejo con distintos servidores IRIS en alta disponibilidad en cuestión de minutos”. Y el CEO de Bonitasoft pone como ejemplo el uso de los contenedores que hace su plataforma: “la implementación de Bonita sí aprovecha la contenedorización completa (mediante Docker) y la orquestación (a través de Kubernetes) que soporta Bonita Cloud. Así que es una solución que funciona para las aplicaciones empresariales de Bonita y los proyectos de automatización en la nube. Nuestro proyecto de Centro de Atención al Cliente, recientemente destacado, que está basado en la nube, aprovechó estas dos tecnologías”.
Open Source
El código abierto se ha demostrado como el elemento esencial en el desarrollo de aplicaciones y también en lo que respecta a las herramientas de integración. El desarrollo del open source abarca ya la totalidad de la mayoría de las soluciones que hay en el mercado, y no sólo en el mercado de la integración. Y es que, “es el modelo que ha triunfado por la fuerza de la comunidad. La cantidad de aplicaciones, protocolos, estándares, es muy elevada, y casi la única fórmula para poder abordar este reto de forma innovadora es disponer de la colaboración necesaria entre diferentes grupos y compañías que los conocen para poder realizar una integración extensiva y de calidad. Muchas de las herramientas “propietarias” si las analizamos en detalle están utilizando por debajo muchos proyectos Open Source sin los cuales no podrían dar la funcionalidad necesaria”. Intersystems también ha abrazado claramente el open source porque tal y como expone José Tomás Salvador, “el código abierto permite una evolución colaborativa rápida del software en dominios que no están consolidados. Un riesgo colateral es la posibilidad de invertir construyendo soluciones basadas en proyectos open source que son reemplazados por proyectos más nuevos y activos. La inversión realizada en los proyectos de integración e interoperabilidad es muy alta, y es crítico escoger plataformas que no solo faciliten el desarrollo de estos proyectos, sino también su mantenimiento y evolución a lo largo de periodos cada vez más largos. InterSystems IRIS propone una solución hibrida, con el core de la plataforma mantenido en modo propietario y los componentes de interoperabilidad en Open-source, de tal manera que se puedan modificar y extender por técnicas orientadas a objetos, facilitando su adecuación a casos de integración específicos no cubiertos en los estándares soportados”.
Pero aunque todo parece que son bondades en el open source, algunas empresas también ponen sus peros. Es el caso de Oracle donde consideran que hay varias herramientas Open Source en integración que son de calidad y hay muchos clientes que deciden escogerlas por encima de soluciones más conocidas comerciales. Lo importante para el cliente es entender a qué estará advocado una vez haya escogido una opción comercial u open source. Desde la multinacional norteamericana consideran que el problema es que las soluciones open source arrancan siendo gratuitas, y comenzar un proyecto sin gastos operativos es muy atractivo, pero al pasar el tiempo, sobre todo para proyectos que pasan a ser productivos y de alta demanda, se termina necesitando el tener un soporte, y es ahí donde las aplicaciones open source obtienen su financiación. Lo importante es entender que nada es gratuito y que al final, cualquier herramienta de calidad costará algo, de una forma u otra.
Por eso, afirman que las soluciones comerciales cuentan con un par de beneficios fundamentales para los clientes desde el minuto uno:
• Son soluciones más fácilmente configurables. Muchas veces las soluciones open source necesitan expertise para realizar la instalación del producto, y es más lento arrancar con los proyectos.
• Tener soporte de la solución por si se encuentran bugs. En una herramienta open source (aunque puedan tener buenos tiempos de resolución) no tienes asegurado que puedan responder rápidamente a un error.
En cualquier caso, lo más conveniente es establecer una buena planificación para empezar cualquier proyecto, independientemente del tipo de plataforma que se elija. Como afirma el responsable de Denodo, “es recomendable realizar una evaluación del status actual de la organización desde la perspectiva de recursos, seguridad y gobernanza del dato. En segundo lugar, conviene identificar las habilidades y capacidades que se necesitarán para llevar a cabo la integración, ya que la falta de estas suele ser uno de los desafíos más mencionados en estos procesos. Y, por último, antes de su implementación hay que establecer unos objetivos y KPIs bien definidos y realistas, que puedan satisfacer las necesidades de los stakeholders clave de la organización”. Algo en lo que coincide el portavoz de Oracle: “ identificar los stakeholders, las aplicaciones que se incluirán en las integraciones y las tecnologías o protocolos necesarios. Una vez se tiene la visión general de lo que se quiere, se debería definir a grosso-modo el scope del proyecto y listar las integraciones que se quieren incluir. Adicionalmente, es muy importante para proyectos de integración incluir algunos temas de infraestructura a nivel de seguridad y comunicaciones. Sabiendo que es muy posible tener arquitecturas hibridas, se debe saber y configurar desde un inicio los canales, puertos y firewalls adecuados para que la herramienta de integración tenga acceso a todas las aplicaciones finales”. Finalmente José Tomás Salvador cree que “en un proyecto de integración tiene un papel muy importante el propio liderazgo, dentro de la organización, del equipo de proyecto. Asumiendo que ese flanco está cubierto, y desde el punto de vista técnico, es muy importante asegurar que tendremos la infraestructura adecuada: elementos como firewalls, balanceadores de carga y sistemas de failover, dentro de una arquitectura que nos asegure los mínimos de alta disponibilidad y seguridad exigidos por el proyecto. Contar y tener perfectamente definido esto es, yo diría, uno de los primeros puntos de nuestra planificación”.