Los datos se han convertido en el gran paradigma para cualquier tipo de organización. Ya no se trata sólo de almacenarlos sino de sacar aquella información que genere valor para la mejora de la empresa. Pero, ¿cómo gestionan los datos las empresas? ¿Cómo se realiza una analítica de forma correcta? Intentaremos dar respuesta en este reportaje.
En la última década hemos multiplicado por 30 el volumen de datos almacenados hasta alcanzar los 64 ZB en 2020. Y las previsiones son que el crecimiento va a seguir siendo exponencial de tal forma que en el año 2025 ese volumen crecerá en torno al 40% hasta superar los 180 zetabytes. El IoT, las redes sociales, el 5G o los datos generados en el Edge serán en buena parte los responsables de este espectacular crecimiento. Los datos se han convertido de esta forma en el activo más valioso de las empresas, ya que son la clave de la próxima gran innovación. Por eso se habla del nuevo petróleo, porque las organizaciones están colocando los datos en el centro de sus operaciones en un esfuerzo por convertirse en una organización impulsada por los datos.
Queda claro, por tanto, que somos capaces de almacenar una gran cantidad de datos pero sin una gestión correcta de los mismos que permitan extraer la información que cada empresa necesite para su progreso, esa cantidad de zetabytes no sirve para mucho. Es como si un cocinero tuviera una gran cantidad de recetas, pero no supiera dónde se encuentran los ingredientes para cocinarlas. Los retos son importantes porque la gran mayoría de las empresas no saben extraer el valor, por mucho que quieran convertirse en firmas ligadas al dato y además, todavía no somos capaces de atrapar todos los datos. Según varias consultoras, sólo almacenamos el 2% de todos los datos que generamos. Herramientas como las de analítica unidas al uso de la inteligencia artificial puede hacer que las compañías empiecen a mejorar su situación con respecto al dato. Y no sólo las empresas, los estados se han dado cuenta de la importancia que tiene el dato tanto para mejorar la productividad y competitividad de sus países como para hacer frente a estados enemigos. China, sin ir más lejos, está almacenando ingentes cantidades de datos para que, en el momento en el que la inteligencia artificial basada en computación cuántica sea una realidad, extraer el valor de todos ellos a velocidades de vértigo.
Jaime Balañá, director técnico de NetApp asegura que “el mercado del dato ha experimentado un crecimiento exponencial. Se está dando una vertiente de especialización enfocada a los datos. El triunfo/auge del dato se debe a la información que proporciona para las empresas. Adquieren un valor económico y social que facilita la toma de decisiones respecto a los clientes. Por ello, resulta decisivo hacer un uso inteligente de los mismos, tanto internos como externos, para maximizar la creación de valor que paralelamente aumenta la valía de la empresa”. Razón, desde luego, no le falta al directivo, toda vez que, en estos momentos, muchas de las inversiones que realizan los departamentos TIC de las empresas están enfocadas de forma clara al mundo del dato.
El papel de la nube
El mundo ligado al dato ha ido cambiando de forma paulatina desde el comienzo del siglo. Los sistemas de almacenamiento se han modernizado, las herramientas de análisis son más potentes, pero sobre todo, hay una actriz que ha cambiado todo: la nube. Mar Montalvo, Analytics Solution Director de Oracle EMEA cree que “la nube es una palanca indiscutible para la analítica de datos, porque acerca estas tecnologías a organizaciones de cualquier tamaño. La ciencia de datos evoluciona muy rápidamente y cada organización que se centra en su propio negocio no suele tener recursos para invertir en investigación y desarrollo respecto a estas tecnologías. En Oracle, que llevamos más de 40 años dedicados a la ciencia de los datos y apostamos fuertemente por la nube para proporcionar todas las capacidades necesarias a las organizaciones, independientemente del volumen y de la industria”. Para esta directiva, el cambio de pasar de los sistemas on-premise a la nube ha supuesto una auténtica revolución y ese cambio ha sido posible gracias a dos factores esenciales y que van unidos a la nube como son la agilidad y la flexibilidad. “Esto es algo que no se puede conseguir con sistemas on-premise, o al menos, la gestión de los datos no se puede abordar de la misma manera. Por ejemplo, la agilidad para poner en marcha proyectos de IA rápidamente, ya que muchas veces empiezan como laboratorios o pruebas piloto que pueden crecer a la velocidad que el negocio necesita, sólo es posible gracias a la escalabilidad que proporciona la nube”, asegura Montalvo.
Y es que, tener una empresa que está orientada a los datos supone múltiples beneficios y ventajas. Pero para poder gestionar esos datos previamente hay que almacenarlos: sin la infraestructura subyacente adecuada no se conseguirán los beneficios que ofrecen los datos. Los datos modernos deben almacenarse de forma que sean accesibles en cualquier momento, desde cualquier ubicación o nube, para que puedan convertirse en valor rápidamente, proporcionando una visión histórica y predicciones futuras, y de una forma que tenga en cuenta la escala esperada -e inesperada-. La capacidad de consolidar los datos en una única plataforma, fuera de los silos, es fundamental en el acelerado mundo empresarial actual. El almacenamiento influye en la forma de gestionar, proteger, compartir, asegurar y desplegar los datos.
Tener una empresa que está orientada a los datos supone múltiples beneficios y ventajas
En este sentido, Adela de Toledo, Country Manager de Pure Storage cree que el papel que ha jugado la nube en el almacenamiento de datos y también en la analítica va a seguir siendo crucial: “Independientemente de dónde se utilicen o almacenen, los datos de una organización tienen un valor inmenso. Con una estrategia de nube adecuada, y con la portabilidad como eje, cada organización puede exprimir hasta la última gota de valor de sus datos y utilizarlos para obtener una ventaja competitiva”. Sin embargo, de Toledo cree que uno de los problemas es que se están creando demasiados silos en la nube y se copian las malas prácticas que se arrastran desde el on-premise: “Cada vez que una organización crea una nueva instancia en la nube, se levanta una nueva barrera entre esos datos y el resto de los datos de la organización. Si no se tiene en cuenta una estrategia de gestión de datos desde el principio, las organizaciones pueden descubrir pronto que sus datos se convierten en un silo tan completo que su valor para la empresa disminuye drásticamente. Las organizaciones que no se ocupan de estos silos pueden no ser capaces de utilizar esos datos para obtener información significativa. Cuando las organizaciones son capaces de poner esos datos en uso, pueden crear nuevas experiencias para los clientes, nuevos servicios y ampliar su base de clientes; si no lo hacen, la organización puede simplemente estancarse en un atolladero de datos. Para superar los retos que supone tener silos en la nube, las organizaciones deben desarrollar una arquitectura de datos sólida. La base de la arquitectura de datos debe ser una plataforma de datos común que desvincule las aplicaciones y sus datos de la infraestructura subyacente, haciéndola flexible, sencilla y portátil, para evitar que las organizaciones se queden atrapadas en un único modelo de suministro”.
Pero a pesar de las dificultades, lo cierto es que la nube es el elemento fundamental para poder realizar una correcta gestión de los datos. La amplia oferta, obvio, también contribuye de forma decisiva a la apuesta que las empresas hacen por los entornos cloud. En este sentido, Luis Polo Paredes, experto en Business Intelligence y Product Manager de Ekon, cree que “las grandes infraestructuras cloud (Google, AWS, Azure) ponen a disposición de cualquier empresa la analítica como un servicio en la nube. Esto permite desarrollar soluciones sin tener que preocuparte por la gestión de las máquinas: ni el despliegue, ni el mantenimiento. Lo mismo que ocurre con cualquier otro tipo de software. Esto ha favorecido enormemente la aparición de nuevas empresas de analítica entorno a estos ecosistemas cloud”. Y dentro de la nube, surge con fuerza el concepto de los data-lakes. Ricardo Casanovas, vicepresidente del área de Productos e Innovación SAP en Syntax, cree que éstos “son la base de los proyectos cloud y están siendo ampliamente utilizados para almacenar los datos corporativos porque, con ellos, no importa la procedencia de los datos que se registran de forma nativa mediante los conectores adecuados. Las plataformas cloud, como AWS, entorno en el que somos referentes, ofrecen una infraestructura flexible y escalable, así como la potencia necesaria para analizar datos y ajustarla dinámicamente en función de los picos de carga”.
La dichosa gestión
La gestión de los datos, como casi todo en tecnología tiene que venir dada por un plan realizado con antelación. Improvisar no suele ser una buena idea porque costará tiempo y dinero. Tener una estrategia en torno al dato significa centrar los recursos de los que se dispone, identificar las responsabilidades y poner de relieve los problemas que se puedan producir a futuro antes de que se conviertan en obstáculos insuperables. Pero no todas las empresas parecen tener clara la importancia de llevar a cabo una estrategia en la gestión de los datos que luego les permita extraer el valor de los mismos. Esa estrategia, según Vicente Llamas Roldán, especialista en dato no estructurado de Dell Technologies, tiene que estar basada “en la nube híbrida, que es un concepto con cierta flexibilidad y que precisa concretarse en cada empresa y organismo, incluso en cada departamento o unidad de negocio, y que posiblemente esté condenada a evolucionar con el tiempo, y quizá sólo tenga en común la necesidad de unas infraestructuras en centro de datos propio preparadas para ello; pero sin duda donde no hay una estrategia adecuada única es en el análisis: juegan papeles destacados en su búsqueda tanto los desarrolladores de herramientas de analítica e inteligencia artificial, como los científicos de datos que analizan los tipos y tamaños de los datos involucrados, como los especialistas en el negocio o servicio que presta la empresa u organismo en cuestión. Es una tarea compleja y una ruta apasionante que debe comenzarse cuanto antes, no sólo para intentar llegar cuanto antes a destino sino para que se extraigan beneficios importantes durante el camino”.
Lo cierto es que a la empresa española le queda camino por recorrer cuando hablamos de gestión del dato. Según el Estudio 360 de la gestión y explotación del dato realizado por Denodo las prioridades de las Direcciones Generales de las empresas en cuanto a gobierno y gestión del dato son contar con herramientas que los centralicen y los integren todos ellos de forma sencilla. Es un avance, dado que implica que han identificado la importancia del gobierno de los datos. Sin embargo, también refleja que necesitan mejorar, ya que solo el 18% de las empresas consideran que su política de Gobierno y Gestión del Dato es satisfactoria. De hecho, el 42% considera que esa política se encuentra “en proceso”. Así que la pregunta es, ¿cómo se gestionan los datos?
Para Manuel Ángel García, director de la práctica Data Intelligence de Techedge, “primero hay que tener claro cuál esa la estrategia de la empresa y a partir de ahí establecer primero una buena gestión de acceso, catalogación y disponiblización del dato. Involucrar a los usuarios clave dentro de la compañía es primordial en todo este viaje. Ellos aportarán el conocimiento del negocio y se sentirán parte de ese viaje hasta convertirse en una compañía “data driven”. Sólo si ven el valor desde el minuto uno, seremos capaces de que nos acompañen en ese viaje”. Por su parte, Ana Alonso Muñumer, country manager EMEA South de Tableau-Salesforce, cree que “es importante que las empresas, en su totalidad, sean capaces de ver el potencial de los datos y entiendan los beneficios que les pueden traer a largo plazo. Tradicionalmente, finanzas y ventas han sido los departamentos que más cifras y datos manejan, pero como comentaba antes, es importante incidir en la necesidad de expandir la cultura del dato a todas las áreas de una compañía. De hecho, el 87% de los directivos españoles asegura que es importante que todos los departamentos tengan acceso a los mismos datos independiente de dónde se encuentren, evitando así la creación de silos de información. Por eso, es importante que toda la organización vea la importancia de manejar datos en su día a día, desde el CEO hasta un técnico de mantenimiento, pasando por personal de administración, vendedores o agentes de atención al cliente”.
Estrategia, estrategia y estrategia. Eso es el dato. Una estrategia bien diseñada posibilitará una mejora de la productividad general ya que permite minimizar el movimiento de datos, ayuda a descubrir los fallos de rendimiento y permite a los usuarios tener toda la información necesaria a un clic de distancia. Gracias a esa adecuada estrategia de gestión se logra una mayor eficiencia de costes y que se evitarán las duplicidades y además permitirá responder de forma rápida a los cambios, algo cada vez más importante puesto que el éxito de una empresa depende en gran medida de su capacidad para tomar rápidamente las decisiones adecuadas ante cualquier cambio repentino. Además, una buena estrategia que gire en torno al dato y lo gestione de forma correcta permitirá tener una mayor precisión en la toma de decisiones. Cuantos más datos de calidad se tengan, mayor será el abanico de posibilidades y mejores serán las decisiones que se tomen. Y también al contrario, la falta de información puede conducir a errores fatales. Pero sobre todo, a la hora de establecer una correcta gestión del dato, lo importante es entender el ciclo de vida del mismo. Como asegura Jaime Balañá de NetApp, “los datos poseen un ciclo de vida que comienza con su extracción, pasa por un proceso de almacenamiento y deriva en su posterior preparación/descubrimiento. Aquí entran en juego tecnologías como el Big Data y la IA, que nos posibilitan tomar decisiones en tiempo real e incluso llegar a un futuro cercano. Estas herramientas, además de recopilar un gran volumen de datos, permiten extraer valor de ellos”.
El papel de la Inteligencia Artificial
La Inteligencia Artificial (IA) ya está presente en nuestras vidas y se espera que tenga un papel central en la transformación de la sociedad. El uso de esta tecnología será fundamental para mejorar la responsabilidad social de las compañías y es un aspecto que, cada vez, cobra más importancia dentro de las organizaciones. Pero, también presenta su problemática. Tal y como expone Juan Carlos Sánchez de la Fuente, director regional de Cloudera, “algunas compañías se enfrentan a los problemas habituales a la hora de implementar la IA. Para tener éxito, no deben centrarse solo en los aspectos técnicos, sino que es necesario ir más allá y abordar aspectos organizativos, reformular procesos y modelos empresariales, donde las áreas de negocio de las empresas que demanden casos de usos en los que aplicar estás tecnologías justifiquen las inversiones”.
La IA es parte de la solución en la extracción del valor del dato y también en su gestión, pero tiene que ir de la mano de la analítica de datos, que tiene un potencial transformador para todos los sectores del mundo actual. Utilicemos el sector sanitario como ejemplo. Según un estudio de la Sociedad de Actuarios, se calcula que el 60 por ciento de los profesionales de la salud utilizan el análisis predictivo en sus organizaciones. La adopción va en aumento y la analítica de datos se ha convertido en una poderosa herramienta que se utiliza para todo, desde acelerar el desarrollo de medicamentos hasta optimizar los diagnósticos y los análisis de laboratorio. Para la directora de Pure Storage, “aunque estos datos tienen un enorme potencial, los datos no estructurados representan un alto porcentaje de la huella digital total. Estos datos no estructurados, que existen en formas tales como imágenes, datos de búsqueda, vídeos y datos de sensores, no se pueden buscar y son difíciles de analizar, lo que supone un reto importante para las empresas. Además, muchos de estos datos se encuentran en infraestructuras y silos complejos, como data lakes, almacenes de datos, redes de área de almacenamiento y sistemas de copia de seguridad. Ante esta realidad, las empresas deben estar bien preparadas para recoger, almacenar y extraer valor de los datos. Esto implica la modernización de la infraestructura, que requerirá soluciones de almacenamiento capaces de acceder a los datos y compartirlos con extrema rapidez, manteniendo al mismo tiempo los datos seguros y en consonancia con la normativa sobre privacidad. Una experiencia de datos moderna requiere una infraestructura que pueda salvar los silos y satisfacer las demandas de rendimiento, agilidad y simplicidad, sin complejidad ni compromiso”.
Tiene que quedar claro que la inteligencia artificial es sólo una actriz más en toda la película que protagoniza el dato. Ella, por si misma ni puede gestionar ni puede extraer el valor necesario. Tal y como expresa la portavoz de Oracle, “la ciencia de los datos no es nueva, hay muchos aspectos tecnológicos alrededor de su gestión: la captura y almacenamiento, su gestión, la calidad, la seguridad o la regulación. Todos ellos necesarios, pero no suficientes. La IA es la que genera valor proporcionando un conocimiento útil al negocio, con modelos predictivos para anticiparse a necesidades o amenazas y así aplicar medidas que aprovechen o corrijan estos efectos o, incorporando la analítica en la operación para que de forma automatizada se tomen decisiones en el contexto del proceso. Es decir, la inteligencia artificial lo que hace es poner a los datos a trabajar para aumentar el valor de estos y ponerlos al servicio del negocio”.
El director técnico de NetApp también cree que la IA es un elemento más. En su opinión “la inteligencia artificial se está abriendo camino en el uso cotidiano, toma valor como herramienta para extraer patrones en tiempo real de los datos. Es la encargada de replicar procesos humanos como razonar o tomar decisiones y no de recopilar información. La IA por sí sola no se implementa, necesita una fuente de información para poder llevar a cabo los procesos oportunos. Por ello, se hace necesario implementar varias herramientas juntas. La IA, con otros mecanismos como el Big Data, que almacena cantidades masivas de datos, forman un conjunto necesario”.
El edge
No hemos avanzado por tanto en la gestión y extracción del dato de forma correcta cuando ya tenemos el siguiente punto: analizar los datos que hay en el Edge. Con la consagración del 5G, se supone que los datos que se generen en el borde van a incrementarse de forma sostenida y analizar esos datos y extraerles su valor puede marcar la diferencia entre el éxito o el fracaso de una compañía. Balañá asegura que “a la hora de obtener los datos, hay que tener en mente que los procesos se realizan desde los propios dispositivos o en servidores periféricos locales (nodos Edge). Lo que permite que los datos se procesen más cerca de dónde se generan. El Edge Computing se complementa con entornos Cloud, que resultan fundamentales para agrupar un gran volumen de datos. Mientras, el Edge proporciona inmediatez a la hora de transferir los datos, ocupa un menor ancho de banda y facilita la escalabilidad. El valor que aporta el Edge se basa en diferenciar la información que debe enviarse a la nube para ser usada y la que debe almacenarse localmente. Realmente extrae los datos de mayor valor, permite que las organizaciones analicen ciertos datos en tiempo casi real”. Vicente Llamas de Dell Technologies cree que “se ha llegado a la conclusión de que la analítica edge aporta valores muy importantes como la adopción rápida de medidas o el inicio temprano de procesos muy complejos sobre los datos en todo su recorrido. Pero también, y es donde radica la esperanza de una rápido avance en esta estrategia, en cuanto a que se trata de proyectos de analítica o inteligencia artificial más pequeños, menos complejos y que no afectan al conjunto total de datos de una compañía, por lo que probablemente la toma de decisiones y la adopción y la obtención de resultados útiles puedan ser más rápidas”.
Retos de la analítica
Es importante seguir avanzando en desarrollar una cultura de datos con tecnologías que aún tienen mucho que aportar como la IA y el aprendizaje automático para ayudar a todos los usuarios a utilizar los datos para, entre otras cosas reducir el sesgo en las decisiones, descubrir nuevas oportunidades de crecimiento, identificar tendencias en fase temprana, anticiparse a las complejas dinámicas del mercado, etc. Tal y como expone la portavoz de Tableau-Salesforce, “el uso de los datos en todas las áreas de negocio se ha convertido en uno de los factores diferenciadores dentro del mercado. Las decisiones que se toman basadas en datos son más eficaces y dejan poco espacio a los riesgos de la interpretación. Cada vez es más importante para el éxito de una compañía construir una cultura de datos saludable y que funcione bien, que cambie la forma en que observamos y nos relacionamos con ellos. Y, para ello debe llegar a todos los niveles de la organización. La tecnología está ahí, disponible para todos, pero aún queda camino por recorrer”.
Pero todavía hay muchos retos por delante y no todos ellos tienen que ver con la generación de beneficio empresarial, que también. En Oracle, una firma que lleva trabajando con el mundo del dato desde su nacimiento en 1977 tienen claro cuáles son los principales retos a los que se va a enfrentar la analítica de datos en los próximos años. Y estos pasan por los siguientes elementos:
– La democratización de la IA para acercar esta tecnología a todos los perfiles de la organización. Los científicos de datos son perfiles muy especializados, pero el uso de estas tecnologías tiene que llegar a otros perfiles con menos conocimiento en programación de algoritmos. Oracle lo está resolviendo de varias formas en función de los perfiles: con conjuntos de herramientas proporcionados en la base de datos cloud (Autonomous Data Base) que incrementan la productividad para ingenieros de datos; con herramientas para los citizen data scientist que pueden elegir los algoritmos que la plataforma les propone y generar código automáticamente sin que haya que programar (AutoML); para los usuarios de negocio que pueden aplicar algoritmos sobre sus datos de forma sencilla sin dependencias de TI con Oracle Analytics Cloud; o para los desarrolladores que pueden embeber servicios de IA ya desarrollados (Imágenes, Voz, texto, detección de anomalías, etc.) en sus aplicativos.
– La sostenibilidad es otro de los retos principales de nuestro siglo y el cloud juega un papel importante. Es más eficiente, ya que comparte recursos y flexibiliza su uso, algo que tiene un impacto en la reducción de la huella de carbono. Además, está el compromiso de los proveedores cloud en seguir esta línea de sostenibilidad.
– La soberanía y la regulación que se aplica de forma diferente en los diferentes continentes o regiones a nivel mundial y esto genera diferencias también a nivel comercial. Las desigualdades en la regulación generan desigualdades para competir, algo que seguro ocupará un espacio importante de trabajo y consenso en el futuro cercano.
– La ética y la IA es un tema sensible que va a desarrollarse mucho más en los próximos años. La Comisión Europea y muchas organizaciones están trabajando con expertos para generar buenas prácticas que hagan algoritmos/robots inteligentes más transparentes en sus decisiones o evitar el aprendizaje sesgado con datos no adecuados. También el uso de la IA con fines éticos y poner barreras a lo que no se debe hacer. La tecnología es una herramienta que se puede usar de muchas formas y esto es lo que debemos definir como sociedad.