Comunidad de CIOs Revista Byte TI | Noticias tecnología

Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú, donde podrás explorar tecnologías emergentes, compartir estrategias y colaborar en soluciones de vanguardia

analitica de datos

Analítica de datos, inteligencia de negocio y cómo tomar decisiones

La analítica de datos y la inteligencia de negocios (BI) se han convertido en uno de los pilares fundamentales en la toma de decisiones estratégicas de las organizaciones modernas. Y es que, en un mundo impulsado cada vez más, por un gran volumen de datos, las empresas deben enfrentar el reto de convertir dichos datos en información que impulse la innovación, optimice procesos y mejore la competitividad.

Los informes lo avalan. Según McKinsey Global Institute, las empresas que adoptan la analítica avanzada tienen un 23% más de probabilidades de superar a sus competidores en ingresos y ganancias. Asimismo, Gartner subraya que para 2025, el 75% de las empresas basarán sus decisiones en datos analizados a través de tecnologías de inteligencia artificial (IA).

En este contexto, dicha capacidad no solo aumenta la precisión de las mismas, sino que también permite a las empresas anticiparse a los cambios del mercado y reaccionar más rápidamente a las oportunidades o amenazas emergentes.

La toma de decisiones

La calidad de los datos es uno de los factores críticos para el éxito en la toma de decisiones empresariales. Datos incompletos, inexactos o desactualizados pueden llevar a decisiones erróneas, lo que afecta negativamente el rendimiento y las estrategias de una empresa. Estudios recientes muestran que las organizaciones que priorizan la calidad de los datos tienen hasta un 54% más de probabilidades de superar sus objetivos financieros.

Según un informe de Harvard Business Review, el 47% de las empresas admite que la mala calidad de los datos afecta a su capacidad para cumplir con las expectativas del cliente. Y es que, la exactitud, consistencia y puntualidad de los datos son esenciales para generar información confiable que guíe decisiones informadas, reduciendo así riesgos y optimizando la eficiencia operativa.

En esta misma línea, el Informe de Tendencias de Protección de Datos 2024 de Veeam, destaca que más del 70% de las empresas reconocen tener una brecha de protección, lo que subraya la importancia de los datos de alta calidad tanto para la toma de decisiones estratégicas como operativas. “El uso de soluciones como el análisis proactivo y la automatización en la recuperación de datos permite a las empresas reducir los riesgos y mejorar la toma de decisiones, lo que a su vez disminuye el tiempo necesario para volver a estar operativas”, añade Víctor Pérez de Mingo, Advisory Systems Engineer de Veeam.

Además, como resalta Javier Campelo, Head of Analytics & Artificial Intelligence de aggity, una mala calidad de los datos también puede resultar en análisis incorrectos, proyecciones erróneas y estrategias mal fundamentadas, “lo que no solo afecta la eficiencia operativa, sino también la competitividad y la reputación de la empresa. Por lo tanto, invertir en la mejora de la calidad de los datos y en un sistema de gobernanza robusto no es solo una práctica recomendada, sino una necesidad crítica para garantizar que las decisiones basadas en datos sean efectivas, precisas y alineadas con los objetivos empresariales”.

Para hacer frente a estos problemas que se plantean, Anastasio Molano, Senior VP de EMEA en Denodo incide en la importancia de implementar arquitecturas modernas como es el caso de los Data Fabric, “permiten disponer de una única fuente de verdad, aun cuando los datos pueden residir en múltiples fuentes, ya que proporcionan un acceso unificado y un matching dinámico de datos para limpieza de los mismos. De esta forma, se facilita la entrega de datos contrastados y validados a negocio para una adecuada toma de decisiones empresariales”.

Herramientas de analítica de datos

La analítica de datos y las herramientas asociadas han evolucionado drásticamente, convirtiéndose en un componente crítico para las empresas que desean mantenerse competitivas en un entorno de rápida transformación digital. Como bien señala Gartner (2023), el liderazgo en plataformas de analítica está dominado por soluciones como Microsoft Power BI, Tableau y Qlik, con un fuerte crecimiento de herramientas basadas en IA y ML.

En base a esto, Campelo dice que lo más importante no es la herramienta concreta, sino conocer las necesidades y determinar la tecnología que actuará de medio para conseguirlo. Destaca que herramientas como «Power BI se están democratizando por su facilidad” de uso para los usuarios de negocio, y subraya el papel de la «IA generativa» como un «cambio de paradigma» en el análisis de datos. Al igual que sus compañeros, señala que el «cloud» es crucial,»permite acelerar la adopción de nuevas tecnologías, además, soluciones end-to-end como IBM WatsonX, son capaces de integrar todo tipo de datos y modelos de IA con un enfoque regulatorio”.

datos contabilidad

Por su parte, Bernacer, comenta que el incremento exponencial en los datos está haciendo que las empresas apuesten más por plataformas de análisis de datos en la nube, “herramientas como Oracle Analytics Cloud, permiten a los usuarios consultar diferentes fuentes de datos y obtener análisis interactivos y personalizados. Además, la tendencia hacia arquitecturas de datos inteligentes para la nube proporciona un rendimiento extremo para cualquier carga de trabajo, como es el caso de Oracle Exadata Exascale”.

Pérez de Mingo concuerda en que el Cloud Computing ha revolucionado la analítica de datos, brindando a las organizaciones «un acceso rápido y flexible a grandes volúmenes de información desde cualquier lugar». En su opinión, esto permite a las empresas «gestionar y analizar datos a una escala sin precedentes lo que mejora la toma de decisiones al reducir los riesgos y ofrecer información más precisa y actualizada». Además, menciona que «el 80% de las organizaciones usarán soluciones BaaS/DRaaS para al menos algunos de sus servidores durante 2024. De esta forma, optimizarán la protección y recuperación de datos, proporcionando más flexibilidad y resiliencia frente a los desafíos cotidianos”.

Finalmente, Molano observa que estamos viendo en el mercado una concentración hacia herramientas de analítica de datos en la nube, especialmente aquellas ligadas a proveedores como «Power BI en Azure» y «Looker en Google Cloud». Sin embargo, destaca el reto que enfrentan muchas empresas al gestionar esta «diversidad de soluciones». “Por ello, muchas organizaciones están desplegando capas semánticas, como la que ofrece Denodo, lo que les permite independizarse de cualquier solución analítica y democratizar los datos entre distintos grupos de usuarios”.

El papel del Cloud Computing

El cloud computing ha revolucionado la manera en que las empresas gestionan y analizan sus datos, permitiéndoles ser más ágiles y eficientes gracias a la capacidad de escalar almacenamiento y procesar grandes volúmenes de información en tiempo real. Según un estudio de IDC, «más del 70% de las empresas migran sus operaciones de análisis a la nube», lo que no solo mejora el acceso a la información, sino que también reduce significativamente los costos de infraestructura.

En este contexto, Anastasio Molano, Senior VP EMEA de Denodo, opina que «las empresas están migrando sus data warehouses tradicionales a la nube» para reducir costos y facilitar el uso mediante soluciones SaaS, que requieren una gestión mínima. Molano destaca que «tecnologías como la virtualización de datos» permiten migraciones graduales con «menor riesgo para el negocio» y de forma «transparente para los usuarios». Además, señala que la relación entre la IA, incluyendo la Generativa, y los datos es «absoluta», lo que está permitiendo a las compañías automatizar procesos y mejorar la toma de decisiones.

Pulsa aquí para conocer la opinión de Pedro Galdón, Jefe del área de tecnologías de EMASA sobre analítica de datos
Pulsa aquí para conocer la opinión de Pedro Galdón, Jefe del área de tecnologías de EMASA sobre analítica de datos

Por su parte, Óscar Bernacer, Cloud Architect Director & CTO South en Oracle, subraya que»la importancia de los datos para los negocios, en la era d e la IA», exige opciones más flexibles en la nube. Destaca que «OCI se ha consolidado como la plataforma preferida para el desarrollo y entrenamiento de la inteligencia artificial» y que su integración con Amazon Web Services, Microsoft y Google Cloud otorga «libertad para desplegar en el modelo que más se adecúe a los requisitos de negocio». Además, resalta el reciente lanzamiento de «un cluster cloud zettascale», la mayor supercomputadora de IA en la nube, diseñada para gestionar «cargas analíticas sin precedentes».

Javier Campelo, Head of Analytics & Artificial Intelligence, compara el cloud computing con un «lego», ya que permite a las empresas combinar diversas piezas para adaptar sus soluciones a necesidades específicas. Según Campelo, la nube facilita la integración de «tecnologías complejas como el IoT y la IA», y sin ella, «muchas de las capacidades que ahora damos por sentadas», como los modelos de lenguaje a gran escala (LLMs), no serían viables. Campelo añade que la automatización en la inteligencia de negocio está «enormemente potenciada por el cloud», permitiendo flujos de trabajo automatizados que mejoran la eficiencia y optimizan la toma de decisiones en tiempo real.

Data lakes y data warehouses; Big Data, ML e IA

La evolución de los entornos de almacenamiento de datos está impulsando una mayor adopción de data lakes y data warehouses. Mientras que los data warehouses siguen siendo esenciales para el almacenamiento de datos estructurados y consultas rápidas, los data lakes permiten almacenar grandes volúmenes de datos no estructurados, como imágenes, videos y logs de actividad, facilitando el análisis avanzado y el ML.

bid data, datos
Multi exposure of abstract statistics data hologram interface and modern desk with computer on background, computing and analytics concept

De esta forma, hoy el enfoque está en organizar y acceder a los datos de manera estratégica para que aporten valor según las necesidades de cada caso. “En algunas situaciones, los datos deben agregarse para generar dashboards que ayuden a la toma de decisiones, mientras que, en otros casos, es necesario monitorizarlos en tiempo real para gestionar alertas críticas de inmediato. Además, ciertos datos se almacenan de manera eficiente y económica para usos futuros, como en nuevos modelos de análisis”, dice Javier Campelo.

Uno de los principales desafíos de estas soluciones es cómo podemos democratizar el acceso a estos datos ya que de otro modo sólo usuarios de un perfil muy técnico podrá beneficiarse de los mismos. Aquí entran en juego, en palabras de Anastasio Molano, soluciones como Denodo, “que permite exponer los objetos del lago como entidades de negocio que pueden ser fácilmente consumibles por cualquier usuario, desde cualquier aplicación de reporting o de Machine Learning”.

Por otro lado, nos encontramos con que el análisis de Big Data permite a las empresas procesar enormes cantidades de información en tiempo real. Y es que, según McKinsey, el uso de Big Data puede aumentar la eficiencia operativa en hasta un 60% en industrias como la manufactura y la cadena de suministro. Además, la integración de ML e IA está revolucionando todo esto.

«Los insights basados en Big Data son una valiosa fuente de información para la toma de decisiones, pero su manejo plantea varios retos. La demanda de servicios de Big Data está creciendo, permitiendo a las empresas ejecutar flujos de trabajo y obtener insights procesables, como Oracle Big Data Service. Además, los agentes de IA generativa representan un avance revolucionario, ya que permiten pasar de la automatización limitada a la capacidad de completar tareas complejas en niveles conversacionales, de supervisión y funcional”, especifica Óscar Bernacer.

Por su parte, Víctor Pérez de Mingo destaca que actualmente, el 65% de las empresas a nivel global solo realiza copias de seguridad de hasta el 50% de sus datos generados por IA, lo que plantea importantes riesgos empresariales y de cumplimiento. «El valor de los datos generados por IA está en aumento, y su protección es crucial para evitar la pérdida de información valiosa, propiedad intelectual y ventajas competitivas. Según el Informe de Tendencias de Protección de Datos 2024 de Veeam, el 93% de los ataques de ransomware tienen como objetivo las copias de seguridad, y el 75% de estos ataques tienen éxito parcial. La IA se utiliza tanto para protección como para crear malware sofisticado, lo que aumenta la necesidad de medidas robustas.”

La experiencia del cliente

La IA está proporcionado a las empresas herramientas mucho más avanzadas para analizar y anticipar necesidades. Como señala Accenture, las empresas que aplican IA en sus estrategias de experiencia del cliente experimentan «un aumento del 25% en la retención de clientes», lo que demuestra su impacto directo en la fidelización.

Además, el análisis predictivo permite optimizar operaciones, predecir demandas y gestionar inventarios de forma más eficiente, tal como destaca Deloitte, mejorando la eficiencia operativa en «un 20%”.

analisis de datos

En palabras de Javier Campelo, la IA está transformando la interacción con los clientes a niveles nunca antes vistos: “Ahora no solo podemos dar un servicio omnicanal, sino que además podemos dar una respuesta adecuada, de forma inmediata, en su lenguaje gracias a la IA Generativa”. Esta capacidad permite automatizar tareas rutinarias, como la gestión de pedidos o incidencias, y libera tiempo para una atención proactiva. Además, la IA generativa está sustituyendo sistemas tradicionales de atención al cliente, permitiendo que «un asistente pueda responder de forma personalizada y adaptada a cada caso”.

Al igual que Campelo, Anastasio Molano de Denodo resalta el impacto de la IA generativa en todos los niveles de la organización. «La IA generativa está transformando la relación con los clientes gracias a una mayor capacidad de personalización en cada interacción», afirma. Además, Molano menciona que las plataformas como Denodo facilitan la integración de grandes modelos de lenguaje (LLMs) con datos empresariales, lo que optimiza la calidad de las respuestas. Su plataforma permite a motores de IA acceder a datos corporativos en arquitecturas RAG, como lo están haciendo empresas en su proyecto piloto, que incluye firmas como NEC y PwC.

En conjunto, ambos coinciden en que la IA está mejorando significativamente la personalización, automatización y eficiencia en la interacción con los clientes, optimizando procesos internos y reduciendo costes mientras aumenta la calidad del servicio ofrecido.

El futuro del análisis de datos

La integración del 5G y el IoT está transformando radicalmente la capacidad de las empresas para analizar datos en tiempo real, permitiendo decisiones más rápidas y precisas. Como bien comentan desde aggity, «el futuro del análisis de datos con la integración de 5G e IoT promete una capacidad de control en tiempo real sin precedentes». Esto se refleja en sectores como la producción y la farmacéutica, donde «la velocidad y baja latencia del 5G, combinadas con la conectividad masiva de dispositivos IoT, impulsarán operaciones más inteligentes, eficientes y seguras». Un ejemplo es el uso de biorreactores, donde los parámetros de las máquinas se ajustan en tiempo real para optimizar el entorno y maximizar la producción de proteínas de alto costo.

En línea con esto, desde Oracle destacan la importancia de mejorar las infraestructuras Edge para gestionar datos críticos en ubicaciones remotas, indicando que su «infraestructura OCI Roving Edge permite ejecutar modelos avanzados como LLM o visión computacional en ubicaciones desconectadas», lo que subraya la relevancia del procesamiento de datos en el borde.

Por su parte, desde Veeam enfatizan que «el impacto clave de 5G reside en su capacidad para gestionar grandes volúmenes de datos con baja latencia y alta velocidad». Sin embargo, también menciona los desafíos en seguridad y gestión de datos que acompañan a estas innovaciones, subrayando la necesidad de «soluciones avanzadas de protección y automatización de copias de seguridad».

Mientras que, desde Denodo resaltan que este avance no solo supone un mayor volumen de datos, sino también la capacidad de ofrecer servicios más personalizados. «El aspecto de tiempo real será clave, por lo que soluciones basadas en streaming de datos y su análisis en tiempo real serán fundamentales en este contexto», concluye.

Medidas de seguridad

datos

La seguridad de los datos en la nube ha emergido como una preocupación fundamental a medida que las empresas migran sus operaciones a entornos cloud. Para asegurar la integridad y confidencialidad de la información, es esencial implementar políticas de gestión de accesos, auditorías regulares y encriptación avanzada de extremo a extremo.

Según un estudio de IBM, el 80% de las violaciones de datos empresariales podrían haberse evitado con medidas básicas de ciberseguridad, subrayando la importancia de la encriptación tanto en reposo como en tránsito para proteger datos sensibles y mitigar riesgos de filtraciones.

Sobre esto, Campelo enfatiza que «las empresas deben adoptar una estrategia integral de gestión de los datos y su seguridad que vaya más allá de la encriptación». Esto incluye un sólido gobierno del dato que controle el acceso y el ciclo de vida de la información sensible. Aunque la encriptación sigue siendo fundamental, Campelo advierte que debe combinarse con controles de acceso robustos, autenticación multifactor y monitorización continua para prevenir vulnerabilidades. En aggity, se prioriza la seguridad de la información, especialmente al manejar datos confidenciales como los de RRHH y farmacéuticos, respaldados por un equipo de ciberseguridad y políticas estrictas.

En opinión de, Bernacer, la seguridad de los datos se está convirtiendo en un tema central, “cada proveedor debe ofrecer una estrategia unificada para proteger los sistemas de sus clientes. En Oracle, se da prioridad a los sistemas autónomos que eliminan la intervención humana en la configuración, lo que reduce drásticamente las vulnerabilidades. Además, es básico el uso de autenticación biométrica para reemplazar contraseñas y el Zero Trust Packet Routing (ZPR) para asegurar que datos sensibles, como los de tarjetas de crédito, no salgan a Internet”.

Por otro lado, Molano apunta que «una de las barreras más claras en las organizaciones para el despliegue de lagos de datos en la nube» es garantizar políticas de seguridad y gobierno adecuadas. Propone modelos de despliegue tipo Data Fabric, que permiten aplicar políticas de seguridad y gobernanza en un solo sitio, facilitando la gestión efectiva de datos, tanto on-prem como en la nube.

Finalmente, Pérez de Mingo , sugiere adoptar una arquitectura ZeroTrust, que implica la verificación continua del acceso y el cifrado de datos, utilizando estándares avanzados como AES y RSA para proteger la información en entornos de nube. Además, destaca que «las copias de seguridad deben ser inmutables y estar cifradas», garantizando que los datos permanezcan seguros y confidenciales, incluso en caso de brechas. La integración de medidas de seguridad robustas es crucial para proteger la información confidencial en la nube.

Deja un comentario

Scroll al inicio