desayuno big data

Big Data es uno de los elementos que prometen cambiar la realidad tecnológica de los próximos años. Para hablar sobre ello Byte TI organizó un desayuno que contó con la presencia de Luisa Casañer, Head of Analytics de Ibermática/Digital; Álvaro Romero, Digital Specialist de Ciber Experis; Juan Fernando Rodríguez, Responsable de preventa Zona Centro de Nexica Econocom y Javier González, Senior Account Systems Engineer de Dell Technologies.

Publicidad

El acto comenzó analizando cuál es la situación en la que se encuentra el mercado del Big Data. Fue Luisa Casañer, Head of Analytics de Ibermática/Digital la que comenzó asegurando que “desde Ibermática lo que percibimos es que el Big Data es un mercado maduro. Según algunos estudios, un 70% de las compañías hablan de Big Data o IA. Lo que vemos es que el dato es lo que más cuidan. La diferencia con respecto a antaño es que los proyectos que desarrollamos ya no son tan incipientes así que podemos hablar de un mercado maduro”. Por su parte, Álvaro Romero, Digital Specialist de Ciber Experis afirmó que “Big Data lo que ha cambiado es el volumen y el procesamiento de datos pero los problemas son los mismos que hace 20 años solo que ahora hay más datos y hay que darles más valor”.

Para la evolución que ha experimentado Big Data hay que prestar atención a las comunicaciones. En este sentido, Juan Fernando Rodríguez, Responsable de preventa Zona Centro de Nexica Econocom afirmó que “la evolución de las comunicaciones ha sido fundamental para el desarrollo del Big Data. Por otro lado, el mercado se amplía porque cada vez hay más actores y herramientas que se están sumando a este mundo”. Finalmente, Javier González, Senior Account Systems Engineer de Dell Technologies, aseguró que “se esperaba que el mercado de analytics y Big Data fuera a crecer en torno a un 12% de crecimiento y pocos campos tienen estas cifras. Yo no se si está maduro pero es cierto que empresas de entornos medios se están poniendo con proyectos de Big Data pero no saben cómo hacerlo. Todo el mundo quiere arrancar pero no sabe cómo hacerlo porque el conjunto de herramientas que hay, es inabarcable. Estamos en una fase de aprender, equivocarse y luego saber por donde tirar”.

Big Data y cloud

La nube juega un apartado importante en el mundo del Big Data. Para el portavoz de Dell Technologies, “la nube es una forma de consumir los recursos. Este tipo de consumo aporta agilidad e inversión. Si alguien quiere probar un determinado caso de uso, la utilización de cloud es muy ágil y rápida lo que favorece los tiempos de aprendizaje. Lo que ocurre es que cuando se pasa a producción aparecen costes que no se habían previsto”. Por su parte Juan Fernando Rodríguez, la nube, “lo que permite es que en función de los modelos de negocio, también le va a permitir una reducción de costes, además de la agilidad”. Para el portavoz de Ciber Experis, “con la cantidad de datos actuales es imprescindible contar con una infraestructura tipo nube, pero hay que tener cuidado con qué nube se quiere trabajar, porque cuando se mueven datos de una nube a otra puede suponer un coste que no está previsto”. Finalmente, la representante de Ibermática, “muchas empresas experimentan en pequeño pero piensan en grande, por lo que la nube está muy bien para startups. Además, hay un tipo de empresa que se van a PaaS, IaaS,… es decir que deciden no comprar nada y evolucionar según el caso de uso. Este tipo de modelo nos lo estamos encontrando muchísimo”.

Para quién

Pero, sabiendo esta realidad, ¿qué empresas pueden involucrarse en proyectos de Big Data? Para Luisa Casañer, “hoy cualquier empresa puede plantearse usar Big Data. La banca fue la primera en apostar por él. El de la salud es otro sector importante que está usando Big Data. Y es que hay muchas enfermedades en las que el uso de Big Data va a ser muy importante, para diagnóstico, cuidado, tratamiento, etc. Para Ibermática cualquier sector es susceptible de emprender un proyecto de Big Data”. Álvaro Romero también consideró que “cualquier sector puede usar Big Data. Financiero y seguros son los que más tiran pero porque tenían una cultura tecnológica anterior. Otros como el de la salud o el sector público les cuesta más entrar porque no tienen un precedente tecnológico”. El portavoz de Nexica Econocom, a su vez, apuntó que “a cualquier sector le resulta atractivo el tratamiento de datos pero aquellos que usan algoritmos de cálculo o que tienen una gran volumen de datos son los más interesados en este tipo de proyectos”.

Finalmente, el portavoz de Dell Technologies aseguró que “Big Data lo que permite es resolver problemas que ya existían. Hay problemas que no tenían solución y ahora con Big Data se ha encontrado la solución a los mismos. La evolución de la tecnología ha permitido además la automatización por ejemplo en radiología, gracias a la cual se decide de forma automática cuál es la imagen buena, de tal forma que el médico se pueda dedicar a otras cosas. Netflix, Youtube, etc. son pura tecnología Big Data. También es cierto que cuando aparece una moda en el mundo TI todo el mundo quiere probarla. Yo creo que Big Data es una nueva herramienta para solucionar viejos problemas”.

Big Data lo que permite es resolver problemas que ya existían. Hay problemas que no tenían solución y ahora con Big Data se ha encontrado la solución

Juan Fernando Rodríguez cree que “las empresas saben qué les puede aportar Big Data y además, se están encontrando con nuevas oportunidades que antes no estaban abarcando gracias al Big Data. Han visto que con determinados datos no estructurados pueden aportar nuevas soluciones cuando antes no les prestaban atención o no podían usar esos datos”. En este sentido, Luisa Casañer afirmó que “lo que se han encontrado las empresas con Big Data es que aparecen nuevas oportunidades y problemas. Desde Ibermática vemos que muchas veces se cae en el error de cargar muchos datos en vez de tratar la calidad de los mismos. Hay que insistir en que antes de introducir en un data lake todos los datos hay que ver qué datos interesa meter ahí. Hay veces que las empresas se llevan la sorpresa de que hay datos que realmente no tienen calidad y que no se deben meter en ese data lake”. La solución para Casañer pasa por ver que “una compañía ahora necesita nuevos tipos de recursos para poder enfrentar este tipo de proyectos de Big Data. Por ejemplo, encontrar un buen arquitecto o científico de datos es muy difícil, así que los clientes confían en empresas que hayan hecho proyectos exitosos. No les vale con que les digas que has sido bueno en un proyecto sino que tiene que venir avalado por la opinión positiva del cliente final”.

Para el representante de Ciber Experis, “actualmente se está generando mucho volumen. Por eso se puede convertir el data lake en el data swan. Para que esto no ocurra se necesita contar con buenos profesionales que extraigan el dato, lo clasifiquen, lo limpien y le saque el rendimiento”. La clave de todo, y según el portavoz de Nexica Econocom, es que “el gran reto es la normalización de los datos. No hay una estandarización que nos permita cruzar los datos. El reto debería venir por normalizar los datos y cruzarlos de forma sencilla”. Finalmente el portavoz de Dell Technologies destacó que “el científico de datos es solo uno de los elementos. Es cierto que es la piedra angular, pero si falla el resto, no sirve para nada”.

El apartado de la reposición de los datos fue uno de los que también generó mayor interés. En este aspecto, Javier González señaló que “hay diferentes formas de trabajar. El data lake consiste en tener una infraestructura común en la que yo pueda tener estos datos que yo pueda cruzar. Si no tengo un data lake es difícil que pueda escalar hasta el volumen real del Big Data. Lo fundamental en un data lake, es la interoperabilidad entre las diferentes partes”.

Por su parte, Luisa Casañer afirmó que se “están cambiando los paradigmas en el desarrollo de proyectos. Ahora son los algoritmos los que dan la información. Aún así la integración es fundamental. Integrar los datos de fuera con los de dentro es de suma importancia”.

Retos

Finalmente se abordaron cuáles son los retos más importantes que van a influir en el desarrollo del Big Data. La portavoz de Ibermática aseguró que “IoT va a influir en el todo conectado y es uno de los principales retos que tenemos por delante. Otro apartado también importante es el tratamiento del lenguaje natural. Analizar los datos y convertirlos en instrucciones de voz es una de las cosas que van a ser más útiles y a la que todavía le queda mucho por evolucionar. Estos dos puntos son en los que más se van a avanzar”.

Para el portavoz de Ciber Experis “la clave en el desarrollo de Big Data va a ser la de adecuarse a las necesidades del usuario final a quien no le importan el número de clusters que se tienen sino las ventajas y las aportaciones que le pueden hacer”. Por su parte, el portavoz de Nexica Econocom consideró que la parte más importante se va a encontrar en el cruce de datos. En su opinión, “poder cruzar datos de manera natural se podrán explotar datos de mejor forma y con mayor precisión. El tratamiento de los datos va a mejorar todavía más”.

Para concluir, Javier González de Dell Technologies, “otro gran reto va a ser el de la infraestructura porque muchas veces el dato se desecha porque el coste es elevado. Cuando la infraestructura sea capaz de escalar a precio controlado para almacenar más datos se podrá llegar a más proyectos. El otro reto son la cantidad de herramientas que hay a día de hoy. Con los años se irán consolidando y reduciendo este número de herramientas”.