Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

exprimir el dato

Big Data: exprimir el dato

Exprimir el dato. Esta es la razón por la que Big Data se ha convertido en uno de los elementos de mayor actualidad del mundo de las TIC. Para hablar de ello, Byte TI organizó un desayunó que contó con la asistencia de Javier Gallego, Solutions Manager de Dell; Javier Martínez, Director Técnico de NetApp; Jordi Florenza, Digital Business & Innovation Manager de IECISA; Miguel Ángel Martín, Big data/PureData for Analytics & Database Sales Team leader de IBM y Javier Román,Big Data Architect de Red Hat.

Cuál es la situación del mercado de Big Data fue el primer tema que se abordó. El encargado de abrir el debate fue Javier Gallego, Solutions Manager de Dell para quien “en España se está avanzando en este sector. Vemos crecimientos muy importantes y expectativas de crecimiento también muy importantes. Vemos que empresas que utilizan estas tecnologías crecen más que las que no lo hacen. Se trata de una realidad que ya se encuentra presente en sectores como automoción, salud, retail y Administración Pública”. En la misma línea se posicionó Javier Martínez, Director Técnico de NetApp para quien desde su compañía “se ven que hay proyectos. Hay mucha actividad. Hay muchas empresas que ven que se pueden ir a despliegues tipo cloud para desarrollar este tipo de plataformas y proyectos. Un aspecto destacable es que hay muchos proyectos que se están apoyando en cloud”.

Para Jordi Florenza, Digital Business & Innovation Manager de Informática El Corte Inglés, la situación del mercado de Big Data “es positiva pero vemos que las grandes organizaciones no tienen apenas proyectos de Big Data si lo comparamos con otros países, lo que quiere decir que hay mucho camino por recorrer. Una ventaja es que la puesta en marcha de estos proyectos, gracias a la nube, es muy cómoda. Luego hay empresas muy de nicho que favorecen mucho trabajar en proyectos de Big Data. Vemos que el mercado no está todavía maduro”. “El mercado internacional ha salido mucho antes que nosotros. Los españoles somos más tímidos pero una vez que la adoptamos, lo hacemos de forma más rápida, pero aún estamos en la fase de early adopters. Las empresas empiezan a entender qué es Big Data que no es otra cosa que el datawarehouse, con la diferencia que se reducen los costes drásticamente. Todo el mundo habla de hadoop y spak y el big data, sin embargo, es mucho más que eso. Vamos a pasar a la parte de mercado maduro de forma muy rápida”, aseguró Miguel Ángel Martín, Big data/PureData for Analytics & Database Sales Team leader de IBM.

Finalmente, Javier Román,Big Data Architect Red Hat aseguró que “el mercado es prometedor pero hay que tomarlo con cautela, porque se está convirtiendo en una moda. Todo el mundo quiere hacer un testing sobre en qué consiste esto y no todas las empresas necesitan meterse en proyectos de Big Data. A lo mejor para determinadas empresas sólo se necesita el tradicional datawarehhouse porque no tiene un volumen de datos suficiente para meterse en un proyecto de Big Data. Aún así el mercado es bastante prometedor”. Esta declaración, no convenció a todos los asistentes, ya que sí consideraban que Big Data es apropiado para todas las empresas: “El valor no está en la tecnología, sino en el dato. Yo creo que si quieres ser una empresa innovadora no te puedes conformar con la tecnología que tienes”, afirmó el portavoz de IBM

Información en tiempo real

Una de las claves de Big Data es la posibilidad de extraer el valor al dato en tiempo real y poder tomar decisiones en un instante preciso. “Es un concepto nuevo de tratar con los datos. -afirmó el portavoz de Red Hat-. Se trata de ser flexibles a la hora de recibir la información. El dato tiene que dirigir cuáles son las aplicaciones que se necesitan en las empresas. Se trata de poner tecnologías nuevas y haciendo saber que a cambio de la velocidad se puede perder cierta información. Como se habla de un gran volumen se pueden hacer ciertas concesiones”.

Para Miguel Ángel Martín, “la analítica en tiempo real es más antigua que Big Data en sí. Al final, es la tecnología analítica pero ejecutada en modo no reposo. El dato vale cuando se produce. Estás analizando ruidos, vídeosensores y determinas que se está produciendo un problema, por ejemplo. O el caso de las apuestas ilegales. En la evolución del Big Data han surgido otras tecnologías que nos van a permitir tener resultados muy rápido, pero eso no es Big Data”. Para el portavoz de Informática El Corte Inglés, “el problema, muchas veces, se encuentra en la arquitectura que hay detrás que imposibilita darle al cliente la información que necesita en tiempo real”. Una de las claves en los proyectos de Big Data, según Javier Martínez es que “si todo lo que queremos montar, tiene que ser dinámico, elástico, etc. no vale con la arquitectura tradicional. Es decir, lo que se denomina tercera plataforma. Los entornos de Big Data nos exigen cambiar la infraestructura de IT. Probablemente realizar todos estos cambios requiere un cambio generacional, porque requiere montar una arquitectura diferente a la que tenemos hoy”.

Finalmente, y para Javier Gallego es necesario hacer hincapié en que “Big Data se asocia con incertidumbre porque no vamos a ser 100% exactos. En cuanto al real time depende del caso de uso. La solución se encuentra en una combinación de Hardware y Software. Tecnologías como Sparc están ayudando a reducir los costes y que las empresas pequeñas puedan hacer cosas que antes pertenecían a las grandes corporaciones”.

Cloud y Big Data

La asociación de cloud y Big Data es un recurrente. De hecho, ésta última no podría existir, al menos en los términos que conocemos, sin la existencia de la primera. Como señaló el portavoz de Dell, “dar acceso de una forma sencilla es posible gracias a cloud. Poder hacer análisis puntuales es una ventaja. Vamos hacia un modelo híbrido porque es la lógica, ya que hay datos que nadie va a querer subir a la nube. Los proveedores de tecnología hemos facilitado mucho que a través de arquitecturas de referencia, compañías medianas puedan utilizar herramientas en casa que le favorezcan ir hacia Big Data”. Y es que, es en el modelo híbrido donde parecen estar las tendencias. Así lo asegura también el portavoz de NetApp para quien “la clave es el modelo híbrido. Lo vemos claramente y nosotros facilitamos la elección de tal forma que haya un modelo de compatibilidad para que el cliente pueda ir hacia un modelo de datos compatible”. Para Jordi Florenza, “la nube facilita mucho la entrada de pequeñas y medianas empresas para que vayan hacia Big Data. Las gran ventaja es el tema de costes, la escalabilidad. Este, para mí es el tema más importante, más que el coste. Las empresas, a la hora de calcular no tienen claro el coste, sólo se fijan en que es un modelo de pago por uso y eso hay que revisarlo”. “La nube nos va a dar time to value. Hay que decir al cliente que solo paga por uso y no tiene que comprar la infraestructura. Siempre va a salir más barato tenerla en la cloud. En Big Data, una de las claves es que el mundo open source ha desarrollado algo muy bueno y muchos fabricantes se han unido en un Open Data Platform. Se está fomentando las tecnologías Big Data, Open Source y que vayan en la cloud” aseguró Miguel Ángel Martín de IBM.

Para Javier Román,Big Data Architect Red Hat, “hay dos claves importantes que es que hay algo recurrente que es la agilifad a la hora de tratar el dato. Es la doble velocidad: cómo convivir sistemas estáticos que funcionan muy bien con estas tecnologías que son muy rápidas. Esto lo permiten las herramientas cloud. La otra clave es la elasticidad, la optimización de los recursos. En temas de Big Data donde necesitas muchas máquinas que trabajan en paralelo, dimensionar los datos, saber cuando se producen los picos de carga y llevarlos a la cloud pública es fundamental para poder trabajar de forma correcta y ser elásticos. Cloud es algo que ya no se replantea nadie”.

Iniciar un proyecto Big Data

¿Qué debe hacer una empresa que considera que necesita introducirse en un proyecto de Big Data? Esta fue otra de las cuestiones que surgieron durante la celebración del desayuno tecnológico. En opinión del portavoz de Red Hat, “lo primero es saber las necesidades que tienen las empresas. Muchas de ellas no saben qué es lo que tienen que hacer. Un sistema como Hadoop puede almacenar muchos archivos y datos. Primero es buscar el caso de uso y eso es complejo. Un proyecto de Big Data es complejo: hay que ver como van a interactuar unos sistemas con otros o cómo vas a romper los silos de datos”. Para Miguel Ángel Martín de IBM, “Hay varios modelos. El revolucionario, que almacena datos y luego ya verá que hace y luego el evolutivo, que tiene datawarehouse, ya hacia predicciones y con el que no tienes que tener todos los datos guardados. Hay empresas que van hacia la monetización del dato. No hay que volcar todo. Te vas a encontrar con que vas a tener un proyecto a medio y largo plazo y además va a haber empresas que te van a dar información. Es decir, tú vas a comprar el dato. Lo que yo aconsejaría sería empezar con un caso de uso sencillo y ya se irá creciendo”.

Para el portavoz de Informática el Corte Inglés, “el éxito de los proyectos de Big Data consiste primero en ver el caso de uso que le quieren dar. Una vez que se entienda el concepto de Big Data y todo lo que hay detrás, entonces ya se puede hacer un proyecto y casi siempre los proyectos iniciales más pequeños son los que más éxito tienen. Hay que ir poco a poco, esta es la clave”. Por su parte, el portavoz de NetApp afirmó que nos encontramos en un momento en el que “está cambiando la arquitectura. ¿Vamos a seguir haciendo sistemas de almacenamiento como antes o nos vamos a ir al modelo de todo definido por software? Todos los fabricantes estamos viendo esta evolución y estamos preparándonos para ello,. Estamos adaptando la tecnología para que todo sea definido por software para adaptarnos a esta posible necesidad”. Este cambio también lo percibe Javier Gallego de Dell: “Está cambiando el modelo claramente. Hemos cometido en el passado ciertos errores haciendo que prueben Big Data y no lo hemos llevado a buen puerto. Es imprescindible que ayuden al CEO a que se vea el caso de uso real, las ventajas que tiene, cómo puede adelantar al rival con la explotación del dato, etc. No nos podemos conformar con que el CIO pruebe la tecnología”.

Seguridad del dato

Uno de los problemas, sobre todo si se lleva el proyecto de Big Data a la nube, es el relacionado con la seguridad. En ocasiones, ésta ejerce de freno para llevar a cabo un determinado proyecto. Tal y como aseguró Javier Martñinez de NetApp, “la primera preocupación de todo el mundo es la seguridad. Nosotros planteamos un modelo que es tener los datos cercanos al cloud. Es decir, los datos están en un CPD al lado del cloud. Se trata de un término medio para mitigar los problemas de quién gestiona los datos, etc”. Para Jordi Florenza de IECISA, “el tema de seguridad es más importante el uso que se da al dato que las herramientas. Al final el tema está en el uso que se da a los datos. Luego está el tema que hay administradores de sistemas que tiene acceso a los datos y esto es un punto de seguridad importante que también hay que tener en cuenta. Lo importante es el uso que le damos a la seguridad de los datos”. Finalmente, Javier Román de Red Hat, afirmó que “cuando se habla de seguridad hay que hablar de personas. Igual que estamos protegiendo el mal uso de la información tiene que haber personas que se encarguen de tutelar el dato. Estas personas lo tienen que cuidar, ver quién puede acceder y quién no, etc.

ASISTENTES

IBM: En la actualidad, más de 15.000 consultores de analítica, 6.000 business partners dedicados a soluciones sectoriales y 400 matemáticos están ayudando a los clientes de IBM a entender los volúmenes masivos de información como paso previo a la transformación de sus organizaciones. Barceló Viajes, el Instituto Catalán de la Salud, Mapfre, Prisa o Consum son algunas de las empresas y entidades en España que ya han implantado soluciones de analítica avanzada de IBM.
En 2014 se hizo el mayor anuncio de la última década en el área de analítica: Watson Analytics, un servicio innovador que utiliza la tecnología cognitiva y el reconocimiento del lenguaje natural. El servicio, disponible en el mercado de aplicaciones en la nube de IBM (Cloud Marketplace), proporciona acceso instantáneo a herramientas analíticas visuales con una extraordinaria potencia de análisis.

Dell: De acuerdo con el Dell Global Technology Adoption Index, las organizaciones con datos correctamente utilizados en los últimos tres años crecieron casi dos veces más que las que no: 14 % frente al 8 % . Sin embargo, el mismo estudio también encontró que sólo el 39 % de las organizaciones sabe cómo extraer valor a partir de los datos y actuar en consecuencia. Los silos de datos, la percepción de que Big Data es más un mito que una realidad, y el riesgo asociado al cambio son vistos como los mayores frenos a su adopción. Las herramientas de Big Data tienen múltiples campos de aplicación y nos ayudan a alinear las tecnologías de la información y las áreas de negocio para proporcionar todo el potencial del análisis de los datos a todos los usuarios, a la vez que se aplica la Economía del Dato. En Dell combinamos el procesado de lenguaje natural, el aprendizaje de las máquinas y las tecnologías de análisis de sentimiento, con capacidades de búsqueda y visualización de fácil utilización. Nuestra solución de análisis de datos permite transformar los datos estructurados y no estructurados en información analítica sin la complejidad, el tiempo y los costes de otras soluciones. Permítanos ayudarle en la manera de recopilar y gestionar datos de negocio para poder tomar decisiones basadas en una mejor información.

NetApp: Con su concepto de tejido de datos, o Data Fabric, NetApp ofrece una solución adecuada para implementar una infraestructura multi-proveedor para Big Data. Las empresas pueden tener control total de sus datos, utilizando sistemas de almacenamiento locales o remotos, y aprovechar la potencia de computación de una o varias nubes. El uso de recursos de computación externos permitirá a las medianas empresas integrar los motores de análisis de datos más potentes sin invertir mucho dinero en infraestructura de TI local.

Informática El Corte Inglés: Informática El Corte Inglés trabaja en varios niveles de conocimiento relacionados con la analítica de datos, desde el clásico Business Intelligence hasta algoritmos de cálculo para análisis predictivos y prescriptivos. Concretamente para este último caso y desde hace un año, IECISA desarrolla el nivel más avanzado de ‘computación cognitiva’, incluyendo razonamiento y aprendizaje automático así como la utilización de lenguaje natural para los procesos de negocio de sus clientes.

Deja un comentario

Scroll al inicio