Aunque se lleva hablando de Big Data desde hace muchos años, es ahora cuando parece encontrarse en plena fase de expansión. Y es que, Big Data es en estos momentos el área TIC con mayor proyección económica para los próximos años. El estudio ‘Big & Open Data in Europe: A growth engine or a missed opportunity?’, encargado por demos EUROPA y realizado por el Instituto de Estudios Económicos de Varsovia, recoge el impacto del Big y Open Data en los 28 estados miembros de la Unión Europea. Según el informe, la transición a soluciones tecnológicas basadas en datos puede suponer 206.000 millones de euros para la economía europea en el año 2020, lo que supondría un incremento del 1,9% del Producto Interior Bruto (PIB) de la región. Este cambio y expansión de Big Data viene dado porque ya no será un patrimonio exclusivo de las grandes empresas que es lo que ocurría hasta ahora. Javier Valdés, Consultor de Logtrust, asegura que «cuando se habla de Big Data, Logtrust entiende que las principales barreras con las que se encuentran las empresas son los elevados costes de licencias, mantenimiento e infraestructura, herramientas complicadas y sólo utilizables por personal especializado y que son incapaces de procesar la información en tiempo real», afirma Valdés. «Sin embargo, y dado que asistimos a un crecimiento exponencial en el tráfico y almacenamiento de datos, que hoy día puede llegar hasta cerca de los 27.500 petabytes al mes, la importancia del almacenamiento y la accesibilidad a los datos se erige como una ventaja competitiva. Logtrust puede hacer este proceso más sencillo, ya que sea cual sea la aparente complejidad de una tecnología, al final detrás sólo debe encontrarse sentido común».

Así que la situación del mercado parece clara. Hay una tendencia al uso de soluciones de Big Data. Para Javier González Sánchez, Director unidad de negocio de Information & Analytics de IBM, “ Big Data se encuentra en plena expansión, sobre todo en sectores como Sanidad, Finanzas, Retail o Telecomunicaciones. El análisis de toda la información al alcance del negocio (datos estructurados y no estructurados) y extraer de ellos una ventaja competitiva está suponiendo para las grandes organizaciones un antes y un después. Big Data tiene infinidad de aplicaciones y en muchos sectores aún no están aprovechando sus ventajas, motivo por el que consideramos que este fenómeno aún tiene mucho margen para crecer. El 90% de la información existente se ha generado en los dos últimos años y el 80% de la información mundial es no estructurada, según datos de IBM. Por tanto, ante un escenario así, la tecnología que ayuda a gestionar el Big Data se hace cada vez más imprescindible”. En la misma línea se sitúan en Hitachi Data Systems: “En la industria de hoy en dia, la carga de trabajo imposible de predecir y las tecnologías en silo les dificultan a las empresas prestar un servicio de calidad diferenciada y a la vez mantener sus costes bajo control. Las soluciones para grandes datos pueden mejorar la toma de decisiones, brindar amplia información respecto de diversos aspectos del negocio e impulsar la innovación en todas las áreas de la empresa. A fin de maximizar los beneficios de los grandes datos, las empresas deben desarrollar una estrategia y elegir las soluciones para grandes datos que mejor se adapten a las necesidades, prioridades y recursos de la organización. El actual contexto competitivo exige una nueva forma de toma de decisiones basada en información que no se puede obtener por los medios tradicionales. El negocio necesita una nueva generación de herramientas y aplicaciones que permitan a las empresas obtener más información que nunca antes a partir de los grandes datos. Qué tipo de información tiene mayor valor depende de cada negocio”.

Y es que, Big Data Big Data ha sido claramente una de las áreas de foco y de inversión durante 2014 y lo será durante los próximos años. Las empresas de telecomunicaciones, banca, seguros o distribución están siendo las más activas en evaluar el potencial de las tecnologías enmarcadas dentro de Big Data. Esto es corroborado por algunas empresas como Dell, en las que están observando crecimientos exponenciales del volumen de datos empresariales con previsiones de un 650% en los próximos 5 años. “Comenzamos el año pasado con diversos pilotos y pruebas de concepto y las expectativas para 2015 son muy positivas”, afirma Javier Gallego, Enterprise Solutions Manager de la compañía.

El interés por el Big Data es grande, aunque todavía estamos en una fase inicial de exploración. Solo el 25% de las empresas ha elaborado un business case que recoja sus necesidades de Big Data, aunque son muchas las que han considerado su aplicación, según el informe europeo de Interxion “Big Data: Más Allá del Ruido” En dicho informe, las previsiones eran optimistas a falta de una implantación real. En nuestro país el 91% de los CIO encuestados prevé desarrollar un plan estratégico a largo plazo. Gartner asegura en un estudio que sólo un 13% de las organizaciones encuestadas por sus expertos había implantado ya soluciones de Big Data, aunque el 73% lo tiene entre sus inversiones.

Retos en Big Data

Evidentemente Big Data va a experimentar crecimientos en todos los sectores y, poco a poco, también lo hará en diferentes tipos de empresas. Uno de los hándicaps con los que hay que lidiar es que Big Data se ha convertido en un una palabra de moda. Las empresas ven que están hablando de Big Data porque es una palabra de actualidad y esto hace que sea un hándicap para poder llegar a esas empresas. Detrás del Big Data hay mucho ruido. El concepto se ha quemado un poco y la gente está a la espera. La compañía Teradata apuesta, en vez de por la definición, por los retos a los que se va a enfrentar Big Data en los próximos años. Las organizaciones con las que Teradata trabaja no solo van más allá del análisis de transacciones y eventos, sino que también analizan las interacciones y dominan los cinco retos clave del Big Data:

– El reto de los datos multi-estructurados: Los datos de transacciones y eventos que se han ido almacenando, integrando y analizando en los Data Warehouses tradicionales y en aplicaciones de Business Intelligence durante las tres últimas décadas están en gran parte orientados a dejar constancia de lo ocurrido y se definen en términos de esquema explícito. No siempre se puede decir lo mismo de las nuevas fuentes de Big Data. Social data and machine log data se caracterizan por su volatilidad: el modelo de información que usamos para entenderlos puede ser implícito en lugar de explícito, puede ser orientado a documento, pudiendo (o no) incluir algún nivel de organización jerárquica, puede cambiar continuamente o puede que queramos aplicar diferentes interpretaciones a los datos en tiempo real (esquema de lectura) en función de cada uso y aplicación

-El desafío de las analíticas interactivas: Las interacciones, tanto entre personas y cosas, personas y personas como cosas y cosas, describen redes o gráficos. Muchos análisis de interacciones se caracterizan por operaciones en las que el orden de registro es importante. Sin embargo, la cronología, la trayectoria y el gráfico dan problemas debido a las tecnologías ANSI-standar SQL, ya que están basados en el modelo relacional y en la teoría de conjuntos, en las que el orden de registro no tiene importancia. Son variadas las ampliaciones que se han propuesto a lo largo de los años para que el estándar ANSI SQL haga frente a estas limitaciones, entre ellas las funciones User Defined Functions (UDF) y Order Analytical OLAP, pero solo son una solución parcial, ya que no siempre se podrá saber cuándo una función refleja el esquema preciso de los datos que se necesitan procesar.

“El problema de estas consultas es que a menudo son difíciles de expresar en el estándar ANSI SQL y puede ser demasiado costoso a nivel de computación hacerlas funcionar en plataformas optimizadas para el procesamiento basado en conjuntos, incluso si tenemos éxito al hacerlo”, asegura Martin Willcox, de Teradata.

– El reto de los datos con ruido: Algunos grupos de Big Data son grandes y con ruido y se vuelven aún más grandes rápidamente, se accede a ellos con poca frecuencia para ayudar al procesamiento asociado con objetivos de nivel de servicio relajados y sin valor probado. Las empresas tienen que capturar volúmenes de datos cada vez más grandes en los que la señal útil está acompaña por un volumen aún mayor de datos que suponen ruido para la mayor parte de las compañías, que buscan modelos rentables de almacenamiento y procesamiento de datos. Sin embargo, estos datos podrían ser una gran oportunidad para un pequeño y selecto grupo de Data Scientists,

– El reto de “puede haber una aguja en un pajar pero si se necesitan doce meses y 500.000 € para averiguarlo no hay tiempo ni dinero para investigarlo”: Muchas organizaciones comprenden que los nuevos grupos de Big Data son valiosos pero no saben dónde buscarlos. Los enfoques tradicionales hacia Data Integration: modelar los sistemas de origen, desarrollar un nuevo e integrado modelo de datos, aplicar los modelos de origen al de destino, desarrollar procesos ETL que capturen y transformen de forma precisa los datos del sistema de origen al modelo de destino, etc, suelen dar problemas con la captura de datos multi-estructurados y tienen aún más dificultades en estos escenarios debido al tiempo y coste que hay entre el Data Scientist y el acceso a los nuevos datos.

Se ha estimado que los costes de adquisición, normalización e integración de datos representan hasta el 70% del coste total de implementar una base de datos analítica y aún así es más barato que las alternativas.

“Cuando no queramos preguntar o responder de manera fiable sino explorar nuevos conjuntos de datos para comprender si nos permitirán plantear nuevas preguntas que merezcan la pena contestar, quizá necesitemos un nuevo enfoque para adquirir datos que nos proporcionen una calidad de datos suficientemente buena”, afirma Martin Willcox, Director de Teradata Corporation. “En estos contextos de “exploración y descubrimiento” experimentamos continuamente con los datos para identificar nuevas hipótesis que merezca la pena probar y para identificar nuevas fuentes de datos. Dado que muchos de estos experimentos fallarán, la productividad y el ciclo de tiempo son fundamentales para alcanzar el éxito

-El reto de ir más allá y el valor de la entrega: Numerosos proveedores y analistas siguen afirmando que “el objetivo de un proyecto de Big Data es aumentar los conocimientos empresariales”, sin embargo esto no es del todo cierto. ya que el objetivo debe ser usar esa visión para cambiar el negocio y así impulsar el retorno de la inversión (ROI).

“Como dijo uno de mis antiguos jefes: “procesos arcaicos de negocio + tecnología novedosa y cara = procesos de negocio caros y viejos”. Utilizar los conocimientos obtenidos a partir de experimentos analíticos a menudo requerirá que creemos los datos y analíticas necesarias, de manera que podamos compartir de forma fiable y precisa nuevas KPIs, medidas y alertas con toda nuestra empresa”, comenta Martin al respecto. “Aunque es cierto que los Data Scientist son cada vez más importantes para cualquier negocio, ellos no hacen que funcione, sino los encargados, empleados, responsables de atención al cliente o supervisores de logística. Asimismo, todos los datos que no puedan ser procesables y compartidos más allá del Laboratiorio de Datos no permitirán hacer un trabajo mejor que el anterior”, concluye.

Además de estos retos, Francisco Verdugo Navarro, responsable del negocio Cloud & Datacenter de Trend Micro señala que Big Data deberá “seguir creciendo de la forma que lo viene haciendo en los últimos años y por supuesto, aportar más valor de forma más sencilla, ágil y práctica. En el mundo de la seguridad, donde cada vez los ataques se comenten en menos tiempo y surgen amenazas nuevas en cuestión de segundos, es imprescindible contar con herramientas potentes que ayuden a gestionar y analizar toda esa información nueva para detectar posibles ataques”

Big Data y Cloud

La existencia de cloud y el auge de los servicios en la nube también está haciendo posible que B ig Data despegue de forma exponencial. Tal y como afirman desde Konica Minolta: “Cada una de las principales tendencias, movilidad, social, big data y cloud, son disruptivas por sí mismas, pero no pueden existir las unas sin las otras, o sea, no es concebible el crecimiento exponencial de un proyecto de Big Data, sin llevarlo a cabo con el Cloud computing, ya que esto permite tener acceso a la infraestructura necesaria y adecuada para que dichos proyectos sean existosos”.

Para el portavoz de Dell, “La computación, infraestructuras o plataformas en la nube tienen un papel relevante en este nuevo paradigma, con dos aspectos clave. El primero la capacidad de contratar como servicio un entorno de almacenamiento o analítica bajo demanda, reduciendo los costes de inversión y operación y sólo pagando por este servicio cuando es necesario. El segundo es que muchos de los datos que incorporamos a nuestro conjunto de información de la que obtener beneficios, se encuentra actualmente en la nube, como redes sociales, CRMs, ERPs e incipientes mercados electrónicos de datos donde comprar o alquilar información que complementa a la que cada compañía posee, por ejemplo información demográfica, agrícola, climatológica, etc.”. Por su parte, David Carvajal, director técnico de Deyde Calidad de Datos, considera que “ Big Data y Cloud Computing están unidos estrechamente en la revolución de la información que estamos experimentando actualmente. La computación en nube permite obtener de manera más rápida y sencilla, una infraestructura eficaz, escalable y a costes reducidos, que posibilite el procesamiento de ingentes cantidades de datos para su posterior análisis. De esta manera, las empresas pueden obtener un mayor valor a partir de los análisis de grandes volúmenes de datos realizados con el apoyo de una infraestructura en la nube. Por otro lado, resulta fundamental las posibilidades de aprovechamiento otorgadas por la nube híbrida en el tratamiento de los datos no estructurados y de diferentes orígenes que conlleva el Big Data. Este modelo puede ayudar a las empresas a hacer frente a los problemas de seguridad en su nube privada, al tiempo de aprovechar la mayor infraestructura de la nube pública respecto de los servicios de análisis”.

La realidad apunta a que Big Data y Cloud irán cada vez más de la mano. Los datos del informe de Interxion, “Big Data, más allá del ruido” confirman que más del 70% de las empresas está dispuesto a implantar una solución de Big Data como Servicio, antes que invertir en una solución propia. La principal razón es la disponibilidad y la flexibilidad para escalar las necesidades de acuerdo a la demanda; esta es una de las principales características del modelo cloud.

El objetivo de la gestión del Big Data por las empresas tiene que ser el extraer información de los datos, para convertirla en conocimiento que permita a su vez tomar decisiones que lleven a la empresa a una mayor competitividad en el mercado. Cloud Computing debe ser el habilitador de las empresas a cambiar los modelos de negocio tradicionales. Surgió inicialmente como un modelo para la optimización de los costes de IT, pero se ha mostrado como el gran catalizador de la innovación dentro de la empresa, proporcionándole una agilidad y respuesta al negocio sin precedentes. Estos indudables valores que proporcionan tanto la gestión del Big Data, como el Cloud Computing de manera independiente, multiplican el impacto en las cuentas de resultados de nuestros clientes cuando somos capaces de utilizarlos de manera combinada en una única tecnología. Tal es la relación que actualmente existe entre estas dos tecnologías que, por ejemplo, la multinaciona IBM anunció el pasado octubre en su principal evento de Big Data & Analytics en Las Vegas, Insight 2014, una auténtica revolución al extender el portfolio de soluciones de gestión y analítica de datos a modalidades cloud, en formatos de pago por uso con el claro objetivo en este sentido de dotar a las empresas de capacidad de elección en la evolución de sus infraestructuras hacia modelos híbridos de cloud donde para cada tipología de dato y analítica se pueda decidir si a la empresa le interesa gestionarlo en su centro de proceso de datos tradicional o en la nube.

El problema

Con la excepción de las grandes empresas, que ya llevan un tiempo trabajando en proyectos de Big Data, el problema aparece ahora para empresas más pequeñas que éstas puesto que ya empiezan a conocer las ventajas que les puede aportar las soluciones de Big Data pero no saben qué es lo que quieren exactamente analizar: ¿el comportamiento de sus clientes?, ¿el análisis de las redes sociales? El hecho de que cada vez más empresas tecnológicas empiecen a ofrecer tecnologías de Big Data, diferentes entre sí, tampoco ayuda mucho a la elección. Para Javier Gallego de Dell, “actualmente hay multitud de compañías TIC transmitiendo su visión o conjunto de productos, servicios y soluciones alrededor de Big Data. Este tipo de proyectos afectan a las áreas tecnológicas pero sobre todo a las de negocio, donde la explotación de estos datos podrá acelerar la eficacia e innovación de una empresa pública o privada. Un proveedor de soluciones propietarias y cerradas podrá resolver ciertos casos de uso pero limitará a la compañía en su capacidad de cambio o innovación. Uno que sólo domine el área de la infraestructura fracasará en asesorar sobre un correcto análisis de los datos. Nuestra aproximación y recomendación es la comenzar con un piloto y como paso previo identificar a aquellos responsables de las áreas de tecnología y de negocio que serán, por decirlo así, los sponsors del piloto. Lo que nosotros proponemos es seleccionar pocas fuentes de información en primera instancia y comprobar cómo la tecnología puede ayudar a explotar datos u orígenes de información hasta ahora no valorados o de los que se pensaba que su explotación o análisis no sería relevante. Esto lo hacemos a través de tecnología abierta utilizando unas configuraciones de hardware y software sencillas con bloques llamados quick-start y con servicios profesionales y de consultoría propios y de socios expertos y reconocidos para lograr una solución abierta y de extremo a extremo”. Por su parte, Robert Assink, Director General de Interxion Data Center afirma que “la principal característica de Big Data es que abre un nuevo mundo de análisis, por lo que debe apoyarse en las herramientas y la tecnología más adecuada, fundamentalmente hardware y software de altas prestaciones y para hacerle frente. El éxito de su aplicación se basará en considerar las tres V de Big Data: velocidad, volumen y variedad, por lo que es muy necesario que haya diferentes empresas tecnológicas involucradas: proveedores de conectividad de alta disponibilidad, herramientas de análisis de datos y soluciones de almacenamiento. Es necesario que estas tecnologías sean capaces de integrarse y de trabajar unidas. Todas estas empresas tecnológicas necesitan un lugar físico donde alojarse e interconectarse. Este papel lo cumplen los grandes centros de datos especializados, como es el caso de Interxion. Nuestra empresa no ofrece servicios de Big Data, sino que alberga empresas que ofrecen estas soluciones, así como proveedores de conectividad y de cloud computing”.


Emprender en Big Data

Hasta hace poco se pensaba que el éxito en el área de los datos masivos era exclusivo de las grandes corporaciones que, tras muchos proyectos y años de recopilación de datos, eran las únicas capaces de extraer valor comercial a la información. Esa barrera ya ha sido derribada por muchos emprendedores que gracias al Open Data y al Big Data as a Service pueden iniciar un proyecto a menor coste. Se dan casos en que emprendedores, antes de salir de la universidad, ya están desarrollando proyectos de Big Data y han convertido a grandes corporaciones en sus clientes.

Para Pablo Casado, Chief Architect de Incubio, incubadora de negocios especializada en Big Data, los emprendedores no deben tener miedo a emprender en el área de los datos masivos. «Es un sector que acepta cualquier tipo de industria, desde el marketing a la seguridad informática, pasando por el deporte o los videojuegos”.

De hecho Para el Chief Architect de la incubadora, el sector del Big Data es propicio para el emprendimiento. La reducción de los costes, la evolución tecnológica y la aparición de cursos de Big Data, que permiten capacitar a los profesionales en estas tecnologías son los factores que la hacen más atractiva.

“Las iniciativas de Big Data incrementan el beneficio de las empresas en pocos meses haciendo que muchos emprendedores, guiados por los altos beneficios potenciales y el elevado retorno de la inversión, se decanten por iniciar sus proyectos con estas tecnologías”, indica Pablo Casado.

A la hora de plantearse emprender en Big Data, Pablo Casado, Chief Architect de Incubio, señala 6 aspectos fundamentales a tener en cuenta:

1- ¿Cuál es el perfil como emprendedor en Big Data?

Cada emprendedor es un mundo y puede tener sus propios intereses por los que sentirse atraído por el Big Data. Normalmente se encuentran dos tipos: en primer lugar, un emprendedor con formación tecnológica que quiere ofrecer una solución técnica a un problema concreto que ha identificado dentro de la industria. En segundo lugar, un emprendedor con conocimientos específicos de una industria o un sector determinado y que encuentra en el Big Data una oportunidad de mejorar ese sector. En cualquier caso, los dos perfiles son complementarios y su objetivo es el mismo: obtener el máximo beneficio posible de los datos, ya sean los suyos propios o los de otras empresas.

2- La importancia de los datos

En cualquier emprendimiento es fundamental validar la idea de negocio antes que ninguna otra cosa para no encontrarse que todo el esfuerzo, horas y pasión que le ha dedicado a su idea no sirven de nada porque no hay mercado para esa idea.

En el área de Big Data hay que tener en cuenta otros aspectos, especialmente en los proyectos en los que los datos masivos sean la principal materia prima: hay que verificar la calidad de los datos, la propiedad de los mismos, etc.Se podría, por ejemplo, iniciar un proyecto de Big Data a partir de datos procedentes de las cuentas de resultados de las empresas, pero en ese caso se debe garantizar que las fuentes de información sean accesibles y que su coste esté dentro de lo asumible por el emprendedor. También se podría iniciar un proyecto con datos médicos, y entonces se debe tener claro que los datos tienen que estar disociados de los pacientes para cumplir la Ley de Protección de Datos Personales. En los proyectos que se basen en Open Data – en datos que se hayan publicado directamente por otras empresas o por gobiernos – no hay ese problema, pero sí que hay que garantizar que los datos estén completos. Y siempre, en todo caso, se debe verificar que el dato sea veraz y esté actualizado.

3. ¿Cuáles son los mejores sectores?

En Big Data hay tres sectores que ahora mismo tienen un futuro prometedor. El primero es el de infraestructura y soluciones de Big Data as a Service. Hay empresas y organizaciones que tienen los datos, pero no saben por dónde empezar un proyecto de Big Data. Probablemente no sea que no tengan los conocimientos, sino que el análisis de esos datos no es su “core business” y nunca lo han hecho antes. Ofrecer una plataforma, un servicio de almacenamiento y análisis de esos datos puede ser una buena oportunidad de negocio para emprender en Big Data.

De hecho en Incubio hemos desarrollado YIELD, nuestra propia plataforma de Big Data, pensando en facilitar al máximo el trabajo de los emprendedores, en minimizar el coste de emprender y eliminar las barreras de acceso al mercado. Intentamos conseguir que los emprendedores se centren en su modelo de negocio sin que tengan que preocuparse por la infraestructura técnica. Eso mismo se puede hacer con las grandes empresas: que puedan focalizar sus esfuerzos en obtener el máximo rendimiento de los datos que ya poseen, sin tener que invertir demasiado tiempo en desplegar la plataforma tecnológica que el análisis requiere.

El segundo son los servicios de análisis de datos, la consultoría. Los especialistas en herramientas de análisis concretas tienen una buena oportunidad de negocio en ese ámbito. Por ejemplo, creando empresas que estén especializadas en el análisis de datos procedentes de verticales concretos del mercado. Y, por último, proyectos relacionados con la visualización de datos y la interacción del usuario con esos datos. Las tecnologías actuales nos ofrecen posibilidades que van bastante más allá de una pantalla y un ratón y es un reto ofrecer nuevas formas de visualizar e interactuar con esos datos.

4. ¿Son las grandes empresas competencia o aliadas?

Para los emprendedores de Big Data, la colaboración con las grandes empresas les puede abrir muchas puertas. Si un emprendedor tiene una idea que encaja con los objetivos estratégicos en Big Data de una de las grandes, puede convertirse en su referente, en su laboratorio de análisis de datos. Las grandes corporaciones están saturadas de trabajo en su día a día y les cuesta frenar esa inercia para centrarse en otra tarea, como puede ser el análisis de sus datos. Ahí es donde entra el emprendedor, con su conocimiento de Big Data y su experiencia en un vertical específico. Y ahí es donde se pueden establecer alianzas ventajosas con las grandes empresas.

Desde Incubio, por ejemplo, hemos lanzado un programa de incubación corporativa que consiste en que las grandes empresas pueden externalizar en start-ups sus proyectos de investigación y desarrollo en Big Data.

5. ¿Te has formado lo suficiente?

El emprendedor también tiene que formarse para ejecutar su idea de negocio tan rápidamente como sea posible. Si existe una oportunidad de mercado clara, tienen que llegar a tiempo de aprovecharla. A diferencia de otros sectores, el del Big Data requiere de una capacitación técnica especial para ejecutar la idea. Además, es necesaria una arquitectura que debe ser analizada y desarrollada en profundidad para llevar a cabo el proyecto. A partir de ahí, la búsqueda y el esfuerzo por recibir la formación que te permitirá pasar al siguiente nivel depende solo de tus ganas e ímpetu emprendedor. Tecnológicamente hablando, Hadoop sigue siendo una de las principales herramientas, así como Spark o lenguajes de programación como R, que se usan para hacer tratamiento estadístico de los datos. Hay ya cursos que son una buena oportunidad para familiarizarse con toda la tecnología y las herramientas. Desde Incubio, por ejemplo, estamos organizando un posgrado en Big Data conjuntamente con la Universitat Politècnica de Catalunya en el que se explicarán las bases de todas estas tecnologías.

6. ¿Qué tienes que evitar hacer si quieres emprender en Big Data?

En primer lugar, lo mismo que no deberías hacer en cualquier otra startup tienes que evitarlo en este sector. Es un error no validar tu idea de negocio con tus potenciales clientes y es un error centrarse en la tecnología en vez de en la necesidad del mercado. Son los errores más graves que puedes cometer. Tus clientes te van a dar la información precisa que necesitas en cada momento de creación de tu producto, si sabes cómo preguntar, así que déjalos hablar y no les vayas a vender tu producto. Como mínimo, aún no.

Ponerte a desarrollar algo sin tener conocimiento preciso sobre su potencial de comercialización o sin tener las ideas claras sobre lo que quieres conseguir. De hacerlo así, lo único que conseguirás será tirar horas y horas de tu trabajo porque puede ser que no le interese a nadie.

Más específicamente, dentro del ámbito del Big Data, no validar las fuentes de datos y la calidad de los mismos. Y no tener conocimientos de matemática o de estadística suficientes como analizar los datos e identificar patrones en ellos. Seríanerrores importantes no identificar correctamente las variables que se quieren analizar, o no tener un conocimiento profundo de la realidad de los orígenes de los datos, del “negocio” que se está analizando.


Big Data y calidad de datos para las empresas

Por David Carvajal, Director Técnico de DEYDE Calidad de Datos

Todos hablamos de Big Data pero, ¿de qué se trata?. Podemos decir que Big Data se refiere a la tecnología, no del futuro, sino del presente de muchas empresas, que permite el procesamiento masivo de ingentes cantidades de información.

Es la tecnología en que más invierten y más van a hacerlo todas las empresas. Se prevé, en los próximos dos años, un incremento del 300% en la incorporación de esta tecnología en las empresas españolas y una inversión de más de 50.000 millones de dólares por parte de las empresas de todo el mundo en cinco años. De hecho se llega a hablar del inicio de la “era de Big Data”. Esto crea la necesidad de incorporar un eficiente sistema de Calidad de Datos que maximice el poder del procesamiento masivo de grandes volúmenes de datos que ofrece esta tecnología: ya tenemos que dejar de hablar de “gigabytes” y empezar a familiarizarnos con términos como “petabytes” o “zettabytes”.

Las tecnologías están en constante evolución y los mercados en un continuo proceso de transformación y esto nos crea la necesidad de aprender a tratar y utilizar toda la ingente cantidad de información de la que disponemos, correctamente. Si no somos capaces de recoger, interpretar y depurar la gran cantidad de datos que nos llega cada segundo, nos quedaremos obsoletos y simplemente pasaremos a ser uno más en este mundo tan complejo y competitivo en el que vivimos.

Las empresas deben ser conscientes de lo fundamental que es el disponer de una información detallada y de calidad de sus clientes; saber en tiempo real sus gustos, tendencias o preferencias, les permitirá reducir riesgos y aumentar sus ingresos. Si bien una base de datos fiable y con calidad constituye su principal activo, el hecho de tener, por el contrario, una base de datos deficiente, les llevará a que todas las gestiones que realicen con estos datos, sean de mala calidad y posiblemente les haga tomar decisiones inapropiadas.

Por otro lado, la importancia de un eficiente sistema de Calidad de Datos aumenta con el crecimiento y la eclosión del uso del Big Data, y debemos tener en cuenta que es el mayor reto al que se enfrentan las empresas actualmente.

La facilidad en la creación y mantenimiento de sistemas CRM, la ayuda en la fidelización de los clientes, el incremento de las ventas, el poder obtener una visión única del cliente y el verse dotados de inteligencia de negocio, son algunos de los beneficios que ofrece utilizar un apropiado sistema de Calidad de Datos aplicado al Big Data y puesto a disposición de los Departamentos Comerciales.

También en los Departamentos de Marketing, el manejo y aprovechamiento de un Big Data correctamente estandarizado y normalizado es la clave para lograr mejoras en las acciones de fidelización y captación de clientes. Además, con las técnicas de Calidad de Datos enfocadas a proyectos de geocodificación, se pueden realizar campañas de marketing one to one centradas en el máximo conocimiento del cliente, permitiendo el análisis de estos datos en tiempo real  con un alto nivel de calidad, obteniendo así un mayor rendimiento.

Un Big Data de alta calidad ayuda a reducir el fraude, los riesgos de impago y mejora la productividad, lo que nos lleva a un importante ahorro de costes en los Departamentos de Finanzas, y en los Departamentos Legales y Fiscales, ven como facilita el cumplimiento de la legislación vigente de Protección de Datos así como el intercambio de información con la Administración Pública.

Por último, es evidente que internet nos ha cambiado la vida, sin internet no hay progreso, no hay flujo ni intercambio de información,… no hay Big Data; por ello, desde los Departamentos de Informática, se valora especialmente la posibilidad de disponer de un Sistema de Datos de alta calidad, útil, conveniente y actualizado, donde grandes cantidades de información fluyan de forma continuada tanto entre los distintos departamentos de la empresa como con sus respectivos clientes.