La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

Big Data oficina trabajo gestion retorno de trabajadores responsable de proyectos inversión TIC

Bienvenidos a la era del Big Data

Datos, datos y más datos. Esa es la clave para una correcta toma de decisiones en la empresa. El Big Data ha llegado para quedarse y de su correcta utilización dependerá buena parte de la supervivencia de las organizaciones en los próximos años.

Una de las claves del mercado del Big Data en estos momentos hay que buscarla en el año extraño que estamos viviendo. La pandemia ha hecho que las estrategias de las empresas hayan dado un giro de 180º. En general, lo que ha supuesto, es que las organizaciones hayan visto la importancia de la digitalización para garantizar su subsistencia. Y esa digitalización incluye al Big Data. Sin embargo esa apuesta por las tecnologías de Big Data va por barrios. Así la empresa privada está haciendo grandes esfuerzos por incorporar tecnologías de analítica y Big Data, mientras que el sector público todavía no tiene claras sus estrategias a pesar de que cómo afirma Pablo Boixeda, Sales Engineering and Business Development, “los datos están jugando un papel fundamental en la lucha sanitaria contra el coronavirus y también en la gestión de los recursos, pero el sector público español necesita todavía un fuerte impulso en analítica y gobierno de dato”.

El problema del sector público es que, como se ha visto durante estos últimos meses, va muchos pasos por detrás del sector privado. Sin ir más lejos, el retraso en el cobro de los ERTE ha sido por no tener las herramientas de automatización necesarias para introducir los datos de forma automática de cada uno de los beneficiarios. Las herramientas colaborativas, también estaban en pañales, así que éstos y otros apartados son más prioritarios que establecer una estrategia de Big Data. Para las organizaciones privadas, sin embargo, los problemas son otros. Como afirma César Tapias, Sales Manager EMEA, WER Unstructured Data Solutions de Dell Technologies, “hemos tenido unos años en los que han proliferado modelos, procedimientos, herramientas, que han contribuido a enriquecer el ecosistema, pero hemos llegado a un punto en el que necesitamos racionalizar y estandarizar procesos para acelerar el retorno de la inversión de este tipo de entornos. Precisamente el Covid contribuirá a catalizar esta evolución. Inicialmente la gran mayoría de las compañías que se aventuraban en implementar este tipo de entornos, lo hacían para optimizar la eficiencia de modelos ya rentables o para encontrar nuevas oportunidades de mercado y sólo unos pocos lo hacían por imperiosa necesidad de cambiar sus modelos de negocio para sobrevivir. El Covid ha acelerado de tal manera la transformación digital, que llevará a invertir los papeles, y muchas empresas se verán obligadas a implementar este tipo de entornos para garantizar su subsistencia. No olvidemos que lo que algunas compañías han realizado en dos o tres años, otras lo tendrán que hacer en unos pocos meses”.

En general, el mercado del Big Data sigue gozando de buena salud en nuestro país, con unos proveedores clave muy consolidados. Nos encontramos ante un mercado en transición, que gravita desde un modelo más tradicional hacia un modelo basado en Cloud, en particular para nuevas iniciativas. Y “aunque la crisis del coronavirus ha afectado a este segmento al igual que a otro, si tuviésemos que hablar de los proyectos que ya están en producción y operativos, aquellos que son críticos para algún proceso de negocio de la empresa, continúan funcionando. En cuando a los no tan críticos, hemos visto como los recursos de la empresa, que estaban dedicados a esas iniciativas concretas, en algunas ocasiones se han desviado temporalmente hacia otros recursos esenciales. En cuanto a nuevos proyectos, en función de su grado de criticidad, pueden estar sufriendo retrasos. En todos los escenarios, el foco debe estar puesto en el valor que proporcionan estas iniciativas, un valor medible y tangible”, afirma Óscar Bernacer, Cloud Architect Director de Oracle España.

Big Data se ha convertido en el impulsor de las principales herramientas digitales para hacer frente a la COVID-19

Big Data se está consolidando como tendencia y como necesidad. Sobre todo desde la irrupción de la pandemia y de forma especial, en un sector: el sanitario. Como hemos dicho anteriormente, el sector público en España está más retrasado en la incorporación de tecnologías de Big Data, pero no ocurre lo mismo con el privado ni con los sistemas de salud públicos de otros países de nuestro entorno. Y es que como afirma Juan Jose Corripio Aba, Senior Manager de Common MS, “Big Data se ha convertido en el impulsor de las principales herramientas digitales para hacer frente a la COVID-19, como son los mapas de identificación de casos por países hasta aplicaciones de rastreo de contagio. Pero el Big Data también juega un rol importante en las decisiones tomadas y que se toman actualmente para definir los periodos de confinamiento y las fases de la desescalada, en base a los datos recogidos de hospitalizaciones, contagios o fallecimientos, generando métodos estadísticos y predictivos”. Mauro Bonfanti, vicepresidente regional para EMEA de Pure Storage también cree que el sector de la salud va a ser uno de los principales impulsores del Big Data. En su opinión, “la salud va a estar cada vez más impulsada por la IA y tecnologías como el deep learning. El análisis de Big Data en el sector de la salud se ha ido adaptando a un ritmo impresionante. Todo el sector ha avanzado significativamente en cuanto a la capacidad de recopilar, almacenar, analizar y aprender de los datos, para poder basar la atención médica resultante en estos resultados y así mejorar los pronósticos de los pacientes”.

La importancia de la nube

big data hackerEl actual escenario mundial no es el único factor de la transformación digital que estamos viviendo, aun así, ha impulsado la inversión en tecnología y ha hecho que la innovación ya esté en la agenda de las empresas con visión de futuro. Dado que la comprensión de los datos está desempeñando un papel cada vez más importante y los volúmenes de datos no hacen más que aumentar, las empresas necesitan lograr por sí mismas una experiencia de datos moderna y a prueba de futuro, porque los acontecimientos actuales nos han demostrado lo crucial que es la tecnología.

Aquellos que se acercan a la nube por primera vez se enfrentan a la clásica pregunta sobre qué tipo de servicio elegir, público o privado. Ambos tienen diferentes casos de uso y pueden ser esenciales para las empresas en la consecución de sus objetivos.

Sin embargo, y tal y como señala el portavoz de Pure Storage, “las empresas corren el riesgo de quedar atrapadas en la división de la nube, al sentir que la nube pública no es apropiada para sus aplicaciones empresariales, o que la infraestructura empresarial on-prem no es tan fácil de usar, simple o escalable como la nube pública. En última instancia, las organizaciones deben ser capaces de tomar decisiones de infraestructura basadas en lo que es mejor para su negocio, y no limitadas por lo que la tecnología puede hacer o dónde se aloja. Ese viejo dilema de elegir entre nube privada o pública ya no tiene por qué existir. Una opción para unir lo mejor de ambos mundos, la nube híbrida, ha ganado en popularidad. Se ha convertido en una estrategia que apoya este enfoque «cloud-best» que las empresas están demandando. Permite aprovechar simultáneamente la nube privada, con sus capacidades de grado empresarial, y la nube pública, con toda la agilidad, facilidad de uso y dinamismo que ofrece”.

Pero no todo son bondades. Al menos no para todo el mundo- En opinión de Jaime Balañá, director técnico de NetApp, “la adopción del uso de sistemas y soluciones de Big Data Analytics y el continuo desarrollo de nuevos entornos y aplicaciones de procesamiento masivo que se han ido incorporando al ecosistema de Big Data en los últimos años ha hecho que los distintos tipos de información que se necesitan procesar (no estructurada, semi-estructurada y estructurada) creen silos y complejidad, a la vez que suponen un gran reto en cuanto a escalabilidad, gestión y protección del dato. Si bien es cierto que las iniciativas basadas en modelos Cloud resuelven de manera nativa el problema de la escalabilidad y gestión, éstas no son factibles a veces debido a regulaciones en lo relativo a la privacidad y confidencialidad de los datos y hacen que las empresas opten por modelos de cloud híbrida”. Por este motivo, Óscar Bernacer de Oracle considera que “se debe atender, en primer lugar, al cumplimiento con requerimientos regulatorios antes de determinar si una cloud pública es apropiada o es mejor optar por una cloud privada. Por otro lado, muchas cloud privadas han nacido en el seno de las organizaciones de IT y suponen un reto para empresas que no son netamente tecnológicas, por el esfuerzo de construcción de dicho entorno desde cero. Una buena opción es contar con proveedores cloud especializados y utilizar los servicios de una o varias nubes (opción multicloud). Así evitamos, además, situaciones de «lock-in» con proveedores concretos”.

El papel de la IA

Sin inteligencia artificial no hay Big Data y viceversa. La IA se alimenta de datos por lo que las empresas deben enfocarse en tener una estrategia de IA si quiere que un Big Data funcione de manera eficiente. Alejandro Solana, director técnico de Nutanix cree que “cuanto mayor es el volumen de datos analizado, mayor potencia de cálculo se requiere para procesar la información, sometiendo a tensión a todos los componentes conectados en una infraestructura, particularmente el almacenamiento y la red. Para apoyar casos de uso de IA altamente complejos, las organizaciones necesitan una infraestructura de TI ágil que sea sencilla y rápida de iniciar, simple de escalar, y construida por desarrolladores de software de servicios que los data scientists necesitan. Reducir la complejidad, mejorar la seguridad de los datos y eliminar los cuellos de botella deben ser las prioridades principales. La infraestructura tradicional de TI no es adecuada para abordar los graves problemas que vendrán aparejados al crecimiento de la Inteligencia Artificial, lo que hace que sea el momento idóneo para explorar otras vías”.

big data cloud agileLa clave de esta simbiosis entre IA y Big Data la ofrece Manuel Torres, AI y Machine Learning Manager de Techedge para quien, “la inteligencia artificial, tal y cómo se utiliza y aplica de manera principal ahora mismo, se basa en el aprendizaje automático (Machine Learning) y éste se basa en el entrenamiento de modelos utilizando cantidades masivas de datos. Para estos entrenamientos, las infraestructuras de Big Data se convierten en las principales fuentes de datos y permiten construir modelos de manera rápida”.

Una de las aplicaciones del Big Data al innovador ámbito de la inteligencia artificial que está cobrando más fuerza es el machine learning o aprendizaje automático. Podemos definir este concepto como el aprendizaje automático de las máquinas sin necesidad de apoyo humano. Esto implica que este aprendizaje automático permita el desarrollo de máquinas y sistemas capaces de aprender de su entorno y de generalizar comportamientos a partir de una base de información. Y es que, según afirma Carlos Martín Román de Common MS, “el machine learning no deja de evolucionar gracias al Big Data, que posibilita que los sistemas que lo explotan sean capaces de extraer información útil de los datos. La principal idea que radica en estos sistemas es que sean capaces de aprender automáticamente, que puedan identificar patrones complejos en millones de datos, lo que les permite de este modo predecir comportamientos futuros. Es un aprendizaje que permite también aprender de los errores para evitarlos en un futuro, haciendo que las máquinas inteligentes mejoren de forma autónoma por medio de este aprendizaje automático”.

El machine learning no deja de evolucionar gracias al Big Data

Saber adelantarse a lo que puedan ejecutar los competidores o conocer cuáles van a ser las necesidades de los clientes son sólo algunos de los ejemplo en los que el papel del Big Data es esencial y la Inteligencia Artificial es un poderoso aliado en esta labor. Así lo afirma Javier Fernández, socio directo de Omega Peripherals quien considera que “la Inteligencia Artificial juega un papel fundamental en todo lo concerniente a la analítica de datos porque permite automatizar la toma de decisiones en función del análisis de la información. En un escenario tan competitivo como el actual, conocer con antelación los deseos y las necesidades de tus clientes y actuar inmediatamente incrementa notablemente las opciones de nuevas ventas al modo que lo hacen, por ejemplo, los grandes e-Commerce como Amazon. El despliegue o no de Big Data, analítica de datos e Inteligencia Artificial determinará la supervivencia en el mercado”.

La administración

Gestionar y administrar de forma correcta la ingente cantidad de datos se convierte en una de las preocupaciones de los CIOs y responsables de TI de las organizaciones. Para Rafael Quintana, Regional Director de Qlik en España y Portugal, el problema radica en que “muchas veces solemos fijarnos en uno u otro proceso concreto, sin tener en cuenta todo el pipeline de nuestros datos. Sin una visión integral, podemos encontrarnos fácilmente con fisuras en dichos pipelines. Esto merma la capacidad de transformar los datos en conocimiento activable y útil para mejorar la gestión empresarial, lo que conocemos como “data to insight” o parámetro “D2I”.

Por su parte, Jaime Balañá, director técnico de NetApp cree que se trata de “un reto muy importante cuando un entorno de Big Data pasa a ser parte del core del negocio, ya que hay que implementar los mecanismos necesarios no solo para su correcta administración sino para su control y monitorización con el fin de asegurar el cumplimiento de los SLOs, SLAs y normativas (protección y acceso al dato, etc.). Dada la complejidad de los entornos de Big Data, formados por distintos elementos de infraestructura (cómputo, almacenamiento y comunicaciones) que puede estar on-prem, en el cloud o incluso en ambos cuando se trata de pipelines complejos, y teniendo en cuenta la gran cantidad de aplicaciones y elementos software que forman parte del entorno, se hace difícil implementar una única solución centralizada para control y monitorización que además facilite la compresión de lo que está pasando desde una perspectiva a todos los niveles”.

Pero la gestión de datos, aplicaciones, etc. no es común para todas las empresas. Cada una tiene unas características y objetivos diferentes por lo que esa administración también debe realizarse de forma diferente. Como afirma Pablo Boixeda de Cloudera, “no hay una respuesta única a cómo se debe realizar esa administración, ya que cada compañía es diferente y tiene unas necesidades exclusivas, lo que hace que la forma de gestionar los entornos de TI sea diferente en cada empresa a la que prestamos servicio. No obstante, sí existen ciertos componentes que creemos que son necesarios y al mismo tiempo comunes entre los clientes que administran correctamente el ecosistema de datos. Son los relativos al gobierno del dato, concretamente los aspectos de autenticación, autorización de acceso a los datos, auditoría de accesos, protección de la información con cifrado, y trazabilidad de la información desde su generación a su consumo (ya sea desde un consumo de reporting o en un endpoint de un modelo). En cualquier caso, el acceso ha de ser securizado y la oficina del dato tiene que saber cuál es el origen de los datos que han dado lugar a ese modelo. Desde el punto de vista de las operaciones TI tradicionales y aunque resulte obvio en cierta manera, siempre recomendamos que en el ciclo de vida del dato, exista al menos un entorno previo para hacer pruebas”.

En la misma línea se sitúa el portavoz de Dell Technologies quien cree que “es fundamental tener al menos una base clara para acometerla. Constantemente vemos que proliferan múltiples entornos de big data dentro de una misma compañía, por diferentes razones, entre las que está la creencia de que cada departamento es el dueño de la información que genera. Este comportamiento lejos de lo que pudiera parecer, hay veces que simplifica la administración desde el punto de vista de seguridad pero limita las propias soluciones de big data. Partiendo por tanto de la base de que el dueño de la información es la empresa, y de que para no limitar las posibilidades de la arquitectura idealmente sólo debería existir un entorno de big data, en este punto necesitamos separar la parte de cómputo de la parte de datos. Para la parte de cómputo necesitamos una capa elástica capaz de adaptarse a las diferentes necesidades de los procesos de analíticas y ágil para poder desplegar los diferentes entornos con las diferentes herramientas en función de los perfiles de utilización. Para la parte de datos necesitamos un sistema hyperescalable que interactúe con los diferentes actores del entorno de big data, esto es fuentes, herramientas y usuarios, de manera simultánea acorde al uso que cada uno puede o debe hacer de los datos. Esto confiere al esquema de seguridad una importancia capital”.

big data analyticsPor otro lado, hay que tener en cuenta que uno de los aspectos que ha supuesto un incremento significativo de la complejidad en los centros de datos de todas las organizaciones es la tendencia tradicional de administrar y gestionar entornos (aplicaciones y datos) en forma de silos independientes, con infraestructuras dedicadas y consolas de administración especializadas. Y el problema radica en que las organizaciones trabajan en la nube de la misma forma que lo hacían antaño con su infraestructura on-premise, lo que es un error porque la gestión se hace de forma ineficiente y, además, los gastos se multiplican. Como afirma Alejandro Solana de Nutanix, “las distintas nubes públicas se están convirtiendo en distintos silos a gestionar de forma independiente. Probablemente, en Nutanix la nube pública nos ha servido de ejemplo para poder proporcionar un modelo operacional homogéneo para cualquier entorno o carga. Proporcionando un planteamiento holístico y homogéneo de infraestructura, así como industrializar la experiencia de gestión garantizando una misma experiencia de operaciones y reduciendo la curva de aprendizaje, independientemente de que el entorno sea BigData, Bases de Datos tradicionales, … o incluso cualquier Nube Pública garantizando la misma experiencia y sencillez”.

Los retos

Aunque se lleva mucho tiempo hablando de las ventajas que la tecnología Big Data puede proporcionar a las empresa, lo cierto es que ésta todavía no ha hecho más que nacer. Queda mucho trayecto por recorrer y el inicio del camino es escarpado. Son muchos los retos a los que se enfrenta esta tecnología empezando por la flexibilidad y escalabilidad de las infraestructuras. Además hay que contar con otro factor muy importante como es el ahorro de costes, sobre todo si se tiene en cuenta que la incertidumbre económica provocada por la crisis del coronavirus no termina de despejarse. José Antonio Manuel, AI and Big Data Lead de HPE Pointnext Services considera que, quitando de la ecuación el factor económico los principales retos “son los de permitir la recogida de datos y el procesado desde el extremo hasta la nube. Integrar los productos Big Data / IA con el resto de TI empresarial de manera trasparente mediante plataformas flexibles e híbridas”. Además cree que el factor económico es importante pero no tanto como en principio podría parecer ya que “aunque evidentemente la caja de muchas empresas se está viendo seriamente afectada [por la crisis de Covid-19] y son muchos los proyectos de transformación que se ven impactados, también es cierto que muchas empresas se han visto empujadas a acelerar sus estrategias de transformación digital para adaptarse, en las cuales las iniciativas de Big Data y IA pueden tener un peso muy importante”.

Hasta ahora, los proyectos de Big Data han tenido un cariz muy superficial en la mayoría de las industrias

Los retos a los que se enfrentan las empresas son variados, sobre todo porque hasta ahora, los proyectos de Big Data han tenido un cariz muy superficial en la mayoría de las industrias. Actualmente nos enfrentamos a una gran demanda de respuestas de negocio en un tiempo más corto, que además hace aflorar necesidades de ingesta de datos y de analítica en tiempo real. Con lo cual, los proyectos de Big Data, además de una visión descriptiva del pasado, incorporarán una visión en tiempo real para poder explicar que es lo qué está ocurriendo ahora, y modelos de IA para exponer lo que ocurrirá en el futuro.

Para Pablo Boixeda de Cloudera, además hay que añadir otros retos como son “la incorporación de modelos de “productización” de la IA. Los científicos de datos cada vez demandan más datos, más rápido y más cerca del negocio. Por otro lado, los departamentos de TI y de compliance piden que la gestión del dato sea securizada, gobernada y con una cadena de custodia con la que se pueda garantizar que quien utiliza el dato tiene los permisos necesarios para hacerlo. Además, añadiría otro reto importante como es el de la hibridación cloud. La nube es una realidad que ha venido para quedarse y un elemento clave en la explotación del dato. El reto de las corporaciones es saber gestionar el dato de forma única sin tener que replicar las políticas de seguridad, gobierno y linaje del dato en todos y cada uno de los entornos, dado que esto dispara los costes de administración”. Este directivo señala además que la falta de caja no debe ser un freno a la incorporación de proyectos de Big Data a la hoja de ruta del departamento TIC de una empresa ya que en su opinión “Big Data y bajo coste no son conceptos incompatibles. Este conflicto se puede solucionar incorporando soluciones integradas en el cloud. El hecho de iniciar el proyecto en la nube permite testear y validar el caso de uso técnico y su impacto en el negocio con una inversión relativamente baja, y capacidades de computación y almacenamiento limitadas. En el caso de Cloudera, con CDP en su forma de Cloud Público, se puede abordar cualquier caso de uso de Big Data, ya sea de consulta concurrente de datos mediante SQL, como ingesta en tiempo real de un stream de datos de IoT o logs, o la transformación de un gran volumen de datos mediante sistemas de paralelización masiva en un formato como servicio. Todos estos casos de uso se pueden desplegar sobre un entorno flexible, que crece y decrece según la necesidad, controlando los costes y con un gobierno del dato unificado”.

big data computacionEn este sentido, la clave radica en que Big Data no es un “bicho raro” que pueda dejarse para un futuro más o menos lejano. Se trata de una realidad que afecta además a todos los departamentos de una organización. Jaime Balañá de NetApp es consciente de los problemas de tesorería que pueden tener las empresas: “Actualmente, los responsables de TI de las empresas se encuentran en una situación en la que sus presupuestos se recortan más y más, sus equipos técnicos se encuentran desbordados de trabajo y es necesario hacer más con menos y en menor tiempo. Estos retos, junto con la creciente complejidad de administración de los sistemas operativos o de las herramientas de virtualización, unido al explosivo crecimiento de los datos experimentado en los últimos años, afectan directamente a la productividad de cualquier organización. Pero los responsables de toma de decisiones deben tener en cuenta que ya sea una pequeña o gran empresa, se manejan gran cantidad de datos (unos estructurados, otros no) que pueden ayudar a detectar problemas, a generar soluciones y a crear nuevas oportunidades para seguir siendo competitivos. Por lo que son pocas las áreas de negocio que permanecerán ajenas al Big Data. En definitiva, por parte de la tecnología, el gran reto es armonizar la creciente cantidad de datos disponibles, de tantas fuentes y formatos diferentes, a una velocidad mucho mayor de la que se es capaz ahora, con la posibilidad de transformarlos en información para tomar decisiones en tiempo real”.

Por eso Sergio Albareda Díez de Common MS es contundente: “Es un error, paralizar proyectos de Big Data por la incertidumbre. En mi opinión, empezar mañana ya es tarde. Las organizaciones tienen que tratarlo como una prioridad y creo que es obligatorio que destinen presupuesto para continuar creciendo en Big Data. No se puede cerrar la puerta al futuro. La inversión de hoy serán las ganancias del mañana”.

Ante la incertidumbre: DaaS

Con nombre de detergente de los años 80, DaaS es una de las tecnología que ayudan a que los costes no se vean incrementados. En el data as a service, que es lo que significan las siglas, los datos se enriquecen y permite tener unos datos fiables y relevantes que permiten interactuar con los clientes de forma más eficiente. La ventaja es que el proveedor de servicios ofrece a las empresas datos de valor y específicos bajo petición y de forma integrada en las aplicaciones empresariales. Gracias a él, las empresas tienen acceso más fácil y rápido a múltiples fuentes de datos externas. Es decir, la incertidumbre financiera para introducirse en proyectos de Big Data queda reducida.

DaaS acelerará y simplificará el enriquecimiento de un entorno de Big Data con información externa

Para el portavoz de Pure Storage, DaaS es una de las grandes opciones que permiten la implantación de una estrategia de Big Data a un precio reducido: “independientemente de si el sector es minorista, manufacturero o de servicios financieros, todos los directivos de las empresas tienen que alinear su estrategia corporativa con su estrategia tecnológica, y esto se simplifica cuando los beneficios ahorran riesgos. Una de las constantes será la preocupación de los líderes por el escrutinio de los gastos financieros, llevando a cabo un recorte cuando sea posible. Por lo tanto, el nuevo orden mundial para el despliegue de la tecnología debe basarse en la flexibilidad porque ésta permite controlar los compromisos de efectivo y capital tanto a corto como a largo plazo, el ámbito de almacenamiento de datos y la opción de poseer o suscribir. Es la columna vertebral de una rápida toma de decisiones y la capacidad de superar a los competidores en el mercado con la innovación de productos. Ya se trate de compras personalizadas impulsadas por la inteligencia artificial en el comercio minorista o de la aplicación del aprendizaje en profundidad en vehículos autónomos, las empresas de todos los tamaños deberían tener la oportunidad de competir y crear aplicaciones rápidamente y a demanda. En última instancia, sólo los modelos de consumo flexibles pueden ofrecer este nivel de agilidad, accesibilidad y aversión al riesgo”.

El portavoz de Dell Technologies considera que “es innegable que DaaS acelerará y simplificará el enriquecimiento de un entorno de Big Data con información externa, lo que contribuirá a la reducción del coste. Pero no hay que olvidar que hay mucha información que genera la propia empresa, y es más importante aún. En este sentido el DaaS para consumo interno podría simplificar y abaratar la adopción en un futuro, siempre y cuando se estandarice el acceso. De lo contrario volveríamos a crear silos de información en función de la tecnología elegida, lo que va en contra de la naturaleza de este tipo de entornos”. Por su parte, Manuel Ángel García, Big Data Manager de Techedge cree que “la principal ventaja de DaaS es que permite transformar el coste de infraestructura inicial en coste de servicios que se distribuye gradualmente y se incurre sólo cuando es necesario. Además, hay otro factor que impacta muy directamente y es que los servicios gestionados de datos permiten acceder a versiones más actualizadas de las tecnologías, sin necesidad de planificar y de financiar las actualizaciones de plataforma, lo que, a su vez, permite agilizar los roadmaps de implantación”.

En definitiva, la adopción de una solución DaaS puede ser más efectiva en coste para una organización ya que evita que esta tenga que adquirir, gestionar y mantener distintos tipos de software de propósito específico necesarios en el ciclo de vida del pipeline de datos de Big Data. De manera análoga evita la gestión y proliferación de silos de datos facilitando la colaboración y compartición a la vez que permite que el cliente final sea más ágil y eficiente en sus procesos y operativa con los datos, ya que las soluciones DaaS abstraen al usuario final de la complejidad tecnológica de la infraestructura subyacente ofreciendo una fácil visualización y navegación por los datos que se necesitan y facilitando su explotación directamente.

big data cloudEl Data as a Service (DaaS) es una tendencia en alza. La idea es que los datos son el activo más importante de las empresas y mediante su gestión adecuada se pueden lograr avances y beneficios claros. Adoptar esta tendencia requiere de un nivel de madurez suficiente en distintos ámbitos y departamentos de la empresa, tanto técnicos como de negocio. DaaS debe implementarse para permitir la gestión del ciclo de vida integral del dato.

Los modelos económicos actuales asociados a DaaS se suelen basar en métricas simplistas e insuficientes. Ejemplos de estos indicadores suelen ser el volumen de datos de ida/vuelta, el volumen de datos tratado/almacenado, o el uso de CPU y otros recursos informáticos en general. Para Óscar Bernacer de Oracle, “un modelo DaaS empresarial debería contemplar el valor que aportan los datos y, sobre todo, los «insights» que proporcionan. El dato que representa el importe de compra de un cliente con su tarjeta de crédito es un dato objetivo. Por sí mismo, no dice nada sobre el cliente. Si aplicamos técnicas analíticas sobre este dato, en el contexto de la posición global del cliente y su comportamiento, este dato adquiere un valor. Así, por ejemplo, saber que esa compra está dentro de una categoría determinada (ej: es la primera compra en una categoría determinada), tiene un importe significativo en relación al resto de sus transacciones (puede indicar necesidad de financiación), o incluso si se produce un descubierto potencial (varía la segmentación de riesgo del cliente), son “insights” de valor que van más allá del dato “en crudo”.

Pero, ojo, no todos son ventajas. Como señala el director técnico de NetApp, Jaime Balañá, “pese a que una aproximación DaaS pueda traer bastantes beneficios también puede acarrear retos importantes como el de la seguridad, privacidad, gobierno y protección de los datos al mover éstos a la nube (desde el simple cumplimento normativo, pasando por el gobierno de los mismos y terminando con la implementación de mecanismos de respaldo y recuperación del dato; no hay que olvidar que en la nube la responsabilidad es compartida entre el proveedor y el usuario). Otro de los retos importantes es el de la limitación de funcionalidades que pueden ofrecer las iniciativas de este tipo, ya que las plataformas y servicios DaaS solo ofrecen las herramientas que están alojadas en su plataforma o que son compatibles con ella en lugar de permitir al usuario utilizar cualquier herramienta o software de su elección para establecer su propia solución de procesamiento y análisis del dato”.

Deja un comentario

Scroll al inicio