Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

Crecimiento vegetativo de la información, 2ª Parte

1.6. La interacción inmediata

Otra consecuencia de la aparición de Internet son los cambios en los hábitos de búsqueda de información. Por el hecho de existir navegadores y buscadores, se adquiere la sensación de que todo lo que se nos ocurra está disponible en la Red y además de forma precisa e inmediata. Desde el punto de vista de las organizaciones, la forma en que se hacen explícitos los productos al mercado, los anuncios y las noticias de interés,  promueve que este medio de comunicación provea respuesta inmediata a cualquier cliente, o simplemente a un curioso. Por consiguiente, hemos entrado en un mundo donde toda información tiene la propiedad de aparecer de manera rápida ante su requerimiento. De manera sistemática esta evolución ha supuesto unas inversiones brutales en servidores, conexiones, desarrollos e infraestructuras en general. También con esta base ha sido posible gozar de una ubicuidad para los trabajadores y de una menor necesidad de desplazamiento para los usuarios de ciertos servicios basados en la información. Ya “todo” está en la Red. La prontitud de los servicios, disponibles de esta forma, exige que los servidores tengan un “uptime” casi del 100%, que sea transparente al usuario ante cualquier fallo y que, por lo tanto, se mantengan duplicaciones y respaldos para cualquier incidencia. Nuestra interacción con la información es un factor determinante en el crecimiento explosivo de los volúmenes que se han alcanzado en la actualidad.

Otro aspecto importante es la naturaleza de la información, que crecientemente ha ido incorporando al mundo digital los formatos que antes eran producciones o ediciones analógicas, como el sonido y la imagen.

Por tanto, ahora nos encontramos con una interacción espectacular, basada en la búsqueda de infamación en toda forma de relaciones y en toda clase de formato, que produce cifras como las siguientes:

  • YouTube informa en su blog de la cantidad de horas de video que se cargan “upload” cada minuto. En 2007 eran seis horas; ahora son sesenta, con un crecimiento aproximado del 25%, cada ocho meses. Al mismo tiempo se producen cuatro mil millones de descargas de video cada día, con un crecimiento del 30% en los últimos ocho meses.
  • Walmart despacha cada hora un millón de transacciones atendiendo a sus clientes.
  • La base de datos de Facebook mantiene en la actualidad más de cuarenta mil millones de fotos.


Ante esta situación, los líderes de la industria han entendido que este gran problema augura una inmensa oportunidad de negocio. Evidentemente, los grandes poseedores de información quieren profundizar más en la capacidad ”informativa” de sus repositorios, grandes represas de datos. Pero tratarlos en estas masas tiene importantes dificultades y conlleva un alto grado de complejidad. Y también, porque, en la gran mayoría de los casos, la extracción de la información de las grandes bases de datos actuales precisa una respuesta inmediata.

El resultado es que crece la demanda de soluciones para la gestión de información en estos volúmenes. Los más especializados, como pueden ser Oracle, IBM, Microsoft, y SAP, llevan invertidos hasta la fecha más quince mil millones de dólares en gestión de datos y “analytics”. Según la misma fuente, la industria en su conjunto lleva invertidos más de cien mil millones de dólares. Estas inversiones crecen a un ritmo del 10% anual, lo cual significa el doble que el ritmo de crecimiento en software empresarial, en términos generales.

1.7. La computación como base de las decisiones

Es relativamente fácil obtener la impresión de que, durante mucho tiempo se ha entendido la capacidad de proceso de la información como una potencia de trabajo y tratamiento inagotable. Desde el punto de vista económico, la cuestión que ha merecido más atención inmediata ha sido el coste del almacenamiento, que además no solía corresponderse físicamente con el volumen estimado de “datos singulares”, puesto que los necesarios respaldos de seguridad y métodos de recuperación ante catástrofes creaban la imperiosa necesidad de mantener en línea ciertas duplicidades, que a su vez, dependían de las características de la inmediatez con que el dato era utilizado en los procesos de negocio. La cuestión era diferente según las condiciones. Un caso era cuando había gran cantidad de trabajos en línea y tiempo real y otro cuando eran procesos de consolidación diferidos.

Sin embargo, también el coste del almacenamiento ha disminuido sustancialmente con el tiempo, por lo que el crecimiento vegetativo de los datos ha encontrado constantemente factores positivos para su desarrollo. Mantener grandes masas de datos son nociones casi instintivas, quizás relacionadas con el impulso de mantener la memoria más amplia posible de nuestra actividad.

En los sistemas de carácter personal (PC´s) este fenómeno se puede contemplar en su mayor crudeza. De hecho, aparte del factor de los cambios en las versiones del software, la mayoría de los cambios físicos del propio ordenador personal tiene su origen en la necesidad de mayor espacio para almacenar datos. A veces, no es ni siquiera satisfactorio mantener datos, más o menos antiguos, en discos externos.

Según crece la masa de datos, es evidente que crece la necesidad de tratarlos, actualizarlos o, en su caso, simplemente eliminarlos por su falta de vigencia. Este proceso de reajuste, requiere y exige un importante tratamiento de comprobación y búsqueda y, casi siempre, de adaptación a nuevos esquemas. Parece inevitable sustraerse a la sensación de que nuestros sistemas de información nos permiten disponer de la información necesaria en cada momento, de manera tan próxima como si los tuviéramos en la punta de los dedos. Sin olvidar, que la adecuada combinatoria de los datos nos permite avanzar en ese camino, más conceptual, de la gestión de los contenidos implícitos menos evidentes.

A todo ello podemos añadir que las técnicas de gestión mantienen un claro axioma sobre la forma de dirigir y sobre todo, la forma de decidir: cualquier decisión debe ser tomada sobre la mayor base posible de información. Emulación de las técnicas de decisión al método de estimación estadística. La dirección está obligada a tomar decisiones bien informadas. El resultado es claro: una gran parte del retorno de nuestra inversión en sistemas de información debe provenir de su contribución a respaldar la toma de decisiones. No se puede pedir mayor confianza a la computación de datos.

1.8. El término “analytics”

Otro importante axioma directivo se refiere a la importancia temporal de la información utilizada para tomar decisiones: “no es tan importante saber lo que ha pasado, como saber lo que está pasando”. Es decir, la información base de las decisiones directivas requiere tener, en lo temporal, un cierto carácter predictivo o, al menos, proyectado y orientado hacia el futuro.

Las herramientas analíticas de tratamiento de datos, en general, han tenido importantes referentes en los métodos estadísticos y, más ampliamente, en métodos matemáticos aplicados a modelos, simulaciones y un gran número de técnicas que podríamos englobar dentro de la disciplina llamada matemática aplicada.

Dada la confianza y disponibilidad de nuestros sistemas de información en cuanto a capacidad de computo, nos encontramos en un punto donde concurren formas cooperativas de utilizar soluciones informáticas, de alta potencia de cálculo, con una larga experiencia en la explotación de datos. Por consiguiente, hay menos barreras insalvables para construir soluciones y ofertas, donde las grandes masas de datos puedan tratarse al vuelo o de forma diferida para evidenciar o alumbrar significados que, o están implícitos en nuestros datos, o pueden tener valoraciones muy distintas en función de su contextualización.

A este conjunto de técnicas se refiere el término “analytics”, herramientas y soluciones que permiten la aplicación de métodos matemáticos complejos en el análisis exhaustivo de los contenidos almacenados en nuestros sistemas de información.

El cómo aplicarlo es una cuestión de la oferta en la industria IT. Para ciertos proveedores, las herramientas software están supeditadas a previos diseños y estudios de consultoría. Para otros, la base instalada de sus soluciones o plataformas es la mejor oportunidad posible y, por tanto, la herramienta es un apéndice de la plataforma que ya tiene y utiliza el cliente. Diferentes formas de adoptar esta tecnología traerán nuevos patrones de competitividad e, incluso, de continuidad en el ciclo de vida de algunos productos, especialmente en plataformas de bases de datos.

1.9. Las redes sociales en el contexto de Big Data

La utilización al vuelo de estás técnicas, es decir, la ejecución de estos análisis sobre sistemas en tiempo real, abre un nuevo mundo para consolidar y entender los sistemas de información.

Como parte de las nuevas incursiones de las redes sociales en el mundo empresarial, se están empezando a favorecer el apoyo que estas redes prestan a sus clientes mediante la utilización de técnicas analíticas. En esencia, las redes sociales cumplen el papel de grandes directorios con información de entes singulares, empresas o personas, cuyos gustos o tendencias son contenidos de gran interés para los que aplican técnicas de mercado masivo, generalmente orientado a productos o servicios de consumo.

La introducción de este tipo de herramientas de análisis a las páginas de las marcas que se adhieren a Twitter, como parte de su sistema de relación con los clientes, o con el mercado en general, permitirá a esas marcas optimizar sus campañas de forma más precisa, y puede resultar para la plataforma de las redes sociales una importante fuente de ingresos ante la mayor inversión de las marcas en la correspondiente plataforma.

Fuentes internas de Twitter han insinuado que se están configurando una serie de nuevas herramientas para páginas de marcas, cuyos detalles todavía están pendientes de develarse al mercado, y que en los próximos meses permitirán a las marcas, que las utilicen, controlar con mayor precisión el alcance y el efecto de cada “tweet” relacionado con ellos.

Esta nueva estrategia de intermediación marketing de las redes sociales tiene un cierto valor añadido según los expertos en relaciones públicas y medios sociales. Los expertos en técnicas de comunicación pública creen que, mientras que estas herramientas parecen similares a los ya disponibles, los datos comportan un valor añadido, dado que vienen de la fuente primaria en lugar de mediante una intermediación de terceros.

Para los expertos, los datos que estarán disponibles y se pueden establecer en los próximos meses sumarán un inmenso valor a la propia plataforma de Twitter que, de esta manera, facilita las interacciones uno a uno entre las marcas y su público, en aspectos tan importantes como el nivel de servicios al cliente o el reconocimiento de marca.

Poder rastrear el alcance exacto y repercusiones de cada “tweet” individual permitirá a las marcas afinar sus estrategias de Twitter de aquí en adelante.

Aunque ya hay numerosas herramientas de análisis disponibles que pueden estudiar los datos de Twitter en profundidad, tener una plataforma de análisis integrada dentro de la propia red es probablemente una oportunidad para mejorar la calidad de futuras campañas, integradas como un todo. Lo que significa que las marcas pueden hacer un gran progreso del análisis de datos, y emplear la experiencia de las personas y organismos expertos que lo entienden e interpreten convenientemente.

Los especialistas sugieren que el futuro desarrollo también forma parte de la estrategia de Twitter para persuadir a más marcas a invertir en la plataforma desde una perspectiva de marketing. El conjunto de la información y las ideas que podrían estar disponibles a través de Twitter es astronómica. Con estos ingresos adicionales, se puede esperar que Twitter continue invirtiendo en proporcionar datos analíticos más profundos en el futuro.

Deja un comentario

Scroll al inicio