Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

Aplicación inteligente de la seguridad en el entorno Big Data

En la discusión concerniente a la seguridad en Big Data se encuentran dos escuelas de pensamiento divergentes: los que niegan categóricamente que Big Data deba ser tratado de forma distinta a cualquier infraestructura de red existente y los que son contrarios a la sobreingeniería dado el valor real (o percibido) de los datos involucrados.


Big Data – definido por Gartner como los activos informativos de gran volumen, velocidad y/o variedad que requieren nuevas formas de procesamiento para mejorar la toma de decisiones,  la perspectiva de los descubrimientos y la optimización del proceso – incrementa los retos de las rutinas de seguridad en las actuales redes de datos.


Hay cuatro áreas, definidas por IDC, que plantean desafíos y oportunidades:


  • Volumen: La cantidad de datos se mueve desde los terabytes a los zettabytes (1 zettabyte es 1021 bytes o 1.000.000.000  terabytes)  y más allá
  • Velocidad: La velocidad del dato (dentro y fuera), desde datos estáticos a datos continuos en streaming
  • Variedad: La variedad de tipos y fuentes de datos – estructurado, des/semi estructurado o  en bruto
  • Valor: La importancia del dato en el contexto


Si bien Big Data presenta nuevos retos de seguridad, el punto de partida para resolverlos es el mismo que para crear cualquier estrategia de seguridad de datos: determinar los niveles de confidencialidad del dato, identificar y clasificar su sensibilidad, decidir dónde se deben almacenar los datos críticos y establecer modelos de acceso seguro tanto para el dato como para el análisis.


El ciclo de vida del Big Data


Hay expertos que defienden que Big Data necesita definir unos requerimientos específicos de seguridad sobre el ciclo de vida del dato.  Normalmente se empieza asegurando la recogida de datos y luego el acceso a los mismos.  Al igual que la mayoría de las políticas de seguridad, una evaluación adecuada de las amenazas a los Big Data de la organización nunca acaba sino que gira en torno a la integridad del dato en reposo y durante el análisis.


El rendimiento es una consideración clave cuando se trata de asegurar los datos recogidos y las redes. Los firewalls y otros dispositivos de seguridad de red, como los de cifrado, deben ofrecer un rendimiento lo suficientemente alto para poder gestionar el aumento de la capacidad, las conexiones y el tráfico de aplicación. En un entorno Big Data, la creación de políticas y mejoras es más crítica de lo habitual debido a los grandes volúmenes de datos y el elevado número de personas que necesitan acceder a ellos.


La gran cantidad de datos también aumenta proporcionalmente la necesidad de prevenir la fuga de los mismos. Las tecnologías de prevención de pérdida de datos deberían ser empleadas para asegurar que la información no se filtra a personas no autorizadas. La detección de intrusos y sistemas internos de integridad de datos deben ser utilizados para identificar los ataques dirigidos avanzados que han pasado por alto los mecanismos tradicionales de protección, como por ejemplo, la detección de anomalías en la recogida y capas de agregación. La inspección de paquetes de datos, flujo de datos, sesiones y todas las transacciones también deben ser examinadas.


Big Data implica que la información reside en una gran variedad de fuentes, por lo que las organizaciones tienen que tener capacidad de proteger los datos dondequiera que estos se encuentren. En este sentido, los dispositivos de seguridad virtualizados, que ofrecen una gama completa de funcionalidades de seguridad, deben ubicarse en lugares clave a lo largo de las arquitecturas en la nube pública, privada e híbrida, las cuales se encuentran con frecuencia en entornos con gran volumen de datos. Los recursos deben estar conectados de una manera segura y los datos transportados desde las fuentes para el almacenamiento de Big Data también deben ser asegurados, por lo general a través de un túnel IPSec.


Las herramientas que aprovechan el Big Data


Big Data presenta desafíos pero también ofrece oportunidades. Con las herramientas adecuadas es posible analizar grandes cantidades de información, de tal manera que la organización pueda entender y ejecutar sus actividades normales. Si ésta pudiera entonces controlar a los usuarios que se apartan de la norma, se podría prever de forma proactiva antes de que se produjeran brechas de seguridad que afectaran a los datos o al sistema.


Este esfuerzo debe estar soportado por un equipo de profesionales de TI competente y por un despliegue eficiente de las herramientas de seguridad apropiadas. Estas incluyen appliances para el registro, el análisis y el reporting que permitan agregar de forma segura datos de registro desde dispositivos de seguridad y otros compatibles con syslog. Estos appliances también analizarán, informarán y archivarán eventos de seguridad, tráfico de red, contenido Web y datos de mensajes. De esta forma se podría medir fácilmente el cumplimiento de las políticas establecidas y generar informes personalizados.


La dificultad en la captura, manejo y procesamiento de información de forma rápida en entornos Big Data continuará realizándose en el último momento en muchas empresas. A medida que el almacenamiento portátil y el ancho de banda sigue creciendo, la movilidad de estos conjuntos de datos también se incrementará, lo que producirá brechas de seguridad y  la revelación de datos sensibles. Las amenazas probablemente procederán de intrusos que manipulan los grandes volúmenes de datos, de tal forma que los análisis del negocio y las herramientas de BI podrían generar falsos resultados y dar lugar a una toma de decisiones de gestión de las que podrían beneficiarse los intrusos.


Incluso los pequeños cambios en Big Data pueden provocar un gran impacto en los resultados. Así, las organizaciones no deberían ignorar la necesidad de asegurar los activos de Big Data – por razones de seguridad, de business intelligence o de cualquier otra. Deben satisfacer las principales necesidades de datos en términos de autenticación, autorización, control de accesos basado en roles, la auditoría, el seguimiento y la copia de seguridad y recuperación. En el futuro, la analítica del Big Data, que implica la evaluación comparativa y la supervisión de comportamiento, será cada vez más crucial para hacer frente a los retos de seguridad de la información de próxima generación.


El gran problema de la SIEM


Para mejorar su seguridad, algunas organizaciones disponen de soluciones de información de seguridad y gestión de eventos (SIEM) que les permiten recoger y analizar las alertas de seguridad y los sistemas de registro. Esto puede generar, de forma inadvertida, un problema en el Big Data – si se guardan todos los registros y alertas.


Para abordar esta problemática, las organizaciones deben comenzar a pensar menos en la seguridad como un sistema puramente defensivo y pasar a considerarlo una capa de abstracción por encima de todos los datos de la empresa. Es necesario preguntarse cuáles son los datos relevantes en un contexto de seguridad. Lógicamente los registros de nivel de red (como firewall, IPS, etc.) y los de acceso de usuario son imprescindibles. Sin embargo, los registros del endpoint o los relativos al proxy, e incluso los datos de inspección del paquete, no deberían ser relevantes.

Deja un comentario

Scroll al inicio