La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

Intel abre las puertas a los datos masivos

Buscando garantizar que más organizaciones y usuarios puedan aprovechar los enormes volúmenes de datos que se generan, reúnen y almacenan cada día, también conocidos como “datos masivos”, Intel Corporation tiene el placer de anunciar que Intel Distribution pasa a estar disponible para Apache Hadoop (Intel Distribution). Esta solución, que incluye el software Intel Manager for Apache Hadoop, ha sido diseñada partiendo del propio hardware para ofrecer un rendimiento puntero en el sector y unas funciones de seguridad mejoradas.

La capacidad de analizar, visualizar y comprender los datos masivos representa un potencial enorme de cara a transformar la sociedad, pues permite realizar nuevos descubrimientos científicos y desarrollar nuevos modelos de negocio y experiencias de uso. Sin embargo, actualmente solo un sector muy pequeño de la sociedad es capaz de llegar a comprender toda esta información, ya que las tecnologías, técnicas y destrezas disponibles hoy en día son demasiado rígidas para los tipos de datos existentes, o demasiado costosas de utilizar.

Hadoop es un entorno de trabajo de código libre, que permite almacenar y procesar enormes volúmenes de datos muy diversos en parques de servidores escalables, y que se ha erigido en la plataforma más utilizada para gestionar datos masivos. En un entorno en el que cada vez recibimos más información proveniente de miles de millones de sensores y los sistemas inteligentes se perfilan en el horizonte, el entorno de trabajo debe ser abierto y escalable en todo momento, para poder así satisfacer los exigentes requisitos de rendimiento, seguridad y facilidad de gestión de las empresas.

“Actualmente, las personas y las máquinas estamos generando datos muy valiosos, que podrían contribuir a nuestras vidas de muchas formas diferentes: desde ofreciendo una capacidad de pronóstico meteorológico de una precisión nunca vista, hasta desarrollando tratamientos personalizados para enfermedades terminales”, ha afirmado Boyd Davis, vicepresidente y director general de la división Datacenter Sofware Division de Intel. “Desde Intel, subrayamos nuestro compromiso de poner las mejoras que hemos realizado, en términos de potencia informática, al servicio de la comunidad del software libre, para así ofrecer al sector unos cimientos más sólidos desde los que ir más allá en materia de innovación y aprovechar la revolucionaria oportunidad que representan los datos masivos.”


Rendimiento y seguridad: Intel marca la diferencia

Intel ofrece una innovadora plataforma abierta diseñada a partir de Apache Hadoop, que permite adaptarse fácilmente a la rápida evolución de la analítica de datos masivos. La Intel Distribution es la primera en ofrecer funciones de cifrado total, ya que es compatible con las instrucciones Intel AES New Instructions (Intel AES-NI) de los procesadores Intel Xeon.  La incorporación del cifrado nativo por hardware al sistema de archivos Hadoop Distributed File System permite a las organizaciones analizar sus datos de forma mucho más segura, sin que ello resulte en una reducción del rendimiento.

Además, las optimizaciones introducidas en los procesadores Intel Xeon en materia de redes y tecnologías de E/S abren las puertas a nuevos niveles de rendimiento analítico. Así, en análisis de un terabyte de datos, que hasta ahora requería más de 4 horas para ser procesado totalmente, puede ahora completarse en apenas 7 minutos1, gracias a la combinación de Intel Distribution y la potencia del hardware de Intel en la de computación de datos. Teniendo en cuenta que, según estimaciones de Intel, el mundo genera 1 petabyte (1.000 terabytes) de datos cada 11 segundos, lo que equivale a 13 años de vídeo de alta definición, la potencia de la tecnología de Intel abre las puertas a un nuevo mundo de posibilidades.

Por ejemplo, en un entorno hospitalario, la información extraída de estos datos podría contribuir a mejorar la atención a los pacientes, ayudando al personal sanitario a hacer diagnósticos más precisos y rápidos, a determinar la eficacia de los medicamentos y evaluar las interacciones entre ellos, a calcular las dosis recomendadas y descubrir posibles efectos secundarios. Todo ello, gracias al análisis de millones de historiales médicos, datos sanitarios públicos y expedientes de reclamación. Además, a nivel mundial existen estrictas directrices, destinadas a proteger los datos sanitarios y de pago, lo que hace que mantener la seguridad y la privacidad mientras se lleva a cabo el análisis de los datos sea imperativo.

La incorporación del software Intel Manager for Apache Hadoop simplifica la implementación, configuración y monitorización de los parques de servidores por parte de los administradores de sistemas que buscan desplegar nuevas aplicaciones. Por otro lado, la utilización del software Intel Active Tuner for Apache Hadoop permite configurar automáticamente el sistema para gozar de un rendimiento óptimo, eliminando así conjeturas y pruebas innecesarias para dar con el mejor rendimiento. Hasta ahora, se requería una comprensión especializada del uso que cada aplicación hacía de los recursos del sistema, además de la configuración de Hadoop y los bancos de pruebas de rendimiento.

Deja un comentario

Scroll al inicio