La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

Miquel Barceló

El Premio Nobel y los ordenadores cuánticos

El martes 9 de octubre de 2012 se supo que el Premio Nobel de Física de este año había sido otorgado a dos investigadores un tanto peculiares en sus métodos y que, en realidad, lograron en su día la observación y manipulación directa de partículas cuánticas sin destruirlas.

Se trata del marroquí Serge Haroche, emigrado a Francia a los doce años y que ha trabajado en la Escuela Normal Superior de París y del estadounidense David J. Wineland del National Institute of Standards and Technology de la Universidad de Colorado (EEUU). Ambos han sido premiados por los «métodos experimentales que han permitido medir y manipular los sistemas cuánticos individuales» y «han abierto la puerta as una nueva era de experimentación en la física cuántica«.

Haroche trabajó con fotones, a los que «atrapaba» entre espejos superconductores refrigerados hasta temperaturas cercanas al cero absoluto, mientras que Wineland lo hacía con entidades mayores: átomos o iones. Todo ello significa, simplemente, un mayor control sobre las partículas cuánticas, algo del todo imprescindible para obtener resultados prácticos de esa física cuántica que rige en el mundo de las micropartículas.

La secreta esperanza es que todo ello sirva para hacer realidad los llamados ordenadores cuánticos, ordenadores superpotentes, no basados en la electrónica binaria de los bits, sino en las curiosas (y casi incomprensibles) propiedades de la física cuántica y sus poderosos qubits (quantum bits).

Como ya he comentado aquí otras veces, hay que ser conscientes de que la informática basada en la electrónica parece llegar al final en su camino hasta hoy imparable de miniaturización, aumento de potencia y disminución de consumo energético.

En la electrónica las cosas fueron, cuando menos al principio, muy lentas. Tras el primer triodo (Audion tube) patentado por De Forest en el año 1906, lo cierto es que no fue hasta 1942, más de treinta y cinco años después, cuando aparece un primer artículo de John Mauchly recomendando el uso de la tecnología electrónica para el cálculo automático. De ahí surgió el que pasa por ser el primer ordenador electrónico: el ENIAC de la Moore School en Pensilvania.

Quisiera pensar que no habrá que esperar treinta y cinco años a la informática cuántica pero en cualquier caso no está a la vuelta de la esquina.

Pero hay que lograrlo: la electrónica empieza a presentar limitaciones y sólo el paralelismo nos ofrece mayor potencia con los microprocesadores actuales.

En realidad, en 1971, cuando se construyó el primer microprocesador, se trabajaba con una tecnología de unas 10 micras (es decir, 10 milésimas de milímetro). Con esa tecnología se podían «marcar» caminos en la estructura atómica del silicio «trazando» líneas que venían a tener un grosor de unos 20.000 átomos. Hoy, la miniaturización ha logrado alcanzar una tecnología de decenas de nanos (es decir, decenas de millonésimas de milímetro), con líneas muchísimo más «finas» que hace cuarenta años.

Pero ese camino de la miniaturización tiene un límite que suele fijarse en «marcar» con grosores del orden de los cinco o diez átomos y, según parece, se está llegando ya a ello. Un límite que, por el momento, intentamos esquivar con nuevos materiales como el grafeno (que proporcionó el Nobel de Física de 2010 a Andre Geim y Konstantin Novoselov) o los resultados obtenidos hace ahora dos años por investigadores de la Rice University de Houston en Estados Unidos trabajando para Hewlett Packard.

Pero el límite existe. Y es un límite físico infranqueable por métodos electrónicos «normales». Hace falta otra tecnología, tal vez la de los ordenadores cuánticos basados ya no en el bit, sino en el qubit (un bit cuántico que tiene más de dos opciones e incluso son simultáneas).

A todo ello pueden ayudar lo trabajos de Haroche y Wineland y, de nuevo, siguiendo la tendencia de los últimos años, el Premio Nobel de Física se está dando no tanto a los autores de teorías físicas, sino a quienes abren caminos para aplicaciones prácticas. Una nueva tendencia que se inició el año 2000, premiando a Jack Kilby inventor, en 1958, del circuito integrado.

Deja un comentario

Scroll al inicio