La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

40 años “Nueva Informática”

Cada vez que oigo hablar de «nuevas tecnologías» tiendo a sonrojarme.
Me parece ridículo que la informática, con más de sesenta años a cuestas, pueda ser etiquetada todavía como una tecnología «nueva».
El ENIAC, como hemos recordado aquí tantas veces, se presentó en público el 15 de febrero de 1946. Con él nacía la idea del ordenador electrónico con arquitectura von Neumann (programa almacenado en memoria). Ésta última es una característica fundamental de la que el ENIAC carecía, aunque el concepto sí nació entre el grupo de personas asociadas a la construcción del ENIAC: John Prosper Eckert, John Mauchly y John von Neumann (invitado como observador al desarrollo del ENIAC), siendo finalmente este último quien la formuló con gran acierto.
Se podría decir que hoy, al hablar de «nuevas tecnologías», ya no nos referimos a la informática que nació con el ENIAC, esos grandes ordenadores aislados y de grandes dimensiones (los viejos «mainframes» de antaño), y que nos referimos a la moderna informática, esa informática de ordenadores pequeños e interconectados a través de Internet.
Pero ocurre que tanto Internet como el microprocesador (que ha dado lugar a los pequeños ordenadores que hoy usamos) nacieron hace ya cuarenta años.
Con el ritmo de cambio rápido tan característico de la sociedad actual, ¿consideraríamos sensato referirnos a algo con cuarenta años de edad como algo «nuevo»? Sería como decir que la música de los Beatles o de los Rollings es hoy «nueva», o que el «mayo francés» de 1968 o el «otoño caliente» italiano de 1969 es hoy algo «nuevo». Absurdo, ¿no?
El antecesor de Internet nació en ARPA (Advanced Research Projects Agency) que quería diseñar un sistema para interconectar ordenadores en red de manera que ninguno de esos ordenadores o nodos fuera decisivo ni imprescindible para el funcionamiento de la red. La nueva red tenía que incorporar una tecnología innovadora de conmutación de paquetes en contraposición a la conmutación de circuitos habitual en la telefonía. La idea inicial fue de J.C.L. Licklider, pero fue Robert Taylor quien la puso en práctica después de contratar a Larry Roberts del MIT. La primera red ARPANET se estableció entre los ordenadores de la Universidad de California en Los Ángeles y el del Stanford Research Institute el 29 de octubre de 1969. Ya han pasado cuarenta años.
Poco después, el 4 de diciembre, se añadieron a la red la Universidad de Utah y la Universidad de California en Santa Bárbara. Más tarde, en 1980, los cuatro nodos se habían ya convertido en unos doscientos. Después, hacia 1983, la conjunción de diversas redes informáticas con la misma tecnología (ARPANET de ARPA, MILNET de los militares, CSNET de la investigación informática) acabó creando la llamada red de redes o Internet. La gestión de la nueva Internet por parte de la National Science Foundation (Fundación Nacional de la Ciencia de los Estados Unidos de América) hizo que algunos emprendedores pidieran convertirse en proveedores de servicios en Internet (ISP: Internet Service Providers) y el uso de la red Internet, inicialmente un proyecto militar reservado, llegó al gran público.
El microprocesador nació hacia 1969 cuando Ted (Martian) Hoff, que trabajaba en Intel, abordó de manera novedosa un encargo de la japonesa Busicom para tres calculadoras que bolsillo que hoy llamaríamos «escalables». En lugar de hacer un conector de los 12 microchips especializados (teclado, pantalla, cálculos, etc.) como era habitual, Ted Hoff pensó sería más sensato diseñar un único chip con diversas funciones. Los japoneses no aceptaron el «invento», pero Bob Noyce estimuló la continuidad del proyecto e hizo que se incorporara a él Stan Mazur. Más tarde, cuando el proyecto MCS-4 contó con Federico Faggin (especialista en la tecnología CMOS que Intel usaba para sus chips de memoria), se obtuvo el primer microprocesador, el 4004, cuyo proyecto de desarrollo ocupó de abril de 1970 a junio de 1971. Casi cuarenta años han pasado desde entonces.
¿Entienden porqué me provoca sonrojo que alguien hable todavía de «nuevas tecnologías» incluso cuando se refiere a la informática que hoy usamos: microordenadores conectados en red?…

Deja un comentario

Scroll al inicio