Historia de las computadoras (VI)

Los tubos de vacío fueron un avance considerable en cuanto a los interruptores de relé, pero máquinas como ENIAC eran notoriamente poco confiables. El término moderno para un problema que contiene un programa de computadora es un "error". La leyenda popular dice que esta palabra ingresó en el vocabulario de los programadores de computadoras en algún momento de la década de 1950 cuando las polillas, atraídas por las luces brillantes de los tubos de vacío, volaron dentro de máquinas como el ENIAC, causaron un cortocircuito y detuvieron el trabajo. Pero también hubo otros problemas con los tubos de vacío. Ellos consumieron enormes cantidades de energía: el ENIAC usó aproximadamente 2000 veces más electricidad que una computadora portátil moderna. Y tomaron enormes cantidades de espacio. Las necesidades militares impulsaban el desarrollo de máquinas como la ENIAC, pero el tamaño de los tubos de vacío se había convertido en un verdadero problema. ABC había usado 300 tubos de vacío, Colossus tenía 2000 y el ENIAC tenía 18,000. Los diseñadores de ENIAC se jactaron de que su velocidad de cálculo era "al menos 500 veces mayor que la de cualquier otra máquina de computación existente". Pero el desarrollo de computadoras que fueran un orden de magnitud más poderosas aún habría necesitado cientos de miles o incluso millones de tubos de vacío, lo que hubiera sido demasiado costoso, difícil de manejar y poco confiable. Así que una nueva tecnología fue requerida con urgencia.

La solución apareció en 1947 gracias a tres físicos que trabajaban en los Laboratorios Bell Telephone (Laboratorios Bell). John Bardeen (1908–1991), Walter Brattain (1902–1987) y William Shockley (1910–1989) ayudaron a Bell a desarrollar una nueva tecnología para el sistema telefónico público estadounidense, por lo que las señales eléctricas que transmitían las llamadas telefónicas podrían amplificarse. Más fácilmente y llevado más lejos. Shockley, quien lideraba el equipo, creía que podía usar semiconductores (materiales como el germanio y el silicio que permiten que la electricidad fluya a través de ellos solo cuando se los trata de manera especial) para hacer una mejor forma de amplificador que el tubo de vacío. Cuando sus primeros experimentos fallaron, hizo que Bardeen y Brattain trabajaran en la tarea para él. Finalmente, en diciembre de 1947, crearon una nueva forma de amplificador que se conoció como el transistor de contacto de punto. Bell Labs acreditó a Bardeen y Brattain con el transistor y les otorgó una patente. Esto enfureció a Shockley y lo llevó a inventar un diseño aún mejor, el transistor de unión, que ha sido la base de la mayoría de los transistores desde entonces.

Al igual que los tubos de vacío, los transistores podrían usarse como amplificadores o como interruptores. Pero tenían varias ventajas importantes. Eran una fracción del tamaño de los tubos de vacío (generalmente tan grandes como un guisante), no utilizaban ninguna potencia a menos que estuvieran en funcionamiento y eran prácticamente 100 por ciento confiables. El transistor fue uno de los avances más importantes en la historia de la computación y les valió a sus inventores el premio de ciencia más grande del mundo, el Premio Nobel de Física de 1956. Para entonces, sin embargo, los tres hombres ya se habían ido por caminos separados. John Bardeen había comenzado una investigación pionera en superconductividad, que le haría ganar un segundo Premio Nobel en 1972. Walter Brattain se mudó a otra parte de Bell Labs.

William Shockley decidió seguir con el transistor, formando su propia corporación para desarrollarlo aún más. Su decisión tendría consecuencias extraordinarias para la industria informática. Con una pequeña cantidad de capital, Shockley se dispuso a contratar los mejores cerebros que pudo encontrar en las universidades estadounidenses, incluidos el joven ingeniero eléctrico Robert Noyce (1927–1990) y el químico investigador Gordon Moore (1929–). No pasó mucho tiempo antes de que el estilo idiosincrásico y de bullying de Shockley molestara a sus trabajadores. En 1956, ocho de ellos, incluidos Noyce y Moore, dejaron Shockley Transistor para fundar una compañía propia, Fairchild Semiconductor, justo al final de la calle. Así comenzó el crecimiento de "Silicon Valley", la parte de California centrada en Palo Alto, donde muchas de las principales compañías de computadoras y electrónica del mundo se han basado desde entonces.

Fue en el edificio de Fairchild en California donde ocurrió el siguiente avance, aunque, algo curioso, también sucedió exactamente al mismo tiempo en los laboratorios de Dallas Instruments en Texas Instruments. En Dallas, un joven ingeniero de Kansas llamado Jack Kilby (1923-2005) estaba considerando cómo mejorar el transistor. Aunque los transistores fueron un gran avance en los tubos de vacío, un problema clave permaneció. Las máquinas que usaban miles de transistores aún tenían que ser conectadas manualmente para conectar todos estos componentes. Ese proceso fue laborioso, costoso y propenso a errores. ¿No sería mejor, pensó Kilby, si se pudieran hacer muchos transistores en un solo paquete? Esto le llevó a inventar el circuito integrado "monolítico" (IC), una colección de transistores y otros componentes que podrían fabricarse todos a la vez, en un bloque, sobre la superficie de un semiconductor. La invención de Kilby fue otro paso adelante, pero también tenía un inconveniente: los componentes de su circuito integrado aún tenían que conectarse a mano. Mientras Kilby estaba haciendo su avance en Dallas, desconocido para él, Robert Noyce estaba perfeccionando casi exactamente la misma idea en Fairchild en California. Noyce fue uno mejor, sin embargo: encontró una manera de incluir las conexiones entre componentes en un circuito integrado, automatizando así todo el proceso.

Un circuito integrado visto desde el interior.

Los circuitos integrados, tanto como los transistores, ayudaron a reducir las computadoras durante los años sesenta. En 1943, el jefe de IBM, Thomas Watson, bromeó: "Creo que hay un mercado mundial para unas cinco computadoras". Apenas dos décadas después, la compañía y sus competidores habían instalado alrededor de 25,000 grandes sistemas informáticos en los Estados Unidos. A medida que avanzaba la década de 1960, los circuitos integrados se volvieron cada vez más sofisticados y compactos. Pronto, los ingenieros hablaron de integración a gran escala (LSI), en la que cientos de componentes podrían agruparse en un solo chip, y luego integrarse a gran escala (VLSI), cuando el mismo chip podría contener miles de componentes.

La conclusión lógica de toda esta miniaturización fue que, algún día, alguien podría apretar una computadora completa en un chip. En 1968, Robert Noyce y Gordon Moore habían dejado Fairchild para establecer una nueva compañía propia. Con la integración muy en sus mentes, lo llamaron Electrónica Integrada o Intel para abreviar. Originalmente, habían planeado fabricar chips de memoria, pero cuando la compañía recibió un pedido para fabricar chips para una variedad de calculadoras de bolsillo, la historia se dirigió en una dirección diferente. Un par de sus ingenieros, Federico Faggin (1941–) y Marcian Edward (Ted) Hoff (1937–), se dieron cuenta de que, en lugar de fabricar una gama de chips especializados para una gama de calculadoras, podían hacer un chip universal que pudiera programarse. trabajar en todos ellos. Así nació el microprocesador o computadora de un solo chip de propósito general, y eso provocó la siguiente fase de la revolución de la computadora.

(0 votes)