La historia del hardware de computación cubre los desarrollos desde los primeros dispositivos simples para ayudar al cálculo hasta las computadoras modernas . Antes del siglo XX, la mayoría de los cálculos los realizaban humanos. A principios herramientas mecánicas para ayudar a los seres humanos con los cálculos digitales, como el ábaco , fueron referidos como el cálculo de las máquinas o las calculadoras (y otros nombres comerciales). El operador de la máquina se llamaba computadora .
Las primeras ayudas al cálculo fueron dispositivos puramente mecánicos que requerían que el operador estableciera los valores iniciales de una operación aritmética elemental y luego manipulara el dispositivo para obtener el resultado. Más tarde, las computadoras representaron números en forma continua (por ejemplo, distancia a lo largo de una escala, rotación de un eje o voltaje ). Los números también se pueden representar en forma de dígitos, manipulados automáticamente por un mecanismo. Aunque este enfoque generalmente requería mecanismos más complejos, aumentó en gran medida la precisión de los resultados. El desarrollo de la tecnología de transistores y luego el chip de circuito integrado condujo a una serie de avances, comenzando con computadoras de transistores y luego computadoras de circuito integrado, lo que provocó que las computadoras digitales reemplazaran en gran medida a las analógicas . La integración a gran escala (LSI) de semiconductores de óxido de metal (MOS) habilitó la memoria de semiconductores y el microprocesador , lo que condujo a otro avance clave, la computadora personal miniaturizada (PC), en la década de 1970. El costo de las computadoras se volvió gradualmente tan bajo que las computadoras personales en la década de 1990 y luego las computadoras móviles ( teléfonos inteligentes y tabletas ) en la década de 2000, se volvieron omnipresentes.
Dispositivos tempranos
Antiguo y medieval
Los dispositivos se han utilizado para ayudar a la computación durante miles de años, principalmente utilizando correspondencia uno a uno con los dedos . El primer dispositivo de conteo fue probablemente una forma de palo de conteo . El hueso de Lebombo de las montañas entre Swazilandia y Sudáfrica puede ser el artefacto matemático más antiguo conocido. [2] Data de 35.000 a. C. y consta de 29 muescas distintas que se cortaron deliberadamente en el peroné de un babuino . [3] [4] Las ayudas posteriores para el mantenimiento de registros en todo el Creciente Fértil incluyeron cálculos (esferas de arcilla, conos, etc.) que representaban recuentos de artículos, probablemente ganado o granos, sellados en recipientes huecos de arcilla sin hornear. [b] [6] [c] El uso de varillas contadoras es un ejemplo. El ábaco se utilizó temprano para tareas aritméticas. Lo que ahora llamamos el ábaco romano se usó en Babilonia ya en c. 2700-2300 AC. Desde entonces, se han inventado muchas otras formas de tablas o tableros de cálculo. En una casa de contabilidad europea medieval , se colocaba un mantel a cuadros sobre una mesa y se movían marcadores de acuerdo con ciertas reglas, como ayuda para calcular las sumas de dinero.
Varias computadoras analógicas se construyeron en tiempos antiguos y medievales para realizar cálculos astronómicos. Estos incluyeron el astrolabio y el mecanismo de Antikythera del mundo helenístico (c. 150-100 a. C.). [8] En el Egipto romano , Héroe de Alejandría (c. 10–70 d. C.) fabricó dispositivos mecánicos que incluían autómatas y un carro programable. [9] Otros dispositivos mecánicos tempranos utilizados para realizar uno u otro tipo de cálculos incluyen el planisferio y otros dispositivos de computación mecánica inventados por Abu Rayhan al-Biruni (c. 1000 dC); el ecuador y el astrolabio universal independiente de la latitud de Abū Ishāq Ibrāhīm al-Zarqālī (c. 1015 d. C.); las computadoras astronómicas analógicas de otros astrónomos e ingenieros musulmanes medievales ; y la torre del reloj astronómico de Su Song (1094) durante la dinastía Song . El reloj del castillo , un reloj astronómico mecánico hidroeléctrico inventado por Ismail al-Jazari en 1206, fue la primera computadora analógica programable . [10] [11] [12] Ramon Llull inventó el Círculo Luliano: una máquina teórica para calcular respuestas a cuestiones filosóficas (en este caso, relacionadas con el cristianismo) mediante la combinatoria lógica. Esta idea fue retomada por Leibniz siglos después y, por tanto, es uno de los elementos fundacionales de la informática y las ciencias de la información .
Herramientas de cálculo renacentistas
El matemático y físico escocés John Napier descubrió que la multiplicación y división de números se podía realizar mediante la suma y resta, respectivamente, de los logaritmos de esos números. Mientras producía las primeras tablas logarítmicas, Napier necesitaba realizar muchas multiplicaciones tediosas. Fue en este punto que diseñó sus ' huesos de Napier ', un dispositivo similar a un ábaco que simplificaba enormemente los cálculos que implicaban multiplicación y división. [D]
Dado que los números reales se pueden representar como distancias o intervalos en una línea, la regla de cálculo se inventó en la década de 1620, poco después del trabajo de Napier, para permitir que las operaciones de multiplicación y división se llevaran a cabo significativamente más rápido de lo que era posible anteriormente. [13] Edmund Gunter construyó un dispositivo de cálculo con una sola escala logarítmica en la Universidad de Oxford . Su dispositivo simplificó enormemente los cálculos aritméticos, incluidas la multiplicación y la división. William Oughtred mejoró enormemente esto en 1630 con su regla de cálculo circular. Siguió esto con la regla de cálculo moderna en 1632, esencialmente una combinación de dos reglas de Gunter , unidas con las manos. Las reglas de cálculo fueron utilizadas por generaciones de ingenieros y otros trabajadores profesionales involucrados matemáticamente, hasta la invención de la calculadora de bolsillo . [14]
Calculadoras mecanicas
Wilhelm Schickard , un erudito alemán , diseñó una máquina calculadora en 1623 que combinó una forma mecanizada de varillas de Napier con la primera máquina sumadora mecánica del mundo incorporada en la base. Debido a que hizo uso de un engranaje de un solo diente, hubo circunstancias en las que su mecanismo de transporte se atascaría. [15] Un incendio destruyó al menos una de las máquinas en 1624 y se cree que Schickard estaba demasiado desanimado para construir otra.
En 1642, siendo todavía un adolescente, Blaise Pascal comenzó un trabajo pionero en máquinas de calcular y después de tres años de esfuerzo y 50 prototipos [16] inventó una calculadora mecánica . [17] [18] Construyó veinte de estas máquinas (llamadas calculadora de Pascal o Pascaline) en los siguientes diez años. [19] Han sobrevivido nueve Pascalines, la mayoría de los cuales se exhiben en museos europeos. [20] Existe un debate continuo sobre si Schickard o Pascal deben ser considerados como el "inventor de la calculadora mecánica" y la gama de cuestiones a considerar se discute en otra parte. [21]
Gottfried Wilhelm von Leibniz inventó el calculador escalonado y su famoso mecanismo de tambor escalonado alrededor de 1672. Intentó crear una máquina que pudiera usarse no solo para sumar y restar, sino que utilizaría un carro móvil para permitir multiplicaciones y divisiones largas. Leibniz dijo una vez: "No es digno de hombres excelentes perder horas como esclavos en el trabajo de cálculo que podría ser relegado con seguridad a cualquier otra persona si se usaran máquinas". [22] Sin embargo, Leibniz no incorporó un mecanismo de transporte completamente exitoso. Leibniz también describió el sistema numérico binario , [23] un ingrediente central de todas las computadoras modernas. Sin embargo, hasta la década de 1940, muchos diseños posteriores (incluidas las máquinas de Charles Babbage de 1822 e incluso ENIAC de 1945) se basaban en el sistema decimal. [mi]
Alrededor de 1820, Charles Xavier Thomas de Colmar creó lo que durante el resto del siglo se convertiría en la primera calculadora mecánica exitosa producida en serie, el Aritmómetro Thomas . Podría usarse para sumar y restar, y con un carro móvil el operador también podría multiplicar y dividir mediante un proceso de multiplicación larga y división larga. [24] Utilizaba un tambor escalonado similar en concepción al inventado por Leibniz. Las calculadoras mecánicas se mantuvieron en uso hasta la década de 1970.
Procesamiento de datos con tarjetas perforadas
En 1804, el tejedor francés Joseph Marie Jacquard desarrolló un telar en el que el patrón que se tejía estaba controlado por una cinta de papel construida con tarjetas perforadas . La cinta de papel se puede cambiar sin cambiar el diseño mecánico del telar. Este fue un logro histórico en la capacidad de programación. Su máquina fue una mejora con respecto a telares similares. Las tarjetas perforadas iban precedidas de bandas perforadas, como en la máquina propuesta por Basile Bouchon . Estas bandas inspirarían la grabación de información para pianos automáticos y, más recientemente , máquinas herramienta de control numérico .
A finales de la década de 1880, el estadounidense Herman Hollerith inventó el almacenamiento de datos en tarjetas perforadas que luego podrían ser leídas por una máquina. [25] Para procesar estas tarjetas perforadas, inventó el tabulador y la máquina perforadora . Sus máquinas usaban relés y contadores electromecánicos . [26] El método de Hollerith se utilizó en el censo de Estados Unidos de 1890 . Ese censo se procesó dos años más rápido que el anterior. [27] La compañía de Hollerith finalmente se convirtió en el núcleo de IBM .
Para 1920, las máquinas de tabulación electromecánicas podían sumar, restar e imprimir los totales acumulados. [28] Las funciones de la máquina se dirigieron insertando docenas de puentes de cables en paneles de control extraíbles . Cuando Estados Unidos instituyó el Seguro Social en 1935, los sistemas de tarjetas perforadas de IBM se utilizaron para procesar los registros de 26 millones de trabajadores. [29] Las tarjetas perforadas se volvieron omnipresentes en la industria y el gobierno para la contabilidad y la administración.
Los artículos de Leslie Comrie sobre métodos de tarjetas perforadas y la publicación de WJ Eckert de Métodos de tarjetas perforadas en computación científica en 1940, describieron técnicas de tarjetas perforadas suficientemente avanzadas para resolver algunas ecuaciones diferenciales [30] o realizar multiplicaciones y divisiones usando representaciones de punto flotante , todo en tarjetas perforadas y máquinas de registro de unidades . Estas máquinas se utilizaron durante la Segunda Guerra Mundial para el procesamiento estadístico criptográfico, así como para una gran cantidad de usos administrativos. La Oficina de Computación Astronómica de la Universidad de Columbia realizó cálculos astronómicos que representan el estado del arte en computación . [31] [32]
Calculadoras
En el siglo XX, se rediseñaron las primeras calculadoras mecánicas, cajas registradoras, máquinas contables, etc. para utilizar motores eléctricos, con la posición del engranaje como representación del estado de una variable. La palabra "computadora" era un título de trabajo asignado principalmente a mujeres que usaban estas calculadoras para realizar cálculos matemáticos. [33] En la década de 1920, el interés del científico británico Lewis Fry Richardson por la predicción meteorológica lo llevó a proponer computadoras humanas y análisis numérico para modelar el clima; hasta el día de hoy, se necesitan las computadoras más poderosas de la Tierra para modelar adecuadamente su clima utilizando las ecuaciones de Navier-Stokes . [34]
Empresas como Friden , Marchant Calculator y Monroe fabricaron calculadoras mecánicas de escritorio de la década de 1930 que podían sumar, restar, multiplicar y dividir. [35] En 1948, el inventor austríaco Curt Herzstark introdujo la Curta . Era una calculadora mecánica pequeña, a manivela y, como tal, un descendiente de Gottfried Leibniz 's escaleras Calculador y Thomas ' s Arithmometer .
La primera calculadora de escritorio totalmente electrónica del mundo fue la británica Bell Punch ANITA , lanzada en 1961. [36] [37] Utilizaba tubos de vacío , tubos de cátodo frío y Dekatrons en sus circuitos, con 12 tubos "Nixie" de cátodo frío para su pantalla. La ANITA se vendió bien ya que era la única calculadora de escritorio electrónica disponible, y era silenciosa y rápida. La tecnología del tubo fue reemplazada en junio de 1963 por el Friden EC-130 fabricado en Estados Unidos , que tenía un diseño de transistores, una pila de cuatro números de 13 dígitos mostrados en un CRT de 5 pulgadas (13 cm) e introdujo la notación polaca inversa. (RPN).
Primer dispositivo informático de uso general
Charles Babbage , un ingeniero mecánico y erudito inglés , originó el concepto de una computadora programable. Considerado el " padre de la computadora ", [38] conceptualizó e inventó la primera computadora mecánica a principios del siglo XIX. Después de trabajar en su revolucionario motor diferencial , diseñado para ayudar en los cálculos de navegación, en 1833 se dio cuenta de que era posible un diseño mucho más general, un motor analítico . La entrada de programas y datos debía ser proporcionada a la máquina a través de tarjetas perforadas , un método que se utilizaba en ese momento para dirigir telares mecánicos como el telar Jacquard . Para la salida, la máquina tendría una impresora, un trazador de curvas y una campana. La máquina también podría perforar números en tarjetas para leerlos más tarde. Empleaba aritmética ordinaria de punto fijo en base 10 .
El motor incorporó una unidad lógica aritmética , control de flujo en forma de bifurcaciones y bucles condicionales , y memoria integrada , lo que lo convirtió en el primer diseño de una computadora de propósito general que podría describirse en términos modernos como Turing-completo . [39] [40]
Debía haber una tienda, o memoria, capaz de almacenar 1.000 números de 40 dígitos decimales cada uno (aproximadamente 16,7 kB ). Una unidad aritmética , llamada "molino", podría realizar las cuatro operaciones aritméticas , además de comparaciones y, opcionalmente, raíces cuadradas . Inicialmente se concibió como un motor diferencial curvado sobre sí mismo, en un diseño generalmente circular, [41] con la larga tienda saliendo a un lado. (Los dibujos posteriores muestran un diseño de cuadrícula regularizado). [42] Al igual que la unidad central de procesamiento (CPU) en una computadora moderna, el molino se basaría en sus propios procedimientos internos, aproximadamente equivalentes al microcódigo en las CPU modernas, para ser almacenado en el formulario de clavijas insertadas en tambores giratorios llamados "barriles", para llevar a cabo algunas de las instrucciones más complejas que el programa del usuario podría especificar. [43]
El lenguaje de programación utilizado por los usuarios era similar a los lenguajes ensambladores de hoy en día . Los bucles y la ramificación condicional eran posibles, por lo que el lenguaje tal como se concibió habría sido Turing-completo como lo definió más tarde Alan Turing . Se utilizaron tres tipos diferentes de tarjetas perforadas: una para operaciones aritméticas, una para constantes numéricas y otra para operaciones de carga y almacenamiento, transfiriendo números de la tienda a la unidad aritmética o viceversa. Había tres lectores separados para los tres tipos de tarjetas.
La máquina se adelantó un siglo a su tiempo. Sin embargo, el proyecto se vio retrasado por varios problemas, incluidas disputas con el maquinista jefe que construía piezas para él. Todas las piezas de su máquina tenían que hacerse a mano; este era un problema importante para una máquina con miles de piezas. Finalmente, el proyecto se disolvió con la decisión del gobierno británico de dejar de financiar. El fracaso de Babbage para completar el motor analítico puede atribuirse principalmente a dificultades no solo políticas y financieras, sino también a su deseo de desarrollar una computadora cada vez más sofisticada y avanzar más rápido de lo que nadie podría seguir. Ada Lovelace tradujo y añadió notas a la " Bosquejo de la máquina analítica " de Luigi Federico Menabrea . Esta parece ser la primera descripción publicada de programación, por lo que Ada Lovelace es ampliamente considerada como la primera programadora de computadoras. [44]
Siguiendo a Babbage, aunque desconocía su trabajo anterior, estaba Percy Ludgate , un empleado de un comerciante de maíz en Dublín, Irlanda. Diseñó de forma independiente una computadora mecánica programable, que describió en un trabajo que se publicó en 1909. [45] [46]
Computadoras analógicas
En la primera mitad del siglo XX, muchos consideraban que las computadoras analógicas eran el futuro de la informática. Estos dispositivos utilizaron los aspectos continuamente cambiantes de los fenómenos físicos, como las cantidades eléctricas , mecánicas o hidráulicas , para modelar el problema que se está resolviendo, en contraste con las computadoras digitales que representan cantidades variables simbólicamente, a medida que cambian sus valores numéricos. Como una computadora analógica no usa valores discretos, sino valores continuos, los procesos no se pueden repetir de manera confiable con equivalencia exacta, como ocurre con las máquinas de Turing . [47]
El primer ordenador analógico moderna era una máquina de la marea-predicción , inventado por Sir William Thomson , Lord Kelvin más tarde, en 1872. Se utilizó un sistema de poleas y cables para calcular automáticamente los niveles de marea predichos para un período determinado en un lugar determinado y era de de gran utilidad para la navegación en aguas poco profundas. Su dispositivo fue la base para futuros desarrollos en computación analógica. [48]
El analizador diferencial , una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales mediante la integración utilizando mecanismos de rueda y disco, fue conceptualizado en 1876 por James Thomson , el hermano del más famoso Lord Kelvin. Exploró la posible construcción de tales calculadoras, pero se vio obstaculizado por el par de salida limitado de los integradores de bola y disco . [49] En un analizador diferencial, la salida de un integrador impulsó la entrada del siguiente integrador, o una salida gráfica.
Un avance importante en la computación analógica fue el desarrollo de los primeros sistemas de control de fuego para el tiroteo de buques de largo alcance . Cuando los alcances de la artillería aumentaron drásticamente a finales del siglo XIX, ya no era una simple cuestión de calcular el punto de mira adecuado, dados los tiempos de vuelo de los proyectiles. Varios observadores a bordo del barco transmitirían las mediciones de distancia y las observaciones a una estación central de trazado. Allí, los equipos de dirección del fuego informaron la ubicación, la velocidad y la dirección del barco y su objetivo, así como varios ajustes para el efecto Coriolis , los efectos del clima en el aire y otros ajustes; la computadora generaría una solución de disparo, que se enviaría a las torretas para su colocación. En 1912, el ingeniero británico Arthur polen desarrolló la primera mecánica accionada eléctricamente ordenador analógico (llamado en el momento del reloj Argo). [ cita requerida ] Fue utilizado por la Armada Imperial Rusa en la Primera Guerra Mundial . [ cita requerida ] El sistema alternativo de control de incendios Dreyer Table se instaló en los buques capitales británicos a mediados de 1916.
También se utilizaron dispositivos mecánicos para ayudar a la precisión de los bombardeos aéreos . Drift Sight fue la primera ayuda de este tipo, desarrollada por Harry Wimperis en 1916 para el Royal Naval Air Service ; midió la velocidad del viento desde el aire y usó esa medida para calcular los efectos del viento en la trayectoria de las bombas. El sistema se mejoró más tarde con la mira de la bomba de ajuste del curso , y alcanzó un clímax con miras de bombas de la Segunda Guerra Mundial , la mira de bombas Mark XIV ( RAF Bomber Command ) y la Norden [50] ( Fuerzas Aéreas del Ejército de los Estados Unidos ).
El arte de la computación analógica mecánica alcanzó su cenit con el analizador diferencial , [51] construido por HL Hazen y Vannevar Bush en el MIT a partir de 1927, que se basó en los integradores mecánicos de James Thomson y los amplificadores de par inventados por HW Nieman. Una docena de estos dispositivos se construyeron antes de que se hiciera evidente su obsolescencia; el más poderoso se construyó en la Universidad de Pensilvania 's Escuela Moore de Ingeniería Eléctrica , en el que el ENIAC fue construida.
Helmut Hölzer construyó una computadora analógica completamente electrónica en 1942 en el Centro de Investigación del Ejército de Peenemünde . [52] [53] [54]
En la década de 1950, el éxito de las computadoras electrónicas digitales había marcado el fin de la mayoría de las máquinas de computación analógica, pero las computadoras analógicas híbridas , controladas por electrónica digital, siguieron siendo de uso sustancial durante las décadas de 1950 y 1960, y más tarde en algunas aplicaciones especializadas.
Advenimiento de la computadora digital
El principio de la computadora moderna fue descrito por primera vez por el científico informático Alan Turing , quien expuso la idea en su artículo seminal de 1936, [55] On Computable Numbers . Turing reformuló los resultados de 1931 de Kurt Gödel sobre los límites de la prueba y el cálculo, reemplazando el lenguaje formal universal basado en la aritmética de Gödel con los dispositivos hipotéticos formales y simples que se conocieron como máquinas de Turing . Demostró que alguna máquina de este tipo sería capaz de realizar cualquier cálculo matemático concebible si fuera representable como un algoritmo . Continuó demostrando que no había solución al problema de la Entscheidung mostrando primero que el problema de la detención de las máquinas de Turing es indecidible : en general, no es posible decidir algorítmicamente si una máquina de Turing determinada se detendrá alguna vez.
También introdujo la noción de una "máquina universal" (ahora conocida como máquina universal de Turing ), con la idea de que dicha máquina podría realizar las tareas de cualquier otra máquina, o en otras palabras, es demostrablemente capaz de calcular cualquier cosa que es computable ejecutando un programa almacenado en cinta, lo que permite que la máquina sea programable. Von Neumann reconoció que el concepto central de la computadora moderna se debe a este artículo. [56] Las máquinas de Turing son hasta el día de hoy un objeto central de estudio en la teoría de la computación . Excepto por las limitaciones impuestas por sus almacenes de memoria finitos, se dice que las computadoras modernas son Turing-complete , es decir, tienen una capacidad de ejecución de algoritmos equivalente a una máquina universal de Turing .
Ordenadores electromecánicos
La era de la informática moderna comenzó con una oleada de desarrollo antes y durante la Segunda Guerra Mundial. La mayoría de las computadoras digitales construidas en este período eran electromecánicas: los interruptores eléctricos accionaban relés mecánicos para realizar el cálculo. Estos dispositivos tenían una velocidad de funcionamiento baja y finalmente fueron reemplazados por computadoras totalmente eléctricas mucho más rápidas, que originalmente usaban tubos de vacío .
El Z2 fue uno de los primeros ejemplos de una computadora de relé electromecánico , y fue creado por el ingeniero alemán Konrad Zuse en 1940. Fue una mejora en su anterior Z1 ; aunque usó la misma memoria mecánica , reemplazó la aritmética y la lógica de control con circuitos de relés eléctricos. [57]
En el mismo año, los criptólogos británicos construyeron dispositivos electromecánicos llamados bombas para ayudar a descifrar los mensajes secretos encriptados por la máquina Enigma alemana durante la Segunda Guerra Mundial . El diseño inicial de la bomba fue creado en 1939 en la Escuela de Codificación y Cifrado del Gobierno del Reino Unido (GC&CS) en Bletchley Park por Alan Turing , [58] con un refinamiento importante ideado en 1940 por Gordon Welchman . [59] El diseño de ingeniería y la construcción fueron obra de Harold Keen de la Compañía Británica de Máquinas de Tabulación . Fue un desarrollo sustancial de un dispositivo que había sido diseñado en 1938 por el criptólogo polaco Marian Rejewski , y conocido como la " bomba criptológica " (en polaco : "bomba kryptologiczna" ).
En 1941, Zuse siguió a su máquina anterior con la Z3 , [57] la primera computadora digital electromecánica programable y totalmente automática en funcionamiento del mundo. [60] El Z3 fue construido con 2000 relés , implementando una longitud de palabra de 22 bits que operaba a una frecuencia de reloj de aproximadamente 5-10 Hz . [61] El código del programa y los datos se almacenaron en una película perforada . Era bastante similar a las máquinas modernas en algunos aspectos, siendo pionero en numerosos avances, como los números de coma flotante . El reemplazo del sistema decimal difícil de implementar (usado en el diseño anterior de Charles Babbage ) por el sistema binario más simple significó que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en ese momento. [62] Raúl Rojas demostró que la Z3 era una máquina completa de Turing en 1998 . [63] En dos solicitudes de patente de 1936 , Zuse también anticipó que las instrucciones de la máquina podrían almacenarse en el mismo almacenamiento utilizado para los datos, la idea clave de lo que se conoció como la arquitectura von Neumann , implementada por primera vez en 1948 en Estados Unidos en el IBM SSEC electromecánico. y en Gran Bretaña en el Manchester Baby totalmente electrónico . [64]
Zuse sufrió reveses durante la Segunda Guerra Mundial cuando algunas de sus máquinas fueron destruidas en el curso de las campañas de bombardeo aliadas . Aparentemente, su trabajo permaneció en gran parte desconocido para los ingenieros en el Reino Unido y los EE. UU. Hasta mucho más tarde, aunque al menos IBM lo sabía, ya que financió su empresa emergente de posguerra en 1946 a cambio de una opción sobre las patentes de Zuse.
En 1944, el Harvard Mark I se construyó en los laboratorios Endicott de IBM. [65] Era una computadora electromecánica de propósito general similar a la Z3, pero no estaba completamente Turing-completa.
Computación digital
El término digital fue sugerido por primera vez por George Robert Stibitz y se refiere a donde una señal, como un voltaje, no se usa para representar directamente un valor (como lo sería en una computadora analógica ), sino para codificarlo. En noviembre de 1937, George Stibitz, que entonces trabajaba en Bell Labs (1930-1941), [66] completó una calculadora basada en relés que más tarde denominó " Modelo K " (por " mesa k itchen", en la que la había ensamblado). , que se convirtió en el primer sumador binario . [67] Por lo general, las señales tienen dos estados: bajo (generalmente representa 0) y alto (generalmente representa 1), pero a veces se usa lógica de tres valores , especialmente en memoria de alta densidad. Las computadoras modernas generalmente usan lógica binaria , pero muchas de las primeras máquinas eran computadoras decimales . En estas máquinas, la unidad básica de datos era el dígito decimal, codificado en uno de varios esquemas, incluido el decimal codificado en binario o BCD, el código bi-quinario , el exceso de 3 y el código dos de cinco .
La base matemática de la computación digital es el álgebra booleana , desarrollada por el matemático británico George Boole en su trabajo The Laws of Thought , publicado en 1854. Su álgebra booleana fue refinada en la década de 1860 por William Jevons y Charles Sanders Peirce , y fue presentada por primera vez sistemáticamente por Ernst Schröder y AN Whitehead . [68] En 1879 Gottlob Frege desarrolla el enfoque formal de la lógica y propone el primer lenguaje lógico para ecuaciones lógicas. [69]
En la década de 1930 y trabajando de forma independiente, el ingeniero electrónico estadounidense Claude Shannon y el lógico soviético Victor Shestakov mostraron una correspondencia uno a uno entre los conceptos de lógica booleana y ciertos circuitos eléctricos, ahora llamados puertas lógicas , que ahora son omnipresentes en las computadoras digitales. [70] Demostraron [71] que los relés e interruptores electrónicos pueden realizar las expresiones del álgebra de Boole . Esta tesis fundamentó esencialmente el diseño práctico de circuitos digitales . Además, el artículo de Shannon proporciona un diagrama de circuito correcto para un sumador binario digital de 4 bits. [70] : págs . 494–495
Procesamiento electrónico de datos
Los elementos de circuito puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos, al mismo tiempo que el cálculo digital reemplazó al analógico. Máquinas como la Z3 , la computadora Atanasoff-Berry , las computadoras Colossus y la ENIAC se construyeron a mano, utilizando circuitos que contenían relés o válvulas (tubos de vacío), y a menudo usaban tarjetas perforadas o cinta de papel perforada para la entrada y como principal medio de almacenamiento (no volátil). [72]
El ingeniero Tommy Flowers se incorporó a la rama de telecomunicaciones de la Oficina General de Correos en 1926. Mientras trabajaba en la estación de investigación de Dollis Hill en la década de 1930, comenzó a explorar el posible uso de la electrónica para la central telefónica . El equipo experimental que construyó en 1934 entró en funcionamiento 5 años después, convirtiendo una parte de la red de central telefónica en un sistema electrónico de procesamiento de datos, utilizando miles de tubos de vacío . [48]
En los Estados Unidos, en 1940 Arthur Dickinson (IBM) inventó la primera computadora electrónica digital. [73] Este dispositivo de cálculo era completamente electrónico: control, cálculos y salida (la primera pantalla electrónica). [74] John Vincent Atanasoff y Clifford E. Berry de la Universidad Estatal de Iowa desarrollaron la Computadora Atanasoff-Berry (ABC) en 1942, [75] el primer dispositivo de cálculo digital electrónico binario. [76] Este diseño era semi-electrónico (control electromecánico y cálculos electrónicos), y usaba alrededor de 300 tubos de vacío, con capacitores fijados en un tambor giratorio mecánicamente para memoria. Sin embargo, su escritor / lector de tarjetas de papel no era confiable y el sistema de contacto del tambor regenerativo era mecánico. La naturaleza de propósito especial de la máquina y la falta de programa almacenado cambiante la distingue de las computadoras modernas. [77]
Las computadoras cuya lógica se construyó principalmente con tubos de vacío ahora se conocen como computadoras de primera generación .
La computadora electrónica programable
Durante la Segunda Guerra Mundial, los descifradores de códigos británicos en Bletchley Park , 40 millas (64 km) al norte de Londres, lograron una serie de éxitos al romper las comunicaciones militares enemigas cifradas. La máquina de cifrado alemana, Enigma , fue atacada por primera vez con la ayuda de bombas electromecánicas . [78] Las mujeres a menudo operaban estas máquinas bombe. [79] [80] Descartaron posibles configuraciones de Enigma al realizar cadenas de deducciones lógicas implementadas eléctricamente. La mayoría de las posibilidades conducían a una contradicción, y las pocas que quedaban podían probarse a mano.
Los alemanes también desarrollaron una serie de sistemas de cifrado de teleimpresores, bastante diferentes de Enigma. La máquina Lorenz SZ 40/42 se utilizó para comunicaciones del Ejército de alto nivel, cuyo nombre en código era "Tunny" por los británicos. Las primeras interceptaciones de mensajes de Lorenz comenzaron en 1941. Como parte de un ataque a Tunny, Max Newman y sus colegas desarrollaron Heath Robinson , una máquina de función fija para ayudar a descifrar el código. [81] Tommy Flowers , un ingeniero senior en la Estación de Investigación de la Oficina de Correos [82] fue recomendado a Max Newman por Alan Turing [83] y pasó once meses desde principios de febrero de 1943 diseñando y construyendo la computadora Colossus más flexible (que reemplazó a la Heath Robinson ). [84] [85] Después de una prueba funcional en diciembre de 1943, Colossus fue enviado a Bletchley Park, donde fue entregado el 18 de enero de 1944 [86] y atacó su primer mensaje el 5 de febrero. [87]
Colossus fue la primera computadora programable digital electrónica del mundo . [48] Utilizaba una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y podía configurarse para realizar una variedad de operaciones lógicas booleanas en sus datos, [88] pero no era Turing completo . La entrada de datos a Colossus se realizó mediante la lectura fotoeléctrica de una transcripción en cinta de papel del mensaje interceptado cifrado. Esto se organizó en un bucle continuo para que pudiera leerse y releerse varias veces, no existiendo un almacenamiento interno para los datos. El mecanismo de lectura funcionaba a 5.000 caracteres por segundo con la cinta de papel moviéndose a 40 pies / s (12,2 m / s; 27,3 mph). Colossus Mark 1 contenía 1500 válvulas termoiónicas (tubos), pero Mark 2 con 2400 válvulas y cinco procesadores en paralelo, era 5 veces más rápido y más simple de operar que Mark 1, acelerando enormemente el proceso de decodificación. Mark 2 fue diseñado mientras se construía Mark 1. Allen Coombs asumió el liderazgo del proyecto Colossus Mark 2 cuando Tommy Flowers pasó a otros proyectos. [89] El primer Marcos 2 Coloso entró en funcionamiento el 1 de junio de 1944, justo a tiempo para el Allied Invasión de Normandía en el Día-D .
La mayor parte del uso de Colossus fue para determinar las posiciones de inicio de los rotores Tunny para un mensaje, que se denominó "ajuste de la rueda". Colossus incluyó el primer uso de registros de desplazamiento y matrices sistólicas , lo que permitió cinco pruebas simultáneas, cada una con hasta 100 cálculos booleanos . Esto permitió examinar cinco posibles posiciones iniciales diferentes para un tránsito de la cinta de papel. [90] Además del ajuste de las ruedas, algunos Colossi posteriores incluyeron mecanismos destinados a ayudar a determinar los patrones de los pines conocidos como "rotura de ruedas". Ambos modelos eran programables usando interruptores y paneles de enchufes de una manera que sus predecesores no lo habían sido. Diez Mk 2 Colossi estaban operativos al final de la guerra.
Sin el uso de estas máquinas, los aliados habrían sido privados de la muy valiosa de inteligencia que se obtiene a partir de la lectura de la gran cantidad de cifrado de alto nivel telegráficos mensajes entre el alto mando alemán (OKW) y sus ejército comandos en toda la Europa ocupada. Los detalles de su existencia, diseño y uso se mantuvieron en secreto hasta bien entrada la década de 1970. Winston Churchill emitió personalmente una orden para su destrucción en pedazos no más grandes que la mano de un hombre, para mantener en secreto que los británicos eran capaces de descifrar los cifrados Lorenz SZ (de las máquinas de cifrado de flujo de rotor alemanas) durante la Guerra Fría que se avecinaba. Dos de las máquinas fueron transferidas al recién formado GCHQ y las otras fueron destruidas. Como resultado, las máquinas no se incluyeron en muchas historias de la informática. [f] Una copia de trabajo reconstruida de una de las máquinas Colossus está ahora en exhibición en Bletchley Park.
El ENIAC (integrador numérico electrónico y computadora) construido en EE. UU. Fue la primera computadora electrónica programable construida en los EE. UU. Aunque el ENIAC era similar al Colossus, era mucho más rápido y flexible. Sin duda alguna, era un dispositivo completo de Turing y podía calcular cualquier problema que pudiera caber en su memoria. Al igual que el Colossus, un "programa" en el ENIAC se definía por los estados de sus cables de conexión e interruptores, muy lejos de las máquinas electrónicas de programas almacenados que vinieron más tarde. Una vez que se escribió un programa, se tuvo que configurar mecánicamente en la máquina con restablecimiento manual de enchufes e interruptores. Las programadoras de la ENIAC eran mujeres que se habían formado como matemáticas. [92]
Combinó la alta velocidad de la electrónica con la capacidad de ser programado para muchos problemas complejos. Podría sumar o restar 5000 veces por segundo, mil veces más rápido que cualquier otra máquina. También tenía módulos para multiplicar, dividir y raíz cuadrada. La memoria de alta velocidad estaba limitada a 20 palabras (equivalente a unos 80 bytes). Construido bajo la dirección de John Mauchly y J. Presper Eckert en la Universidad de Pennsylvania, el desarrollo y la construcción de ENIAC duró desde 1943 hasta su pleno funcionamiento a fines de 1945. La máquina era enorme, pesaba 30 toneladas, utilizaba 200 kilovatios de energía eléctrica y contenía más de 18.000 tubos de vacío, 1.500 relés y cientos de miles de resistencias, condensadores e inductores. [93] Una de sus principales hazañas de ingeniería fue minimizar los efectos del desgaste de los tubos, que era un problema común en la confiabilidad de las máquinas en ese momento. La máquina estuvo en uso casi constante durante los siguientes diez años.
Computadora con programa almacenado
Las primeras máquinas informáticas eran programables en el sentido de que podían seguir la secuencia de pasos que se habían configurado para ejecutar, pero el "programa", o los pasos que la máquina debía ejecutar, se configuraban generalmente cambiando la forma en que se conectaban los cables. en un panel de conexiones o panel de conexiones . La "reprogramación", cuando era posible, era un proceso laborioso, comenzando con ingenieros que elaboraban diagramas de flujo , diseñando la nueva configuración y luego el proceso, a menudo exigente, de volver a cablear físicamente los paneles de conexión. [94] Las computadoras con programas almacenados, por el contrario, fueron diseñadas para almacenar un conjunto de instrucciones (un programa ), en la memoria, generalmente la misma memoria que los datos almacenados.
Teoría
Alan Turing había propuesto la base teórica de la computadora con programa almacenado en su artículo de 1936. En 1945, Turing se unió al Laboratorio Nacional de Física y comenzó su trabajo en el desarrollo de una computadora digital electrónica con programa almacenado. Su informe de 1945 'Proposed Electronic Calculator' fue la primera especificación para un dispositivo de este tipo.
Mientras tanto, John von Neumann, de la Escuela de Ingeniería Eléctrica Moore , Universidad de Pensilvania , hizo circular su Primer Borrador de un Informe sobre el EDVAC en 1945. Aunque sustancialmente similar al diseño de Turing y conteniendo comparativamente pocos detalles de ingeniería, la arquitectura de computadora que describió se hizo conocida. como la " arquitectura von Neumann ". Turing presentó un artículo más detallado al Comité Ejecutivo del Laboratorio Nacional de Física (NPL) en 1946, dando el primer diseño razonablemente completo de una computadora con programa almacenado , un dispositivo que llamó Motor de Computación Automática (ACE). Sin embargo, el diseño EDVAC más conocido de John von Neumann , que conocía el trabajo teórico de Turing, recibió más publicidad, a pesar de su naturaleza incompleta y la falta cuestionable de atribución de las fuentes de algunas de las ideas. [48]
Turing pensó que la velocidad y el tamaño de la memoria de la computadora eran elementos cruciales, por lo que propuso una memoria de alta velocidad de lo que hoy se llamaría 25 KB , a la que se accede a una velocidad de 1 MHz . El ACE implementó llamadas a subrutinas , mientras que el EDVAC no lo hizo, y el ACE también usó Instrucciones abreviadas de computadora, una forma temprana de lenguaje de programación .
Manchester bebé
El Manchester Baby fue la primera computadora electrónica con programas almacenados del mundo . Fue construido en la Universidad Victoria de Manchester por Frederic C. Williams , Tom Kilburn y Geoff Tootill, y ejecutó su primer programa el 21 de junio de 1948. [95]
La máquina no estaba destinada a ser una computadora práctica, sino que fue diseñada como un banco de pruebas para el tubo Williams , el primer dispositivo de almacenamiento digital de acceso aleatorio . [96] Inventado por Freddie Williams y Tom Kilburn [97] [98] en la Universidad de Manchester en 1946 y 1947, era un tubo de rayos catódicos que usaba un efecto llamado emisión secundaria para almacenar temporalmente datos binarios electrónicos , y se usó con éxito en varias de las primeras computadoras.
Aunque la computadora era pequeña y primitiva, era una prueba de concepto para resolver un solo problema; Baby fue la primera máquina en funcionamiento que contenía todos los elementos esenciales para una computadora electrónica moderna. [99] Tan pronto como el Baby demostró la viabilidad de su diseño, se inició un proyecto en la universidad para desarrollar el diseño en una computadora más utilizable, la Manchester Mark 1 . La Mark 1, a su vez, se convirtió rápidamente en el prototipo de Ferranti Mark 1 , la primera computadora de uso general disponible comercialmente en el mundo. [100]
El bebé tenía una longitud de palabra de 32 bits y una memoria de 32 palabras. Como fue diseñado para ser la computadora con programa almacenado más simple posible, las únicas operaciones aritméticas implementadas en el hardware fueron la resta y la negación ; otras operaciones aritméticas se implementaron en software. El primero de los tres programas escritos para la máquina encontró el divisor propio más alto de 2 18 (262,144), un cálculo que se sabía que tardaría mucho en ejecutarse y, por lo tanto, probaría la confiabilidad de la computadora, probando cada entero de 2 18 a 1. hacia abajo, ya que la división se implementó mediante la resta repetida del divisor. El programa constaba de 17 instrucciones y se ejecutó durante 52 minutos antes de llegar a la respuesta correcta de 131.072, después de que Baby hubiera realizado 3,5 millones de operaciones (para una velocidad de CPU efectiva de 1,1 kIPS ). Las sucesivas aproximaciones a la respuesta se mostraban como las posiciones sucesivas de un punto brillante en el tubo de Williams.
Manchester Mark 1
La máquina experimental condujo al desarrollo del Manchester Mark 1 en la Universidad de Manchester. [101] El trabajo comenzó en agosto de 1948 y la primera versión estuvo operativa en abril de 1949; un programa escrito para buscar números primos de Mersenne funcionó sin errores durante nueve horas en la noche del 16 al 17 de junio de 1949. La prensa británica informó ampliamente sobre el funcionamiento exitoso de la máquina, que utilizó la frase "cerebro electrónico" para describirlo a sus lectores.
La computadora es especialmente importante desde el punto de vista histórico debido a su inclusión pionera de registros de índice , una innovación que hizo más fácil para un programa leer secuencialmente a través de una serie de palabras en la memoria. Treinta y cuatro patentes resultaron del desarrollo de la máquina, y muchas de las ideas detrás de su diseño se incorporaron en productos comerciales posteriores, como IBM 701 y 702 , así como Ferranti Mark 1. Los diseñadores principales, Frederic C. Williams y Tom Kilburn , concluyó de sus experiencias con el Mark 1 que las computadoras se usarían más en roles científicos que en matemáticas puras. En 1951 comenzaron el trabajo de desarrollo de Meg , el sucesor del Mark 1, que incluiría una unidad de punto flotante .
EDSAC
El otro contendiente para ser la primera computadora digital con programa almacenado reconociblemente moderna [102] fue el EDSAC , [103] diseñado y construido por Maurice Wilkes y su equipo en el Laboratorio Matemático de la Universidad de Cambridge en Inglaterra en la Universidad de Cambridge en 1949. La máquina se inspiró en el primer borrador fundamental de un informe sobre el EDVAC de John von Neumann y fue una de las primeras computadoras electrónicas digitales con programas almacenados que funcionaban de manera útil . [gramo]
EDSAC ejecutó sus primeros programas el 6 de mayo de 1949, cuando calculó una tabla de cuadrados [106] y una lista de números primos . La EDSAC también sirvió como base para la primera computadora aplicada comercialmente, la LEO I , utilizada por una empresa de fabricación de alimentos J. Lyons & Co. Ltd .. EDSAC 1 se cerró finalmente el 11 de julio de 1958, tras haber sido reemplazado por EDSAC 2, que permaneció en uso hasta 1965. [107]
El "cerebro" [computadora] puede que algún día baje a nuestro nivel [de la gente común] y ayude con nuestros cálculos de impuestos y contabilidad. Pero esto es especulación y hasta ahora no hay indicios de ello.
- El periódico británico The Star en un artículo de noticias de junio de 1949 sobre la computadora EDSAC , mucho antes de la era de las computadoras personales. [108]
EDVAC
ENIAC inventores John Mauchly y J. Presper Eckert propusieron la EDVAC 's de la construcción en agosto de 1944, y el trabajo de diseño para el EDVAC comenzaron en el Universidad de Pensilvania ' s Escuela de Ingeniería Eléctrica Moore , antes de que el ENIAC estaba en pleno funcionamiento. El diseño implementó una serie de importantes mejoras arquitectónicas y lógicas concebidas durante la construcción de ENIAC, y una memoria de acceso en serie de alta velocidad . [109] Sin embargo, Eckert y Mauchly abandonaron el proyecto y su construcción fracasó.
Finalmente se entregó al Laboratorio de Investigación Balística del Ejército de los EE. UU . En el campo de pruebas de Aberdeen en agosto de 1949, pero debido a una serie de problemas, la computadora solo comenzó a funcionar en 1951, y luego solo de forma limitada.
Computadoras comerciales
La primera computadora comercial fue la Ferranti Mark 1 , construida por Ferranti y entregada a la Universidad de Manchester en febrero de 1951. Se basó en la Manchester Mark 1 . Las principales mejoras sobre el Manchester Mark 1 fueron el tamaño del almacenamiento primario (usando tubos Williams de acceso aleatorio ), el almacenamiento secundario (usando un tambor magnético ), un multiplicador más rápido e instrucciones adicionales. El tiempo de ciclo básico era de 1,2 milisegundos y una multiplicación se podía completar en aproximadamente 2,16 milisegundos. El multiplicador utilizó casi una cuarta parte de los 4.050 tubos de vacío (válvulas) de la máquina. [110] La Universidad de Toronto compró una segunda máquina , antes de que el diseño fuera revisado en Mark 1 Star . Al menos siete de estas máquinas posteriores se entregaron entre 1953 y 1957, una de ellas a los laboratorios Shell en Ámsterdam. [111]
En octubre de 1947, los directores de J. Lyons & Company , una empresa de catering británica famosa por sus salones de té pero con un gran interés en las nuevas técnicas de gestión de oficinas, decidieron tomar un papel activo en la promoción del desarrollo comercial de las computadoras. La computadora LEO I entró en funcionamiento en abril de 1951 [112] y ejecutó el primer trabajo informático de oficina de rutina del mundo . El 17 de noviembre de 1951, la empresa J. Lyons inició la operación semanal de un trabajo de tasación de panaderías en la LEO (Oficina Electrónica de Lyons). Esta fue la primera aplicación comercial que se puso en marcha en una computadora con programa almacenado. [h]
En junio de 1951, se entregó el UNIVAC I (Computadora automática universal) a la Oficina del Censo de EE . UU . Remington Rand finalmente vendió 46 máquinas a más de 1 millón de dólares cada una (9,97 millones de dólares en 2021). [113] UNIVAC fue la primera computadora "producida en masa". Utilizaba 5.200 tubos de vacío y consumía 125 kW de potencia. Su almacenamiento principal eran las líneas de retardo de mercurio de acceso en serie capaces de almacenar 1.000 palabras de 11 dígitos decimales más el signo (palabras de 72 bits).
IBM introdujo una computadora más pequeña y asequible en 1954 que resultó muy popular. [i] [115] El IBM 650 pesaba más de 900 kg, la fuente de alimentación adjunta pesaba alrededor de 1350 kg y ambos se colocaron en gabinetes separados de aproximadamente 1,5 metros por 0,9 metros por 1,8 metros. Cuesta US $ 500 000 [116] ($ 4,82 millones a partir de 2021) o podría alquilarse por US $ 3500 al mes ($ 30 000 a partir de 2021). [113] Su memoria de batería era originalmente de 2000 palabras de diez dígitos, luego se expandió a 4000 palabras. Limitaciones de memoria como esta dominarían la programación durante décadas después. Las instrucciones del programa se extrajeron del tambor giratorio a medida que se ejecutaba el código. Una combinación de arquitectura de hardware proporcionó una ejecución eficiente utilizando la memoria del tambor: el formato de instrucción incluía la dirección de la siguiente instrucción; y software: el Programa de ensamblaje óptimo simbólico , SOAP, [117] asignó instrucciones a las direcciones óptimas (en la medida de lo posible mediante análisis estático del programa fuente). Por lo tanto, cuando fue necesario, muchas instrucciones se ubicaron en la siguiente fila del tambor para leer y no se requirió tiempo de espera adicional para la rotación del tambor.
Microprogramación
En 1951, el científico británico Maurice Wilkes desarrolló el concepto de la microprogramación de la realización de que la unidad central de proceso de un ordenador podría ser controlado por una miniatura, altamente especializada programa de ordenador en alta velocidad ROM . La microprogramación permite definir o ampliar el conjunto de instrucciones base mediante programas integrados (ahora denominados firmware o microcódigo ). [118] Este concepto simplificó enormemente el desarrollo de la CPU. Primero describió esto en la Conferencia Inaugural de Computación de la Universidad de Manchester en 1951, luego publicó en forma ampliada en IEEE Spectrum en 1955. [ cita requerida ]
Fue ampliamente utilizado en CPU y unidades de punto flotante de mainframe y otras computadoras; se implementó por primera vez en EDSAC 2 , [119] que también utilizó múltiples "segmentos de bits" idénticos para simplificar el diseño. Se utilizaron conjuntos de tubos intercambiables y reemplazables para cada bit del procesador. [j]
Memoria magnetica
Las memorias de tambor magnético se desarrollaron para la Marina de los EE. UU. Durante la Segunda Guerra Mundial y el trabajo continuó en Engineering Research Associates (ERA) en 1946 y 1947. ERA, entonces una parte de Univac incluyó una memoria de tambor en su 1103 , anunciado en febrero de 1953. La computadora producida en masa, la IBM 650 , también anunciada en 1953, tenía aproximadamente 8,5 kilobytes de memoria de batería.
Memoria de núcleo magnético patentada en 1949 [121] con su primer uso demostrado para la computadora Whirlwind en agosto de 1953. [122] La comercialización siguió rápidamente. El núcleo magnético se utilizó en los periféricos del IBM 702 entregado en julio de 1955, y más tarde en el propio 702. El IBM 704 (1955) y el Ferranti Mercury (1957) usaban memoria de núcleo magnético. Pasó a dominar el campo en la década de 1970, cuando fue reemplazado por la memoria de semiconductores. El núcleo magnético alcanzó su punto máximo en volumen alrededor de 1975 y disminuyó en uso y participación de mercado a partir de entonces. [123]
Todavía en 1980, las máquinas PDP-11/45 que usaban la memoria principal de núcleo magnético y los tambores para el intercambio todavía estaban en uso en muchos de los sitios originales de UNIX.
Características de las primeras computadoras digitales
Nombre | Primera operativa | Sistema de numeración | Mecanismo informático | Programación | Turing completo |
---|---|---|---|---|---|
Arthur H. Dickinson IBM (Estados Unidos) | Enero de 1940 | Decimal | Electrónico | No programable | No |
Joseph Desch NCR (Estados Unidos) | Marzo de 1940 | Decimal | Electrónico | No programable | No |
Zuse Z3 (Alemania) | Mayo de 1941 | Punto flotante binario | Electromecánico | Controlado por programa mediante película perforada de 35 mm (pero sin rama condicional) | En teoría ( 1998 ) |
Atanasoff – Berry Computer (EE. UU.) | 1942 | Binario | Electrónico | No programable: un solo propósito | No |
Colossus Mark 1 (Reino Unido) | Febrero de 1944 | Binario | Electrónico | Controlado por programa mediante cables de conexión e interruptores | No |
Harvard Mark I - IBM ASCC (EE. UU.) | Mayo de 1944 | Decimal | Electromecánico | Controlado por programa mediante cinta de papel perforada de 24 canales (pero sin rama condicional) | Discutible |
Colossus Mark 2 (Reino Unido) | Junio de 1944 | Binario | Electrónico | Controlado por programa mediante cables de conexión e interruptores | En teoría (2011) [124] |
Zuse Z4 (Alemania) | Marzo de 1945 | Punto flotante binario | Electromecánico | Controlado por programa mediante película perforada de 35 mm | sí |
ENIAC (EE. UU.) | Febrero de 1946 | Decimal | Electrónico | Controlado por programa mediante cables de conexión e interruptores | sí |
ARC2 (SEC) (Reino Unido) | Mayo de 1948 | Binario | Electrónico | Programa almacenado en la memoria del tambor giratorio | sí |
Manchester Baby (Reino Unido) | Junio de 1948 | Binario | Electrónico | Programa almacenado en la memoria del tubo de rayos catódicos de Williams | sí |
ENIAC modificado (EE. UU.) | Septiembre de 1948 | Decimal | Electrónico | Mecanismo de programación almacenado de solo lectura que usa las tablas de funciones como ROM del programa | sí |
Manchester Mark 1 (Reino Unido) | Abril de 1949 | Binario | Electrónico | Programa almacenado en memoria de tubo de rayos catódicos Williams y memoria de tambor magnético | sí |
EDSAC (Reino Unido) | Mayo de 1949 | Binario | Electrónico | Programa almacenado en la memoria de línea de retardo de mercurio | sí |
CSIRAC (Australia) | Noviembre de 1949 | Binario | Electrónico | Programa almacenado en la memoria de línea de retardo de mercurio | sí |
Computadoras de transistores
El transistor bipolar se inventó en 1947. A partir de 1955, los transistores reemplazaron a los tubos de vacío en los diseños de computadoras, [125] dando lugar a la "segunda generación" de computadoras. En comparación con los tubos de vacío, los transistores tienen muchas ventajas: son más pequeños y requieren menos energía que los tubos de vacío, por lo que emiten menos calor. Los transistores de unión de silicio eran mucho más fiables que los tubos de vacío y tenían una vida útil más larga. Las computadoras transistorizadas podrían contener decenas de miles de circuitos lógicos binarios en un espacio relativamente compacto. Los transistores redujeron en gran medida el tamaño, el costo inicial y el costo operativo de las computadoras . Normalmente, las computadoras de segunda generación estaban compuestas por un gran número de placas de circuitos impresos , como el Sistema Modular Estándar de IBM , [126] cada una con una a cuatro puertas lógicas o flip-flops .
En la Universidad de Manchester , un equipo bajo la dirección de Tom Kilburn diseñó y construyó una máquina utilizando los transistores recientemente desarrollados en lugar de válvulas. Inicialmente, los únicos dispositivos disponibles eran los transistores de contacto puntual de germanio , menos confiables que las válvulas que reemplazaron pero que consumían mucha menos energía. [127] Su primera computadora transistorizada , y la primera en el mundo, estaba operativa en 1953 , [128] y una segunda versión se completó allí en abril de 1955. [129] La versión de 1955 usó 200 transistores, 1300 diodos de estado sólido , y tenía un consumo de energía de 150 vatios. Sin embargo, la máquina hizo uso de válvulas para generar sus formas de onda de reloj de 125 kHz y en los circuitos para leer y escribir en su memoria de tambor magnético, por lo que no fue la primera computadora completamente transistorizada.
Esa distinción corresponde al Harwell CADET de 1955, [130] construido por la división de electrónica del Atomic Energy Research Establishment en Harwell . El diseño presentaba un almacén de memoria de tambor magnético de 64 kilobytes con múltiples cabezales móviles que había sido diseñado en el Laboratorio Nacional de Física, Reino Unido . En 1953, este equipo tenía circuitos de transistores funcionando para leer y escribir en un tambor magnético más pequeño del Royal Radar Establishment . La máquina usó una velocidad de reloj baja de solo 58 kHz para evitar tener que usar válvulas para generar las formas de onda del reloj. [131] [130]
CADET utilizó transistores de 324 puntos de contacto proporcionados por la empresa británica Standard Telephones and Cables ; Se utilizaron 76 transistores de unión para los amplificadores de primera etapa para la lectura de datos del tambor, ya que los transistores de contacto puntual eran demasiado ruidosos. Desde agosto de 1956 CADET estaba ofreciendo un servicio informático regular, durante el cual a menudo ejecutaba corridas informáticas continuas de 80 horas o más. [132] [133] Los problemas con la confiabilidad de los primeros lotes de transistores de unión de puntos de contacto y aleados significaron que el tiempo medio de la máquina entre fallas fue de aproximadamente 90 minutos, pero esto mejoró una vez que los transistores de unión bipolar más confiables estuvieron disponibles. [134]
El diseño de la computadora de transistores de la Universidad de Manchester fue adoptado por la empresa de ingeniería local Metropolitan-Vickers en su Metrovick 950 , la primera computadora de transistores comercial del mundo. [135] Se construyeron seis Metrovick 950, el primero terminado en 1956. Se desplegaron con éxito en varios departamentos de la empresa y estuvieron en uso durante unos cinco años. [129] Una computadora de segunda generación, la IBM 1401 , capturó aproximadamente un tercio del mercado mundial. IBM instaló más de diez mil 1401 entre 1960 y 1964.
Periféricos de transistores
La electrónica transistorizada mejoró no solo la CPU (Unidad Central de Procesamiento), sino también los dispositivos periféricos . Las unidades de almacenamiento de datos en disco de segunda generación pudieron almacenar decenas de millones de letras y dígitos. Junto a las unidades de almacenamiento en disco fijo , conectadas a la CPU mediante transmisión de datos de alta velocidad, se encontraban unidades de almacenamiento de datos en disco extraíble. Un paquete de disco extraíble se puede intercambiar fácilmente con otro paquete en unos segundos. Incluso si la capacidad de los discos extraíbles es menor que la de los discos fijos, su intercambiabilidad garantiza una cantidad casi ilimitada de datos a mano. La cinta magnética proporcionó capacidad de archivo para estos datos, a un costo menor que el del disco.
Muchas CPU de segunda generación delegaron las comunicaciones de los dispositivos periféricos a un procesador secundario. Por ejemplo, mientras el procesador de comunicaciones controlaba la lectura y la perforación de la tarjeta , la CPU principal ejecutaba cálculos e instrucciones binarias de derivación . Un bus de datos llevaría datos entre la CPU principal y la memoria del núcleo a la tasa de ciclo de búsqueda y ejecución de la CPU , y otros buses de datos normalmente servirían a los dispositivos periféricos. En el PDP-1 , el tiempo de ciclo de la memoria central era de 5 microsegundos; en consecuencia, la mayoría de las instrucciones aritméticas tomaron 10 microsegundos (100,000 operaciones por segundo) porque la mayoría de las operaciones tomaron al menos dos ciclos de memoria; uno para la instrucción, uno para la obtención de datos del operando .
Durante la segunda generación, las unidades terminales remotas (a menudo en forma de teleimpresores como un Friden Flexowriter ) vieron un uso mucho mayor. [k] Las conexiones telefónicas proporcionaron suficiente velocidad para las primeras terminales remotas y permitieron una separación de cientos de kilómetros entre las terminales remotas y el centro de computación. Con el tiempo, estas redes informáticas independientes se generalizarían en una red de redes interconectadas: Internet. [l]
Supercomputadoras de transistores
A principios de la década de 1960 se produjo el advenimiento de la supercomputación . El Atlas fue un desarrollo conjunto entre la Universidad de Manchester , Ferranti y Plessey , y se instaló por primera vez en la Universidad de Manchester y se encargó oficialmente en 1962 como una de las primeras supercomputadoras del mundo, considerada la computadora más poderosa del mundo en ese momento. . [138] Se dijo que cada vez que Atlas se desconectaba, se perdía la mitad de la capacidad informática del Reino Unido. [139] Era una máquina de segunda generación que usaba transistores de germanio discretos . Atlas también fue pionero en Atlas Supervisor , "considerado por muchos como el primer sistema operativo moderno reconocible ". [140]
En los EE. UU., Seymour Cray diseñó una serie de computadoras en Control Data Corporation (CDC) para utilizar diseños innovadores y paralelismo para lograr un rendimiento máximo computacional superior. [141] El CDC 6600 , lanzado en 1964, generalmente se considera el primer superordenador. [142] [143] La CDC 6600 superó a su predecesora, la IBM 7030 Stretch , en aproximadamente un factor de 3. Con un rendimiento de aproximadamente 1 megaFLOPS , la CDC 6600 fue la computadora más rápida del mundo entre 1964 y 1969, cuando renunció a ese estatus. a su sucesor, el CDC 7600 .
Computadoras de circuito integrado
La "tercera generación" de ordenadores electrónicos digitales utilizaba chips de circuitos integrados (IC) como base de su lógica.
La idea de un circuito integrado fue concebida por un científico de radar que trabaja para el Establecimiento Real de Radar del Ministerio de Defensa , Geoffrey WA Dummer .
Los primeros circuitos integrados funcionales fueron inventados por Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor . [144] Kilby registró sus ideas iniciales sobre el circuito integrado en julio de 1958, demostrando con éxito el primer ejemplo integrado funcional el 12 de septiembre de 1958. [145] La invención de Kilby fue un circuito integrado híbrido (CI híbrido). [146] Tenía conexiones de cables externos, lo que dificultaba la producción en masa. [147]
A Noyce se le ocurrió su propia idea de un circuito integrado medio año después de Kilby. [148] La invención de Noyce fue un chip de circuito integrado (IC) monolítico . [149] [147] Su chip resolvió muchos problemas prácticos que el de Kilby no había resuelto. Producido en Fairchild Semiconductor, estaba hecho de silicio , mientras que el chip de Kilby estaba hecho de germanio . La base del CI monolítico de Noyce fue el proceso plano de Fairchild , que permitió diseñar circuitos integrados utilizando los mismos principios que los de los circuitos impresos . El proceso plano fue desarrollado por el colega de Noyce, Jean Hoerni, a principios de 1959, basado en el trabajo de Mohamed M. Atalla sobre la pasivación de la superficie de semiconductores por dióxido de silicio en Bell Labs a finales de la década de 1950. [150] [151] [152]
Las computadoras de tercera generación (circuito integrado) aparecieron por primera vez a principios de la década de 1960 en computadoras desarrolladas para propósitos gubernamentales, y luego en computadoras comerciales a partir de mediados de la década de 1960. La primera computadora IC de silicio fue la Apollo Guidance Computer o AGC. [153] Aunque no es la computadora más poderosa de su tiempo, las limitaciones extremas de tamaño, masa y potencia de la nave espacial Apollo requerían que el AGC fuera mucho más pequeño y más denso que cualquier computadora anterior, con un peso de solo 70 libras (32 kg). ). Cada misión de aterrizaje lunar llevaba dos AGC, uno en cada módulo de comando y de ascenso lunar.
Memoria de semiconductores
El MOSFET (transistor de efecto de campo semiconductor de óxido metálico, o transistor MOS) fue inventado por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959. [154] Además del procesamiento de datos, el MOSFET permitió el uso práctico de MOS transistores como elementos de almacenamiento de celdas de memoria, una función que anteriormente cumplían los núcleos magnéticos . La memoria semiconductora , también conocida como memoria MOS , era más barata y consumía menos energía que la memoria de núcleo magnético . [155] La memoria de acceso aleatorio (RAM) MOS , en forma de RAM estática (SRAM), fue desarrollada por John Schmidt en Fairchild Semiconductor en 1964. [155] [156] En 1966, Robert Dennard en IBM Thomas J. Watson Research Center desarrolló la RAM dinámica MOS (DRAM). [157] En 1967, Dawon Kahng y Simon Sze en Bell Labs desarrollaron el MOSFET de puerta flotante , la base para la memoria no volátil MOS como EPROM , EEPROM y memoria flash . [158] [159]
Computadoras con microprocesador
La "cuarta generación" de ordenadores electrónicos digitales utilizaba microprocesadores como base de su lógica. El microprocesador tiene su origen en el chip de circuito integrado MOS (MOS IC). [160] Debido al rápido escalado MOSFET , los chips MOS IC aumentaron rápidamente en complejidad a un ritmo predicho por la ley de Moore , lo que condujo a una integración a gran escala (LSI) con cientos de transistores en un solo chip MOS a fines de la década de 1960. La aplicación de chips MOS LSI a la informática fue la base de los primeros microprocesadores, ya que los ingenieros comenzaron a reconocer que un procesador de computadora completo podía estar contenido en un solo chip MOS LSI. [160]
El tema de qué dispositivo fue exactamente el primer microprocesador es controvertido, en parte debido a la falta de acuerdo sobre la definición exacta del término "microprocesador". Los primeros microprocesadores de múltiples chips fueron los sistemas de cuatro fases AL-1 en 1969 y Garrett AiResearch MP944 en 1970, desarrollados con múltiples chips MOS LSI. [160] El primer microprocesador de un solo chip fue el Intel 4004 , [161] desarrollado en un solo chip PMOS LSI. [160] Fue diseñado y realizado por Ted Hoff , Federico Faggin , Masatoshi Shima y Stanley Mazor en Intel , y lanzado en 1971. [m] Tadashi Sasaki y Masatoshi Shima en Busicom , un fabricante de calculadoras, tuvieron la idea inicial de que la CPU podría ser un solo chip MOS LSI, suministrado por Intel. [163] [161]
Si bien los primeros circuitos integrados de microprocesador contenían literalmente sólo el procesador, es decir, la unidad central de procesamiento de una computadora, su desarrollo progresivo condujo naturalmente a chips que contenían la mayoría o la totalidad de las partes electrónicas internas de una computadora. El circuito integrado en la imagen de la derecha, por ejemplo, un Intel 8742, es un microcontrolador de 8 bits que incluye una CPU que funciona a 12 MHz, 128 bytes de RAM , 2048 bytes de EPROM y E / S en el mismo chip. .
Durante la década de 1960 hubo una superposición considerable entre las tecnologías de segunda y tercera generación. [n] IBM implementó sus módulos IBM Solid Logic Technology en circuitos híbridos para IBM System / 360 en 1964. En 1975, Sperry Univac continuó la fabricación de máquinas de segunda generación como UNIVAC 494. Los grandes sistemas Burroughs como las B5000 eran máquinas apiladoras , lo que permitía una programación más sencilla. Estos autómatas pushdown también se implementaron posteriormente en miniordenadores y microprocesadores, lo que influyó en el diseño del lenguaje de programación. Las minicomputadoras servían como centros informáticos de bajo costo para la industria, las empresas y las universidades. [164] Se hizo posible simular circuitos analógicos con el programa de simulación con énfasis en circuitos integrados , o SPICE (1971) en minicomputadoras, uno de los programas para la automatización del diseño electrónico ( EDA ). El microprocesador condujo al desarrollo de microcomputadoras , computadoras pequeñas y de bajo costo que podrían ser propiedad de individuos y pequeñas empresas. Las microcomputadoras, la primera de las cuales apareció en la década de 1970, se volvió omnipresente en la década de 1980 y más allá.
Si bien qué sistema específico se considera el primer microordenador es un tema de debate, ya que se desarrollaron varios sistemas únicos para aficionados basados en el Intel 4004 y su sucesor, el Intel 8008 , el primer kit de microordenador disponible comercialmente fue el Altair 8800 basado en Intel 8080 , que se anunció en el artículo de portada de enero de 1975 de Popular Electronics . Sin embargo, este fue un sistema extremadamente limitado en sus etapas iniciales, con solo 256 bytes de DRAM en su paquete inicial y sin entrada-salida, excepto sus interruptores de palanca y la pantalla de registro LED. A pesar de esto, inicialmente fue sorprendentemente popular, con varios cientos de ventas en el primer año, y la demanda superó rápidamente a la oferta. Varios de los primeros proveedores externos, como Cromemco y Processor Technology, pronto comenzaron a suministrar hardware de bus S-100 adicional para el Altair 8800.
En abril de 1975, en la Feria de Hannover , Olivetti presentó el P6060 , el primer sistema informático personal completo y premontado del mundo. La unidad central de procesamiento constaba de dos tarjetas, denominadas en código PUCE1 y PUCE2 y, a diferencia de la mayoría de las otras computadoras personales, estaba construida con componentes TTL en lugar de un microprocesador. Tenía una o dos unidades de disquete de 8 " , una pantalla de plasma de 32 caracteres , una impresora térmica gráfica de 80 columnas , 48 Kbytes de RAM y lenguaje BÁSICO . Pesaba 40 kg (88 lb). Como sistema completo, era un paso significativo del Altair, aunque nunca logró el mismo éxito, estaba en competencia con un producto similar de IBM que tenía una unidad de disquete externa.
De 1975 a 1977, la mayoría de las microcomputadoras, como MOS Technology KIM-1 , Altair 8800 y algunas versiones de Apple I , se vendieron como kits para aficionados al bricolaje. Los sistemas premontados no ganaron mucho terreno hasta 1977, con la introducción del Apple II , el Tandy TRS-80 , las primeras computadoras SWTPC y el Commodore PET . La informática ha evolucionado con arquitecturas de microcomputadoras, con características agregadas de sus hermanos más grandes, ahora dominantes en la mayoría de los segmentos del mercado.
Tim Berners-Lee y Robert Cailliau en el CERN utilizaron una computadora NeXT y sus herramientas y bibliotecas de desarrollo orientadas a objetos para desarrollar el primer software de servidor web del mundo , CERN httpd , y también se utilizó para escribir el primer navegador web , WorldWideWeb .
Los sistemas tan complicados como las computadoras requieren una confiabilidad muy alta . ENIAC permaneció encendido, en funcionamiento continuo desde 1947 hasta 1955, durante ocho años antes de ser cerrado. Aunque un tubo de vacío podría fallar, sería reemplazado sin derribar el sistema. Con la simple estrategia de no cerrar nunca ENIAC, las fallas se redujeron drásticamente. Las computadoras de defensa aérea SAGE con tubos de vacío se volvieron notablemente confiables: instaladas en pares, una fuera de línea, los tubos con probabilidades de fallar lo hicieron cuando la computadora se ejecutó intencionalmente a potencia reducida para encontrarlos. Los discos duros conectables en caliente , como los tubos de vacío conectables en caliente de antaño, continúan la tradición de reparación durante el funcionamiento continuo. Las memorias de semiconductores normalmente no tienen errores cuando operan, aunque los sistemas operativos como Unix han empleado pruebas de memoria en el arranque para detectar fallas en el hardware. Hoy en día, el requisito de un rendimiento confiable se vuelve aún más estricto cuando las granjas de servidores son la plataforma de entrega. [165] Google ha logrado esto mediante el uso de software tolerante a fallas para recuperarse de fallas de hardware, e incluso está trabajando en el concepto de reemplazar granjas de servidores enteras sobre la marcha, durante un evento de servicio. [166] [167]
En el siglo XXI, las CPU de varios núcleos se comercializaron. [168] La memoria de contenido direccionable (CAM) [169] se ha vuelto lo suficientemente barata como para ser utilizada en redes y se utiliza con frecuencia para la memoria caché en chip en los microprocesadores modernos, aunque ningún sistema informático ha implementado CAM de hardware para su uso en programación. Idiomas. Actualmente, las CAM (o matrices asociativas) en el software son específicas del lenguaje de programación. Los arreglos de celdas de memoria de semiconductores son estructuras muy regulares y los fabricantes prueban sus procesos en ellos; esto permite reducciones de precio en productos de memoria. Durante la década de 1980, las puertas lógicas CMOS se convirtieron en dispositivos que podían fabricarse tan rápido como otros tipos de circuitos; Por tanto, el consumo de energía de la computadora podría reducirse drásticamente. A diferencia del consumo de corriente continua de una puerta basada en otros tipos lógicos, una puerta CMOS solo consume una corriente significativa durante la 'transición' entre estados lógicos, excepto por fugas.
Los circuitos CMOS han permitido que la informática se convierta en un producto que ahora es omnipresente, integrado en muchas formas , desde tarjetas de felicitación y teléfonos hasta satélites . La potencia de diseño térmico que se disipa durante la operación se ha vuelto tan esencial como la velocidad de operación de computación. En 2006, los servidores consumieron el 1,5% del presupuesto energético total de EE . UU. [170] Se esperaba que el consumo de energía de los centros de datos informáticos se duplicara al 3% del consumo mundial para 2011. El SoC (sistema en un chip) se ha comprimido aún más el circuito integrado en un solo chip; Los SoC permiten que los teléfonos y las PC converjan en dispositivos móviles inalámbricos de mano . [171]
La computación cuántica es una tecnología emergente en el campo de la computación. MIT Technology Review informó el 10 de noviembre de 2017 que IBM ha creado una computadora de 50 qubit ; actualmente su estado cuántico dura 50 microsegundos. [172] Physical Review X informó sobre una técnica para 'detección de puerta única como un método de lectura viable para qubits de espín' (un estado de espín singlete-triplete en silicio) el 26 de noviembre de 2018. [173] Un equipo de Google ha logrado operar su Chip modulador de pulso de RF a 3 Kelvin, simplificando la criogenia de su computadora de 72 qubit, que está configurada para operar a 0.3 Kelvin; pero el circuito de lectura y otro controlador quedan por introducir en la criogenia. [174] Ver: supremacía cuántica [175] [176] Los sistemas de qubit de silicio han demostrado entrelazamiento a distancias no locales . [177]
El hardware informático y su software se han convertido incluso en una metáfora del funcionamiento del universo. [178]
Epílogo
Una indicación de la rapidez del desarrollo de este campo puede inferirse de la historia del artículo seminal de 1947 de Burks, Goldstine y von Neumann. [179] Para cuando alguien tuvo tiempo de escribir algo, ya estaba obsoleto. Después de 1945, otros leyeron el primer borrador de un informe de John von Neumann sobre el EDVAC e inmediatamente comenzaron a implementar sus propios sistemas. Hasta el día de hoy, el rápido ritmo de desarrollo ha continuado en todo el mundo. [180] [o]
Un artículo de 1966 en Time predijo que: "Para el año 2000, las máquinas producirán tanto que todos en los Estados Unidos serán, de hecho, ricos de forma independiente . Cómo utilizar el tiempo libre será un problema importante". [182]
Ver también
- Mecanismo de Antikythera
- Historia de la informática
- Edad de información
- Sociedad de Historia de TI
- Cronología de la informática
- Lista de pioneros en informática
- Computadora de tubo de vacío
Notas
- ↑ El hueso de Ishango es una herramienta de hueso que data del Paleolítico superior , aproximadamente entre el 18.000 y el 20.000 a. C. Es una longitud de hueso de color marrón oscuro, el peroné de un babuino. Tiene una serie de marcas de conteo talladas en tres columnas a lo largo de la herramienta. Fue encontrado en 1960 en el Congo Belga. [1]
- ↑ Según Schmandt-Besserat 1981 , estos recipientes de arcilla contenían fichas, cuyo total era el recuento de objetos transferidos. Por tanto, los contenedores servían como una especie de conocimiento de embarque o libro de cuentas. Para evitar romper los recipientes, primero se colocaron impresiones de arcilla de las fichas en el exterior de los recipientes, para el recuento; las formas de las impresiones se abstrajeron en marcas estilizadas; finalmente, las marcas abstractas se utilizaron sistemáticamente como numerales; estos numerales finalmente se formalizaron como números. Eventualmente (Schmandt-Besserat estima que tomó 5000 años. [5] ) las marcas en el exterior de los recipientes fueron todo lo que se necesitaba para transmitir el recuento, y los recipientes de arcilla evolucionaron a tabletas de arcilla con marcas para el recuento.
- ↑ Robson ha recomendado al menos un suplemento de Schmandt-Besserat (1981) , por ejemplo, una revisión, Englund, R. (1993). "Los orígenes del guión" . Ciencia . 260 (5114): 1670–1671. doi : 10.1126 / science.260.5114.1670 . PMID 17810210 .[7]
- ↑ Una implementación española de los huesos de Napier (1617), está documentada en Montaner & Simon 1887 , pp. 19-20.
- ^ El decimal codificado en binario (BCD) es una representación numérica o codificación de caracteres , que todavía se usa ampliamente.
- ^ Los científicos informáticos estadounidenses, como Gordon Bell y Allen Newell, no conocían la existencia de Colossus. Y no estaba en Bell & Newell (1971) Computing Structures , un trabajo de referencia estándar en la década de 1970.
- ^ El Manchester Baby es anterior a EDSAC como una computadora de programa almacenado , pero fue construido como un banco de pruebas para el tubo de Williams y no como una máquina para uso práctico. [104] Sin embargo, el Manchester Mark 1 de 1949 (que no debe confundirse con el prototipo de 1948, el Baby) estaba disponible para investigación universitaria en abril de 1949 a pesar de estar todavía en desarrollo. [105]
- ↑ Martin , 2008 , p. 24 señala que David Caminer (1915-2008) se desempeñó como el primer analista de sistemas electrónicos corporativos para este primer sistema informático empresarial, una computadora Leo, parte de J. Lyons & Company. LEO calcularía el salario de un empleado, manejaría la facturación y otras tareas de automatización de oficinas.
- ^ Por ejemplo, el artículo de Kara Platoni sobre Donald Knuth declaró que "había algo especial en el IBM 650". [114]
- ^ El microcódigo se implementó como extracódigo en Atlas. [120]
- ^ Allen Newell usó terminales remotos para comunicarse a través del país con lascomputadoras RAND . [136]
- ^ Bob Taylor concibió un protocolo generalizado para vincular varias redes para que se vean como una sola sesión independientemente de la red específica: "Espere un minuto. ¿Por qué no tener solo un terminal, y se conecta a cualquier cosa que desee que esté conectado? ? Y, de ahí, nació Arpanet ”. [137]
- ^ La matriz Intel 4004 (1971) era de 12 mm 2 , compuesta por 2300 transistores; en comparación, el Pentium Pro tenía 306 mm 2 , compuesto por 5,5 millones de transistores. [162]
- ↑ En el campo de la defensa, se realizó un trabajo considerable en la implementación computarizada de ecuaciones como Kalman 1960 , pp. 35-45.
- ^ La supercomputadora más rápida de las 500 principales es ahora Fugaku (del Instituto Riken) [181], que es 2,8 veces más rápida que Summit (del Laboratorio Nacional de Oak Ridge), ahora la segunda de las 500 principales.
- ^ Phill Schultz (7 de septiembre de 1999). "Una historia muy breve de la matemática pura: el hueso de Ishango" . Escuela de Matemáticas de la Universidad de Australia Occidental. Archivado desde el original el 21 de julio de 2008.
- ^ Helaine Selin (12 de marzo de 2008). Enciclopedia de la historia de la ciencia, la tecnología y la medicina en las culturas no occidentales . Enciclopedia de Historia de la Ciencia . Springer Science & Business Media. pag. 1356. bibcode : 2008ehst.book ..... S . ISBN 978-1-4020-4559-2.
- ^ Pegg, Ed Jr. "Lebombo Bone" . MathWorld .
- ^ Querido, David (2004). El libro universal de matemáticas de Abracadabra a las paradojas de Zenón . John Wiley e hijos. ISBN 978-0-471-27047-8.
- ^ Schmandt-Besserat, Denise. "La evolución de la escritura" (PDF) . Archivado desde el original el 30 de enero de 2012.
- ^ Robson, Eleanor (2008), Matemáticas en el antiguo Iraq , ISBN 978-0-691-09182-2. pag. 5: los cálculos se utilizaban en Irak para los sistemas de contabilidad primitivos ya en el 3200-3000 a. C., con sistemas de representación de recuento específicos de los productos básicos. La contabilidad equilibrada estaba en uso entre el 3000 y el 2350 a. C., y entre el 2350 y el 2000 a. C. se utilizó un sistema numérico sexagesimal .
- ^ Eleanor Robson. "BIBLIOGRAFÍA DE LAS MATEMÁTICAS MESOPOTÁMICAS" . Archivado desde el original el 16 de junio de 2016 . Consultado el 6 de julio de 2016 .
- ^ Lazos 1994
- ^ Noel Sharkey (4 de julio de 2007), un robot programable del 60 d.C. , 2611 , New Scientist, archivado desde el original el 13 de diciembre de 2017
- ^ "Episodio 11: Ancient Robots" , Ancient Discoveries , History Channel , consultado el 6 de septiembre de 2008
- ^ Howard R. Turner (1997), Ciencia en el Islam medieval: una introducción ilustrada p. 184, Prensa de la Universidad de Texas , ISBN 0-292-78149-0
- ^ Hill, Donald Routledge (mayo de 1991). "Ingeniería Mecánica en el Cercano Oriente Medieval". Scientific American . págs. 64–69.( cf.Hill, Donald Routledge. "IX. Ingeniería Mecánica" . Historia de las Ciencias en el Mundo Islámico . Archivado desde el original el 25 de diciembre de 2007.)
- ^ Kells, Kern y Bland 1943 , p. 92
- ^ Kells, Kern y Bland 1943 , p. 82
- ^ Williams 1997 , p. 128 "... el engranaje de un solo diente, como el utilizado por Schickard, no serviría para un mecanismo de transporte general. El engranaje de un solo diente funciona bien si el transporte sólo se va a propagar en unos pocos lugares pero, si el transporte tiene que propagarse en varios lugares a lo largo del acumulador, la fuerza necesaria para operar la máquina sería de tal magnitud que dañaría los delicados engranajes ".
- ^ (fr) La Machine d'arithmétique, Blaise Pascal , Wikisource
- ^ Marguin 1994 , p. 48
- ↑ Maurice d'Ocagne (1893) , p. 245 Copia de este libro que se encuentra en el sitio de CNAM
- ^ Mourlevat 1988 , p. 12
- ^ Las nueve máquinas se describen en Vidal & Vogt 2011 .
- ^ Jim Falk. "Schickard versus Pascal - ¿un debate vacío?" .
• Jim Falk. "Cosas que cuentan" . - ↑ Smith , 1929 , págs. 180–181.
- ^ Leibniz 1703
- ^ Descubriendo el aritmómetro , Universidad de Cornell
- ^ "Historia de la informática de la Universidad de Columbia - Herman Hollerith" . Columbia.edu . Consultado el 30 de enero de 2010 .
- ^ Truedsell, Leon E. (1965). El desarrollo de la tabulación de tarjetas perforadas en la Oficina del Censo 1890-1940 . GPO de EE. UU. págs. 47–55.
- ^ Informe del Comisionado de Trabajo encargado del Undécimo Censo al Secretario de Gobernación correspondiente al año fiscal que finaliza el 30 de junio de 1895 . Washington, DC: Oficina de Publicaciones del Gobierno de los Estados Unidos . 29 de julio de 1895. p. 9. hdl : 2027 / osu.32435067619882 . OCLC 867910652 ."Puede esperar con confianza la rápida reducción de la fuerza de esta oficina después del 1 de octubre, y el cese total del trabajo de oficina durante el presente año calendario ... La condición del trabajo de la División del Censo y la condición de los informes finales muestran claramente que el trabajo del Undécimo Censo se completará al menos dos años antes de lo que fue el trabajo del Décimo Censo ". - Carroll D. Wright, Comisionado de Trabajo a Cargo
- ^ "1920" . Archivos de IBM . Consultado el 1 de diciembre de 2020 .
- ^ "Historia cronológica de IBM: 1930" . Archivos de IBM . Consultado el 1 de diciembre de 2020 .
- ^ Eckert, 1935
- ^ "Computación en Columbia Timeline" . Consultado el 11 de agosto de 2015 .
- ^ Eckert 1940 , págs. 101-114. El capítulo XII es "El cálculo de las perturbaciones planetarias".
- ^ Light, Jennifer S. (julio de 1999). "Cuando las computadoras eran mujeres". Tecnología y Cultura . 40 (3): 455–483. doi : 10.1353 / tech.1999.0128 . S2CID 108407884 .
- ^ Hunt 1998 , págs. Xiii-xxxvi
- ^ "Calculadora electromecánica Friden modelo STW-10" . Consultado el 11 de agosto de 2015 .
- ^ "Simple y silencioso". Revista Office . Diciembre de 1961. p. 1244.
- ^ " ' Anita' der erste tragbare elektonische Rechenautomat" ['Anita' la primera computadora electrónica portátil]. Mechaniker de Buromaschinen . Noviembre de 1961. p. 207.
- ^ Halacy, Daniel Stephen (1970). Charles Babbage, padre de la computadora . Prensa de Crowell-Collier. ISBN 0-02-741370-5.
- ^ "Babbage" . Cosas en línea . Museo de Ciencia. 19 de enero de 2007 . Consultado el 2012-08-01 .
- ^ "Construyamos la computadora mecánica definitiva de Babbage" . opinión . Científico nuevo. 23 de diciembre de 2010 . Consultado el 1 de agosto de 2012 .
- ^ "Motor analítico de Babbage: la primera computadora digital verdadera" . El motor analítico . Archivado desde el original el 21 de agosto de 2008 . Consultado el 21 de agosto de 2008 .
- ^ "Las páginas de Babbage: Motores de cálculo" . Projects.ex.ac.uk. 8 de enero de 1997 . Consultado el 1 de agosto de 2012 .
- ^ Tim Robinson (28 de mayo de 2007). "Motores de diferencia" . Meccano.us . Consultado el 1 de agosto de 2012 .
- ^ Menabrea y Lovelace 1843
- ^ "La Colección de Ciencias de la Computación de John Gabriel Byrne" (PDF) . Archivado desde el original el 16 de abril de 2019 . Consultado el 8 de agosto de 2019 .
- ^ Irlanda ingeniosa
- ^ Chua 1971 , págs. 507–519
- ^ a b c d "La historia moderna de la informática" . Enciclopedia de Filosofía de Stanford . Laboratorio de Investigación en Metafísica, Universidad de Stanford. 2017.
- ^ Ray Girvan (mayo-junio de 2003). "La gracia revelada del mecanismo: informática después de Babbage" . Mundo de la Computación Científica . Archivado desde el original el 3 de noviembre de 2012.
- ^ "Norden M9 Bombsight" . Museo Nacional de la USAF. Archivado desde el original el 29 de agosto de 2007 . Consultado el 17 de mayo de 2008 .
- ^ Coriolis 1836 , págs. 5-9
- ^ Tomayko, James E. (1985). "Computadora analógica totalmente electrónica de Helmut Hoelzer". IEEE Annals of the History of Computing . 7 (3): 227–240. doi : 10.1109 / MAHC.1985.10025 . S2CID 15986944 .
- ^ Neufeld, Michael J. (10 de septiembre de 2013). El cohete y el Reich: Peenemünde y la llegada de la era de los misiles balísticos . Institución Smithsonian. pag. 138. ISBN 9781588344663.
- ^ Ulmann, Bernd (22 de julio de 2013). Computación analógica . Walter de Gruyter. pag. 38. ISBN 9783486755183.
- ^ Turing 1937 , págs. 230-265. Versiones en línea: Actas de la Sociedad Matemática de Londres [ enlace muerto ] Otra versión en línea. Archivado el 22 de febrero de 2011 en la Wayback Machine.
- ^ Copeland, Jack (2004). El Turing esencial . pag. 22."von Neumann ... me enfatizó firmemente, ya otros estoy seguro, que la concepción fundamental se debe a Turing, en la medida en que no lo hayan anticipado Babbage, Lovelace y otros". Carta de Stanley Frankel a Brian Randell , 1972.
- ^ a b Zuse, Horst. "Parte 4: Computadoras Z1 y Z3 de Konrad Zuse" . La vida y obra de Konrad Zuse . EPE en línea. Archivado desde el original el 1 de junio de 2008 . Consultado el 17 de junio de 2008 .
- ^ Smith , 2007 , p. 60
- ^ Welchman 1984 , p. 77
- ^ "Un pionero de la informática redescubierto, 50 años después" . The New York Times . 20 de abril de 1994.
- ^ Zuse, Konrad (1993). Der Computer. Mein Lebenswerk (en alemán) (3ª ed.). Berlín: Springer-Verlag. pag. 55. ISBN 978-3-540-56292-4.
- ^ "Crash! La historia de TI: Zuse" . Archivado desde el original el 18 de marzo de 2008.
- ^ Rojas, Raúl (1998). Cómo convertir el Z3 de Zuse en una computadora universal . CiteSeerX 10.1.1.37.665 .
- ^ Williams, FC; Kilburn, T. (25 de septiembre de 1948), "Electronic Digital Computers" , Nature , 162 (4117): 487, Bibcode : 1948Natur.162..487W , doi : 10.1038 / 162487a0 , S2CID 4110351 , archivado desde el original en 2009- 04-06 - a través de Computer 50
- ^ Da Cruz 2008
- ^ "Pioneros de la informática - George Stibitz" . history.computer.org .
- ^ Ritchie, David (1986). Los pioneros de la informática . Nueva York: Simon y Schuster. pag. 35 . ISBN 067152397X.
- ^ J. Michael Dunn; Gary M. Hardegree (2001). Métodos algebraicos en lógica filosófica . Oxford University Press EE. UU. pag. 2. ISBN 978-0-19-853192-0.
- ^ Arthur Gottlob Frege. Begriffsschrift: eine der arithmetischen nachgebildete Formelsprache des reinen Denkens .
- ^ a b Shannon, Claude (1938). "Un análisis simbólico de circuitos de conmutación y relés" . Transacciones del Instituto Americano de Ingenieros Eléctricos . 57 (12): 713–723. doi : 10.1109 / t-aiee.1938.5057767 . hdl : 1721,1 / 11173 . S2CID 51638483 .
- ↑ Shannon, 1940
- ^ Guarnieri, M. (2012). "La era de los tubos de vacío: la fusión con la informática digital [histórico]". Revista de electrónica industrial IEEE . 6 (3): 52–55. doi : 10.1109 / MIE.2012.2207830 . S2CID 41800914 .
- ^ Emerson W. Pugh (1996). Construyendo IBM: Dando forma a una industria y su tecnología . La prensa del MIT .
- ^ "Patentes e Innovación" . IBM 100 . Consultado el 1 de diciembre de 2020 .
- ^ Aviso del 15 de enero de 1941 en el Registro de Des Moines
- ^ Alice R. Burks; Arthur W. Burks (1988). La primera computadora electrónica: la historia de Atanasoff . Ann Arbor: Prensa de la Universidad de Michigan. ISBN 0-472-10090-4.
- ^ Copeland , 2006 , p. 107.
- ^ Welchman 1984 , págs. 138-145, 295-309
- ^ Fessenden, Marissa. "Las mujeres fueron clave para romper el código de la Segunda Guerra Mundial en Bletchley Park" . Smithsonian . Consultado el 14 de octubre de 2018 .
- ^ Bearne, Suzanne (24 de julio de 2018). "Conoce a las mujeres descifradoras de códigos de Bletchley Park" . The Guardian . Consultado el 14 de octubre de 2018 .
- ^ Copeland , 2006 , p. 182.
- ^ Randell 1980 , p. 9
- ^ Budiansky 2000 , p. 314
- ^ "Coloso de Bletchley grietas en código" , BBC News 2 de febrero 2010 , recuperada 10/19/2012
- ^ Fensom, Jim (8 de noviembre de 2010), Harry Fensom esquela , recuperada 10/17/2012
- ^ Venta, Tony. "Coloso - La historia de la reconstrucción" . El Museo Nacional de Computación. Archivado desde el original el 18 de abril de 2015.
- ^ Copeland , 2006 , p. 75.
- ^ Small, Albert W. (diciembre de 1944), The Special Fish Report , The American National Archive (NARA) College Campus Washington
- ^ Randell, Brian ; Fensom, Harry; Milne, Frank A. (15 de marzo de 1995), "Obituario: Allen Coombs" , The Independent , consultado el 18 de octubre de 2012
- ^ Flowers, TH (1983), "The Design of Colossus" , Annals of the History of Computing , 5 (3): 239–252, doi : 10.1109 / MAHC.1983.10079 , S2CID 39816473
- ^ Brendan I. Loerner (25 de noviembre de 2014). "Cómo la primera computadora del mundo fue rescatada del montón de chatarra" . Cableado .
- ↑ Evans , 2018 , p. 39.
- ^ "Generaciones de Computadoras" . Archivado desde el original el 2 de julio de 2015 . Consultado el 11 de agosto de 2015 .
- ^ Copeland , 2006 , p. 104
- ^ Enticknap, Nicolás (del verano 1998), "Computing Golden Jubilee" , la resurrección , la Sociedad para la Conservación de ordenador (20), ISSN 0958-7.403 , Archivado desde el original en 2012-01-09 , recuperada 2008-04-19
- ^ "Los primeros ordenadores de la Universidad de Manchester" , la resurrección , la Sociedad de Conservación de la computadora, 1 (4), Verano 1992, ISSN 0.958 hasta 7.403 , Archivado desde el original en 08/28/2017 , recuperada 2010-07-07
- ^ "Por qué Williams-Kilburn Tube es un mejor nombre para Williams Tube" . Computadora 50 . Archivado desde el original el 6 de junio de 2013.
- ^ Kilburn, Tom (1990), "A partir de tubo de rayos catódicos a Ferranti Mark I" , la resurrección , la Sociedad de Conservación de la computadora, 1 (2), ISSN 0958 a 7.403 , recuperados 2012-03-15
- ^ "Early Electronic Computers (1946–51)" , Computer 50 , Universidad de Manchester, archivado desde el original el 5 de enero de 2009 , consultado el 16 de noviembre de 2008
- ^ Napper, RBE, "Introduction to the Mark 1" , Computer 50 , The University of Manchester, archivado desde el original el 26 de octubre de 2008 , consultado el 4 de noviembre de 2008
- ^ Lavington 1998 , p. 20
- ^ Mark Ward (13 de enero de 2011). "Computadora pionera Edsac que se construirá en Bletchley Park" . BBC News .
- ^ Wilkes, WV ; Renwick, W. (1950). "La EDSAC (calculadora automática de almacenamiento de retardo electrónico)" . Matemáticas. Comp . 4 (30): 61-65. doi : 10.1090 / s0025-5718-1950-0037589-7 .
- ^ "Una breve historia informal del Laboratorio de Computación" . EDSAC 99 . Laboratorio de Computación de la Universidad de Cambridge . Consultado el 1 de diciembre de 2020 .
- ^ "El Manchester Mark 1" . Computadora 50 . Archivado desde el original el 9 de febrero de 2014 . Consultado el 5 de enero de 2014 .
- ^ "Computadora pionera para ser reconstruida". Cam . 62 : 5. 2011.Para ser precisos, el primer programa de EDSAC imprimió una lista de los cuadrados de los números enteros del 0 al 99 inclusive.
- ^ EDSAC 99: 15–16 de abril de 1999 (PDF) , Laboratorio de Computación de la Universidad de Cambridge, 6 de mayo de 1999, págs. 68–69 , consultado el 29 de junio de 2013
- ^ Martin Campbell-Kelly (julio de 2001). "Guía Tutorial del Simulador EDSAC" (PDF) . Departamento de Ciencias de la Computación, Universidad de Warwick. Archivado desde el original (PDF) el 22 de diciembre de 2015 . Consultado el 18 de noviembre de 2016 .
• "Guía Tutorial del Simulador EDSAC" (PDF) . Proyecto de réplica de EDSAC, Museo Nacional de Computación. Marzo de 2018 . Consultado el 2 de diciembre de 2020 . - ^ Wilkes, MV (1956). Computadoras digitales automáticas . Nueva York: John Wiley & Sons. pp. 305 páginas. QA76.W5 1956.
- ^ Lavington 1998 , p. 25
- ^ Computer Conservation Society , Estudio piloto de nuestra herencia informática: entregas de computadoras Ferranti Mark I y Mark I Star. , archivado desde el original el 11 de diciembre de 2016 , consultado el 9 de enero de 2010
- ^ Lavington, Simon. "Una breve historia de las computadoras británicas: los primeros 25 años (1948-1973)" . Sociedad Británica de Computación . Consultado el 10 de enero de 2010 .
- ^ a b 1634 a 1699: Harris, P. (1996). "Inflación y deflación en América temprana, 1634-1860: patrones de cambio en la economía estadounidense británica". Historia de las Ciencias Sociales . 20 (4): 469–505. JSTOR 1171338 . 1700-1799: McCusker, JJ (1992). ¿Cuánto es eso en dinero real ?: un índice de precios histórico para usar como deflactor de valores monetarios en la economía de los Estados Unidos (PDF) . Sociedad Americana de Anticuarios . 1800-presente: Banco de la Reserva Federal de Minneapolis. "Índice de precios al consumidor (estimación) 1800–" . Consultado el 1 de enero de 2020 .
- ^ Kara Platoni (mayo-junio de 2006). "Amor al primer byte" . Revista Stanford . Archivado desde el original el 25 de septiembre de 2006.
- ^ Dr. VM Wolontis (18 de agosto de 1955) "Un completo sistema de interpretación decimal flotante para la calculadora de tambor magnético IBM 650 - Caso 20878" Memorando técnico de Bell Telephone Laboratories MM-114-37, informado en IBM Technical Newsletter No. 11, marzo 1956, como se menciona en "Intérprete de Wolontis-Bell". Anales de la historia de la informática . IEEE. 8 (1): 74–76. Enero de 1986. doi : 10.1109 / MAHC.1986.10008 . S2CID 36692260 .
- ^ Dudley, Leonard (2008), Revolución de la información en la historia de Occidente , Edward Elgar Publishing, p. 266, ISBN 978-1-84720-790-6
- ^ IBM (1957), SOAP II para IBM 650 (PDF) , C24-4000-0
- ^ Horowitz y Hill 1989 , p. 743
- ^ Wilkes, MV (1992). "Edsac 2". IEEE Annals of the History of Computing . 14 (4): 49–56. doi : 10.1109 / 85.194055 . S2CID 11377060 .
- ^ T. Kilburn; RB Payne; DJ Howarth (1962). "El supervisor de Atlas" . Atlas Computer . Consultado el 9 de febrero de 2010 .
- ^ An Wang presentó en octubre de 1949, patente estadounidense 2708722 , "Dispositivos de control de transferencia de pulso", emitida el 17 de mayo de 1955
- ↑ 1953: Computadora Whirlwind estrena memoria central , Museo de Historia de la Computación
- ^ N. Valery (21 de agosto de 1975). "Adquisición en el mercado de la memoria" . Nuevo científico . págs. 419–421.
- ^ Sommaruga, Giovanni; Strahm, Thomas (21 de enero de 2016). La revolución de Turing: el impacto de sus ideas sobre la computabilidad . Birkhäuser. pag. 88. ISBN 9783319221564.
- ^ Feynman, Leighton & Sands 1966 , págs. 14-11 a 14-12
- ^ IBM 1960 .
- ^ Lavington 1998 , págs. 34-35.
- ^ Lavington 1998 , p. 37
- ↑ a b Lavington , 1998 , p. 37.
- ^ a b Cooke-Yarborough, EH (1998). "Algunas aplicaciones de transistores tempranos en el Reino Unido". Revista de Ciencias de la Ingeniería y Educación . 7 (3): 100–106. doi : 10.1049 / esej: 19980301 .
- ^ Cooke-Yarborough, EH (1957). Introducción a los circuitos de transistores . Edimburgo: Oliver y Boyd.
- ^ Lavington, Simon (1980). Primeros ordenadores británicos . Prensa de la Universidad de Manchester. ISBN 0-7190-0803-4.
- ^ Cooke-Yarborough, EH; Barnes, RCM; Stephen, JH; Howells, GA (1956). "Una computadora digital de transistores". Actas de la IEE - Parte B: Ingeniería de radio y electrónica . 103 (3S): 364–370. doi : 10.1049 / pi-b-1.1956.0076 .
- ^ Lavington 1998 , págs. 36-37
- ^ "Metrovick" . Exposuremeters.net . Archivado desde el original el 7 de enero de 2014.
- ^ Simon 1991 .
- ^ Mayo y Newcomb 2008 .
- ^ Lavington 1998 , p. 41
- ^ Lavington 1998 , págs. 44–45
- ^ Lavington 1998 , págs. 50-52
- ^ Co-diseño de software de hardware de una plataforma SOC multimedia por Sao-Jie Chen, Guang-Huei Lin, Pao-Ann Hsiung, Yu-Hen Hu 2009 ISBN páginas 70–72
- ^ John Impagliazzo; John AN Lee (2004). Historia de la informática en la educación . pag. 172. ISBN 1-4020-8135-9.
- ^ Richard Sisson; Christian K. Zacher (2006). El Medio Oeste de Estados Unidos: una enciclopedia interpretativa . Prensa de la Universidad de Indiana. pag. 1489. ISBN 0-253-34886-2.
- ^ Kilby 2000
- ↑ The Chip that Jack Built , (c. 2008), (HTML), Texas Instruments, consultado el 29 de mayo de 2008.
- ^ Saxena, Arjun N. (2009). Invención de circuitos integrados: hechos importantes no contados . World Scientific . pag. 140. ISBN 9789812814456.
- ^ a b "Circuitos integrados" . NASA . Consultado el 13 de agosto de 2019 .
- ^ Circuito unitario de Robert Noyce , patente estadounidense 2981877 , " Estructura de cables y dispositivos semiconductores", emitida el 25 de abril de 1961, asignada a Fairchild Semiconductor Corporation
- ^ "1959: Práctico concepto de circuito integrado monolítico patentado" . Museo de Historia de la Computación . Consultado el 13 de agosto de 2019 .
- ^ Lojek, Bo (2007). Historia de la Ingeniería de Semiconductores . Springer Science & Business Media . pag. 120. ISBN 9783540342588.
- ^ Bassett, Ross Knox (2007). Hacia la era digital: laboratorios de investigación, empresas emergentes y el auge de la tecnología MOS . Prensa de la Universidad Johns Hopkins. pag. 46. ISBN 9780801886393.
- ^ Huff, Howard R .; Tsuya, H .; Gösele, U. (1998). Ciencia y tecnología de materiales de silicio: Actas del octavo simposio internacional sobre ciencia y tecnología de materiales de silicio . Sociedad Electroquímica . págs. 181-182. ISBN 9781566771931.
- ^ Ceruzzi, Paul (2015). "Computadora de orientación Apolo y los primeros chips de silicio" . Museo Nacional del Aire y del Espacio Smithsonian .
- ^ "1960 - Transistor de semiconductor de óxido de metal (MOS) demostrado" . El motor de silicio . Museo de Historia de la Computación .
- ^ a b "1970: MOS Dynamic RAM compite con la memoria de núcleo magnético en el precio" . Museo de Historia de la Computación . Consultado el 29 de julio de 2019 .
- ^ Diseño de estado sólido - Vol. 6 . Horizon House. 1965.
- ^ "DRAM" . IBM100 . IBM . 9 de agosto de 2017 . Consultado el 20 de septiembre de 2019 .
- ^ "1971: Se introduce la ROM semiconductora reutilizable" . Museo de Historia de la Computación . Consultado el 19 de junio de 2019 .
- ^ "No es solo un destello en la sartén" . The Economist . 11 de marzo de 2006 . Consultado el 10 de septiembre de 2019 .
- ^ a b c d Shirriff, Ken (30 de agosto de 2016). "La sorprendente historia de los primeros microprocesadores" . Espectro IEEE . Instituto de Ingenieros Eléctricos y Electrónicos . 53 (9): 48–54. doi : 10.1109 / MSPEC.2016.7551353 . S2CID 32003640 . Consultado el 13 de octubre de 2019 .
- ^ a b Intel 1971 .
- ^ Patterson y Hennessy 1998 , págs. 27–39.
- ^ William Aspray (25 de mayo de 1994) Historia oral: Tadashi Sasaki . Sasaki atribuye la idea de un chip PMOS de 4 bits a la idea de una investigadora de Sharp Corporation, que no fue aceptada por los otros miembros del grupo de intercambio de ideas de Sharp. Una infusión de 40 millones de yenes de Busicom a Intel se realizó a instancias de Sasaki, para explotar el chip PMOS de 4 bits.
- ^ Eckhouse y Morris 1979 , págs. 1-2
- ^ Shankland, Stephen (1 de abril de 2009). "Google descubre el servidor que alguna vez fue secreto" . Cnet . Archivado desde el original el 16 de julio de 2014 . Consultado el 1 de abril de 2009 ."Desde 2005, sus centros de datos [de Google] se componen de contenedores de envío estándar, cada uno con 1.160 servidores y un consumo de energía que puede alcanzar los 250 kilovatios". —Ben Jai de Google.
- ^ Shankland, Stephen (30 de mayo de 2008). "Google destaca el funcionamiento interno del centro de datos" . Cnet . Archivado desde el original el 18 de agosto de 2014 . Consultado el 31 de mayo de 2008 ."Si está ejecutando 10,000 máquinas, algo morirá todos los días". —Jeff Dean de Google.
- ^ "Grupos de Google" . Consultado el 11 de agosto de 2015 .
- ^ Ryan Shrout (2 de diciembre de 2009). "Intel muestra el procesador x86 de 48 núcleos como computadora en la nube de un solo chip" . Perspectiva de PC . Archivado desde el original el 14 de agosto de 2010 . Consultado el 2 de diciembre de 2020 .
• "Intel presenta un chip de silicio de computación en la nube de 48 núcleos" . BBC News . 3 de diciembre de 2009 . Consultado el 3 de diciembre de 2009 . - ^ Kohonen 1980 , págs. 1-368
- ^ Informe Energystar (PDF) (Informe). 2007. p. 4 . Consultado el 18 de agosto de 2013 .
- ^ Walt Mossberg (9 de julio de 2014). "Cómo la PC se fusiona con el teléfono inteligente" . Consultado el 9 de julio de 2014 .
- ^ Will Knight (10 de noviembre de 2017). "IBM sube el listón con una computadora cuántica de 50 Qubit" . Revisión de tecnología del MIT .
- ^ P. Pakkiam, A. V. Timofeev, M. G. House, M. R. Hogg, T. Kobayashi, M. Koch, S. Rogge y M. Y. Simmons Physical Review X 8 , 041032 - Publicado el 26 de noviembre de 2018
- ^ Samuel K. Moore (13 de marzo de 2019). "Google construye un circuito para resolver uno de los mayores problemas de la computación cuántica" . Espectro IEEE .
- ^ Russ Juskalian (22 de febrero de 2017). "Computadoras cuánticas prácticas" . Revisión de tecnología del MIT .
- ^ John D. MacKinnon (19 de diciembre de 2018). "Cámara aprueba proyecto de ley para crear programa nacional de computación cuántica" . El Wall Street Journal .
- ^ Universidad de Princeton (25 de diciembre de 2019). "Avance de la computación cuántica: Qubits de silicio interactúan a larga distancia" . SciTechDaily .
- ^ Smolin 2001 , págs. 53–57. Las páginas 220–226 son referencias anotadas y una guía para lectura adicional.
- ^ Burks, Goldstine & von Neumann 1947 , págs. 1-464 reimpreso en Datamation , septiembre-octubre de 1962. Tenga en cuenta que la discusión / diseño preliminar fue el término que más tarde se denominó análisis / diseño de sistemas , e incluso más tarde, arquitectura de sistemas.
- ^ DBLP resume los Anales de la Historia de la Computación año tras año, hasta 1995, hasta ahora.
- ^ Tom McKay (22 de junio de 2020). "La nueva supercomputadora Fugaku de Japón es la número uno, clasificada en 415 Petaflops" . Gizmodo .
- ^ Susan Greenfield (2004). La gente del mañana: cómo la tecnología del siglo XXI está cambiando la forma en que pensamos y sentimos . Penguin Books Limited. pag. 153. ISBN 978-0-14-192608-7.
Referencias
- Backus, John (agosto de 1978), "¿Se puede liberar la programación del estilo von Neumann?", Comunicaciones del ACM , 21 (8): 613, doi : 10.1145 / 359576.359579 , S2CID 16367522 , 1977 Conferencia del premio ACM Turing
- Bell, Gordon ; Newell, Allen (1971), Estructuras informáticas: lecturas y ejemplos , Nueva York: McGraw-Hill, ISBN 0-07-004357-4
- Bergin, Thomas J., ed. (13-14 de noviembre de 1996), Fifty Years of Army Computing: from ENIAC to MSRC (PDF) , A record of a symposium and celebration, Aberdeen Proving Ground .: Army Research Laboratory y USArmy Ordnance Center and School., Archivado desde el original (PDF) el 2008-05-29 , consultado el 2008-05-17
- Bowden, BV (1970), "El lenguaje de los ordenadores" , American Scientist , 58 (1): 43-53, bibcode : 1970AmSci..58 ... 43B , recuperada 2008-05-17
- Budiansky, Stephen (2000), Battle of wits: The Complete Story of Codebreaking in World War II , Free Press, ISBN 978-0684859323
- Burks, Arthur W .; Goldstine, Herman ; von Neumann, John (1947), Discusión preliminar del diseño lógico de un instrumento de computación electrónica , Princeton, Nueva Jersey: Instituto de estudios avanzados , consultado el 18 de mayo de 2008
- Chua, Leon O (septiembre de 1971), "Memristor: The Missing Circuit Element", IEEE Transactions on Circuit Theory , CT-18 (5): 507–519, CiteSeerX 10.1.1.404.9037 , doi : 10.1109 / TCT.1971.1083337
- Cleary, JF (1964), GE Transistor Manual (7ª ed.), General Electric, Departamento de Productos Semiconductores, Syracuse, NY, págs. 139–204, OCLC 223686427
- Copeland, B. Jack, ed. (2006), Colossus: The Secrets of Bletchley Park's Codebreaking Computers , Oxford, Inglaterra: Oxford University Press , ISBN 0-19-284055-X
- Coriolis, Gaspard-Gustave (1836), "Note sur un moyen de tracer des courbes données par des équations différentielles" , Journal de Mathématiques Pures et Appliquées , serie I (en francés), 1 : 5-9 , recuperado 2008-07- 06
- Cortada, James W. (2009), "Las políticas públicas y el desarrollo de las industrias informáticas nacionales en Gran Bretaña, Francia y la Unión Soviética, 1940-80", Journal of Contemporary History , 44 (3): 493-512, doi : 10.1177 / 0022009409104120 , JSTOR 40543045 , S2CID 159510351
- CSIRAC: primer ordenador de Australia , Científica e Industrial Research Organisation (CSIRAC) 3 de junio de 2005, Archivado desde el original (- Académico de búsqueda ) en 2011-12-13 , recuperada 2007-12-21
- Da Cruz, Frank (28 de febrero de 2008), "La secuencia de IBM con control automático de la calculadora (ASCC)" , Universidad de Columbia Computación Historia: Cronología de la Computación de la Universidad de Columbia , la Universidad de Columbia ACIS , recuperada 2008-05-17
- Davenport, Wilbur B. Jr; Root, William L. (1958), "Introducción a la teoría de señales aleatorias y ruido", Physics Today , 11 (6): 112–364, Bibcode : 1958PhT .... 11f..30D , doi : 10.1063 / 1.3062606
- Eckert, Wallace (1935), "The Computation of Special Perturations by the Punched Card Method.", Astronomical Journal , 44 (1034): 177, Bibcode : 1935AJ ..... 44..177E , doi : 10.1086 / 105298
- Eckert, Wallace (1940), "XII:" El cálculo de las perturbaciones planetarias " ", Métodos de tarjetas perforadas en la computación científica , Oficina de Computación Astronómica Thomas J. Watson, Universidad de Columbia, págs. 101-114, hdl : 2027 / uc1.b3621946 , OCLC 2275308
- Eckhouse, Richard H. Jr .; Morris, L. Robert (1979), Sistemas de minicomputadoras: organización, programación y aplicaciones (PDP-11) , Prentice-Hall, págs. 1–2, ISBN 0-13-583914-9
- Enticknap, Nicolás (del verano 1998), "Computing Golden Jubilee" , la resurrección , la Sociedad para la Conservación de ordenador (20), ISSN 0958-7.403 , Archivado desde el original en 2012-01-09 , recuperada 2008-04-19
- Evans, Claire L. (2018). Broad Band: La historia no contada de las mujeres que hicieron Internet . Nueva York: Portfolio / Penguin. ISBN 9780735211759.
- Feynman, RP ; Leighton, Robert ; Sands, Matthew (1965), Feynman Lectures on Physics: Mainly Mechanics, Radiation and Heat , I , Reading, Mass: Addison-Wesley, ISBN 0-201-02010-6, OCLC 531535
- Feynman, RP ; Leighton, Robert ; Sands, Matthew (1966), Feynman Lectures on Physics: Quantum Mechanics , III , Reading, Mass: Addison-Wesley, ASIN B007BNG4E0
- Fisk, Dale (2005), Punch cards (PDF) , Columbia University ACIS , consultado el 19 de mayo de 2008
- Flamm, Kenneth (1987), Dirigiéndose a la computadora: apoyo gubernamental y competencia internacional , Washington, DC: Brookings Institution Press , ISBN 978-0-815-72852-8
- Flamm, Kenneth (1988), Creación de la computadora: gobierno, industria y alta tecnología , Washington, DC: Brookings Institution Press , ISBN 978-0-815-72850-4
- Hollerith, Herman (1890). En relación con el sistema de tabulación eléctrica que ha sido adoptado por el gobierno de los Estados Unidos para el trabajo de la oficina del censo (tesis doctoral). Escuela de Minas de la Universidad de Columbia .
- Horowitz, Paul; Hill, Winfield (1989), El arte de la electrónica (2a ed.), Cambridge University Press, ISBN 0-521-37095-7
- Hunt, J. cr (1998), "Lewis Fry Richardson y sus contribuciones a las matemáticas, la meteorología y los modelos de conflicto" (PDF) , Annu. Rev. Fluid Mech. , 30 (1): XIII – XXXVI, Bibcode : 1998AnRFM..30D..13H , doi : 10.1146 / annurev.fluid.30.1.0 , archivado desde el original (PDF) en 2008-02-27 , consultado 2008-06 -15
- IBM (septiembre de 1956), unidad de almacenamiento en disco IBM 350 , IBM , consultado el 1 de julio de 2008
- IBM (1960), IBM Standard Modular System SMS Cards , IBM, archivado desde el original el 2007-12-06 , consultado el 2008-03-06
- Intel (noviembre de 1971), primer microprocesador de Intel: Intel 4004 , Intel Corp. , consultado el 17 de mayo de 2008
- Jones, Douglas W, Tarjetas perforadas: una breve historia técnica ilustrada , Universidad de Iowa , consultado el 15 de mayo de 2008
- Kalman, RE (1960), "Un nuevo enfoque para problemas de predicción y filtrado lineal" (PDF) , Journal of Basic Engineering , 82 (1): 35–45, doi : 10.1115 / 1.3662552 , archivado desde el original (PDF) en 2008-05-29 , consultado el 2008-05-03
- Kells; Kern; Bland (1943), The Log-Log Duplex Decitrig Slide Rule No. 4081: A Manual , Keuffel & Esser, p. 92
- Kilby, Jack (2000), Conferencia Nobel (PDF) , Estocolmo: Fundación Nobel , consultado el 15 de mayo de 2008
- Kohonen, Teuvo (1980), Memorias direccionables por contenido , Springer-Verlag, p. 368, ISBN 0-387-09823-2
- Lavington, Simon (1998), A History of Manchester Computers (2 ed.), Swindon: The British Computer Society
- Lazos, Christos (1994), Ο ΥΠΟΛΟΓΙΣΤΗΣ ΤΩΝ ΑΝΤΙΚΥΘΗΡΩΝ [ The Antikythera Computer ], ΑΙΟΛΟΣ PUBLICATIONS GR
- Leibniz, Gottfried (1703), Explication de l'Arithmétique Binaire
- Lubar, Steven (mayo de 1991), "no se pliegan, husillo o mutilar": Una historia cultural de la tarjeta perforada , Archivado desde el original en 2006-10-25 , recuperado 2006-10-31
- Marguin, Jean (1994), Histoire des instruments et machines à calculer, trois siècles de mécanique pensante 1642-1942 (en francés), Hermann, ISBN 978-2-7056-6166-3
- Martin, Douglas (29 de junio de 2008), "David Caminer, 92 muere; un pionero en computadoras", The New York Times , p. 24
- Mayo, Keenan; Newcomb, Peter (julio de 2008), "Cómo se ganó la web: una historia oral de Internet" , Vanity Fair : 96-117 , consultado el 1 de diciembre de 2020.
- Mead, Carver; Conway, Lynn (1980), Introducción a los sistemas VLSI , Reading, Mass .: Addison-Wesley, Bibcode : 1980aw ... libro ..... M , ISBN 0-201-04358-0
- Menabrea, Luigi Federico; Lovelace, Ada (1843), "Bosquejo del motor analítico inventado por Charles Babbage" , Memorias científicas , 3 Con notas sobre la memoria del traductor.
- Menninger, Karl (1992), Palabras numéricas y símbolos numéricos: una historia cultural de los números , Publicaciones de Dover Traducción del alemán al inglés, MIT, 1969.
- Montaner; Simon (1887), Diccionario enciclopédico hispano-americano de literatura, ciencias y artes (Diccionario enciclopédico hispanoamericano)
- Moye, William T. (enero de 1996), ENIAC: The Army-Sponsored Revolution , archivado desde el original el 16 de julio de 2007 , consultado el 17 de mayo de 2008
- Noyce, Robert Patente estadounidense 2981877 , Robert Noyce , "Dispositivo semiconductor y estructura de cables", expedida el 25 de abril de 1961, asignada a Fairchild Semiconductor Corporation
- Patterson, David; Hennessy, John (1998), Organización y diseño de computadoras , San Francisco: Morgan Kaufmann , ISBN 1-55860-428-6
- Mourlevat, Guy (1988), Les machines arithmétiques de Blaise Pascal (en francés), Clermont-Ferrand: La Française d'Edition et d'Imprimerie
- Pellerin, David; Thibault, Scott (22 de abril de 2005), Programación práctica de FPGA en C , Subserie de la serie de diseño de semiconductores modernos de Prentice Hall: Biblioteca de integridad de la señal PH, págs. 1-464, ISBN 0-13-154318-0
- Phillips, AWH , The MONIAC (PDF) , Reserve Bank Museum, archivado desde el original (PDF) el 2007-10-24 , consultado el 2006-05-17
- Randell, Brian (1980), "The Colossus" , en Metropolis, N .; Howlett, J .; Rota, Gian-Carlo (eds.), A History of Computing in the Twentieth Century , págs. 47–92, ISBN 978-0124916500
- Reynolds, David (2010), "La ciencia, la tecnología y la Guerra Fría", en Leffler, Melvyn P .; Westad, Odd Arne (eds.), The Cambridge History of the Cold War, Volume III: Endings , Cambridge: Cambridge University Press , págs. 378–399, ISBN 978-0-521-83721-7
- Rojas, Raúl ; Hashagen, Ulf, eds. (2000). Las primeras computadoras: historia y arquitecturas . Cambridge: MIT Press. ISBN 0-262-68137-4.
- Schmandt-Besserat, Denise (1981), "El descifrado de las primeras tabletas", Science , 211 (4479): 283–285, Bibcode : 1981Sci ... 211..283S , doi : 10.1126 / science.211.4479.283 , PMID 17748027
- Shannon, Claude E. (1940), Un análisis simbólico de circuitos de conmutación y relés , Instituto de Tecnología de Massachusetts, Departamento de Ingeniería Eléctrica, hdl : 1721.1 / 11173
- Simon, Herbert A. (1991), Modelos de mi vida , Libros básicos, Serie de la Fundación Sloan
- Singer (1946), Singer in World War II, 1939-1945 - the M5 Director , Singer Manufacturing Co., archivado desde el original el 4 de junio de 2009 , consultado el 17 de mayo de 2008
- Smith, David Eugene (1929), A Source Book in Mathematics , Nueva York: McGraw-Hill, págs. 180–181
- Smith, Michael (2007) [1998], Station X: The Codebreakers of Bletchley Park , Pan Grand Strategy Series, Londres: Pan MacMillan Ltd, ISBN 978-0-330-41929-1
- Smolin, Lee (2001), Three Roads to Quantum Gravity , Basic Books, págs. 53–57 , ISBN 0-465-07835-4 Las páginas 220–226 son referencias anotadas y una guía para lectura adicional.
- Steinhaus, H. (1999), Mathematical Snapshots (3ª ed.), Nueva York: Dover, págs. 92–95, pág. 301
- Stern, Nancy (1981), De ENIAC a UNIVAC: una evaluación de las computadoras Eckert-Mauchly , Digital Press, ISBN 0-932376-14-2
- Stibitz, George Patente estadounidense 2668661 , George Stibitz , "Computadora compleja", expedida 1954-02-09, asignada a American Telephone & Telegraph Company
- Taton, René (1969), Histoire du calcul. Que sais-je? n ° 198 (en francés), Presses universitaires de France
- Turing, AM (1937), "On Computable Numbers, with an Application to the Entscheidungsproblem", Proceedings of the London Mathematical Society , 2, 42 (1): 230–65, doi : 10.1112 / plms / s2-42.1.230 (y Turing, AM (1938), "On Computable Numbers, with an Application to the Entscheidungsproblem: A correct", Proceedings of the London Mathematical Society , 2, 43 (6): 544-6, doi : 10.1112 / plms / s2-43.6 .544) Otras versiones en línea: Actas de la Sociedad Matemática de Londres [ enlace muerto ] Otro enlace en línea. Archivado el 22 de febrero de 2011 en la Wayback Machine.
- Ulam, Stanislaw (1976), Adventures of a Mathematician , Nueva York: Charles Scribner's Sons, (autobiografía)
- Vidal, Nathalie; Vogt, Dominique (2011), Les Machines Arithmétiques de Blaise Pascal (en francés), Clermont-Ferrand: Muséum Henri-Lecoq, ISBN 978-2-9528068-4-8
- von Neumann, John (30 de junio de 1945), primer borrador de un informe sobre el EDVAC , Moore School of Electrical Engineering: University of Pennsylvania
- Wang, una patente estadounidense 2708722 , An Wang , "Dispositivos de control de transferencia de pulsos", emitida el 17 de mayo de 1955
- Welchman, Gordon (1984), The Hut Six Story: Breaking the Enigma Codes , Harmondsworth, Inglaterra: Penguin Books , págs. 138–145, 295–309
- Wilkes, Maurice (1986), "La génesis de la microprogramación", Ann. Hist. Comp. , 8 (2): 115–126
- Williams, Michael R. (1997), Historia de la tecnología informática , Los Alamitos, California: IEEE Computer Society, ISBN 0-8186-7739-2
- Ziemer, Roger E .; Tranter, William H .; Fannin, D. Ronald (1993), Señales y sistemas: continuos y discretos , Macmillan, p. 370, ISBN 0-02-431641-5
- Zuse, Z3 Computer (1938-1941) , archivado desde el original el 17 de junio de 2008 , consultado el 1 de junio de 2008
- Zuse, Konrad (2010) [1984], The Computer - My Life Translated by McKenna, Patricia and Ross, J. Andrew de: Der Computer, mein Lebenswerk (1984) , Berlín / Heidelberg: Springer-Verlag, ISBN 978-3-642-08151-4
Otras lecturas
- "acceso en línea" . IEEE Annals of the History of Computing . Archivado desde el original el 23 de mayo de 2006.
- Ceruzzi, Paul E. (1998), Una historia de la informática moderna , The MIT Press
- Revista Computers and Automation - Informe ilustrado sobre el campo de la informática:
- UNA INTRODUCCIÓN PICTORIAL A LAS COMPUTADORAS - 06/1957
- UN MANUAL PICTORIAL SOBRE COMPUTADORAS - 12/1957
- UN MANUAL FOTOGRÁFICO SOBRE COMPUTADORAS, Parte 2 - 01/1958
- 1958-1967 Informe pictórico sobre el campo informático - Ediciones de diciembre ( 195812.pdf, ..., 196712.pdf )
- Bit by Bit: An Illustrated History of Computers , Stan Augarten, 1984. OCR con permiso del autor
enlaces externos
- Tecnología obsoleta - Computadoras antiguas
- Historia de la tecnología de cálculo
- Computadoras históricas en Japón
- La historia de las máquinas de cálculo mecánicas japonesas
- Computer History - una colección de artículos de Bob Bemer
- 25 microchips que sacudieron al mundo : una colección de artículos del Instituto de Ingenieros Eléctricos y Electrónicos
- Historia de la Computación de la Universidad de Columbia
- Historias informáticas : un curso introductorio sobre la historia de la informática
- Revolución: los primeros 2000 años de la informática , Museo de Historia de la Computación