Ordenador


Una computadora es una máquina que puede programarse para realizar secuencias de operaciones aritméticas o lógicas de forma automática. Las computadoras modernas pueden realizar conjuntos genéricos de operaciones conocidas como programas . Estos programas permiten a las computadoras realizar una amplia gama de tareas. Un sistema informático es una computadora "completa" que incluye el hardware , el sistema operativo ( software principal ) y los equipos periféricos necesarios y utilizados para una operación "completa". Este término también puede referirse a un grupo de computadoras que están vinculadas y funcionan juntas, como una red de computadoras.o grupo de computadoras .

Sala de computadoras con varios gabinetes de computadora y panel de operación
Smartphone con pantalla similar a un arcoíris sostenido en una mano
Computadora de escritorio negra con monitor en la parte superior y teclado en la parte delantera
Consola de videojuegos morada con controlador adjunto
Filas de gabinetes de computadora grandes y oscuros en una habitación similar a un almacén
Los ordenadores y dispositivos informáticos de diferentes épocas - en sentido horario desde la parte superior izquierda:
vacío temprana ordenador tubo ( ENIAC )
la unidad central del ordenador ( IBM System 360 )
de ordenador de sobremesa (IBM ThinkCentre S50 con monitor)
superordenador (IBM Cumbre )
Consola de videojuegos (Nintendo GameCube )
Smartphone ( Agua LYF 2)

Una amplia gama de productos industriales y de consumo utilizan computadoras como sistemas de control . Se incluyen dispositivos simples de propósito especial como hornos microondas y controles remotos , al igual que dispositivos de fábrica como robots industriales y diseño asistido por computadora , así como dispositivos de uso general como computadoras personales y dispositivos móviles como teléfonos inteligentes . Las computadoras alimentan Internet , que conecta a cientos de millones de otras computadoras y usuarios.

Las primeras computadoras solo estaban destinadas a ser utilizadas para cálculos. Los instrumentos manuales simples como el ábaco han ayudado a las personas a realizar cálculos desde la antigüedad. A principios de la Revolución Industrial , se construyeron algunos dispositivos mecánicos para automatizar tareas largas y tediosas, como los patrones de guía para telares . Máquinas eléctricas más sofisticadas hicieron cálculos analógicos especializados a principios del siglo XX. Las primeras máquinas calculadoras electrónicas digitales se desarrollaron durante la Segunda Guerra Mundial . Los primeros transistores semiconductores a finales de la década de 1940 fueron seguidos por el MOSFET (transistor MOS) basado en silicio y las tecnologías de chip de circuito integrado monolítico (IC) a fines de la década de 1950, lo que llevó al microprocesador y la revolución de la microcomputadora en la década de 1970. La velocidad, la potencia y la versatilidad de las computadoras han aumentado drásticamente desde entonces, con el número de transistores aumentando a un ritmo rápido (como lo predijo la ley de Moore ), lo que llevó a la Revolución Digital a finales del siglo XX y principios del XXI.

Convencionalmente, una computadora moderna consta de al menos un elemento de procesamiento , típicamente una unidad central de procesamiento (CPU) en forma de microprocesador , junto con algún tipo de memoria de computadora , típicamente chips de memoria semiconductores . El elemento de procesamiento realiza operaciones aritméticas y lógicas, y una unidad de secuenciación y control puede cambiar el orden de las operaciones en respuesta a la información almacenada . Los dispositivos periféricos incluyen dispositivos de entrada (teclados, ratones, joystick , etc.), dispositivos de salida (pantallas de monitor, impresoras , etc.) y dispositivos de entrada / salida que realizan ambas funciones (por ejemplo, la pantalla táctil de la era 2000 ). Los dispositivos periféricos permiten recuperar información de una fuente externa y permiten guardar y recuperar el resultado de las operaciones.

Una computadora humana, con microscopio y calculadora, 1952

Según el Oxford English Dictionary , el primer uso conocido de la palabra "computadora" fue en 1613 en un libro llamado The Yong Mans Gleanings del escritor inglés Richard Braithwait : "He leído la computadora más verdadera del Times, y la el mejor aritmético que euer [sic] respiró, y reduce tus días a un pequeño número ". Este uso del término se refería a una computadora humana , una persona que realizaba cálculos o cálculos. La palabra continuó con el mismo significado hasta mediados del siglo XX. Durante la última parte de este período, a menudo se contrataba a mujeres como computadoras porque se les podía pagar menos que a sus contrapartes masculinas. [1] En 1943, la mayoría de las computadoras humanas eran mujeres. [2]

El Diccionario de Etimología en línea da el primer uso comprobado de "computadora" en la década de 1640, que significa "alguien que calcula"; este es un "sustantivo de agente de compute (v.)". El Diccionario de Etimología en línea establece que el uso del término para significar " 'máquina de calcular' (de cualquier tipo) es de 1897." El Diccionario de Etimología en línea indica que el "uso moderno" del término, para significar "computadora electrónica digital programable" data de "1945 bajo este nombre; [en un] [sentido] teórico de 1937, como máquina de Turing ". [3]

Antes del siglo XX

El hueso de Ishango , una herramienta de hueso que se remonta al África prehistórica .

Los dispositivos se han utilizado para ayudar a la computación durante miles de años, principalmente utilizando correspondencia uno a uno con los dedos . El primer dispositivo de conteo fue probablemente una forma de palo de conteo . Las ayudas posteriores para el mantenimiento de registros en todo el Creciente Fértil incluyeron cálculos (esferas de arcilla, conos, etc.) que representaban recuentos de artículos, probablemente ganado o granos, sellados en recipientes huecos de arcilla sin cocer. [4] [5] El uso de varillas contadoras es un ejemplo.

El suanpan chino (算盘). El número representado en este ábaco es 6.302.715.408.

El ábaco se utilizó inicialmente para tareas aritméticas. El ábaco romano se desarrolló a partir de dispositivos utilizados en Babilonia ya en el 2400 a. C. Desde entonces, se han inventado muchas otras formas de tablas o tableros de cálculo. En una casa de contabilidad europea medieval , se colocaba un mantel a cuadros sobre una mesa y se movían marcadores de acuerdo con ciertas reglas, como ayuda para calcular las sumas de dinero. [6]

El mecanismo de Antikythera , que se remonta a la antigua Grecia alrededor del 150-100 a. C., es un dispositivo informático analógico temprano .

Se cree que el mecanismo de Antikythera es la primera computadora analógica mecánica , según Derek J. de Solla Price . [7] Fue diseñado para calcular posiciones astronómicas. Fue descubierto en 1901 en el naufragio de Antikythera frente a la isla griega de Antikythera , entre Kythera y Creta , y se ha fechado en c.  100 a . C. Los dispositivos de un nivel de complejidad comparable al del mecanismo de Antikythera no reaparecerían hasta mil años después.

Se construyeron muchas ayudas mecánicas para el cálculo y la medición para uso astronómico y de navegación. El planisferio fue un mapa estelar inventado por Abū Rayhān al-Bīrūnī a principios del siglo XI. [8] El astrolabio se inventó en el mundo helenístico en los siglos I o II a. C. ya menudo se atribuye a Hiparco . Una combinación de planisferio y dioptra , el astrolabio era efectivamente una computadora analógica capaz de resolver varios tipos diferentes de problemas en astronomía esférica . Un astrolabio que incorpora una computadora de calendario mecánico [9] [10] y ruedas dentadas fue inventado por Abi Bakr de Isfahan , Persia en 1235. [11] Abū Rayhān al-Bīrūnī inventó el primer astrolabio de calendario lunisolar con engranajes mecánicos , [12] un temprana máquina de procesamiento de conocimiento de cableado fijo [13] con un tren de engranajes y ruedas dentadas, [14] c.  1000 AD .

El sector , un instrumento de cálculo utilizado para resolver problemas de proporción, trigonometría, multiplicación y división, y para diversas funciones, como cuadrados y raíces cúbicas, se desarrolló a fines del siglo XVI y encontró aplicación en artillería, agrimensura y navegación.

El planímetro era un instrumento manual para calcular el área de una figura cerrada trazándola con un enlace mecánico.

Una regla de cálculo .

La regla de cálculo fue inventada alrededor de 1620-1630 por el clérigo inglés William Oughtred , poco después de la publicación del concepto de logaritmo . Es una computadora analógica operada manualmente para hacer multiplicaciones y divisiones. A medida que avanzaba el desarrollo de la regla de cálculo, las escalas añadidas proporcionaron recíprocos, cuadrados y raíces cuadradas, cubos y raíces cúbicas, así como funciones trascendentales como logaritmos y exponenciales, trigonometría circular e hiperbólica y otras funciones . Las reglas de cálculo con escalas especiales todavía se utilizan para realizar cálculos de rutina rápidamente, como la regla de cálculo circular E6B que se utiliza para los cálculos de tiempo y distancia en aviones ligeros.

En la década de 1770, Pierre Jaquet-Droz , un relojero suizo , construyó una muñeca mecánica ( autómata ) que podía escribir con una pluma. Al cambiar el número y el orden de sus ruedas internas, se podrían producir diferentes letras y, por lo tanto, diferentes mensajes. En efecto, podría "programarse" mecánicamente para leer instrucciones. Junto con otras dos máquinas complejas, la muñeca se encuentra en el Musée d'Art et d'Histoire de Neuchâtel , Suiza , y todavía funciona. [15]

En 1831-1835, el matemático e ingeniero Giovanni Plana ideó una máquina de calendario perpetuo , que, aunque era un sistema de poleas y cilindros y más, podía predecir el calendario perpetuo para cada año desde el 0 d.C. (es decir, el 1 a.C.) hasta el 4000 d.C. realizar un seguimiento de los años bisiestos y la duración variable de los días. La máquina de predicción de mareas inventada por el científico escocés Sir William Thomson en 1872 fue de gran utilidad para la navegación en aguas poco profundas. Utilizaba un sistema de poleas y cables para calcular automáticamente los niveles de marea previstos durante un período determinado en una ubicación en particular.

El analizador diferencial , una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales por integración , utilizó mecanismos de rueda y disco para realizar la integración. En 1876, Sir William Thomson ya había discutido la posible construcción de tales calculadoras, pero se había visto obstaculizado por el par de salida limitado de los integradores de bola y disco . [16] En un analizador diferencial, la salida de un integrador impulsó la entrada del siguiente integrador, o una salida gráfica. El amplificador de par fue el avance que permitió que estas máquinas funcionaran. A partir de la década de 1920, Vannevar Bush y otros desarrollaron analizadores diferenciales mecánicos.

Primer dispositivo informático

Una parte del motor de diferencias de Babbage .

Charles Babbage , un ingeniero mecánico y erudito inglés , originó el concepto de una computadora programable. Considerado el " padre de la computadora ", [17] conceptualizó e inventó la primera computadora mecánica a principios del siglo XIX. Después de trabajar en su revolucionario motor diferencial , diseñado para ayudar en los cálculos de navegación, en 1833 se dio cuenta de que era posible un diseño mucho más general, un motor analítico . La entrada de programas y datos debía ser proporcionada a la máquina a través de tarjetas perforadas , un método que se utilizaba en ese momento para dirigir telares mecánicos como el telar Jacquard . Para la salida, la máquina tendría una impresora, un trazador de curvas y una campana. La máquina también podría perforar números en tarjetas para leerlos más tarde. El motor incorporó una unidad lógica aritmética , control de flujo en forma de bifurcaciones condicionales y bucles , y memoria integrada , lo que lo convirtió en el primer diseño de una computadora de uso general que podría describirse en términos modernos como Turing-completo . [18] [19]

La máquina se adelantó un siglo a su tiempo. Todas las piezas de su máquina tenían que hacerse a mano; este era un problema importante para un dispositivo con miles de piezas. Finalmente, el proyecto se disolvió con la decisión del gobierno británico de dejar de financiar. El fracaso de Babbage para completar el motor analítico puede atribuirse principalmente a dificultades políticas y financieras, así como a su deseo de desarrollar una computadora cada vez más sofisticada y avanzar más rápido de lo que nadie podría seguir. Sin embargo, su hijo, Henry Babbage, completó una versión simplificada de la unidad de computación del motor analítico (el molino ) en 1888. Dio una demostración exitosa de su uso en tablas de computación en 1906.

Computadoras analógicas

El tercer diseño de la máquina de predicción de mareas de Sir William Thomson , 1879-1881

Durante la primera mitad del siglo XX, muchas necesidades de computación científica fueron satisfechas por computadoras analógicas cada vez más sofisticadas , que utilizaron un modelo mecánico o eléctrico directo del problema como base para el cálculo . Sin embargo, estos no eran programables y generalmente carecían de la versatilidad y precisión de las computadoras digitales modernas. [20] La primera computadora analógica moderna fue una máquina de predicción de mareas , inventada por Sir William Thomson (que más tarde se convertiría en Lord Kelvin) en 1872. El analizador diferencial , una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales por integración utilizando ruedas y mecanismos de disco, fue conceptualizado en 1876 por James Thomson , el hermano mayor del más famoso Sir William Thomson. [dieciséis]

El arte de la computación analógica mecánica alcanzó su cenit con el analizador diferencial , construido por HL Hazen y Vannevar Bush en el MIT a partir de 1927. Esto se basó en los integradores mecánicos de James Thomson y los amplificadores de par inventados por HW Nieman. Una docena de estos dispositivos se construyeron antes de que se hiciera evidente su obsolescencia. En la década de 1950, el éxito de las computadoras electrónicas digitales había marcado el fin de la mayoría de las máquinas de computación analógica, pero las computadoras analógicas siguieron utilizándose durante la década de 1950 en algunas aplicaciones especializadas como la educación ( regla de cálculo ) y la aviación ( sistemas de control ).

Computadoras digitales

Electromecánica

En 1938, la Marina de los Estados Unidos había desarrollado una computadora analógica electromecánica lo suficientemente pequeña para usarla a bordo de un submarino . Este era el Torpedo Data Computer , que usaba trigonometría para resolver el problema de disparar un torpedo a un objetivo en movimiento. Durante la Segunda Guerra Mundial , también se desarrollaron dispositivos similares en otros países.

Replica de Zuse 's Z3 , el (electromecánico) ordenador digital de primera totalmente automático,.

Las primeras computadoras digitales eran electromecánicas ; los interruptores eléctricos accionaban relés mecánicos para realizar el cálculo. Estos dispositivos tenían una velocidad de funcionamiento baja y finalmente fueron reemplazados por computadoras totalmente eléctricas mucho más rápidas, que originalmente usaban tubos de vacío . El Z2 , creado por el ingeniero alemán Konrad Zuse en 1939, fue uno de los primeros ejemplos de una computadora de relé electromecánico. [21]

En 1941, Zuse siguió su máquina anterior con la Z3 , la primera computadora digital totalmente automática programable electromecánica en funcionamiento del mundo . [22] [23] El Z3 fue construido con 2000 relés , implementando una longitud de palabra de 22  bits que operaba a una frecuencia de reloj de aproximadamente 5-10  Hz . [24] El código de programa se proporcionó en una película perforada , mientras que los datos se pudieron almacenar en 64 palabras de memoria o se proporcionaron desde el teclado. Era bastante similar a las máquinas modernas en algunos aspectos, siendo pionero en numerosos avances, como los números de coma flotante . En lugar del sistema decimal más difícil de implementar (utilizado en el diseño anterior de Charles Babbage ), el uso de un sistema binario significaba que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en ese momento. [25] El Z3 no era en sí mismo una computadora universal, pero podría extenderse para ser Turing completo . [26] [27]

Tubos de vacío y circuitos electrónicos digitales

Los elementos de circuito puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos, al mismo tiempo que el cálculo digital reemplazó al analógico. El ingeniero Tommy Flowers , que trabajaba en la Post Office Research Station de Londres en la década de 1930, comenzó a explorar el posible uso de la electrónica para la central telefónica . El equipo experimental que construyó en 1934 entró en funcionamiento cinco años después, convirtiendo una parte de la red de central telefónica en un sistema electrónico de procesamiento de datos, utilizando miles de tubos de vacío . [20] En los Estados Unidos, John Vincent Atanasoff y Clifford E. Berry de la Universidad Estatal de Iowa desarrollaron y probaron la Computadora Atanasoff-Berry (ABC) en 1942, [28] la primera "computadora digital electrónica automática". [29] Este diseño también era totalmente electrónico y utilizaba unos 300 tubos de vacío, con condensadores fijados en un tambor giratorio mecánicamente para la memoria. [30]

Colossus , el primer dispositivo informático programable digital electrónico , se utilizó para descifrar los cifrados alemanes durante la Segunda Guerra Mundial. Se ve aquí en uso en Bletchley Park en 1943.

Durante la Segunda Guerra Mundial, los descifradores de códigos británicos en Bletchley Park lograron una serie de éxitos al romper las comunicaciones militares alemanas cifradas. La máquina de cifrado alemana, Enigma , fue atacada por primera vez con la ayuda de bombas electromecánicas que a menudo eran dirigidas por mujeres. [31] [32] Para descifrar la máquina alemana Lorenz SZ 40/42 más sofisticada , utilizada para comunicaciones del Ejército de alto nivel, Max Newman y sus colegas encargaron a Flowers la construcción del Coloso . [30] Pasó once meses desde principios de febrero de 1943 diseñando y construyendo el primer Coloso. [33] Después de una prueba funcional en diciembre de 1943, Colossus fue enviado a Bletchley Park, donde fue entregado el 18 de enero de 1944 [34] y atacó su primer mensaje el 5 de febrero. [30]

Colossus fue la primera computadora programable digital electrónica del mundo. [20] Utilizaba una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y podía configurarse para realizar una variedad de operaciones lógicas booleanas en sus datos, pero no era Turing completo . Se construyeron nueve Mk II Colossi (el Mk I se convirtió en un Mk II haciendo diez máquinas en total). El Colossus Mark I contenía 1.500 válvulas termoiónicas (tubos), pero el Mark II con 2.400 válvulas era 5 veces más rápido y más sencillo de operar que el Mark I, lo que aceleraba enormemente el proceso de decodificación. [35] [36]

ENIAC fue el primer dispositivo electrónico Turing completo y realizó cálculos de trayectoria balística para el Ejército de los Estados Unidos .

El ENIAC [37] (Integrador Numérico Electrónico y Computadora) fue el primer computador electrónico programable construido en los Estados Unidos. Aunque el ENIAC era similar al Colossus, era mucho más rápido, más flexible y Turing completo . Al igual que el Colossus, un "programa" en el ENIAC se definía por los estados de sus cables de conexión e interruptores, muy lejos de las máquinas electrónicas de programas almacenados que vinieron más tarde. Una vez que se escribió un programa, se tuvo que configurar mecánicamente en la máquina con restablecimiento manual de enchufes e interruptores. Las programadoras de la ENIAC fueron seis mujeres, a menudo conocidas colectivamente como las "niñas ENIAC". [38] [39]

Combinó la alta velocidad de la electrónica con la capacidad de ser programado para muchos problemas complejos. Podría sumar o restar 5000 veces por segundo, mil veces más rápido que cualquier otra máquina. También tenía módulos para multiplicar, dividir y raíz cuadrada. La memoria de alta velocidad estaba limitada a 20 palabras (aproximadamente 80 bytes). Construido bajo la dirección de John Mauchly y J. Presper Eckert en la Universidad de Pensilvania, el desarrollo y la construcción de ENIAC duró desde 1943 hasta su pleno funcionamiento a fines de 1945. La máquina era enorme, pesaba 30 toneladas, utilizaba 200 kilovatios de energía eléctrica y contenía más de 18.000 tubos de vacío, 1.500 relés y cientos de miles de resistencias, condensadores e inductores. [40]

Computadoras modernas

Concepto de computadora moderna

El principio de la computadora moderna fue propuesto por Alan Turing en su artículo seminal de 1936, [41] On Computable Numbers . Turing propuso un dispositivo simple que llamó "máquina de cómputo universal" y que ahora se conoce como máquina de Turing universal . Demostró que dicha máquina es capaz de calcular cualquier cosa que sea computable ejecutando instrucciones (programa) almacenadas en cinta, lo que permite que la máquina sea programable. El concepto fundamental del diseño de Turing es el programa almacenado , donde todas las instrucciones para la computación se almacenan en la memoria. Von Neumann reconoció que el concepto central de la computadora moderna se debe a este artículo. [42] Las máquinas de Turing son hasta el día de hoy un objeto central de estudio en la teoría de la computación . Excepto por las limitaciones impuestas por sus almacenes de memoria finitos, se dice que las computadoras modernas son Turing-complete , es decir, tienen una capacidad de ejecución de algoritmos equivalente a una máquina universal de Turing.

Programas almacenados

Una sección del Manchester Baby , la primera computadora electrónica con programa almacenado

Las primeras máquinas informáticas tenían programas fijos. Cambiar su función requirió el recableado y la reestructuración de la máquina. [30] Con la propuesta de la computadora con programa almacenado esto cambió. Una computadora con programa almacenado incluye por diseño un conjunto de instrucciones y puede almacenar en la memoria un conjunto de instrucciones (un programa ) que detalla el cálculo . Alan Turing estableció la base teórica de la computadora con programa almacenado en su artículo de 1936. En 1945, Turing se unió al Laboratorio Nacional de Física y comenzó a trabajar en el desarrollo de una computadora digital electrónica con programa almacenado. Su informe de 1945 "Proposed Electronic Calculator" fue la primera especificación para tal dispositivo. John von Neumann de la Universidad de Pensilvania también hizo circular su Primer Borrador de un Informe sobre el EDVAC en 1945. [20]

El Manchester Baby fue la primera computadora con programas almacenados del mundo . Fue construido en la Universidad de Manchester en Inglaterra por Frederic C. Williams , Tom Kilburn y Geoff Tootill , y ejecutó su primer programa el 21 de junio de 1948. [43] Fue diseñado como un banco de pruebas para el tubo Williams , el primer ensayo aleatorio. acceder al dispositivo de almacenamiento digital. [44] Aunque la computadora se consideraba "pequeña y primitiva" según los estándares de su época, fue la primera máquina en funcionamiento que contenía todos los elementos esenciales para una computadora electrónica moderna. [45] Tan pronto como el Baby demostró la viabilidad de su diseño, se inició un proyecto en la universidad para convertirlo en una computadora más utilizable, la Manchester Mark 1 . Grace Hopper fue la primera persona en desarrollar un compilador para lenguaje de programación. [2]

La Mark 1, a su vez, se convirtió rápidamente en el prototipo de Ferranti Mark 1 , la primera computadora de uso general disponible comercialmente en el mundo. [46] Construido por Ferranti , fue entregado a la Universidad de Manchester en febrero de 1951. Al menos siete de estas máquinas posteriores fueron entregadas entre 1953 y 1957, una de ellas a los laboratorios Shell en Amsterdam . [47] En octubre de 1947, los directores de la empresa británica de catering J. Lyons & Company decidieron tomar un papel activo en la promoción del desarrollo comercial de computadoras. La computadora LEO I entró en funcionamiento en abril de 1951 [48] y ejecutó el primer trabajo informático de oficina de rutina del mundo .

Transistores

Transistor de unión bipolar (BJT)

El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar Lilienfeld en 1925. John Bardeen y Walter Brattain , mientras trabajaban con William Shockley en Bell Labs , construyeron el primer transistor en funcionamiento , el transistor de contacto de punto , en 1947, que fue seguido por el transistor de unión bipolar de Shockley en 1948. [49] [50] Desde 1955 en adelante, los transistores reemplazaron a los tubos de vacío en los diseños de computadora, dando lugar a la "segunda generación" de computadoras. En comparación con los tubos de vacío, los transistores tienen muchas ventajas: son más pequeños y requieren menos energía que los tubos de vacío, por lo que emiten menos calor. Los transistores de unión eran mucho más fiables que los tubos de vacío y tenían una vida útil más larga e indefinida. Las computadoras transistorizadas podrían contener decenas de miles de circuitos lógicos binarios en un espacio relativamente compacto. Sin embargo, los primeros transistores de unión eran dispositivos relativamente voluminosos que eran difíciles de fabricar en masa , lo que los limitaba a una serie de aplicaciones especializadas. [51]

En la Universidad de Manchester , un equipo bajo la dirección de Tom Kilburn diseñó y construyó una máquina utilizando los transistores recientemente desarrollados en lugar de válvulas. [52] Su primera computadora transistorizada y la primera en el mundo, estaba operativa en 1953 , y una segunda versión se completó allí en abril de 1955. Sin embargo, la máquina hizo uso de válvulas para generar sus formas de onda de reloj de 125 kHz y en los circuitos para leer y escribir en su memoria de tambor magnético , por lo que no fue la primera computadora completamente transistorizada. Esa distinción corresponde al Harwell CADET de 1955, [53] construido por la división de electrónica del Atomic Energy Research Establishment en Harwell . [53] [54]

MOSFET (transistor MOS), que muestra los terminales de puerta (G), cuerpo (B), fuente (S) y drenaje (D). La puerta está separada del cuerpo por una capa aislante (rosa).

El transistor de efecto de campo de óxido de metal-silicio (MOSFET), también conocido como transistor MOS, fue inventado por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959. [55] Fue el primer transistor verdaderamente compacto que pudo ser Miniaturizado y producido en serie para una amplia gama de usos. [51] Con su alta escalabilidad , [56] y mucho menor consumo de energía y mayor densidad que los transistores de unión bipolar, [57] el MOSFET hizo posible construir circuitos integrados de alta densidad . [58] [59] Además del procesamiento de datos, también permitió el uso práctico de transistores MOS como elementos de almacenamiento de celdas de memoria, lo que llevó al desarrollo de la memoria semiconductora MOS , que reemplazó la memoria de núcleo magnético anterior en las computadoras. El MOSFET condujo a la revolución de las microcomputadoras , [60] y se convirtió en la fuerza impulsora detrás de la revolución de las computadoras . [61] [62] El MOSFET es el transistor más utilizado en las computadoras, [63] [64] y es el bloque de construcción fundamental de la electrónica digital . [sesenta y cinco]

Circuitos integrados

El siguiente gran avance en la potencia informática llegó con la llegada del circuito integrado (IC). La idea del circuito integrado fue concebida por primera vez por un científico de radar que trabajaba para el Royal Radar Establishment del Ministerio de Defensa , Geoffrey WA Dummer . Dummer presentó la primera descripción pública de un circuito integrado en el Simposio sobre el progreso en componentes electrónicos de calidad en Washington, DC el 7 de mayo de 1952. [66]

Los primeros circuitos integrados en funcionamiento fueron inventados por Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor . [67] Kilby registró sus ideas iniciales sobre el circuito integrado en julio de 1958, demostrando con éxito el primer ejemplo integrado funcional el 12 de septiembre de 1958. [68] En su solicitud de patente del 6 de febrero de 1959, Kilby describió su nuevo dispositivo como "un cuerpo de material semiconductor ... en el que todos los componentes del circuito electrónico están completamente integrados ". [69] [70] Sin embargo, la invención de Kilby fue un circuito integrado híbrido (IC híbrido), en lugar de un chip de circuito integrado monolítico (IC). [71] El CI de Kilby tenía conexiones de cables externos, lo que dificultaba su producción en masa. [72]

A Noyce también se le ocurrió su propia idea de un circuito integrado medio año más tarde que Kilby. [73] La invención de Noyce fue el primer chip IC monolítico verdadero. [74] [72] Su chip resolvió muchos problemas prácticos que el de Kilby no había hecho. Producido en Fairchild Semiconductor, estaba hecho de silicio , mientras que el chip de Kilby estaba hecho de germanio . El CI monolítico de Noyce se fabricó utilizando el proceso plano , desarrollado por su colega Jean Hoerni a principios de 1959. A su vez, el proceso plano se basó en el trabajo de Mohamed M. Atalla sobre la pasivación de la superficie de semiconductores por dióxido de silicio a finales de la década de 1950. [75] [76] [77]

Los circuitos integrados monolíticos modernos son predominantemente circuitos integrados MOS ( semiconductores de óxido de metal ), construidos a partir de MOSFET (transistores MOS). [78] El primer MOS IC experimental que se fabricó fue un chip de 16 transistores construido por Fred Heiman y Steven Hofstein en RCA en 1962. [79] General Microelectronics luego introdujo el primer MOS IC comercial en 1964, [80] desarrollado por Robert Normando. [79] Tras el desarrollo del transistor MOS de puerta autoalineada ( puerta de silicio) por Robert Kerwin, Donald Klein y John Sarace en Bell Labs en 1967, Federico desarrolló el primer IC MOS de puerta de silicio con puertas autoalineadas. Faggin en Fairchild Semiconductor en 1968. [81] Desde entonces, el MOSFET se ha convertido en el componente de dispositivo más crítico en los circuitos integrados modernos. [82]

El desarrollo del circuito integrado MOS condujo a la invención del microprocesador , [83] [84] y anunció una explosión en el uso comercial y personal de las computadoras. Si bien el tema de qué dispositivo fue exactamente el primer microprocesador es controvertido, en parte debido a la falta de acuerdo sobre la definición exacta del término "microprocesador", es indiscutible que el primer microprocesador de un solo chip fue el Intel 4004 , [85] diseñado y realizado por Federico Faggin con su tecnología MOS IC de puerta de silicio, [83] junto con Ted Hoff , Masatoshi Shima y Stanley Mazor en Intel . [86] [87] A principios de la década de 1970, la tecnología MOS IC permitió la integración de más de 10,000 transistores en un solo chip. [59]

System on a Chip (SoC) son computadoras completas en un microchip (o chip) del tamaño de una moneda. [88] Pueden tener o no RAM y memoria flash integradas . Si no está integrada, la RAM generalmente se coloca directamente encima (conocido como Paquete en el paquete ) o debajo (en el lado opuesto de la placa de circuito ) del SoC, y la memoria flash generalmente se coloca justo al lado del SoC, todo esto se hace para Mejore las velocidades de transferencia de datos, ya que las señales de datos no tienen que viajar largas distancias. Desde ENIAC en 1945, las computadoras han avanzado enormemente, con los SoC modernos (como el Snapdragon 865) que tienen el tamaño de una moneda y al mismo tiempo son cientos de miles de veces más potentes que ENIAC, integran miles de millones de transistores y consumen solo unos pocos vatios. de poder.

Computadoras móviles

Las primeras computadoras móviles eran pesadas y funcionaban con la red eléctrica. El IBM 5100 de 50 libras fue un ejemplo temprano. Los portátiles posteriores, como el Osborne 1 y el Compaq Portable, eran considerablemente más ligeros, pero aún debían enchufarse. Los primeros portátiles , como el Grid Compass , eliminaron este requisito al incorporar baterías y con la miniaturización continua de los recursos informáticos y los avances en los dispositivos portátiles. duración de la batería, las computadoras portátiles aumentaron en popularidad en la década de 2000. [89] Los mismos avances permitieron a los fabricantes integrar recursos informáticos en teléfonos móviles a principios de la década de 2000.

Estos teléfonos inteligentes y tabletas funcionan con una variedad de sistemas operativos y recientemente se convirtieron en el dispositivo informático dominante en el mercado. [90] Estos funcionan con System on a Chip (SoC), que son computadoras completas en un microchip del tamaño de una moneda. [88]

Las computadoras se pueden clasificar de diferentes maneras, que incluyen:

Por arquitectura

  • Computadora analógica
  • Computadora digital
  • Computadora híbrida
  • Arquitectura de Harvard
  • Arquitectura de von Neumann
  • Equipo conjunto de instrucciones complejas
  • Grupo reducido de instrucciones para computadoras

Por tamaño, factor de forma y propósito

  • Supercomputadora
  • Computadora central
  • Minicomputadora (término que ya no se usa)
  • Servidor
    • Servidor de montaje en rack
    • Servidor Blade
    • Servidor de torre
  • Computadora personal
    • Puesto de trabajo
    • Microordenador (término que ya no se usa)
      • Computador de casa
    • Computadora de escritorio
      • Escritorio de torre
      • Escritorio delgado
        • Computadora multimedia ( computadoras con sistema de edición no lineal, computadoras de edición de video y similares)
        • Computadora para juegos
      • PC todo en uno
      • Nettop ( PC de factor de forma pequeño , Mini PC)
      • PC de cine en casa
      • Computadora con teclado
      • Ordenador portátil
      • Cliente ligero
      • Dispositivo de Internet
    • Computadora portátil
      • Computadora de escritorio de reemplazo
      • Portátil para juegos
      • Portátil resistente
      • PC 2 en 1
      • Ultrabook
      • Chromebook
      • Subportátil
      • Netbook
  • Computadoras móviles :
    • Tableta
    • Teléfono inteligente
    • PC ultramóvil
    • PC de bolsillo
    • PC de bolsillo
    • PC de mano
  • Computadora portátil
    • Reloj inteligente
    • Gafas inteligentes
  • Computadora de placa única
  • Enchufe la computadora
  • Stick PC
  • Controlador lógico programable
  • Computadora en módulo
  • Sistema en módulo
  • Sistema en un paquete
  • Sistema en chip (también conocido como procesador de aplicaciones o AP si carece de circuitos, como circuitos de radio)
  • Microcontrolador

"> Reproducir medios
Video que muestra los componentes estándar de una computadora "delgada"

El término hardware cubre todas aquellas partes de una computadora que son objetos físicos tangibles. Los circuitos, chips de computadora, tarjetas gráficas, tarjetas de sonido, memoria (RAM), placa base, pantallas, fuentes de alimentación, cables, teclados, impresoras y dispositivos de entrada "mouse" son todos hardware.

Historia del hardware informático

Otros temas de hardware

Una computadora de propósito general tiene cuatro componentes principales: la unidad aritmética lógica (ALU), la unidad de control , la memoria y los dispositivos de entrada y salida (denominados colectivamente E / S). Estas partes están interconectadas por buses , a menudo hechos de grupos de cables . Dentro de cada una de estas partes hay miles o billones de pequeños circuitos eléctricos que se pueden apagar o encender por medio de un interruptor electrónico . Cada circuito representa un bit (dígito binario) de información de modo que cuando el circuito está encendido representa un "1" y cuando está apagado representa un "0" (en representación lógica positiva). Los circuitos están dispuestos en puertas lógicas para que uno o más de los circuitos puedan controlar el estado de uno o más de los otros circuitos.

Los dispositivos de entrada

Cuando se envían datos sin procesar a la computadora con la ayuda de dispositivos de entrada, los datos se procesan y se envían a los dispositivos de salida. Los dispositivos de entrada pueden operarse manualmente o automatizarse. El acto de procesamiento está regulado principalmente por la CPU. Algunos ejemplos de dispositivos de entrada son:

  • Teclado
  • Cámara digital
  • Video digital
  • Tableta gráfica
  • Escáner de imágenes
  • Palanca de mando
  • Micrófono
  • Ratón
  • Teclado superpuesto
  • Reloj en tiempo real
  • Trackball
  • Pantalla táctil
  • Pluma ligera

Dispositivos de salida

Los medios a través de los cuales la computadora da salida se conocen como dispositivos de salida. Algunos ejemplos de dispositivos de salida son:

  • Monitor de computadora
  • Impresora
  • Altavoz de la PC
  • Proyector
  • Tarjeta de sonido
  • Tarjeta de video

Unidad de control

Diagrama que muestra cómo el sistema de control decodificaría una instrucción particular de arquitectura MIPS

La unidad de control (a menudo llamada sistema de control o controlador central) administra los diversos componentes de la computadora; lee e interpreta (decodifica) las instrucciones del programa, transformándolas en señales de control que activan otras partes de la computadora. [92] Los sistemas de control en computadoras avanzadas pueden cambiar el orden de ejecución de algunas instrucciones para mejorar el rendimiento.

Un componente clave común a todas las CPU es el contador de programa , una celda de memoria especial (un registro ) que realiza un seguimiento de la ubicación de la memoria desde la que se leerá la siguiente instrucción. [93]

La función del sistema de control es la siguiente: tenga en cuenta que esta es una descripción simplificada y que algunos de estos pasos se pueden realizar al mismo tiempo o en un orden diferente según el tipo de CPU:

  1. Lea el código de la siguiente instrucción de la celda indicada por el contador del programa.
  2. Decodifica el código numérico de la instrucción en un conjunto de comandos o señales para cada uno de los otros sistemas.
  3. Incremente el contador del programa para que apunte a la siguiente instrucción.
  4. Lea los datos que la instrucción requiera de las celdas en la memoria (o quizás de un dispositivo de entrada). La ubicación de estos datos requeridos generalmente se almacena dentro del código de instrucción.
  5. Proporcione los datos necesarios a una ALU o regístrese.
  6. Si la instrucción requiere una ALU o hardware especializado para completarse, indique al hardware que realice la operación solicitada.
  7. Escriba el resultado de la ALU en una ubicación de memoria o en un registro o quizás en un dispositivo de salida.
  8. Vuelva al paso (1).

Dado que el contador del programa es (conceptualmente) solo otro conjunto de celdas de memoria, se puede cambiar mediante cálculos realizados en la ALU. Agregar 100 al contador del programa provocaría que la siguiente instrucción se lea desde un lugar 100 ubicaciones más abajo en el programa. Las instrucciones que modifican el contador del programa a menudo se conocen como "saltos" y permiten bucles (instrucciones que son repetidas por la computadora) y, a menudo, ejecución de instrucciones condicional (ambos ejemplos de flujo de control ).

La secuencia de operaciones que atraviesa la unidad de control para procesar una instrucción es en sí misma como un programa de computadora corto y, de hecho, en algunos diseños de CPU más complejos, hay otra computadora aún más pequeña llamada microsecuenciador , que ejecuta un programa de microcódigo que causa todos estos eventos sucederán.

Unidad Central de Procesamiento (CPU)

La unidad de control, ALU y los registros se conocen colectivamente como unidad central de procesamiento (CPU). Las primeras CPU estaban compuestas por muchos componentes separados. Desde la década de 1970, las CPU se han construido típicamente en un solo chip de circuito integrado MOS llamado microprocesador .

Unidad aritmética lógica (ALU)

La ALU es capaz de realizar dos clases de operaciones: aritmética y lógica. [94] El conjunto de operaciones aritméticas que admite una ALU en particular puede limitarse a sumas y restas, o puede incluir funciones de multiplicación, división, trigonometría como seno, coseno, etc. y raíces cuadradas . Algunos solo pueden operar con números enteros ( enteros ) mientras que otros usan punto flotante para representar números reales , aunque con precisión limitada. Sin embargo, cualquier computadora que sea capaz de realizar solo las operaciones más simples puede programarse para dividir las operaciones más complejas en pasos simples que pueda realizar. Por lo tanto, cualquier computadora puede programarse para realizar cualquier operación aritmética, aunque llevará más tiempo hacerlo si su ALU no respalda directamente la operación. Una ALU también puede comparar números y devolver valores booleanos de verdad (verdadero o falso) dependiendo de si uno es igual, mayor o menor que el otro ("¿64 es mayor que 65?"). Las operaciones lógicas involucran lógica booleana : AND , OR , XOR y NOT . Estos pueden ser útiles para crear declaraciones condicionales complicadas y procesar lógica booleana .

Las computadoras superescalares pueden contener múltiples ALU, lo que les permite procesar varias instrucciones simultáneamente. [95] Los procesadores gráficos y las computadoras con características SIMD y MIMD a menudo contienen ALU que pueden realizar operaciones aritméticas en vectores y matrices .

Memoria

La memoria de núcleo magnético (usando núcleos magnéticos ) fue la memoria de computadora elegida en la década de 1960, hasta que fue reemplazada por la memoria semiconductora (usando celdas de memoria MOS ).

La memoria de una computadora se puede ver como una lista de celdas en las que se pueden colocar o leer números. Cada celda tiene una "dirección" numerada y puede almacenar un solo número. Se le puede indicar a la computadora que "ponga el número 123 en la celda numerada 1357" o que "agregue el número que está en la celda 1357 al número que está en la celda 2468 y ponga la respuesta en la celda 1595". La información almacenada en la memoria puede representar prácticamente cualquier cosa. Las letras, los números e incluso las instrucciones de la computadora se pueden guardar en la memoria con la misma facilidad. Dado que la CPU no distingue entre diferentes tipos de información, es responsabilidad del software dar significado a lo que la memoria ve como nada más que una serie de números.

En casi todas las computadoras modernas, cada celda de memoria está configurada para almacenar números binarios en grupos de ocho bits (llamados bytes ). Cada byte puede representar 256 números diferentes (2 8 = 256); ya sea de 0 a 255 o de −128 a +127. Para almacenar números más grandes, se pueden utilizar varios bytes consecutivos (normalmente, dos, cuatro u ocho). Cuando se requieren números negativos, generalmente se almacenan en notación en complemento a dos . Son posibles otros arreglos, pero generalmente no se ven fuera de aplicaciones especializadas o contextos históricos. Una computadora puede almacenar cualquier tipo de información en la memoria si se puede representar numéricamente. Las computadoras modernas tienen miles de millones o incluso billones de bytes de memoria.

The CPU contains a special set of memory cells called registers that can be read and written to much more rapidly than the main memory area. There are typically between two and one hundred registers depending on the type of CPU. Registers are used for the most frequently needed data items to avoid having to access main memory every time data is needed. As data is constantly being worked on, reducing the need to access main memory (which is often slow compared to the ALU and control units) greatly increases the computer's speed.

Computer main memory comes in two principal varieties:

  • random-access memory or RAM
  • read-only memory or ROM

RAM can be read and written to anytime the CPU commands it, but ROM is preloaded with data and software that never changes, therefore the CPU can only read from it. ROM is typically used to store the computer's initial start-up instructions. In general, the contents of RAM are erased when the power to the computer is turned off, but ROM retains its data indefinitely. In a PC, the ROM contains a specialized program called the BIOS that orchestrates loading the computer's operating system from the hard disk drive into RAM whenever the computer is turned on or reset. In embedded computers, which frequently do not have disk drives, all of the required software may be stored in ROM. Software stored in ROM is often called firmware, because it is notionally more like hardware than software. Flash memory blurs the distinction between ROM and RAM, as it retains its data when turned off but is also rewritable. It is typically much slower than conventional ROM and RAM however, so its use is restricted to applications where high speed is unnecessary.[96]

In more sophisticated computers there may be one or more RAM cache memories, which are slower than registers but faster than main memory. Generally computers with this sort of cache are designed to move frequently needed data into the cache automatically, often without the need for any intervention on the programmer's part.

Input/output (I/O)

Hard disk drives are common storage devices used with computers.

I/O is the means by which a computer exchanges information with the outside world.[97] Devices that provide input or output to the computer are called peripherals.[98] On a typical personal computer, peripherals include input devices like the keyboard and mouse, and output devices such as the display and printer. Hard disk drives, floppy disk drives and optical disc drives serve as both input and output devices. Computer networking is another form of I/O. I/O devices are often complex computers in their own right, with their own CPU and memory. A graphics processing unit might contain fifty or more tiny computers that perform the calculations necessary to display 3D graphics.[citation needed] Modern desktop computers contain many smaller computers that assist the main CPU in performing I/O. A 2016-era flat screen display contains its own computer circuitry.

Multitasking

While a computer may be viewed as running one gigantic program stored in its main memory, in some systems it is necessary to give the appearance of running several programs simultaneously. This is achieved by multitasking i.e. having the computer switch rapidly between running each program in turn.[99] One means by which this is done is with a special signal called an interrupt, which can periodically cause the computer to stop executing instructions where it was and do something else instead. By remembering where it was executing prior to the interrupt, the computer can return to that task later. If several programs are running "at the same time". then the interrupt generator might be causing several hundred interrupts per second, causing a program switch each time. Since modern computers typically execute instructions several orders of magnitude faster than human perception, it may appear that many programs are running at the same time even though only one is ever executing in any given instant. This method of multitasking is sometimes termed "time-sharing" since each program is allocated a "slice" of time in turn.[100]

Before the era of inexpensive computers, the principal use for multitasking was to allow many people to share the same computer. Seemingly, multitasking would cause a computer that is switching between several programs to run more slowly, in direct proportion to the number of programs it is running, but most programs spend much of their time waiting for slow input/output devices to complete their tasks. If a program is waiting for the user to click on the mouse or press a key on the keyboard, then it will not take a "time slice" until the event it is waiting for has occurred. This frees up time for other programs to execute so that many programs may be run simultaneously without unacceptable speed loss.

Multiprocessing

Cray designed many supercomputers that used multiprocessing heavily.

Some computers are designed to distribute their work across several CPUs in a multiprocessing configuration, a technique once employed only in large and powerful machines such as supercomputers, mainframe computers and servers. Multiprocessor and multi-core (multiple CPUs on a single integrated circuit) personal and laptop computers are now widely available, and are being increasingly used in lower-end markets as a result.

Supercomputers in particular often have highly unique architectures that differ significantly from the basic stored-program architecture and from general-purpose computers.[101] They often feature thousands of CPUs, customized high-speed interconnects, and specialized computing hardware. Such designs tend to be useful only for specialized tasks due to the large scale of program organization required to successfully utilize most of the available resources at once. Supercomputers usually see usage in large-scale simulation, graphics rendering, and cryptography applications, as well as with other so-called "embarrassingly parallel" tasks.

Software refers to parts of the computer which do not have a material form, such as programs, data, protocols, etc. Software is that part of a computer system that consists of encoded information or computer instructions, in contrast to the physical hardware from which the system is built. Computer software includes computer programs, libraries and related non-executable data, such as online documentation or digital media. It is often divided into system software and application software Computer hardware and software require each other and neither can be realistically used on its own. When software is stored in hardware that cannot easily be modified, such as with BIOS ROM in an IBM PC compatible computer, it is sometimes called "firmware".

Languages

There are thousands of different programming languages—some intended for general purpose, others useful only for highly specialized applications.

Programs

The defining feature of modern computers which distinguishes them from all other machines is that they can be programmed. That is to say that some type of instructions (the program) can be given to the computer, and it will process them. Modern computers based on the von Neumann architecture often have machine code in the form of an imperative programming language. In practical terms, a computer program may be just a few instructions or extend to many millions of instructions, as do the programs for word processors and web browsers for example. A typical modern computer can execute billions of instructions per second (gigaflops) and rarely makes a mistake over many years of operation. Large computer programs consisting of several million instructions may take teams of programmers years to write, and due to the complexity of the task almost certainly contain errors.

Stored program architecture

Replica of the Manchester Baby, the world's first electronic stored-program computer, at the Museum of Science and Industry in Manchester, England

This section applies to most common RAM machine–based computers.

In most cases, computer instructions are simple: add one number to another, move some data from one location to another, send a message to some external device, etc. These instructions are read from the computer's memory and are generally carried out (executed) in the order they were given. However, there are usually specialized instructions to tell the computer to jump ahead or backwards to some other place in the program and to carry on executing from there. These are called "jump" instructions (or branches). Furthermore, jump instructions may be made to happen conditionally so that different sequences of instructions may be used depending on the result of some previous calculation or some external event. Many computers directly support subroutines by providing a type of jump that "remembers" the location it jumped from and another instruction to return to the instruction following that jump instruction.

Program execution might be likened to reading a book. While a person will normally read each word and line in sequence, they may at times jump back to an earlier place in the text or skip sections that are not of interest. Similarly, a computer may sometimes go back and repeat the instructions in some section of the program over and over again until some internal condition is met. This is called the flow of control within the program and it is what allows the computer to perform tasks repeatedly without human intervention.

Comparatively, a person using a pocket calculator can perform a basic arithmetic operation such as adding two numbers with just a few button presses. But to add together all of the numbers from 1 to 1,000 would take thousands of button presses and a lot of time, with a near certainty of making a mistake. On the other hand, a computer may be programmed to do this with just a few simple instructions. The following example is written in the MIPS assembly language:

 begin: addi $8, $0, 0 # initialize sum to 0 addi $9, $0, 1 # set first number to add = 1 loop: slti $10, $9, 1000 # check if the number is less than 1000 beq $10, $0, finish # if odd number is greater than n then exit add $8, $8, $9 # update sum addi $9, $9, 1 # get next number j loop # repeat the summing process finish: add $2, $8, $0 # put sum in output register

Once told to run this program, the computer will perform the repetitive addition task without further human intervention. It will almost never make a mistake and a modern PC can complete the task in a fraction of a second.

Machine code

In most computers, individual instructions are stored as machine code with each instruction being given a unique number (its operation code or opcode for short). The command to add two numbers together would have one opcode; the command to multiply them would have a different opcode, and so on. The simplest computers are able to perform any of a handful of different instructions; the more complex computers have several hundred to choose from, each with a unique numerical code. Since the computer's memory is able to store numbers, it can also store the instruction codes. This leads to the important fact that entire programs (which are just lists of these instructions) can be represented as lists of numbers and can themselves be manipulated inside the computer in the same way as numeric data. The fundamental concept of storing programs in the computer's memory alongside the data they operate on is the crux of the von Neumann, or stored program[citation needed], architecture. In some cases, a computer might store some or all of its program in memory that is kept separate from the data it operates on. This is called the Harvard architecture after the Harvard Mark I computer. Modern von Neumann computers display some traits of the Harvard architecture in their designs, such as in CPU caches.

While it is possible to write computer programs as long lists of numbers (machine language) and while this technique was used with many early computers,[102] it is extremely tedious and potentially error-prone to do so in practice, especially for complicated programs. Instead, each basic instruction can be given a short name that is indicative of its function and easy to remember – a mnemonic such as ADD, SUB, MULT or JUMP. These mnemonics are collectively known as a computer's assembly language. Converting programs written in assembly language into something the computer can actually understand (machine language) is usually done by a computer program called an assembler.

A 1970s punched card containing one line from a Fortran program. The card reads: "Z(1) = Y + W(1)" and is labeled "PROJ039" for identification purposes.

Programming language

Programming languages provide various ways of specifying programs for computers to run. Unlike natural languages, programming languages are designed to permit no ambiguity and to be concise. They are purely written languages and are often difficult to read aloud. They are generally either translated into machine code by a compiler or an assembler before being run, or translated directly at run time by an interpreter. Sometimes programs are executed by a hybrid method of the two techniques.

Low-level languages

Machine languages and the assembly languages that represent them (collectively termed low-level programming languages) are generally unique to the particular architecture of a computer's central processing unit (CPU). For instance, an ARM architecture CPU (such as may be found in a smartphone or a hand-held videogame) cannot understand the machine language of an x86 CPU that might be in a PC.[103] Historically a significant number of other cpu architectures were created and saw extensive use, notably including the MOS Technology 6502 and 6510 in addition to the Zilog Z80.

High-level languages

Although considerably easier than in machine language, writing long programs in assembly language is often difficult and is also error prone. Therefore, most practical programs are written in more abstract high-level programming languages that are able to express the needs of the programmer more conveniently (and thereby help reduce programmer error). High level languages are usually "compiled" into machine language (or sometimes into assembly language and then into machine language) using another computer program called a compiler.[104] High level languages are less related to the workings of the target computer than assembly language, and more related to the language and structure of the problem(s) to be solved by the final program. It is therefore often possible to use different compilers to translate the same high level language program into the machine language of many different types of computer. This is part of the means by which software like video games may be made available for different computer architectures such as personal computers and various video game consoles.

Program design

Program design of small programs is relatively simple and involves the analysis of the problem, collection of inputs, using the programming constructs within languages, devising or using established procedures and algorithms, providing data for output devices and solutions to the problem as applicable. As problems become larger and more complex, features such as subprograms, modules, formal documentation, and new paradigms such as object-oriented programming are encountered. Large programs involving thousands of line of code and more require formal software methodologies. The task of developing large software systems presents a significant intellectual challenge. Producing software with an acceptably high reliability within a predictable schedule and budget has historically been difficult; the academic and professional discipline of software engineering concentrates specifically on this challenge.

Bugs

The actual first computer bug, a moth found trapped on a relay of the Harvard Mark II computer

Errors in computer programs are called "bugs". They may be benign and not affect the usefulness of the program, or have only subtle effects. But in some cases, they may cause the program or the entire system to "hang", becoming unresponsive to input such as mouse clicks or keystrokes, to completely fail, or to crash. Otherwise benign bugs may sometimes be harnessed for malicious intent by an unscrupulous user writing an exploit, code designed to take advantage of a bug and disrupt a computer's proper execution. Bugs are usually not the fault of the computer. Since computers merely execute the instructions they are given, bugs are nearly always the result of programmer error or an oversight made in the program's design.[105] Admiral Grace Hopper, an American computer scientist and developer of the first compiler, is credited for having first used the term "bugs" in computing after a dead moth was found shorting a relay in the Harvard Mark II computer in September 1947.[106]

Visualization of a portion of the routes on the Internet

Computers have been used to coordinate information between multiple locations since the 1950s. The U.S. military's SAGE system was the first large-scale example of such a system, which led to a number of special-purpose commercial systems such as Sabre.[107] In the 1970s, computer engineers at research institutions throughout the United States began to link their computers together using telecommunications technology. The effort was funded by ARPA (now DARPA), and the computer network that resulted was called the ARPANET.[108] The technologies that made the Arpanet possible spread and evolved.

In time, the network spread beyond academic and military institutions and became known as the Internet. The emergence of networking involved a redefinition of the nature and boundaries of the computer. Computer operating systems and applications were modified to include the ability to define and access the resources of other computers on the network, such as peripheral devices, stored information, and the like, as extensions of the resources of an individual computer. Initially these facilities were available primarily to people working in high-tech environments, but in the 1990s the spread of applications like e-mail and the World Wide Web, combined with the development of cheap, fast networking technologies like Ethernet and ADSL saw computer networking become almost ubiquitous. In fact, the number of computers that are networked is growing phenomenally. A very large proportion of personal computers regularly connect to the Internet to communicate and receive information. "Wireless" networking, often utilizing mobile phone networks, has meant networking is becoming increasingly ubiquitous even in mobile computing environments.

A computer does not need to be electronic, nor even have a processor, nor RAM, nor even a hard disk. While popular usage of the word "computer" is synonymous with a personal electronic computer, the modern[109] definition of a computer is literally: "A device that computes, especially a programmable [usually] electronic machine that performs high-speed mathematical or logical operations or that assembles, stores, correlates, or otherwise processes information."[110] Any device which processes information qualifies as a computer, especially if the processing is purposeful.[citation needed]

There is active research to make computers out of many promising new types of technology, such as optical computers, DNA computers, neural computers, and quantum computers. Most computers are universal, and are able to calculate any computable function, and are limited only by their memory capacity and operating speed. However different designs of computers can give very different performance for particular problems; for example quantum computers can potentially break some modern encryption algorithms (by quantum factoring) very quickly.

Computer architecture paradigms

There are many types of computer architectures:

  • Quantum computer vs. Chemical computer
  • Scalar processor vs. Vector processor
  • Non-Uniform Memory Access (NUMA) computers
  • Register machine vs. Stack machine
  • Harvard architecture vs. von Neumann architecture
  • Cellular architecture

Of all these abstract machines, a quantum computer holds the most promise for revolutionizing computing.[111] Logic gates are a common abstraction which can apply to most of the above digital or analog paradigms. The ability to store and execute lists of instructions called programs makes computers extremely versatile, distinguishing them from calculators. The Church–Turing thesis is a mathematical statement of this versatility: any computer with a minimum capability (being Turing-complete) is, in principle, capable of performing the same tasks that any other computer can perform. Therefore, any type of computer (netbook, supercomputer, cellular automaton, etc.) is able to perform the same computational tasks, given enough time and storage capacity.

Artificial intelligence

A computer will solve problems in exactly the way it is programmed to, without regard to efficiency, alternative solutions, possible shortcuts, or possible errors in the code. Computer programs that learn and adapt are part of the emerging field of artificial intelligence and machine learning. Artificial intelligence based products generally fall into two major categories: rule based systems and pattern recognition systems. Rule based systems attempt to represent the rules used by human experts and tend to be expensive to develop. Pattern based systems use data about a problem to generate conclusions. Examples of pattern based systems include voice recognition, font recognition, translation and the emerging field of on-line marketing.

As the use of computers has spread throughout society, there are an increasing number of careers involving computers.

The need for computers to work well together and to be able to exchange information has spawned the need for many standards organizations, clubs and societies of both a formal and informal nature.

  • Glossary of computers
  • Computability theory
  • Computer insecurity
  • Computer security
  • Glossary of computer hardware terms
  • History of computer science
  • List of computer term etymologies
  • List of fictional computers
  • List of pioneers in computer science
  • Pulse computation
  • TOP500 (list of most powerful computers)
  • Unconventional computing

  1. ^ Evans 2018, p. 23.
  2. ^ a b Smith 2013, p. 6.
  3. ^ "computer (n.)". Online Etymology Dictionary.
  4. ^ According to Schmandt-Besserat 1981, these clay containers contained tokens, the total of which were the count of objects being transferred. The containers thus served as something of a bill of lading or an accounts book. In order to avoid breaking open the containers, first, clay impressions of the tokens were placed on the outside of the containers, for the count; the shapes of the impressions were abstracted into stylized marks; finally, the abstract marks were systematically used as numerals; these numerals were finally formalized as numbers. Eventually (Schmandt-Besserat estimates it took 4000 years Archived 30 January 2012 at the Wayback Machine ) the marks on the outside of the containers were all that were needed to convey the count, and the clay containers evolved into clay tablets with marks for the count.
  5. ^ Robson, Eleanor (2008), Mathematics in Ancient Iraq, ISBN 978-0-691-09182-2. p. 5: calculi were in use in Iraq for primitive accounting systems as early as 3200–3000 BCE, with commodity-specific counting representation systems. Balanced accounting was in use by 3000–2350 BCE, and a sexagesimal number system was in use 2350–2000 BCE.
  6. ^ Numbers through the ages. Flegg, Graham. Houndmills, Basingstoke, Hampshire: Macmillan Education. 1989. ISBN 0-333-49130-0. OCLC 24660570.CS1 maint: others (link)
  7. ^ The Antikythera Mechanism Research Project Archived 28 April 2008 at the Wayback Machine, The Antikythera Mechanism Research Project. Retrieved 1 July 2007.
  8. ^ G. Wiet, V. Elisseeff, P. Wolff, J. Naudu (1975). History of Mankind, Vol 3: The Great medieval Civilisations, p. 649. George Allen & Unwin Ltd, UNESCO.
  9. ^ Fuat Sezgin "Catalogue of the Exhibition of the Institute for the History of Arabic-Islamic Science (at the Johann Wolfgang Goethe University", Frankfurt, Germany) Frankfurt Book Fair 2004, pp. 35 & 38.
  10. ^ Charette, François (2006). "Archaeology: High tech from Ancient Greece". Nature. 444 (7119): 551–552. Bibcode:2006Natur.444..551C. doi:10.1038/444551a. PMID 17136077. S2CID 33513516.
  11. ^ Bedini, Silvio A.; Maddison, Francis R. (1966). "Mechanical Universe: The Astrarium of Giovanni de' Dondi". Transactions of the American Philosophical Society. 56 (5): 1–69. doi:10.2307/1006002. JSTOR 1006002.
  12. ^ Price, Derek de S. (1984). "A History of Calculating Machines". IEEE Micro. 4 (1): 22–52. doi:10.1109/MM.1984.291305.
  13. ^ Őren, Tuncer (2001). "Advances in Computer and Information Sciences: From Abacus to Holonic Agents" (PDF). Turk J Elec Engin. 9 (1): 63–70.
  14. ^ Donald Routledge Hill (1985). "Al-Biruni's mechanical calendar", Annals of Science 42, pp. 139–163.
  15. ^ "The Writer Automaton, Switzerland". chonday.com. 11 July 2013.
  16. ^ a b Ray Girvan, "The revealed grace of the mechanism: computing after Babbage" Archived 3 November 2012 at the Wayback Machine, Scientific Computing World, May/June 2003
  17. ^ Halacy, Daniel Stephen (1970). Charles Babbage, Father of the Computer. Crowell-Collier Press. ISBN 978-0-02-741370-0.
  18. ^ "Babbage". Online stuff. Science Museum. 19 January 2007. Retrieved 1 August 2012.
  19. ^ "Let's build Babbage's ultimate mechanical computer". opinion. New Scientist. 23 December 2010. Retrieved 1 August 2012.
  20. ^ a b c d The Modern History of Computing. Stanford Encyclopedia of Philosophy. 2017.
  21. ^ Zuse, Horst. "Part 4: Konrad Zuse's Z1 and Z3 Computers". The Life and Work of Konrad Zuse. EPE Online. Archived from the original on 1 June 2008. Retrieved 17 June 2008.
  22. ^ Zuse, Konrad (2010) [1984], The Computer – My Life Translated by McKenna, Patricia and Ross, J. Andrew from: Der Computer, mein Lebenswerk (1984), Berlin/Heidelberg: Springer-Verlag, ISBN 978-3-642-08151-4
  23. ^ Salz Trautman, Peggy (20 April 1994). "A Computer Pioneer Rediscovered, 50 Years On". The New York Times.
  24. ^ Zuse, Konrad (1993). Der Computer. Mein Lebenswerk (in German) (3rd ed.). Berlin: Springer-Verlag. p. 55. ISBN 978-3-540-56292-4.
  25. ^ "Crash! The Story of IT: Zuse". Archived from the original on 18 September 2016. Retrieved 1 June 2016.
  26. ^ Rojas, R. (1998). "How to make Zuse's Z3 a universal computer". IEEE Annals of the History of Computing. 20 (3): 51–54. doi:10.1109/85.707574. S2CID 14606587.
  27. ^ Rojas, Raúl. "How to Make Zuse's Z3 a Universal Computer" (PDF).
  28. ^ 15 January 1941 notice in the Des Moines Register,
  29. ^ Arthur W. Burks (1989). The First Electronic Computer. ISBN 0472081047.
  30. ^ a b c d Copeland, Jack (2006), Colossus: The Secrets of Bletchley Park's Codebreaking Computers, Oxford: Oxford University Press, pp. 101–115, ISBN 978-0-19-284055-4
  31. ^ Miller, Joe (10 November 2014). "The woman who cracked Enigma cyphers". BBC News. Retrieved 14 October 2018.
  32. ^ Bearne, Suzanne (24 July 2018). "Meet the female codebreakers of Bletchley Park". the Guardian. Retrieved 14 October 2018.
  33. ^ "Bletchley's code-cracking Colossus", BBC News, 2 February 2010, retrieved 19 October 2012
  34. ^ "Colossus – The Rebuild Story". The National Museum of Computing. Archived from the original on 18 April 2015. Retrieved 7 January 2014.
  35. ^ Randell, Brian; Fensom, Harry; Milne, Frank A. (15 March 1995), "Obituary: Allen Coombs", The Independent, retrieved 18 October 2012
  36. ^ Fensom, Jim (8 November 2010), "Harry Fensom obituary", The Guardian, retrieved 17 October 2012
  37. ^ John Presper Eckert Jr. and John W. Mauchly, Electronic Numerical Integrator and Computer, United States Patent Office, US Patent 3,120,606, filed 26 June 1947, issued 4 February 1964, and invalidated 19 October 1973 after court ruling on Honeywell v. Sperry Rand.
  38. ^ Evans 2018, p. 39.
  39. ^ Light 1999, p. 459.
  40. ^ "Generations of Computer". techiwarehouse.com. Archived from the original on 2 July 2015. Retrieved 7 January 2014.
  41. ^ Turing, A. M. (1937). "On Computable Numbers, with an Application to the Entscheidungsproblem". Proceedings of the London Mathematical Society. 2. 42 (1): 230–265. doi:10.1112/plms/s2-42.1.230.
  42. ^ "von Neumann ... firmly emphasized to me, and to others I am sure, that the fundamental conception is owing to Turing—insofar as not anticipated by Babbage, Lovelace and others." Letter by Stanley Frankel to Brian Randell, 1972, quoted in Jack Copeland (2004) The Essential Turing, p22.
  43. ^ Enticknap, Nicholas (Summer 1998), "Computing's Golden Jubilee", Resurrection (20), ISSN 0958-7403, archived from the original on 9 January 2012, retrieved 19 April 2008
  44. ^ "Early computers at Manchester University", Resurrection, 1 (4), Summer 1992, ISSN 0958-7403, archived from the original on 28 August 2017, retrieved 7 July 2010
  45. ^ Early Electronic Computers (1946–51), University of Manchester, archived from the original on 5 January 2009, retrieved 16 November 2008
  46. ^ Napper, R. B. E., Introduction to the Mark 1, The University of Manchester, archived from the original on 26 October 2008, retrieved 4 November 2008
  47. ^ Computer Conservation Society, Our Computer Heritage Pilot Study: Deliveries of Ferranti Mark I and Mark I Star computers, archived from the original on 11 December 2016, retrieved 9 January 2010
  48. ^ Lavington, Simon. "A brief history of British computers: the first 25 years (1948–1973)". British Computer Society. Retrieved 10 January 2010.
  49. ^ Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits (PDF). Cambridge University Press. ISBN 9781139643771.
  50. ^ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. John Wiley & Sons. p. 14. ISBN 9783527340538.
  51. ^ a b Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global Technology in the 21st century. John Wiley & Sons. pp. 165–167. ISBN 9780470508923.
  52. ^ Lavington, Simon (1998), A History of Manchester Computers (2 ed.), Swindon: The British Computer Society, pp. 34–35
  53. ^ a b Cooke-Yarborough, E. H. (June 1998), "Some early transistor applications in the UK", Engineering Science & Education Journal, 7 (3): 100–106, doi:10.1049/esej:19980301, ISSN 0963-7346, retrieved 7 June 2009 (subscription required)
  54. ^ Cooke-Yarborough, E.H. (1957). Introduction to Transistor Circuits. Edinburgh: Oliver and Boyd. p. 139.
  55. ^ "1960: Metal Oxide Semiconductor (MOS) Transistor Demonstrated". The Silicon Engine: A Timeline of Semiconductors in Computers. Computer History Museum. Retrieved 31 August 2019.
  56. ^ Motoyoshi, M. (2009). "Through-Silicon Via (TSV)". Proceedings of the IEEE. 97 (1): 43–48. doi:10.1109/JPROC.2008.2007462. ISSN 0018-9219. S2CID 29105721.
  57. ^ "Transistors Keep Moore's Law Alive". EETimes. 12 December 2018. Retrieved 18 July 2019.
  58. ^ "Who Invented the Transistor?". Computer History Museum. 4 December 2013. Retrieved 20 July 2019.
  59. ^ a b Hittinger, William C. (1973). "Metal-Oxide-Semiconductor Technology". Scientific American. 229 (2): 48–59. Bibcode:1973SciAm.229b..48H. doi:10.1038/scientificamerican0873-48. ISSN 0036-8733. JSTOR 24923169.
  60. ^ Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the Right Connections: Microcomputers and Electronic Instrumentation. American Chemical Society. p. 389. ISBN 9780841228610. The relative simplicity and low power requirements of MOSFETs have fostered today's microcomputer revolution.
  61. ^ Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body MOSFETs and FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
  62. ^ "Remarks by Director Iancu at the 2019 International Intellectual Property Conference". United States Patent and Trademark Office. 10 June 2019. Archived from the original on 17 December 2019. Retrieved 20 July 2019.
  63. ^ "Dawon Kahng". National Inventors Hall of Fame. Retrieved 27 June 2019.
  64. ^ "Martin Atalla in Inventors Hall of Fame, 2009". Retrieved 21 June 2013.
  65. ^ "Triumph of the MOS Transistor". YouTube. Computer History Museum. 6 August 2010. Retrieved 21 July 2019.
  66. ^ "The Hapless Tale of Geoffrey Dummer" Archived 11 May 2013 at the Wayback Machine, (n.d.), (HTML), Electronic Product News, accessed 8 July 2008.
  67. ^ Kilby, Jack (2000), Nobel lecture (PDF), Stockholm: Nobel Foundation, retrieved 15 May 2008
  68. ^ The Chip that Jack Built, (c. 2008), (HTML), Texas Instruments, Retrieved 29 May 2008.
  69. ^ Jack S. Kilby, Miniaturized Electronic Circuits, United States Patent Office, US Patent 3,138,743, filed 6 February 1959, issued 23 June 1964.
  70. ^ Winston, Brian (1998). Media Technology and Society: A History : From the Telegraph to the Internet. Routledge. p. 221. ISBN 978-0-415-14230-4.
  71. ^ Saxena, Arjun N. (2009). Invention of Integrated Circuits: Untold Important Facts. World Scientific. p. 140. ISBN 9789812814456.
  72. ^ a b "Integrated circuits". NASA. Retrieved 13 August 2019.
  73. ^ Robert Noyce's Unitary circuit, US patent 2981877, "Semiconductor device-and-lead structure", issued 1961-04-25, assigned to Fairchild Semiconductor Corporation 
  74. ^ "1959: Practical Monolithic Integrated Circuit Concept Patented". Computer History Museum. Retrieved 13 August 2019.
  75. ^ Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science & Business Media. p. 120. ISBN 9783540342588.
  76. ^ Bassett, Ross Knox (2007). To the Digital Age: Research Labs, Start-up Companies, and the Rise of MOS Technology. Johns Hopkins University Press. p. 46. ISBN 9780801886393.
  77. ^ Huff, Howard R.; Tsuya, H.; Gösele, U. (1998). Silicon Materials Science and Technology: Proceedings of the Eighth International Symposium on Silicon Materials Science and Technology. Electrochemical Society. pp. 181–182. ISBN 9781566771931.
  78. ^ Kuo, Yue (1 January 2013). "Thin Film Transistor Technology—Past, Present, and Future" (PDF). The Electrochemical Society Interface. 22 (1): 55–61. doi:10.1149/2.F06131if. ISSN 1064-8208.
  79. ^ a b "Tortoise of Transistors Wins the Race - CHM Revolution". Computer History Museum. Retrieved 22 July 2019.
  80. ^ "1964 – First Commercial MOS IC Introduced". Computer History Museum.
  81. ^ "1968: Silicon Gate Technology Developed for ICs". Computer History Museum. Retrieved 22 July 2019.
  82. ^ Kuo, Yue (1 January 2013). "Thin Film Transistor Technology—Past, Present, and Future" (PDF). The Electrochemical Society Interface. 22 (1): 55–61. doi:10.1149/2.F06131if. ISSN 1064-8208.
  83. ^ a b "1971: Microprocessor Integrates CPU Function onto a Single Chip". Computer History Museum. Retrieved 22 July 2019.
  84. ^ Colinge, Jean-Pierre; Greer, James C. (2016). Nanowire Transistors: Physics of Devices and Materials in One Dimension. Cambridge University Press. p. 2. ISBN 9781107052406.
  85. ^ Intel's First Microprocessor—the Intel 4004, Intel Corp., November 1971, archived from the original on 13 May 2008, retrieved 17 May 2008
  86. ^ The Intel 4004 (1971) die was 12 mm2, composed of 2300 transistors; by comparison, the Pentium Pro was 306 mm2, composed of 5.5 million transistors, according to Patterson, David; Hennessy, John (1998), Computer Organization and Design, San Francisco: Morgan Kaufmann, pp. 27–39, ISBN 978-1-55860-428-5
  87. ^ Federico Faggin, The Making of the First Microprocessor, IEEE Solid-State Circuits Magazine, Winter 2009, IEEE Xplore
  88. ^ a b "7 dazzling smartphone improvements with Qualcomm's Snapdragon 835 chip". 3 January 2017.
  89. ^ Chartier, David (23 December 2008). "Global notebook shipments finally overtake desktops". Ars Technica.
  90. ^ IDC (25 July 2013). "Growth Accelerates in the Worldwide Mobile Phone and Smartphone Markets in the Second Quarter, According to IDC". Archived from the original on 26 June 2014.
  91. ^ Most major 64-bit instruction set architectures are extensions of earlier designs. All of the architectures listed in this table, except for Alpha, existed in 32-bit forms before their 64-bit incarnations were introduced.
  92. ^ The control unit's role in interpreting instructions has varied somewhat in the past. Although the control unit is solely responsible for instruction interpretation in most modern computers, this is not always the case. Some computers have instructions that are partially interpreted by the control unit with further interpretation performed by another device. For example, EDVAC, one of the earliest stored-program computers, used a central control unit that only interpreted four instructions. All of the arithmetic-related instructions were passed on to its arithmetic unit and further decoded there.
  93. ^ Instructions often occupy more than one memory address, therefore the program counter usually increases by the number of memory locations required to store one instruction.
  94. ^ David J. Eck (2000). The Most Complex Machine: A Survey of Computers and Computing. A K Peters, Ltd. p. 54. ISBN 978-1-56881-128-4.
  95. ^ Erricos John Kontoghiorghes (2006). Handbook of Parallel Computing and Statistics. CRC Press. p. 45. ISBN 978-0-8247-4067-2.
  96. ^ Flash memory also may only be rewritten a limited number of times before wearing out, making it less useful for heavy random access usage. (Verma & Mielke 1988)
  97. ^ Donald Eadie (1968). Introduction to the Basic Computer. Prentice-Hall. p. 12.
  98. ^ Arpad Barna; Dan I. Porat (1976). Introduction to Microcomputers and the Microprocessors. Wiley. p. 85. ISBN 978-0-471-05051-3.
  99. ^ Jerry Peek; Grace Todino; John Strang (2002). Learning the UNIX Operating System: A Concise Guide for the New User. O'Reilly. p. 130. ISBN 978-0-596-00261-9.
  100. ^ Gillian M. Davis (2002). Noise Reduction in Speech Applications. CRC Press. p. 111. ISBN 978-0-8493-0949-6.
  101. ^ However, it is also very common to construct supercomputers out of many pieces of cheap commodity hardware; usually individual computers connected by networks. These so-called computer clusters can often provide supercomputer performance at a much lower cost than customized designs. While custom architectures are still used for most of the most powerful supercomputers, there has been a proliferation of cluster computers in recent years. (TOP500 2006)
  102. ^ Even some later computers were commonly programmed directly in machine code. Some minicomputers like the DEC PDP-8 could be programmed directly from a panel of switches. However, this method was usually used only as part of the booting process. Most modern computers boot entirely automatically by reading a boot program from some non-volatile memory.
  103. ^ However, there is sometimes some form of machine language compatibility between different computers. An x86-64 compatible microprocessor like the AMD Athlon 64 is able to run most of the same programs that an Intel Core 2 microprocessor can, as well as programs designed for earlier microprocessors like the Intel Pentiums and Intel 80486. This contrasts with very early commercial computers, which were often one-of-a-kind and totally incompatible with other computers.
  104. ^ High level languages are also often interpreted rather than compiled. Interpreted languages are translated into machine code on the fly, while running, by another program called an interpreter.
  105. ^ It is not universally true that bugs are solely due to programmer oversight. Computer hardware may fail or may itself have a fundamental problem that produces unexpected results in certain situations. For instance, the Pentium FDIV bug caused some Intel microprocessors in the early 1990s to produce inaccurate results for certain floating point division operations. This was caused by a flaw in the microprocessor design and resulted in a partial recall of the affected devices.
  106. ^ Taylor, Alexander L., III (16 April 1984). "The Wizard Inside the Machine". TIME. Retrieved 17 February 2007. (subscription required)
  107. ^ Agatha C. Hughes (2000). Systems, Experts, and Computers. MIT Press. p. 161. ISBN 978-0-262-08285-3. The experience of SAGE helped make possible the first truly large-scale commercial real-time network: the SABRE computerized airline reservations system ...
  108. ^ Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Leonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Wolf, Stephen (1999). "A Brief History of the Internet". Internet Society. arXiv:cs/9901011. Bibcode:1999cs........1011L. Retrieved 20 September 2008. Cite journal requires |journal= (help)
  109. ^ According to the Shorter Oxford English Dictionary (6th ed, 2007), the word computer dates back to the mid 17th century, when it referred to "A person who makes calculations; specifically a person employed for this in an observatory etc."
  110. ^ "Definition of computer". Thefreedictionary.com. Retrieved 29 January 2012.
  111. ^ II, Joseph D. Dumas (2005). Computer Architecture: Fundamentals and Principles of Computer Design. CRC Press. p. 340. ISBN 9780849327490.

  • Evans, Claire L. (2018). Broad Band: The Untold Story of the Women Who Made the Internet. New York: Portfolio/Penguin. ISBN 9780735211759.
  • Fuegi, J.; Francis, J. (2003). "Lovelace & Babbage and the creation of the 1843 'notes'". IEEE Annals of the History of Computing. 25 (4): 16. doi:10.1109/MAHC.2003.1253887. S2CID 40077111.
  • aKempf, Karl (1961). "Historical Monograph: Electronic Computers Within the Ordnance Corps". Aberdeen Proving Ground (United States Army). Cite journal requires |journal= (help)
  • aPhillips, Tony (2000). "The Antikythera Mechanism I". American Mathematical Society. Retrieved 5 April 2006.
  • aShannon, Claude Elwood (1940). A symbolic analysis of relay and switching circuits (Thesis). Massachusetts Institute of Technology. hdl:1721.1/11173.
  • Digital Equipment Corporation (1972). PDP-11/40 Processor Handbook (PDF). Maynard, MA: Digital Equipment Corporation.
  • Verma, G.; Mielke, N. (1988). "Reliability performance of ETOX based flash memories". IEEE International Reliability Physics Symposium. Cite journal requires |journal= (help)
  • Swade, Doron D. (February 1993). "Redeeming Charles Babbage's Mechanical Computer". Scientific American. 268 (2): 86–91. Bibcode:1993SciAm.268b..86S. doi:10.1038/scientificamerican0293-86. JSTOR 24941379.
  • Meuer, Hans; Strohmaier, Erich; Simon, Horst; Dongarra, Jack (13 November 2006). "Architectures Share Over Time". TOP500. Archived from the original on 20 February 2007. Retrieved 27 November 2006.
  • Lavington, Simon (1998). A History of Manchester Computers (2 ed.). Swindon: The British Computer Society. ISBN 978-0-902505-01-8.
  • Light, Jennifer S. (1999). "When Computers Were Women". Technology and Culture. 40 (3): 455–483. doi:10.1353/tech.1999.0128. JSTOR 25147356. S2CID 108407884.
  • Stokes, Jon (2007). Inside the Machine: An Illustrated Introduction to Microprocessors and Computer Architecture. San Francisco: No Starch Press. ISBN 978-1-59327-104-6.
  • Zuse, Konrad (1993). The Computer – My life. Berlin: Pringler-Verlag. ISBN 978-0-387-56453-1.
  • Felt, Dorr E. (1916). Mechanical arithmetic, or The history of the counting machine. Chicago: Washington Institute.
  • Ifrah, Georges (2001). The Universal History of Computing: From the Abacus to the Quantum Computer. New York: John Wiley & Sons. ISBN 978-0-471-39671-0.
  • Berkeley, Edmund (1949). Giant Brains, or Machines That Think. John Wiley & Sons.
  • Cohen, Bernard (2000). Howard Aiken, Portrait of a computer pioneer. Physics Today. 53. Cambridge, Massachusetts: The MIT Press. pp. 74–75. Bibcode:2000PhT....53c..74C. doi:10.1063/1.883007. ISBN 978-0-262-53179-5.
  • Ligonnière, Robert (1987). Préhistoire et Histoire des ordinateurs. Paris: Robert Laffont. ISBN 978-2-221-05261-7.
  • Couffignal, Louis (1933). Les machines à calculer; leurs principes, leur évolution. Paris: Gauthier-Villars.
  • Essinger, James (2004). Jacquard's Web, How a hand loom led to the birth of the information age. Oxford University Press. ISBN 978-0-19-280577-5.
  • Hyman, Anthony (1985). Charles Babbage: Pioneer of the Computer. Princeton University Press. ISBN 978-0-691-02377-9.
  • Bowden, B. V. (1953). Faster than thought. New York, Toronto, London: Pitman publishing corporation.
  • Moseley, Maboth (1964). Irascible Genius, Charles Babbage, inventor. London: Hutchinson.
  • Collier, Bruce (1970). The little engine that could've: The calculating machines of Charles Babbage. Garland Publishing Inc. ISBN 978-0-8240-0043-1.
  • Randell, Brian (1982). "From Analytical Engine to Electronic Digital Computer: The Contributions of Ludgate, Torres, and Bush" (PDF). Archived from the original (PDF) on 21 September 2013. Retrieved 29 October 2013.
  • Smith, Erika E. (2013). "Recognizing a Collective Inheritance through the History of Women in Computing". CLCWeb: Comparative Literature and Culture. 15 (1): 1–9. doi:10.7771/1481-4374.1972.

  • Media related to Computers at Wikimedia Commons
  • Wikiversity has a quiz on this article
  • Warhol & The Computer