Página semiprotejada
De Wikipedia, la enciclopedia libre
  (Redirigido desde Computadoras )
Saltar a navegación Saltar a búsqueda

Sala de computadoras con varios gabinetes de computadora y panel de operación
Smartphone con pantalla similar a un arcoíris sostenido en una mano
Computadora de escritorio negra con monitor en la parte superior y teclado en la parte delantera
Consola de videojuegos morada con controlador adjunto
Filas de gabinetes de computadora grandes y oscuros en una habitación similar a un almacén
Los ordenadores y dispositivos informáticos de diferentes épocas - en sentido horario desde la parte superior izquierda:
vacío temprana ordenador tubo ( ENIAC )
la unidad central del ordenador ( IBM System 360 )
de ordenador de sobremesa (IBM ThinkCentre S50 con monitor)
superordenador (IBM Cumbre )
Consola de videojuegos (Nintendo GameCube )
Smartphone ( Agua LYF 2)

Una computadora es una máquina que puede recibir instrucciones para realizar secuencias de operaciones aritméticas o lógicas automáticamente a través de la programación de la computadora . Las computadoras modernas tienen la capacidad de seguir conjuntos de operaciones generalizados, llamados programas . Estos programas permiten a las computadoras realizar una amplia gama de tareas. Una computadora "completa" que incluye el hardware , el sistema operativo ( software principal ) y el equipo periférico necesario y utilizado para un funcionamiento "completo" puede denominarse sistema informático.. Este término también puede usarse para un grupo de computadoras que están conectadas y trabajan juntas, en particular una red de computadoras o un grupo de computadoras .

Las computadoras se utilizan como sistemas de control para una amplia variedad de dispositivos industriales y de consumo . Esto incluye dispositivos simples de propósito especial como hornos microondas y controles remotos , dispositivos de fábrica como robots industriales y diseño asistido por computadora , y también dispositivos de uso general como computadoras personales y dispositivos móviles como teléfonos inteligentes . La Internet se ejecuta en computadoras y se conecta a cientos de millones de otros ordenadores y sus usuarios.

Las primeras computadoras solo fueron concebidas como dispositivos de cálculo. Desde la antigüedad, los dispositivos manuales simples como el ábaco ayudaban a las personas a realizar cálculos. A principios de la Revolución Industrial , se construyeron algunos dispositivos mecánicos para automatizar tareas largas y tediosas, como los patrones de guía para telares . Máquinas eléctricas más sofisticadas hicieron cálculos analógicos especializados a principios del siglo XX. Las primeras máquinas calculadoras electrónicas digitales se desarrollaron durante la Segunda Guerra Mundial . Los primeros transistores semiconductores a finales de la década de 1940 fueron seguidos por el MOSFET basado en silicio.(Transistor MOS) y tecnologías de chip de circuito integrado monolítico (IC) a fines de la década de 1950, lo que llevó al microprocesador y la revolución de la microcomputadora en la década de 1970. La velocidad, la potencia y la versatilidad de las computadoras han aumentado drásticamente desde entonces, con el número de transistores aumentando a un ritmo rápido (como lo predijo la ley de Moore ), lo que llevó a la Revolución Digital a finales del siglo XX y principios del XXI.

Convencionalmente, una computadora moderna consta de al menos un elemento de procesamiento , típicamente una unidad central de procesamiento (CPU) en forma de microprocesador , junto con algún tipo de memoria de computadora , típicamente chips de memoria semiconductores . El elemento de procesamiento realiza operaciones aritméticas y lógicas, y una unidad de secuenciación y control puede cambiar el orden de las operaciones en respuesta a la información almacenada . Los dispositivos periféricos incluyen dispositivos de entrada (teclados, ratones, joystick, etc.), dispositivos de salida (pantallas de monitores, impresoras , etc.) y dispositivos de entrada / salida que realizan ambas funciones (por ejemplo, la pantalla táctil de la era 2000). Los dispositivos periféricos permiten recuperar información de una fuente externa y permiten guardar y recuperar el resultado de las operaciones.

Etimología

Una computadora humana, con microscopio y calculadora, 1952

Según el Oxford English Dictionary , el primer uso conocido de la palabra "computadora" fue en 1613 en un libro llamado The Yong Mans Gleanings del escritor inglés Richard Braithwait: "He leído la computadora más verdadera del Times, y la mejor Aritmético que euer [sic] respiró, y reduce tus días a un número reducido ". Este uso del término se refería a una computadora humana , una persona que realizaba cálculos o cálculos. La palabra continuó con el mismo significado hasta mediados del siglo XX. Durante la última parte de este período, a menudo se contrataba a mujeres como computadoras porque se les podía pagar menos que a sus contrapartes masculinas. [1] En 1943, la mayoría de las computadoras humanas eran mujeres. [2]

El Diccionario de Etimología en línea da el primer uso comprobado de "computadora" en la década de 1640, que significa "alguien que calcula"; este es un "sustantivo de agente de compute (v.)". El Diccionario de Etimología en línea establece que el uso del término para significar " 'máquina de calcular' (de cualquier tipo) es de 1897." El Diccionario de Etimología en línea indica que el "uso moderno" del término, para significar "computadora electrónica digital programable" data de "1945 bajo este nombre; [en un] [sentido] teórico de 1937, como máquina de Turing ". [3]

Historia

Antes del siglo XX

El hueso de Ishango , una herramienta de hueso que se remonta al África prehistórica .

Los dispositivos se han utilizado para ayudar a la computación durante miles de años, principalmente utilizando correspondencia uno a uno con los dedos . El primer dispositivo de conteo fue probablemente una forma de palo de conteo . Las ayudas posteriores para el mantenimiento de registros en todo el Creciente Fértil incluyeron cálculos (esferas de arcilla, conos, etc.) que representaban recuentos de artículos, probablemente ganado o granos, sellados en recipientes huecos de arcilla sin cocer. [4] [5] El uso de varillas contadoras es un ejemplo.

El suanpan chino (算盘). El número representado en este ábaco es 6.302.715.408.

El ábaco se utilizó inicialmente para tareas aritméticas. El ábaco romano se desarrolló a partir de dispositivos utilizados en Babilonia ya en el 2400 a. C. Desde entonces, se han inventado muchas otras formas de tablas o tableros de cálculo. En una casa de contabilidad europea medieval , se colocaba un mantel a cuadros sobre una mesa y se movían marcadores de acuerdo con ciertas reglas, como ayuda para calcular las sumas de dinero. [6]

El mecanismo de Antikythera , que se remonta a la antigua Grecia alrededor del 150-100 a. C., es un dispositivo informático analógico temprano .

Se cree que el mecanismo de Antikythera es la primera computadora analógica mecánica , según Derek J. de Solla Price . [7] Fue diseñado para calcular posiciones astronómicas. Fue descubierto en 1901 en el naufragio de Antikythera frente a la isla griega de Antikythera , entre Kythera y Creta , y se ha fechado en c.  100 a . C. Los dispositivos de un nivel de complejidad comparable al del mecanismo de Antikythera no reaparecerían hasta mil años después.

Se construyeron muchas ayudas mecánicas para el cálculo y la medición para uso astronómico y de navegación. El planisferio fue un mapa estelar inventado por Abū Rayhān al-Bīrūnī a principios del siglo XI. [8] El astrolabio se inventó en el mundo helenístico en los siglos I o II a. C. ya menudo se atribuye a Hiparco . Una combinación de planisferio y dioptra , el astrolabio era efectivamente una computadora analógica capaz de resolver varios tipos diferentes de problemas en astronomía esférica . Un astrolabio que incorpora una computadora de calendario mecánica [9] [10]y las ruedas dentadas fueron inventadas por Abi Bakr de Isfahan , Persia en 1235. [11] Abū Rayhān al-Bīrūnī inventó el primer astrolabio de calendario lunisolar con engranajes mecánicos , [12] una de las primeras máquinas de procesamiento de conocimiento de cableado fijo [13] con un engranaje tren y ruedas dentadas, [14] c.  1000 AD .

El sector , un instrumento de cálculo utilizado para resolver problemas de proporción, trigonometría, multiplicación y división, y para diversas funciones, como cuadrados y raíces cúbicas, se desarrolló a finales del siglo XVI y encontró aplicación en artillería, agrimensura y navegación.

El planímetro era un instrumento manual para calcular el área de una figura cerrada trazándola con un enlace mecánico.

Una regla de cálculo .

La regla de cálculo se inventó alrededor de 1620-1630, poco después de la publicación del concepto de logaritmo . Es una computadora analógica operada manualmente para hacer multiplicaciones y divisiones. A medida que avanzaba el desarrollo de la regla de cálculo, las escalas añadidas proporcionaron recíprocos, cuadrados y raíces cuadradas, cubos y raíces cúbicas, así como funciones trascendentales como logaritmos y exponenciales, trigonometría circular e hiperbólica y otras funciones . Las reglas de cálculo con escalas especiales todavía se utilizan para realizar cálculos de rutina rápidamente, como la regla de cálculo circular E6B que se utiliza para los cálculos de tiempo y distancia en aviones ligeros.

En la década de 1770, Pierre Jaquet-Droz , un relojero suizo , construyó una muñeca mecánica ( autómata ) que podía escribir con una pluma. Al cambiar el número y el orden de sus ruedas internas, se podrían producir diferentes letras y, por lo tanto, diferentes mensajes. En efecto, podría "programarse" mecánicamente para leer instrucciones. Junto con otras dos máquinas complejas, la muñeca se encuentra en el Musée d'Art et d'Histoire de Neuchâtel , Suiza , y todavía funciona. [15]

En 1831-1835, el matemático e ingeniero Giovanni Plana ideó una máquina de calendario perpetuo , que, aunque era un sistema de poleas y cilindros y más, podía predecir el calendario perpetuo para cada año desde el 0 d.C. (es decir, el 1 a.C.) hasta el 4000 d.C. realizar un seguimiento de los años bisiestos y la duración variable de los días. La máquina de predicción de mareas inventada por Sir William Thomson en 1872 fue de gran utilidad para la navegación en aguas poco profundas. Utilizaba un sistema de poleas y cables para calcular automáticamente los niveles de marea previstos durante un período determinado en una ubicación en particular.

El analizador diferencial , una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales por integración , utilizó mecanismos de rueda y disco para realizar la integración. En 1876, Lord Kelvin ya había discutido la posible construcción de tales calculadoras, pero se había visto obstaculizado por el par de salida limitado de los integradores de bola y disco . [16] En un analizador diferencial, la salida de un integrador impulsó la entrada del siguiente integrador, o una salida gráfica. El amplificador de par fue el avance que permitió que estas máquinas funcionaran. A partir de la década de 1920, Vannevar Bush y otros desarrollaron analizadores diferenciales mecánicos.

Primer dispositivo informático

Una parte del motor de diferencias de Babbage .

Charles Babbage , un ingeniero mecánico y erudito inglés , originó el concepto de una computadora programable. Considerado el " padre de la computadora ", [17] conceptualizó e inventó la primera computadora mecánica a principios del siglo XIX. Después de trabajar en su revolucionario motor diferencial , diseñado para ayudar en los cálculos de navegación, en 1833 se dio cuenta de que era posible un diseño mucho más general, un motor analítico . La entrada de programas y datos debía ser proporcionada a la máquina a través de tarjetas perforadas , un método que se utilizaba en ese momento para dirigir telares mecánicos como el telar Jacquard.. Para la salida, la máquina tendría una impresora, un trazador de curvas y una campana. La máquina también podría perforar números en tarjetas para leerlos más tarde. El motor incorporó una unidad lógica aritmética , control de flujo en forma de bifurcaciones y bucles condicionales , y memoria integrada , lo que lo convirtió en el primer diseño de una computadora de propósito general que podría describirse en términos modernos como Turing-completo . [18] [19]

La máquina se adelantó un siglo a su tiempo. Todas las piezas de su máquina tenían que hacerse a mano; este era un problema importante para un dispositivo con miles de piezas. Finalmente, el proyecto se disolvió con la decisión del gobierno británico de dejar de financiar. El fracaso de Babbage para completar el motor analítico puede atribuirse principalmente a dificultades políticas y financieras, así como a su deseo de desarrollar una computadora cada vez más sofisticada y avanzar más rápido de lo que nadie podría seguir. Sin embargo, su hijo, Henry Babbage, completó una versión simplificada de la unidad de computación del motor analítico (el molino ) en 1888. Dio una demostración exitosa de su uso en tablas de computación en 1906.

Computadoras analógicas

El tercer diseño de la máquina de predicción de mareas de Sir William Thomson , 1879-1881

Durante la primera mitad del siglo XX, muchas necesidades de computación científica fueron satisfechas por computadoras analógicas cada vez más sofisticadas , que utilizaron un modelo mecánico o eléctrico directo del problema como base para la computación . Sin embargo, estos no eran programables y generalmente carecían de la versatilidad y precisión de las computadoras digitales modernas. [20] La primera computadora analógica moderna fue una máquina de predicción de mareas , inventada por Sir William Thomson en 1872. El analizador diferencial , una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales mediante la integración mediante mecanismos de rueda y disco, se conceptualizó en 1876 por James Thomson, el hermano del más famoso Lord Kelvin. [dieciséis]

El arte de la computación analógica mecánica alcanzó su cenit con el analizador diferencial , construido por HL Hazen y Vannevar Bush en el MIT a partir de 1927. Esto se basó en los integradores mecánicos de James Thomson y los amplificadores de par inventados por HW Nieman. Una docena de estos dispositivos se construyeron antes de que se hiciera evidente su obsolescencia. En la década de 1950, el éxito de las computadoras electrónicas digitales había marcado el fin de la mayoría de las máquinas de computación analógica, pero las computadoras analógicas siguieron utilizándose durante la década de 1950 en algunas aplicaciones especializadas como la educación ( regla de cálculo ) y la aviación ( sistemas de control ).

Computadoras digitales

Electromecánica

En 1938, la Marina de los Estados Unidos había desarrollado una computadora analógica electromecánica lo suficientemente pequeña para usarla a bordo de un submarino . Este era el Torpedo Data Computer , que usaba trigonometría para resolver el problema de disparar un torpedo a un objetivo en movimiento. Durante la Segunda Guerra Mundial , también se desarrollaron dispositivos similares en otros países.

Replica de Zuse 's Z3 , el (electromecánico) ordenador digital de primera totalmente automático,.

Las primeras computadoras digitales eran electromecánicas ; los interruptores eléctricos accionaban relés mecánicos para realizar el cálculo. Estos dispositivos tenían una velocidad de funcionamiento baja y finalmente fueron reemplazados por computadoras totalmente eléctricas mucho más rápidas, que originalmente usaban tubos de vacío . El Z2 , creado por el ingeniero alemán Konrad Zuse en 1939, fue uno de los primeros ejemplos de una computadora de relé electromecánico. [21]

En 1941, Zuse siguió su máquina anterior con la Z3 , la primera computadora digital totalmente automática programable electromecánica en funcionamiento del mundo . [22] [23] El Z3 fue construido con 2000 relés , implementando una longitud de palabra de 22  bits que operaba a una frecuencia de reloj de aproximadamente 5-10  Hz . [24] El código de programa se proporcionó en una película perforada , mientras que los datos se pudieron almacenar en 64 palabras de memoria o se proporcionaron desde el teclado. Era bastante similar a las máquinas modernas en algunos aspectos, siendo pionero en numerosos avances, como los números de coma flotante.. En lugar del sistema decimal más difícil de implementar (utilizado en el diseño anterior de Charles Babbage ), el uso de un sistema binario significaba que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en ese momento. [25] El Z3 no era en sí mismo una computadora universal, pero podría extenderse para ser Turing completo . [26] [27]

Tubos de vacío y circuitos electrónicos digitales

Los elementos de circuito puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos, al mismo tiempo que el cálculo digital reemplazó al analógico. El ingeniero Tommy Flowers , que trabajaba en la Post Office Research Station de Londres en la década de 1930, comenzó a explorar el posible uso de la electrónica para la central telefónica . El equipo experimental que construyó en 1934 entró en funcionamiento cinco años después, convirtiendo una parte de la red de central telefónica en un sistema electrónico de procesamiento de datos, utilizando miles de tubos de vacío . [20] En los EE. UU., John Vincent Atanasoff yClifford E. Berry de la Universidad Estatal de Iowa desarrolló y probó la Computadora Atanasoff-Berry (ABC) en 1942, [28] la primera "computadora digital electrónica automática". [29] Este diseño también era totalmente electrónico y utilizaba unos 300 tubos de vacío, con condensadores fijados en un tambor giratorio mecánicamente para la memoria. [30]

Colossus , el primer dispositivo informático programable digital electrónico , se utilizó para descifrar los cifrados alemanes durante la Segunda Guerra Mundial.

Durante la Segunda Guerra Mundial, los británicos en Bletchley Park lograron una serie de éxitos al romper las comunicaciones militares alemanas cifradas. La máquina de cifrado alemana, Enigma , fue atacada por primera vez con la ayuda de bombas electromecánicas que a menudo eran dirigidas por mujeres. [31] [32] Para descifrar la máquina alemana Lorenz SZ 40/42 más sofisticada , utilizada para comunicaciones del Ejército de alto nivel, Max Newman y sus colegas encargaron a Flowers la construcción del Coloso . [30] Pasó once meses desde principios de febrero de 1943 diseñando y construyendo el primer Coloso. [33]Después de una prueba funcional en diciembre de 1943, Colossus fue enviado a Bletchley Park, donde fue entregado el 18 de enero de 1944 [34] y atacó su primer mensaje el 5 de febrero. [30]

Colossus fue la primera computadora programable digital electrónica del mundo. [20] Utilizaba una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y podía configurarse para realizar una variedad de operaciones lógicas booleanas en sus datos, pero no era Turing completo . Se construyeron nueve Mk II Colossi (el Mk I se convirtió en un Mk II haciendo diez máquinas en total). El Colossus Mark I contenía 1.500 válvulas termoiónicas (tubos), pero el Mark II con 2.400 válvulas era 5 veces más rápido y más sencillo de operar que el Mark I, lo que aceleraba enormemente el proceso de decodificación. [35] [36]

ENIAC fue el primer dispositivo electrónico Turing completo y realizó cálculos de trayectoria balística para el Ejército de los Estados Unidos .

El ENIAC [37] (Integrador Numérico Electrónico y Computadora) fue el primer computador electrónico programable construido en los Estados Unidos. Aunque el ENIAC era similar al Colossus, era mucho más rápido, más flexible y era Turing completo . Al igual que el Colossus, un "programa" en el ENIAC se definía por los estados de sus cables de conexión e interruptores, muy lejos de las máquinas electrónicas de programas almacenados que vinieron más tarde. Una vez que se escribió un programa, se tuvo que configurar mecánicamente en la máquina con restablecimiento manual de enchufes e interruptores. Las programadoras de la ENIAC fueron seis mujeres, a menudo conocidas colectivamente como las "niñas ENIAC". [38] [39]

Combinó la alta velocidad de la electrónica con la capacidad de ser programado para muchos problemas complejos. Podría sumar o restar 5000 veces por segundo, mil veces más rápido que cualquier otra máquina. También tenía módulos para multiplicar, dividir y raíz cuadrada. La memoria de alta velocidad estaba limitada a 20 palabras (aproximadamente 80 bytes). Construido bajo la dirección de John Mauchly y J. Presper Eckert en la Universidad de Pensilvania, el desarrollo y la construcción de ENIAC duró desde 1943 hasta su pleno funcionamiento a fines de 1945. La máquina era enorme, pesaba 30 toneladas, utilizaba 200 kilovatios de energía eléctrica y contenía más de 18.000 tubos de vacío, 1.500 relés y cientos de miles de resistencias, condensadores e inductores. [40]

Computadoras modernas

Concepto de computadora moderna

El principio de la computadora moderna fue propuesto por Alan Turing en su artículo seminal de 1936, [41] On Computable Numbers . Turing propuso un dispositivo simple que llamó "máquina de cómputo universal" y que ahora se conoce como máquina de Turing universal . Demostró que una máquina de este tipo es capaz de calcular cualquier cosa que sea computable mediante la ejecución de instrucciones (programa) almacenadas en cinta, lo que permite que la máquina sea programable. El concepto fundamental del diseño de Turing es el programa almacenado , donde todas las instrucciones para la computación se almacenan en la memoria. Von Neumann reconoció que el concepto central de la computadora moderna se debe a este artículo. [42]Las máquinas de Turing son hasta el día de hoy un objeto central de estudio en la teoría de la computación . Excepto por las limitaciones impuestas por sus almacenes de memoria finitos, se dice que las computadoras modernas son Turing-complete , es decir, tienen una capacidad de ejecución de algoritmos equivalente a una máquina universal de Turing.

Programas almacenados

Una sección del Manchester Baby , la primera computadora electrónica con programa almacenado

Las primeras máquinas informáticas tenían programas fijos. Cambiar su función requirió el recableado y la reestructuración de la máquina. [30] Con la propuesta de la computadora con programa almacenado esto cambió. Una computadora con programa almacenado incluye por diseño un conjunto de instrucciones y puede almacenar en la memoria un conjunto de instrucciones (un programa ) que detalla el cálculo . Alan Turing estableció la base teórica de la computadora con programa almacenado en su artículo de 1936. En 1945, Turing se unió al Laboratorio Nacional de Física.y comenzó a trabajar en el desarrollo de una computadora digital electrónica con programas almacenados. Su informe de 1945 "Proposed Electronic Calculator" fue la primera especificación para tal dispositivo. John von Neumann de la Universidad de Pensilvania también hizo circular su Primer Borrador de un Informe sobre el EDVAC en 1945. [20]

El Manchester Baby fue la primera computadora con programas almacenados del mundo . Fue construido en la Universidad Victoria de Manchester por Frederic C. Williams , Tom Kilburn y Geoff Tootill , y ejecutó su primer programa el 21 de junio de 1948. [43] Fue diseñado como un banco de pruebas para el tubo Williams , el primer acceso aleatorio dispositivo de almacenamiento digital. [44] Aunque la computadora se consideraba "pequeña y primitiva" según los estándares de su época, fue la primera máquina en funcionamiento que contenía todos los elementos esenciales para una computadora electrónica moderna. [45]Tan pronto como el Baby demostró la viabilidad de su diseño, se inició un proyecto en la universidad para convertirlo en una computadora más utilizable, la Manchester Mark 1 . Grace Hopper fue la primera persona en desarrollar un compilador para lenguaje de programación. [2]

La Mark 1, a su vez, se convirtió rápidamente en el prototipo de Ferranti Mark 1 , la primera computadora de uso general disponible comercialmente en el mundo. [46] Construido por Ferranti , fue entregado a la Universidad de Manchester en febrero de 1951. Al menos siete de estas máquinas posteriores fueron entregadas entre 1953 y 1957, una de ellas a los laboratorios Shell en Amsterdam . [47] En octubre de 1947, los directores de la empresa británica de catering J. Lyons & Company decidieron tomar un papel activo en la promoción del desarrollo comercial de computadoras. El ordenador LEO I entró en funcionamiento en abril de 1951 [48]y ejecutó el primer trabajo informático de oficina de rutina habitual del mundo .

Transistores

Transistor de unión bipolar (BJT)

El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar Lilienfeld en 1925. John Bardeen y Walter Brattain , mientras trabajaban con William Shockley en Bell Labs , construyeron el primer transistor en funcionamiento , el transistor de contacto de punto , en 1947, que fue seguido por el transistor de unión bipolar de Shockley en 1948. [49] [50] Desde 1955 en adelante, los transistores reemplazaron a los tubos de vacíoen el diseño de computadoras, dando lugar a la "segunda generación" de computadoras. En comparación con los tubos de vacío, los transistores tienen muchas ventajas: son más pequeños y requieren menos energía que los tubos de vacío, por lo que emiten menos calor. Los transistores de unión eran mucho más fiables que los tubos de vacío y tenían una vida útil más larga e indefinida. Las computadoras transistorizadas podrían contener decenas de miles de circuitos lógicos binarios en un espacio relativamente compacto. Sin embargo, los primeros transistores de unión eran dispositivos relativamente voluminosos que eran difíciles de fabricar en masa , lo que los limitaba a una serie de aplicaciones especializadas. [51]

En la Universidad de Manchester , un equipo bajo la dirección de Tom Kilburn diseñó y construyó una máquina utilizando los transistores recientemente desarrollados en lugar de válvulas. [52] Su primera computadora transistorizada y la primera en el mundo, estaba operativa en 1953 , y una segunda versión se completó allí en abril de 1955. Sin embargo, la máquina hizo uso de válvulas para generar sus formas de onda de reloj de 125 kHz y en los circuitos para leer y escribir en su memoria de tambor magnético , por lo que no fue la primera computadora completamente transistorizada. Esa distinción corresponde al Harwell CADET de 1955, [53] construido por la división de electrónica de laEstablecimiento de investigación de energía atómica en Harwell . [53] [54]

MOSFET (transistor MOS), que muestra los terminales de puerta (G), cuerpo (B), fuente (S) y drenaje (D). La puerta está separada del cuerpo por una capa aislante (rosa).

El transistor de efecto de campo de óxido de metal-silicio (MOSFET), también conocido como transistor MOS, fue inventado por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959. [55] Fue el primer transistor verdaderamente compacto que pudo ser Miniaturizado y producido en serie para una amplia gama de usos. [51] Con su alta escalabilidad , [56] y mucho menor consumo de energía y mayor densidad que los transistores de unión bipolar, [57] el MOSFET hizo posible construir circuitos integrados de alta densidad . [58] [59] Además del procesamiento de datos, también permitió el uso práctico de transistores MOS comoelementos de almacenamiento de la celda de memoria, lo que llevó al desarrollo de la memoria semiconductora MOS , que reemplazó a la memoria de núcleo magnético anterior en las computadoras. El MOSFET condujo a la revolución de las microcomputadoras , [60] y se convirtió en la fuerza impulsora detrás de la revolución de las computadoras . [61] [62] El MOSFET es el transistor más utilizado en las computadoras, [63] [64] y es el bloque de construcción fundamental de la electrónica digital . [sesenta y cinco]

Circuitos integrados

El siguiente gran avance en la potencia informática llegó con la llegada del circuito integrado (IC). La idea del circuito integrado fue concebida por primera vez por un científico de radar que trabajaba para el Royal Radar Establishment del Ministerio de Defensa , Geoffrey WA Dummer . Dummer presentó la primera descripción pública de un circuito integrado en el Simposio sobre el progreso en componentes electrónicos de calidad en Washington, DC el 7 de mayo de 1952. [66]

Los primeros circuitos integrados en funcionamiento fueron inventados por Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor . [67] Kilby registró sus ideas iniciales sobre el circuito integrado en julio de 1958, demostrando con éxito el primer ejemplo integrado funcional el 12 de septiembre de 1958. [68] En su solicitud de patente del 6 de febrero de 1959, Kilby describió su nuevo dispositivo como "un cuerpo de material semiconductor ... en el que todos los componentes del circuito electrónico están completamente integrados ". [69] [70] Sin embargo, la invención de Kilby fue un circuito integrado híbrido (CI híbrido), en lugar de un circuito integrado monolítico.(IC) chip. [71] El CI de Kilby tenía conexiones de cables externos, lo que dificultaba su producción en masa. [72]

A Noyce también se le ocurrió su propia idea de un circuito integrado medio año más tarde que Kilby. [73] La invención de Noyce fue el primer chip IC monolítico verdadero. [74] [72] Su chip resolvió muchos problemas prácticos que el de Kilby no había hecho. Producido en Fairchild Semiconductor, estaba hecho de silicio , mientras que el chip de Kilby estaba hecho de germanio . El CI monolítico de Noyce se fabricó utilizando el proceso planar , desarrollado por su colega Jean Hoerni a principios de 1959. A su vez, el proceso planar se basó en el trabajo de Atalla sobre la pasivación de la superficie de semiconductores por dióxido de silicona a finales de la década de 1950. [75] [76] [77]

Los circuitos integrados monolíticos modernos son predominantemente circuitos integrados MOS ( semiconductores de óxido de metal ), construidos a partir de MOSFET (transistores MOS). [78] El primer MOS IC experimental que se fabricó fue un chip de 16 transistores construido por Fred Heiman y Steven Hofstein en RCA en 1962. [79] General Microelectronics luego introdujo el primer MOS IC comercial en 1964, [80] desarrollado por Robert Normando. [79] Tras el desarrollo del transistor MOS de puerta autoalineada ( puerta de silicio) por Robert Kerwin, Donald Klein y John Sarace en Bell Labs en 1967, el primer CI MOS de puerta de silicio conLas puertas autoalineadas fueron desarrolladas por Federico Faggin en Fairchild Semiconductor en 1968. [81] Desde entonces, el MOSFET se ha convertido en el componente de dispositivo más crítico en los circuitos integrados modernos. [82]

El desarrollo del circuito integrado MOS condujo a la invención del microprocesador , [83] [84] y anunció una explosión en el uso comercial y personal de las computadoras. Si bien el tema de qué dispositivo fue exactamente el primer microprocesador es controvertido, en parte debido a la falta de acuerdo sobre la definición exacta del término "microprocesador", es indiscutible que el primer microprocesador de un solo chip fue el Intel 4004 , [85] diseñado y realizado por Federico Faggin con su tecnología MOS IC de puerta de silicio, [83] junto con Ted Hoff , Masatoshi Shima y Stanley Mazor en Intel .[86] [87] A principios de la década de 1970, la tecnología MOS IC permitió la integración de más de 10,000 transistores en un solo chip. [59]

System on a Chip (SoC) son computadoras completas en un microchip (o chip) del tamaño de una moneda. [88] Pueden tener o no RAM y memoria flash integradas . Si no está integrado, la RAM generalmente se coloca directamente encima (conocido como Paquete en el paquete ) o debajo (en el lado opuesto de la placa de circuito) el SoC, y la memoria flash generalmente se coloca justo al lado del SoC, todo esto para mejorar las velocidades de transferencia de datos, ya que las señales de datos no tienen que viajar largas distancias. Desde ENIAC en 1945, las computadoras han avanzado enormemente, con los SoC modernos (como el Snapdragon 865) que tienen el tamaño de una moneda y al mismo tiempo son cientos de miles de veces más potentes que ENIAC, integran miles de millones de transistores y consumen solo unos pocos vatios. de poder.

Computadoras móviles

Las primeras computadoras móviles eran pesadas y funcionaban con la red eléctrica. El IBM 5100 de 50 libras fue un ejemplo temprano. Los portátiles posteriores, como el Osborne 1 y el Compaq Portable, eran considerablemente más ligeros, pero aún debían enchufarse. Los primeros portátiles , como el Grid Compass , eliminaron este requisito al incorporar baterías y con la miniaturización continua de los recursos informáticos y los avances en los dispositivos portátiles. duración de la batería, las computadoras portátiles aumentaron en popularidad en la década de 2000. [89] Los mismos avances permitieron a los fabricantes integrar recursos informáticos en teléfonos móviles a principios de la década de 2000.

Estos teléfonos inteligentes y tabletas funcionan con una variedad de sistemas operativos y recientemente se convirtieron en el dispositivo informático dominante en el mercado. [90] Estos funcionan con System on a Chip (SoC), que son computadoras completas en un microchip del tamaño de una moneda. [88]

Tipos

Las computadoras se pueden clasificar de diferentes maneras, que incluyen:

Por arquitectura

  • Computadora analógica
  • Ordenador digital
  • Computadora híbrida
  • Arquitectura de Harvard
  • Arquitectura de von Neumann
  • Equipo conjunto de instrucciones complejas
  • Grupo reducido de instrucciones para computadoras

Por tamaño, factor de forma y propósito

  • Supercomputadora
  • Computadora central
  • Minicomputadora (término que ya no se usa)
  • Servidor
    • Servidor de montaje en rack
    • Servidor Blade
    • Servidor de torre
  • Computadora personal
    • Puesto de trabajo
    • Microordenador (término que ya no se usa)
      • Computador de casa
    • Computadora de escritorio
      • Escritorio de torre
      • Escritorio delgado
        • Computadora multimedia ( computadoras con sistema de edición no lineal, computadoras de edición de video y similares)
        • Computadora para juegos
      • PC todo en uno
      • Nettop ( PC de factor de forma pequeño , Mini PC)
      • PC de cine en casa
      • Computadora con teclado
      • Ordenador portátil
      • Cliente ligero
      • Dispositivo de Internet
    • Ordenador portátil
      • Computadora de escritorio de reemplazo
      • Portátil para juegos
      • Portátil resistente
      • PC 2 en 1
      • Ultrabook
      • Chromebook
      • Subportátil
      • Netbook
  • Computadoras móviles :
    • Tableta
    • Teléfono inteligente
    • PC ultramóvil
    • PC de bolsillo
    • PC de bolsillo
    • PC de mano
  • Computadora portátil
    • Reloj inteligente
    • Gafas inteligentes
  • Computadora de placa única
  • Enchufe la computadora
  • Stick PC
  • Controlador lógico programable
  • Computadora en módulo
  • Sistema en módulo
  • Sistema en un paquete
  • Sistema en chip (también conocido como procesador de aplicaciones o AP si carece de circuitos, como circuitos de radio)
  • Microcontrolador

Hardware

Reproducir medios
Video que muestra los componentes estándar de una computadora "delgada"

El término hardware cubre todas aquellas partes de una computadora que son objetos físicos tangibles. Los circuitos, chips de computadora, tarjetas gráficas, tarjetas de sonido, memoria (RAM), placa base, pantallas, fuentes de alimentación, cables, teclados, impresoras y dispositivos de entrada "mouse" son todos hardware.

Historia del hardware informático

Otros temas de hardware

Una computadora de propósito general tiene cuatro componentes principales: la unidad aritmética lógica (ALU), la unidad de control , la memoria y los dispositivos de entrada y salida (denominados colectivamente E / S). Estas partes están interconectadas por buses , a menudo hechos de grupos de cables . Dentro de cada una de estas partes hay miles o billones de pequeños circuitos eléctricos que se pueden apagar o encender por medio de un interruptor electrónico . Cada circuito representa un bit (dígito binario) de información de modo que cuando el circuito está encendido representa un "1" y cuando está apagado representa un "0" (en representación lógica positiva). Los circuitos están dispuestos enpuertas lógicas para que uno o más de los circuitos puedan controlar el estado de uno o más de los otros circuitos.

Los dispositivos de entrada

Cuando se envían datos sin procesar a la computadora con la ayuda de dispositivos de entrada, los datos se procesan y se envían a los dispositivos de salida. Los dispositivos de entrada pueden operarse manualmente o automatizarse. El acto de procesamiento está regulado principalmente por la CPU. Algunos ejemplos de dispositivos de entrada son:

  • Teclado
  • Cámara digital
  • Video digital
  • Tableta gráfica
  • Escáner de imágenes
  • Palanca de mando
  • Micrófono
  • Ratón
  • Teclado superpuesto
  • Reloj en tiempo real
  • Trackball
  • Pantalla táctil

Dispositivos de salida

Los medios a través de los cuales la computadora da salida se conocen como dispositivos de salida. Algunos ejemplos de dispositivos de salida son:

  • Monitor de computadora
  • Impresora
  • Altavoz de la PC
  • Proyector
  • Tarjeta de sonido
  • Tarjeta de video

Unidad de control

Diagrama que muestra cómo el sistema de control decodificaría una instrucción particular de arquitectura MIPS

La unidad de control (a menudo llamada sistema de control o controlador central) administra los diversos componentes de la computadora; lee e interpreta (decodifica) las instrucciones del programa, transformándolas en señales de control que activan otras partes de la computadora. [92] Los sistemas de control en computadoras avanzadas pueden cambiar el orden de ejecución de algunas instrucciones para mejorar el rendimiento.

Un componente clave común a todas las CPU es el contador de programa , una celda de memoria especial (un registro ) que realiza un seguimiento de la ubicación de la memoria desde la que se leerá la siguiente instrucción. [93]

La función del sistema de control es la siguiente: tenga en cuenta que esta es una descripción simplificada y que algunos de estos pasos se pueden realizar al mismo tiempo o en un orden diferente según el tipo de CPU:

  1. Lea el código de la siguiente instrucción de la celda indicada por el contador del programa.
  2. Decodifica el código numérico de la instrucción en un conjunto de comandos o señales para cada uno de los otros sistemas.
  3. Incremente el contador del programa para que apunte a la siguiente instrucción.
  4. Lea los datos que la instrucción requiera de las celdas en la memoria (o quizás de un dispositivo de entrada). La ubicación de estos datos requeridos generalmente se almacena dentro del código de instrucción.
  5. Proporcione los datos necesarios a una ALU o regístrese.
  6. Si la instrucción requiere una ALU o hardware especializado para completarse, indique al hardware que realice la operación solicitada.
  7. Escriba el resultado de la ALU en una ubicación de memoria o en un registro o quizás en un dispositivo de salida.
  8. Vuelva al paso (1).

Dado que el contador del programa es (conceptualmente) solo otro conjunto de celdas de memoria, se puede cambiar mediante cálculos realizados en la ALU. Agregar 100 al contador del programa provocaría que la siguiente instrucción se lea desde un lugar 100 ubicaciones más abajo en el programa. Las instrucciones que modifican el contador del programa a menudo se conocen como "saltos" y permiten bucles (instrucciones que son repetidas por la computadora) y, a menudo, ejecución de instrucciones condicional (ambos ejemplos de flujo de control ).

La secuencia de operaciones que atraviesa la unidad de control para procesar una instrucción es en sí misma como un programa de computadora corto y, de hecho, en algunos diseños de CPU más complejos, hay otra computadora aún más pequeña llamada microsecuenciador , que ejecuta un programa de microcódigo que causa todos estos eventos sucederán.

Unidad Central de Procesamiento (CPU)

La unidad de control, ALU y los registros se conocen colectivamente como unidad central de procesamiento (CPU). Las primeras CPU estaban compuestas por muchos componentes separados. Desde la década de 1970, las CPU se han construido típicamente en un solo chip de circuito integrado MOS llamado microprocesador .

Unidad aritmética lógica (ALU)

La ALU es capaz de realizar dos clases de operaciones: aritmética y lógica. [94] El conjunto de operaciones aritméticas que admite una ALU en particular puede limitarse a sumas y restas, o puede incluir funciones de multiplicación, división, trigonometría como seno, coseno, etc. y raíces cuadradas . Algunos solo pueden operar con números enteros ( enteros ) mientras que otros usan punto flotante para representar números reales, aunque con precisión limitada. Sin embargo, cualquier computadora que sea capaz de realizar solo las operaciones más simples puede programarse para dividir las operaciones más complejas en pasos simples que pueda realizar. Por lo tanto, cualquier computadora puede programarse para realizar cualquier operación aritmética, aunque llevará más tiempo hacerlo si su ALU no respalda directamente la operación. Una ALU también puede comparar números y devolver valores booleanos de verdad (verdadero o falso) dependiendo de si uno es igual, mayor o menor que el otro ("¿64 es mayor que 65?"). Las operaciones lógicas involucran lógica booleana : AND , OR , XOR y NOT . Estos pueden ser útiles para crear complicadosdeclaraciones condicionales y procesamiento de lógica booleana .

Las computadoras superescalares pueden contener múltiples ALU, lo que les permite procesar varias instrucciones simultáneamente. [95] Los procesadores gráficos y las computadoras con características SIMD y MIMD a menudo contienen ALU que pueden realizar operaciones aritméticas en vectores y matrices .

Memoria

La memoria de núcleo magnético (usando núcleos magnéticos ) fue la memoria de computadora elegida en la década de 1960, hasta que fue reemplazada por la memoria semiconductora (usando celdas de memoria MOS ).

La memoria de una computadora se puede ver como una lista de celdas en las que se pueden colocar o leer números. Cada celda tiene una "dirección" numerada y puede almacenar un solo número. Se le puede indicar a la computadora que "ponga el número 123 en la celda numerada 1357" o que "agregue el número que está en la celda 1357 al número que está en la celda 2468 y ponga la respuesta en la celda 1595". La información almacenada en la memoria puede representar prácticamente cualquier cosa. Las letras, los números e incluso las instrucciones de la computadora se pueden guardar en la memoria con la misma facilidad. Dado que la CPU no distingue entre diferentes tipos de información, es responsabilidad del software dar significado a lo que la memoria ve como nada más que una serie de números.

En casi todas las computadoras modernas, cada celda de memoria está configurada para almacenar números binarios en grupos de ocho bits (llamados bytes ). Cada byte puede representar 256 números diferentes (2 8 = 256); ya sea de 0 a 255 o de −128 a +127. Para almacenar números más grandes, se pueden utilizar varios bytes consecutivos (normalmente, dos, cuatro u ocho). Cuando se requieren números negativos, generalmente se almacenan en notación en complemento a dos . Son posibles otros arreglos, pero generalmente no se ven fuera de aplicaciones especializadas o contextos históricos. Una computadora puede almacenar cualquier tipo de información en la memoria si se puede representar numéricamente. Las computadoras modernas tienen miles de millones o incluso billones de bytes de memoria.

La CPU contiene un conjunto especial de celdas de memoria llamadas registros que se pueden leer y escribir mucho más rápidamente que el área de memoria principal. Por lo general, hay entre dos y cien registros, según el tipo de CPU. Los registros se utilizan para los elementos de datos necesarios con más frecuencia para evitar tener que acceder a la memoria principal cada vez que se necesitan datos. Como se trabaja constantemente en los datos, la reducción de la necesidad de acceder a la memoria principal (que a menudo es lenta en comparación con la ALU y las unidades de control) aumenta enormemente la velocidad de la computadora.

La memoria principal de la computadora se presenta en dos variedades principales:

  • memoria de acceso aleatorio o RAM
  • memoria de solo lectura o ROM

La RAM se puede leer y escribir en cualquier momento que la CPU lo ordene, pero la ROM está precargada con datos y software que nunca cambia, por lo que la CPU solo puede leer de ella. La ROM se utiliza normalmente para almacenar las instrucciones de inicio inicial de la computadora. En general, el contenido de la RAM se borra cuando se apaga la computadora, pero la ROM retiene sus datos indefinidamente. En una PC, la ROM contiene un programa especializado llamado BIOS que organiza la carga del sistema operativo de la computadora desde la unidad de disco duro en la RAM cada vez que la computadora se enciende o se reinicia. En las computadoras integradas , que con frecuencia no tienen unidades de disco, todo el software requerido puede almacenarse en ROM. El software almacenado en la ROM a menudo se denomina firmware., porque teóricamente se parece más al hardware que al software. La memoria flash desdibuja la distinción entre ROM y RAM, ya que retiene sus datos cuando se apaga, pero también es regrabable. Sin embargo, normalmente es mucho más lento que la ROM y la RAM convencionales, por lo que su uso está restringido a aplicaciones donde la alta velocidad es innecesaria. [96]

En computadoras más sofisticadas puede haber una o más memorias caché RAM , que son más lentas que los registros pero más rápidas que la memoria principal. Generalmente, las computadoras con este tipo de caché están diseñadas para mover datos que se necesitan con frecuencia al caché automáticamente, a menudo sin la necesidad de ninguna intervención por parte del programador.

Entrada / salida (E / S)

Las unidades de disco duro son dispositivos de almacenamiento comunes que se utilizan con las computadoras.

La E / S es el medio por el cual una computadora intercambia información con el mundo exterior. [97] Los dispositivos que proporcionan entrada o salida a la computadora se denominan periféricos . [98] En una computadora personal típica, los periféricos incluyen dispositivos de entrada como el teclado y el mouse , y dispositivos de salida como la pantalla y la impresora . Las unidades de disco duro , las unidades de disquete y las unidades de disco óptico sirven como dispositivos de entrada y salida. Las redes de computadoras son otra forma de E / S. Los dispositivos de E / S suelen ser computadoras complejas por derecho propio, con su propia CPU y memoria. ALa unidad de procesamiento de gráficos puede contener cincuenta o más computadoras diminutas que realizan los cálculos necesarios para mostrar gráficos en 3D . [ cita requerida ] Las computadoras de escritorio modernas contienen muchas computadoras más pequeñas que ayudan a la CPU principal a realizar E / S. Una pantalla plana de la era de 2016 contiene sus propios circuitos informáticos.

Multitarea

Si bien se puede considerar que una computadora ejecuta un programa gigantesco almacenado en su memoria principal, en algunos sistemas es necesario dar la apariencia de ejecutar varios programas simultáneamente. Esto se logra mediante la multitarea, es decir, haciendo que la computadora cambie rápidamente entre la ejecución de cada programa. [99] Un medio por el cual se hace esto es con una señal especial llamada interrupción., lo que periódicamente puede hacer que la computadora deje de ejecutar instrucciones donde estaba y haga otra cosa en su lugar. Al recordar dónde se estaba ejecutando antes de la interrupción, la computadora puede volver a esa tarea más tarde. Si varios programas se están ejecutando "al mismo tiempo". entonces el generador de interrupciones podría estar provocando varios cientos de interrupciones por segundo, provocando un cambio de programa cada vez. Dado que las computadoras modernas normalmente ejecutan instrucciones varios órdenes de magnitud más rápido que la percepción humana, puede parecer que muchos programas se están ejecutando al mismo tiempo, aunque solo uno se esté ejecutando en un instante dado. Este método de multitarea a veces se denomina "tiempo compartido", ya que a cada programa se le asigna una "porción" de tiempo a su vez. [100]

Antes de la era de las computadoras económicas, el uso principal de la multitarea era permitir que muchas personas compartieran la misma computadora. Aparentemente, la multitarea haría que una computadora que cambia entre varios programas se ejecute más lentamente, en proporción directa a la cantidad de programas que está ejecutando, pero la mayoría de los programas pasan gran parte de su tiempo esperando que los dispositivos de entrada / salida lentos completen sus tareas. Si un programa está esperando que el usuario haga clic en el mouse o presione una tecla en el teclado, entonces no tomará un "intervalo de tiempo" hasta que haya ocurrido el evento que está esperando. Esto libera tiempo para que se ejecuten otros programas, de modo que muchos programas pueden ejecutarse simultáneamente sin una pérdida de velocidad inaceptable.

Multiprocesamiento

Cray diseñó muchas supercomputadoras que utilizaban mucho el multiprocesamiento.

Algunas computadoras están diseñadas para distribuir su trabajo entre varias CPU en una configuración de multiprocesamiento, una técnica que alguna vez se empleó solo en máquinas grandes y poderosas como supercomputadoras , computadoras centrales y servidores . Las computadoras personales y portátiles multiprocesador y multinúcleo (varias CPU en un solo circuito integrado) están ahora ampliamente disponibles y, como resultado, se utilizan cada vez más en los mercados de gama baja.

Las supercomputadoras, en particular, a menudo tienen arquitecturas muy únicas que difieren significativamente de la arquitectura básica del programa almacenado y de las computadoras de propósito general. [101] A menudo cuentan con miles de CPU, interconexiones personalizadas de alta velocidad y hardware informático especializado. Dichos diseños tienden a ser útiles solo para tareas especializadas debido a la gran escala de organización del programa que se requiere para utilizar con éxito la mayoría de los recursos disponibles a la vez. Las supercomputadoras suelen ser utilizadas en aplicaciones de simulación , representación gráfica y criptografía a gran escala , así como en otras tareas denominadas " vergonzosamente paralelas ".

Software

El software se refiere a partes de la computadora que no tienen una forma material, como programas, datos, protocolos, etc. El software es la parte de un sistema informático que consta de información codificada o instrucciones de computadora, en contraste con el hardware físico del cual el sistema está construido. El software de computadora incluye programas de computadora , bibliotecas y datos no ejecutables relacionados , como documentación en línea o medios digitales . A menudo se divide en software de sistema y software de aplicación.El hardware y el software de las computadoras se requieren mutuamente y ninguno de los dos se puede utilizar de manera realista por sí solo. Cuando el software se almacena en hardware que no se puede modificar fácilmente, como con BIOS ROM en una computadora compatible con IBM PC , a veces se le llama "firmware".

Idiomas

Hay miles de lenguajes de programación diferentes, algunos destinados a fines generales, otros útiles solo para aplicaciones altamente especializadas.

Programas

La característica definitoria de las computadoras modernas que las distingue de todas las demás máquinas es que pueden programarse . Es decir que se le puede dar algún tipo de instrucciones (el programa ) a la computadora, y las procesará. Las computadoras modernas basadas en la arquitectura de von Neumann a menudo tienen código de máquina en forma de lenguaje de programación imperativo . En términos prácticos, un programa de computadora puede ser solo unas pocas instrucciones o extenderse a muchos millones de instrucciones, al igual que los programas para procesadores de texto y navegadores web, por ejemplo. Una computadora moderna típica puede ejecutar miles de millones de instrucciones por segundo ( gigaflops) y rara vez comete un error durante muchos años de funcionamiento. Los programas de computadora grandes que constan de varios millones de instrucciones pueden tardar años en escribir a los equipos de programadores y, debido a la complejidad de la tarea, es casi seguro que contengan errores.

Arquitectura de programa almacenado

Réplica del Manchester Baby , la primera computadora electrónica con programa almacenado del mundo , en el Museo de Ciencia e Industria de Manchester, Inglaterra.

Esta sección se aplica a la mayoría de las computadoras basadas en máquinas RAM .

En la mayoría de los casos, las instrucciones de la computadora son simples: agregar un número a otro, mover algunos datos de una ubicación a otra, enviar un mensaje a algún dispositivo externo, etc. Estas instrucciones se leen de la memoria de la computadora y generalmente se llevan a cabo ( ejecutan ) en el orden en que fueron dados. Sin embargo, generalmente hay instrucciones especializadas para decirle a la computadora que salte hacia adelante o hacia atrás a algún otro lugar del programa y que continúe ejecutándose desde allí. Se denominan instrucciones de "salto" (o ramas ). Además, las instrucciones de salto pueden realizarse de forma condicional.por lo que se pueden utilizar diferentes secuencias de instrucciones en función del resultado de algún cálculo previo o algún evento externo. Muchas computadoras admiten subrutinas directamente al proporcionar un tipo de salto que "recuerda" la ubicación desde la que saltó y otra instrucción para volver a la instrucción que sigue a esa instrucción de salto.

La ejecución del programa puede compararse con la lectura de un libro. Si bien una persona normalmente leerá cada palabra y línea en secuencia, a veces puede saltar a un lugar anterior en el texto o saltarse secciones que no son de interés. De manera similar, una computadora a veces puede retroceder y repetir las instrucciones en alguna sección del programa una y otra vez hasta que se cumpla alguna condición interna. Esto se llama flujo de control dentro del programa y es lo que le permite a la computadora realizar tareas repetidamente sin intervención humana.

Comparativamente, una persona que usa una calculadora de bolsillo puede realizar una operación aritmética básica como sumar dos números con solo presionar unos pocos botones. Pero sumar todos los números del 1 al 1000 requeriría miles de pulsaciones de botones y mucho tiempo, con la casi certeza de cometer un error. Por otro lado, una computadora puede programarse para hacer esto con solo unas pocas instrucciones simples. El siguiente ejemplo está escrito en lenguaje ensamblador MIPS :

 comenzar:  addi  $ 8 ,  $ 0 ,  0  # inicializar suma a 0  addi  $ 9 ,  $ 0 ,  1  # establecer el primer número para agregar = 1  bucle:  slti  $ 10 ,  $ 9 ,  1000  # comprobar si el número es menor que 1000  beq  $ 10 ,  $ 0 ,  finalizar  # si el número impar es mayor que n, salga,  agregue  $ 8 ,  $ 8 ,  $ 9  # actualice la suma  addi  $ 9 ,  $ 9 ,  1  # obtenga el siguiente número  j  bucle # repita el proceso de suma  final:  agregue  $ 2 ,  $ 8 ,  $ 0  # ponga la suma en el registro de salida

Una vez que se le indique que ejecute este programa, la computadora realizará la tarea de adición repetitiva sin más intervención humana. Casi nunca cometerá un error y una PC moderna puede completar la tarea en una fracción de segundo.

Codigo de maquina

En la mayoría de las computadoras, las instrucciones individuales se almacenan como código de máquina y a cada instrucción se le asigna un número único (su código de operación o código de operación).para abreviar). El comando para sumar dos números tendría un código de operación; el comando para multiplicarlos tendría un código de operación diferente, y así sucesivamente. Las computadoras más simples son capaces de ejecutar cualquiera de un puñado de instrucciones diferentes; las computadoras más complejas tienen varios cientos para elegir, cada una con un código numérico único. Dado que la memoria de la computadora puede almacenar números, también puede almacenar los códigos de instrucción. Esto lleva al hecho importante de que programas completos (que son solo listas de estas instrucciones) pueden representarse como listas de números y pueden manipularse ellos mismos dentro de la computadora de la misma manera que los datos numéricos. El concepto fundamental de almacenar programas en la memoria de la computadora junto con los datos con los que operan es el quid de von Neumann, o programa almacenado [cita requerida ], arquitectura. En algunos casos, una computadora puede almacenar parte o la totalidad de su programa en la memoria que se mantiene separada de los datos con los que opera. Esto se llama laarquitectura de Harvard enhonor a lacomputadoraHarvard Mark I.Las computadoras modernas de von Neumann muestran algunos rasgos de la arquitectura de Harvard en sus diseños, como en lasmemorias caché de la CPU.

Si bien es posible escribir programas de computadora como largas listas de números ( lenguaje de máquina ) y si bien esta técnica se usó con muchas computadoras tempranas, [102] es extremadamente tedioso y potencialmente propenso a errores hacerlo en la práctica, especialmente para programas complicados. . En cambio, a cada instrucción básica se le puede dar un nombre corto que sea indicativo de su función y fácil de recordar: un mnemónico como ADD, SUB, MULT o JUMP. Estos mnemónicos se conocen colectivamente como lenguaje ensamblador de una computadora . La conversión de programas escritos en lenguaje ensamblador en algo que la computadora realmente pueda entender (lenguaje de máquina) generalmente se realiza mediante un programa de computadora llamado ensamblador.

Una tarjeta perforada de la década de 1970 que contiene una línea de un programa de Fortran . La tarjeta dice: "Z (1) = Y + W (1)" y está etiquetada como "PROJ039" para fines de identificación.

Lenguaje de programación

Los lenguajes de programación proporcionan varias formas de especificar programas para que los ejecuten las computadoras. A diferencia de los lenguajes naturales , los lenguajes de programación están diseñados para no permitir ambigüedad y ser concisos. Son lenguajes puramente escritos y, a menudo, son difíciles de leer en voz alta. Por lo general, un compilador o un ensamblador los traduce a código de máquina antes de ejecutarse, o un intérprete los traduce directamente en tiempo de ejecución . A veces, los programas se ejecutan mediante un método híbrido de las dos técnicas.

Idiomas de bajo nivel

Los lenguajes de máquina y los lenguajes ensambladores que los representan (denominados colectivamente lenguajes de programación de bajo nivel ) son generalmente únicos para la arquitectura particular de la unidad central de procesamiento ( CPU ) de una computadora . Por ejemplo, una CPU con arquitectura ARM (como la que se puede encontrar en un teléfono inteligente o un videojuego portátil ) no puede entender el lenguaje de máquina de una CPU x86 que podría estar en una PC . [103] Históricamente, se creó un número significativo de otras arquitecturas de CPU y se vio un uso extensivo, en particular, incluida la tecnología MOS 6502 y 6510 además del Zilog Z80.

Idiomas de alto nivel

Aunque considerablemente más fácil que en lenguaje de máquina, escribir programas largos en lenguaje ensamblador suele ser difícil y también es propenso a errores. Por lo tanto, la mayoría de los programas prácticos están escritos en lenguajes de programación de alto nivel más abstractos que pueden expresar las necesidades del programador de manera más conveniente (y por lo tanto ayudar a reducir los errores del programador). Los lenguajes de alto nivel generalmente se "compilan" en lenguaje de máquina (o algunas veces en lenguaje ensamblador y luego en lenguaje de máquina) usando otro programa de computadora llamado compilador . [104]Los lenguajes de alto nivel están menos relacionados con el funcionamiento de la computadora de destino que el lenguaje ensamblador, y más relacionados con el lenguaje y la estructura de los problemas que se resolverán con el programa final. Por lo tanto, a menudo es posible utilizar diferentes compiladores para traducir el mismo programa de lenguaje de alto nivel al lenguaje de máquina de muchos tipos diferentes de computadora. Esto es parte de los medios por los cuales software como los videojuegos puede estar disponible para diferentes arquitecturas de computadora, como computadoras personales y varias consolas de videojuegos .

Diseño de programa

El diseño de programas pequeños es relativamente simple e implica el análisis del problema, la recopilación de entradas, el uso de construcciones de programación dentro de los lenguajes, la elaboración o el uso de procedimientos y algoritmos establecidos, proporcionando datos para dispositivos de salida y soluciones al problema según corresponda. A medida que los problemas se vuelven más grandes y complejos, se encuentran características como subprogramas, módulos, documentación formal y nuevos paradigmas como la programación orientada a objetos. Los programas grandes que involucran miles de líneas de código y más requieren metodologías de software formales. La tarea de desarrollar software de gran tamañosistemas presenta un importante desafío intelectual. La producción de software con una fiabilidad aceptablemente alta dentro de un calendario y un presupuesto predecibles ha sido históricamente difícil; la disciplina académica y profesional de la ingeniería de software se concentra específicamente en este desafío.

Insectos

El primer error informático real, una polilla atrapada en un relé de la computadora Harvard Mark II

Los errores en los programas de computadora se denominan " errores ". Pueden ser benignos y no afectar la utilidad del programa, o tener solo efectos sutiles. Pero en algunos casos, pueden hacer que el programa o todo el sistema se " cuelgue ", dejando de responder a las entradas, como los clics del mouse o las pulsaciones de teclas, fallar por completo o bloquearse . De lo contrario, los errores benignos a veces pueden ser aprovechados con intenciones maliciosas por un usuario sin escrúpulos que escribe un exploit., código diseñado para aprovechar un error e interrumpir la ejecución adecuada de una computadora. Los errores generalmente no son culpa de la computadora. Dado que las computadoras simplemente ejecutan las instrucciones que se les dan, los errores casi siempre son el resultado de un error del programador o un descuido realizado en el diseño del programa. [105] A la almirante Grace Hopper , una científica informática estadounidense y desarrolladora del primer compilador , se le atribuye haber utilizado por primera vez el término "errores" en informática después de que se encontró una polilla muerta haciendo cortocircuito en un relé en la computadora Harvard Mark II en septiembre de 1947. [106]

Redes e Internet

Visualización de una parte de las rutas en Internet

Las computadoras se han utilizado para coordinar información entre múltiples ubicaciones desde la década de 1950. El sistema SAGE del ejército de EE. UU. Fue el primer ejemplo a gran escala de tal sistema, lo que dio lugar a una serie de sistemas comerciales para fines especiales, como Sabre . [107] En la década de 1970, los ingenieros informáticos de las instituciones de investigación de los Estados Unidos comenzaron a vincular sus computadoras utilizando tecnología de telecomunicaciones. El esfuerzo fue financiado por ARPA (ahora DARPA ), y la red informática resultante se llamó ARPANET . [108] Las tecnologías que hicieron posible Arpanet se difundieron y evolucionaron.

Con el tiempo, la red se extendió más allá de las instituciones académicas y militares y se conoció como Internet. La aparición de las redes implicó una redefinición de la naturaleza y los límites de la computadora. Los sistemas operativos y las aplicaciones de las computadoras se modificaron para incluir la capacidad de definir y acceder a los recursos de otras computadoras en la red, tales como dispositivos periféricos, información almacenada y similares, como extensiones de los recursos de una computadora individual. Inicialmente, estas instalaciones estaban disponibles principalmente para personas que trabajaban en entornos de alta tecnología, pero en la década de 1990 la expansión de aplicaciones como el correo electrónico y la World Wide Web , combinada con el desarrollo de tecnologías de red rápidas y baratas como Ethernet y ADSL.vio que las redes de computadoras se volvieron casi omnipresentes. De hecho, la cantidad de computadoras que están en red está creciendo de manera espectacular. Una gran proporción de computadoras personales se conectan regularmente a Internet para comunicarse y recibir información. Las redes "inalámbricas", que a menudo utilizan redes de telefonía móvil, han significado que las redes se están volviendo cada vez más omnipresentes incluso en los entornos informáticos móviles.

Computadoras no convencionales

Una computadora no necesita ser electrónica , ni siquiera tener un procesador , ni RAM , ni siquiera un disco duro . Si bien el uso popular de la palabra "computadora" es sinónimo de una computadora electrónica personal, la definición moderna [109] de una computadora es literalmente: " Un dispositivo que computa , especialmente una máquina programable [usualmente] electrónica que realiza operaciones matemáticas o operaciones lógicas o que reúna, almacene, correlacione o procese información de otro modo ". [110] Cualquier dispositivo que procese información se considera una computadora, especialmente si el procesamiento tiene un propósito. [ cita requerida ]

Futuro

Existe una investigación activa para fabricar computadoras a partir de muchos tipos nuevos y prometedores de tecnología, como computadoras ópticas , computadoras de ADN , computadoras neuronales y computadoras cuánticas . La mayoría de las computadoras son universales y pueden calcular cualquier función computable , y están limitadas solo por su capacidad de memoria y velocidad de operación. Sin embargo, los diferentes diseños de computadoras pueden ofrecer un rendimiento muy diferente para problemas particulares; por ejemplo, las computadoras cuánticas pueden potencialmente romper algunos algoritmos de encriptación modernos (por factorización cuántica ) muy rápidamente.

Paradigmas de la arquitectura informática

Hay muchos tipos de arquitecturas informáticas :

  • Computadora cuántica frente a computadora química
  • Procesador escalar frente a procesador vectorial
  • Computadoras con acceso no uniforme a memoria (NUMA)
  • Registrar máquina frente a apilar máquina
  • Arquitectura de Harvard vs.Arquitectura von Neumann
  • Arquitectura celular

De todas estas máquinas abstractas , una computadora cuántica es la más prometedora para revolucionar la informática. [111] Las puertas lógicas son una abstracción común que se puede aplicar a la mayoría de los paradigmas digitales o analógicos anteriores . La capacidad de almacenar y ejecutar listas de instrucciones llamadas programas hace que las computadoras sean extremadamente versátiles, distinguiéndolas de las calculadoras . La tesis de Church-Turing es una declaración matemática de esta versatilidad: cualquier computadora con una capacidad mínima (siendo Turing-completa) es, en principio, capaz de realizar las mismas tareas que cualquier otra computadora puede realizar. Por tanto, cualquier tipo de ordenador (netbook , supercomputadora , autómata celular , etc.) es capaz de realizar las mismas tareas computacionales, con suficiente tiempo y capacidad de almacenamiento.

Inteligencia artificial

Una computadora resolverá problemas exactamente de la manera en que está programada, sin importar la eficiencia, las soluciones alternativas, los posibles atajos o los posibles errores en el código. Los programas informáticos que aprenden y se adaptan forman parte del campo emergente de la inteligencia artificial y el aprendizaje automático . Los productos basados ​​en inteligencia artificial generalmente se dividen en dos categorías principales: sistemas basados ​​en reglas y sistemas de reconocimiento de patrones . Los sistemas basados ​​en reglas intentan representar las reglas utilizadas por los expertos humanos y tienden a ser costosos de desarrollar. Los sistemas basados ​​en patrones utilizan datos sobre un problema para generar conclusiones. Los ejemplos de sistemas basados ​​en patrones incluyen el reconocimiento de voz, reconocimiento de fuentes, traducción y el campo emergente del marketing online.

Profesiones y organizaciones

A medida que el uso de computadoras se ha extendido por toda la sociedad, hay un número creciente de carreras relacionadas con las computadoras.

La necesidad de que las computadoras funcionen bien juntas y puedan intercambiar información ha generado la necesidad de muchas organizaciones, clubes y sociedades de estándares tanto de naturaleza formal como informal.

Ver también

  • Glosario de computadoras
  • Teoría de la computabilidad
  • Inseguridad informática
  • La seguridad informática
  • Glosario de términos de hardware informático
  • Historia de la informática
  • Lista de etimologías de términos informáticos
  • Lista de computadoras ficticias
  • Lista de pioneros en informática
  • Cálculo de pulsos
  • TOP500 (lista de las computadoras más potentes)
  • Computación no convencional

Referencias

  1. Evans , 2018 , p. 23.
  2. ↑ a b Smith , 2013 , p. 6.
  3. ^ "computadora (n.)" . Diccionario de etimología en línea .
  4. Según Schmandt-Besserat 1981 , estos recipientes de arcilla contenían fichas, cuyo total era el recuento de objetos transferidos. Por tanto, los contenedores servían como una especie de conocimiento de embarque o libro de cuentas. Para evitar romper los recipientes, primero se colocaron impresiones de arcilla de las fichas en el exterior de los recipientes, para el recuento; las formas de las impresiones se abstrajeron en marcas estilizadas; finalmente, las marcas abstractas se utilizaron sistemáticamente como numerales; estos numerales finalmente se formalizaron como números. Eventualmente ( Schmandt-Besserat estima que tomó 4000 años Archivado el 30 de enero de 2012 en Wayback Machine) ) las marcas en el exterior de los recipientes eran todo lo que se necesitaba para transmitir el recuento, y los recipientes de arcilla se convirtieron en tabletas de arcilla con marcas para el recuento.
  5. ^ Robson, Eleanor (2008), Matemáticas en el antiguo Iraq , ISBN 978-0-691-09182-2. pag. 5: los cálculos se utilizaban en Irak para los sistemas de contabilidad primitivos ya en el 3200-3000 a. C., con sistemas de representación de recuento específicos de los productos básicos. La contabilidad equilibrada estaba en uso entre el 3000 y el 2350 a. C., y entre el 2350 y el 2000 a. C. se utilizó un sistema numérico sexagesimal .
  6. ^ Números a través de las edades . Flegg, Graham. Houndmills, Basingstoke, Hampshire: Educación Macmillan. 1989. ISBN 0-333-49130-0. OCLC  24660570 .CS1 maint: others (link)
  7. ^ El proyecto de investigación del mecanismo de Antikythera Archivado el 28 de abril de 2008 en Wayback Machine , el proyecto de investigación del mecanismo de Antikythera. Consultado el 1 de julio de 2007.
  8. ^ G. Wiet, V. Elisseeff, P. Wolff, J. Naudu (1975). Historia de la humanidad, Vol. 3: Las grandes civilizaciones medievales , p. 649. George Allen & Unwin Ltd, UNESCO .
  9. ^ Fuat Sezgin "Catálogo de la exposición del Instituto de Historia de la Ciencia Árabe-Islámica (en la Universidad Johann Wolfgang Goethe", Frankfurt, Alemania) Feria del Libro de Frankfurt 2004, págs. 35 y 38.
  10. ^ Charette, François (2006). "Arqueología: alta tecnología de la antigua Grecia". Naturaleza . 444 (7119): 551–552. Código Bibliográfico : 2006Natur.444..551C . doi : 10.1038 / 444551a . PMID 17136077 . S2CID 33513516 .  
  11. ^ Bedini, Silvio A .; Maddison, Francis R. (1966). "Universo mecánico: el astrario de Giovanni de 'Dondi". Transacciones de la American Philosophical Society . 56 (5): 1–69. doi : 10.2307 / 1006002 . JSTOR 1006002 . 
  12. ^ Precio, Derek de S. (1984). "Una historia de las máquinas de calcular". IEEE Micro . 4 (1): 22–52. doi : 10.1109 / MM.1984.291305 .
  13. ^ Oren, Tuncer (2001). "Avances en informática y ciencias de la información: del ábaco a los agentes holónicos" (PDF) . Turk J Elec Engin . 9 (1): 63–70.
  14. ^ Donald Routledge Hill (1985). "Calendario mecánico de Al-Biruni", Annals of Science 42 , págs. 139-163.
  15. ^ "El escritor autómata, Suiza" . chonday.com. 11 de julio de 2013.
  16. ^ a b Ray Girvan, "La gracia revelada del mecanismo: computación después de Babbage" Archivado el 3 de noviembre de 2012 en Wayback Machine , Scientific Computing World , mayo / junio de 2003
  17. ^ Halacy, Daniel Stephen (1970). Charles Babbage, padre de la computadora . Prensa de Crowell-Collier. ISBN 978-0-02-741370-0.
  18. ^ "Babbage" . Cosas en línea . Museo de Ciencia. 19 de enero de 2007 . Consultado el 1 de agosto de 2012 .
  19. ^ "Construyamos la última computadora mecánica de Babbage" . opinión . Científico nuevo. 23 de diciembre de 2010 . Consultado el 1 de agosto de 2012 .
  20. ^ a b c d La historia moderna de la informática . Enciclopedia de Filosofía de Stanford. 2017.
  21. ^ Zuse, Horst. "Parte 4: Computadoras Z1 y Z3 de Konrad Zuse" . La vida y obra de Konrad Zuse . EPE en línea. Archivado desde el original el 1 de junio de 2008 . Consultado el 17 de junio de 2008 .
  22. ^ Zuse, Konrad (2010) [1984], La computadora - Mi vida traducida por McKenna, Patricia y Ross, J. Andrew de: Der Computer, mein Lebenswerk (1984) , Berlín / Heidelberg: Springer-Verlag, ISBN 978-3-642-08151-4
  23. ^ Salz Trautman, Peggy (20 de abril de 1994). "Un pionero de la informática redescubierto, 50 años después" . The New York Times .
  24. ^ Zuse, Konrad (1993). Der Computer. Mein Lebenswerk (en alemán) (3ª ed.). Berlín: Springer-Verlag. pag. 55. ISBN 978-3-540-56292-4.
  25. ^ "Crash! La historia de TI: Zuse" . Archivado desde el original el 18 de septiembre de 2016 . Consultado el 1 de junio de 2016 .
  26. ^ Rojas, R. (1998). "Cómo hacer de Zuse's Z3 una computadora universal". IEEE Annals of the History of Computing . 20 (3): 51–54. doi : 10.1109 / 85.707574 . S2CID 14606587 . 
  27. ^ Rojas, Raúl. "Cómo hacer que el Z3 de Zuse sea una computadora universal" (PDF) .
  28. Aviso del 15 de enero de 1941 en el Des Moines Register ,
  29. ^ Arthur W. Burks (1989). La primera computadora electrónica . ISBN 0472081047.
  30. ^ a b c d Copeland, Jack (2006), Colossus: The Secrets of Bletchley Park's Codebreaking Computers , Oxford: Oxford University Press , págs. 101-115, ISBN 978-0-19-284055-4
  31. ^ Miller, Joe (10 de noviembre de 2014). "La mujer que descifró cifrados Enigma" . BBC News . Consultado el 14 de octubre de 2018 .
  32. ^ Bearne, Suzanne (24 de julio de 2018). "Conoce a las mujeres descifradoras de códigos de Bletchley Park" . el guardián . Consultado el 14 de octubre de 2018 .
  33. ^ "Coloso de descifrado de códigos de Bletchley" , BBC News , 2 de febrero de 2010 , consultado el 19 de octubre de 2012
  34. ^ "Coloso - La historia de la reconstrucción" . El Museo Nacional de Computación . Archivado desde el original el 18 de abril de 2015 . Consultado el 7 de enero de 2014 .
  35. ^ Randell, Brian ; Fensom, Harry; Milne, Frank A. (15 de marzo de 1995), "Obituary: Allen Coombs" , The Independent , consultado el 18 de octubre de 2012
  36. ^ Fensom, Jim (8 de noviembre de 2010), "Obituario de Harry Fensom" , The Guardian , consultado el 17 de octubre de 2012
  37. ^ John Presper Eckert Jr. y John W. Mauchly, Electronic Numerical Integrator and Computer, Oficina de Patentes de los Estados Unidos, Patente de los Estados Unidos 3.120.606, presentada el 26 de junio de 1947, emitida el 4 de febrero de 1964 e invalidada el 19 de octubre de 1973 después de un fallo judicial en Honeywell v. Sperry Rand .
  38. Evans , 2018 , p. 39.
  39. ^ Luz de 1999 , p. 459.
  40. ^ "Generaciones de computadoras" . techiwarehouse.com. Archivado desde el original el 2 de julio de 2015 . Consultado el 7 de enero de 2014 .
  41. ^ Turing, AM (1937). "Sobre números computables, con una aplicación al problema Entscheidungs" . Actas de la London Mathematical Society . 2. 42 (1): 230–265. doi : 10.1112 / plms / s2-42.1.230 .
  42. "von Neumann ... me enfatizó firmemente, ya otros estoy seguro, que la concepción fundamental se debe a Turing, en la medida en que no lo hayan anticipado Babbage, Lovelace y otros". Carta de Stanley Frankel a Brian Randell , 1972, citada en Jack Copeland (2004) The Essential Turing , p22.
  43. ^ Enticknap, Nicholas (verano de 1998), "Computing's Golden Jubilee" , Resurrection (20), ISSN 0958-7403 , archivado desde el original el 9 de enero de 2012 , consultado el 19 de abril de 2008 
  44. ^ "Primeras computadoras en la Universidad de Manchester" , Resurrección , 1 (4), verano de 1992, ISSN 0958-7403 , archivado desde el original el 28 de agosto de 2017 , consultado el 7 de julio de 2010 
  45. ^ Early Electronic Computers (1946–51) , Universidad de Manchester, archivado desde el original el 5 de enero de 2009 , consultado el 16 de noviembre de 2008
  46. Napper, RBE, Introduction to the Mark 1 , The University of Manchester, archivado desde el original el 26 de octubre de 2008 , consultado el 4 de noviembre de 2008
  47. ^ Computer Conservation Society , Our Computer Heritage Pilot Study: Deliveries of Ferranti Mark I y Mark I Star , archivado desde el original el 11 de diciembre de 2016 , obtenido el 9 de enero de 2010
  48. ^ Lavington, Simon. "Una breve historia de las computadoras británicas: los primeros 25 años (1948-1973)" . Sociedad Británica de Computación . Consultado el 10 de enero de 2010 .
  49. ^ Lee, Thomas H. (2003). El diseño de circuitos integrados de radiofrecuencia CMOS (PDF) . Prensa de la Universidad de Cambridge . ISBN  9781139643771.
  50. ^ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelectrónica: materiales, dispositivos, aplicaciones, 2 volúmenes . John Wiley e hijos . pag. 14. ISBN 9783527340538.
  51. ↑ a b Moskowitz, Sanford L. (2016). Innovación de materiales avanzados: gestión de la tecnología global en el siglo XXI . John Wiley e hijos . págs. 165-167. ISBN 9780470508923.
  52. ^ Lavington, Simon (1998), A History of Manchester Computers (2 ed.), Swindon: The British Computer Society, págs. 34-35
  53. ^ a b Cooke-Yarborough, EH (junio de 1998), "Algunas aplicaciones tempranas de transistores en el Reino Unido" , Revista de educación y ciencia de la ingeniería , 7 (3): 100-106, doi : 10.1049 / esej: 19980301 , ISSN 0963-7346 , consultado el 7 de junio de 2009  (requiere suscripción)
  54. ^ Cooke-Yarborough, EH (1957). Introducción a los circuitos de transistores . Edimburgo: Oliver y Boyd. pag. 139.
  55. ^ "1960: Transistor de semiconductor de óxido de metal (MOS) demostrado" . Silicon Engine: una línea de tiempo de semiconductores en computadoras . Museo de Historia de la Computación . Consultado el 31 de agosto de 2019 .
  56. Motoyoshi, M. (2009). "Through-Silicon Via (TSV)". Actas del IEEE . 97 (1): 43–48. doi : 10.1109 / JPROC.2008.2007462 . ISSN 0018-9219 . S2CID 29105721 .  
  57. ^ "Los transistores mantienen viva la ley de Moore" . EETimes . 12 de diciembre de 2018 . Consultado el 18 de julio de 2019 .
  58. ^ "¿Quién inventó el transistor?" . Museo de Historia de la Computación . 4 de diciembre de 2013 . Consultado el 20 de julio de 2019 .
  59. ↑ a b Hittinger, William C. (1973). "Tecnología de semiconductores de óxido de metal". Scientific American . 229 (2): 48–59. Código bibliográfico : 1973SciAm.229b..48H . doi : 10.1038 / scientificamerican0873-48 . ISSN 0036-8733 . JSTOR 24923169 .  
  60. Malmstadt, Howard V .; Enke, Christie G .; Crouch, Stanley R. (1994). Hacer las conexiones correctas: microcomputadoras e instrumentación electrónica . Sociedad Química Estadounidense . pag. 389. ISBN 9780841228610. La relativa simplicidad y los requisitos de bajo consumo de energía de los MOSFET han fomentado la revolución actual de las microcomputadoras.
  61. ^ Fossum, Jerry G .; Trivedi, Vishal P. (2013). Fundamentos de los MOSFET y FinFET de cuerpo ultradelgado . Prensa de la Universidad de Cambridge . pag. vii. ISBN 9781107434493.
  62. ^ "Palabras del director Iancu en la Conferencia Internacional de Propiedad Intelectual de 2019" . Oficina de Patentes y Marcas de Estados Unidos . 10 de junio de 2019. Archivado desde el original el 17 de diciembre de 2019 . Consultado el 20 de julio de 2019 .
  63. ^ "Dawon Kahng" . Salón de la Fama de los Inventores Nacionales . Consultado el 27 de junio de 2019 .
  64. ^ "Martin Atalla en el Salón de la fama de los inventores, 2009" . Consultado el 21 de junio de 2013 .
  65. ^ "Triunfo del transistor MOS" . YouTube . Museo de Historia de la Computación . 6 de agosto de 2010 . Consultado el 21 de julio de 2019 .
  66. ^ "The Hapless Tale of Geoffrey Dummer" Archivado el 11 de mayo de 2013 en Wayback Machine , (nd), (HTML), Electronic Product News , consultado el 8 de julio de 2008.
  67. ^ Kilby, Jack (2000), Conferencia Nobel (PDF) , Estocolmo: Fundación Nobel , consultado el 15 de mayo de 2008
  68. The Chip that Jack Built , (c. 2008), (HTML), Texas Instruments, consultado el 29 de mayo de 2008.
  69. ^ Jack S. Kilby, Circuitos electrónicos miniaturizados, Oficina de patentes de Estados Unidos, Patente de Estados Unidos 3.138.743, presentada el 6 de febrero de 1959, expedida el 23 de junio de 1964.
  70. ^ Winston, Brian (1998). Tecnología de medios y sociedad: una historia: del telégrafo a Internet . Routledge. pag. 221. ISBN 978-0-415-14230-4.
  71. ^ Saxena, Arjun N. (2009). Invención de circuitos integrados: hechos importantes no contados . World Scientific . pag. 140. ISBN 9789812814456.
  72. ^ a b "Circuitos integrados" . NASA . Consultado el 13 de agosto de 2019 .
  73. ^ Circuito unitario de Robert Noyce , patente estadounidense 2981877 , " Estructura de cables y dispositivos semiconductores", emitida el 25 de abril de 1961, asignada a Fairchild Semiconductor Corporation 
  74. ^ "1959: concepto práctico de circuito integrado monolítico patentado" . Museo de Historia de la Computación . Consultado el 13 de agosto de 2019 .
  75. ^ Lojek, Bo (2007). Historia de la Ingeniería de Semiconductores . Springer Science & Business Media . pag. 120 . ISBN 9783540342588.
  76. ^ Bassett, Ross Knox (2007). Hacia la era digital: laboratorios de investigación, empresas emergentes y el auge de la tecnología MOS . Prensa de la Universidad Johns Hopkins. pag. 46. ISBN 9780801886393.
  77. ^ Huff, Howard R .; Tsuya, H .; Gösele, U. (1998). Ciencia y tecnología de materiales de silicio: Actas del octavo simposio internacional sobre ciencia y tecnología de materiales de silicio . Sociedad Electroquímica . págs. 181-182. ISBN 9781566771931.
  78. ^ Kuo, Yue (1 de enero de 2013). "Tecnología de transistores de película fina: pasado, presente y futuro" (PDF) . La interfaz de la sociedad electroquímica . 22 (1): 55–61. doi : 10.1149 / 2.F06131if . ISSN 1064-8208 .  
  79. ^ a b "Tortuga de transistores gana la carrera - Revolución CHM" . Museo de Historia de la Computación . Consultado el 22 de julio de 2019 .
  80. ^ "1964 - Presentado el primer IC MOS comercial" . Museo de Historia de la Computación .
  81. ^ "1968: tecnología de puerta de silicio desarrollada para circuitos integrados" . Museo de Historia de la Computación . Consultado el 22 de julio de 2019 .
  82. ^ Kuo, Yue (1 de enero de 2013). "Tecnología de transistores de película fina: pasado, presente y futuro" (PDF) . La interfaz de la sociedad electroquímica . 22 (1): 55–61. doi : 10.1149 / 2.F06131if . ISSN 1064-8208 .  
  83. ^ a b "1971: el microprocesador integra la función de la CPU en un solo chip" . Museo de Historia de la Computación . Consultado el 22 de julio de 2019 .
  84. ^ Colinge, Jean-Pierre; Greer, James C. (2016). Transistores de nanocables: física de dispositivos y materiales en una dimensión . Prensa de la Universidad de Cambridge . pag. 2. ISBN 9781107052406.
  85. ^ Primer microprocesador de Intel: Intel 4004 , Intel Corp., noviembre de 1971, archivado desde el original el 13 de mayo de 2008 , consultado el 17 de mayo de 2008
  86. ^ La matriz Intel 4004 (1971) era de 12 mm 2 , compuesta por 2300 transistores; en comparación, el Pentium Pro tenía 306 mm 2 , compuesto por 5,5 millones de transistores, según Patterson, David; Hennessy, John (1998), Organización y diseño de computadoras , San Francisco: Morgan Kaufmann , págs.  27–39 , ISBN 978-1-55860-428-5
  87. ^ Federico Faggin , La fabricación del primer microprocesador , Revista de circuitos de estado sólido IEEE , invierno de 2009, IEEE Xplore
  88. ^ a b "7 deslumbrantes mejoras de teléfonos inteligentes con el chip Snapdragon 835 de Qualcomm" . 3 de enero de 2017.
  89. ^ Chartier, David (23 de diciembre de 2008). "Los envíos mundiales de portátiles finalmente superan a los de escritorio" . Ars Technica .
  90. ^ IDC (25 de julio de 2013). "El crecimiento se acelera en los mercados mundiales de teléfonos móviles y teléfonos inteligentes en el segundo trimestre, según IDC" . Archivado desde el original el 26 de junio de 2014.
  91. ^ La mayoría de las principalesarquitecturas de conjuntos de instrucciones de 64 bitsson extensiones de diseños anteriores. Todas las arquitecturas enumeradas en esta tabla, excepto Alpha, existían en formas de 32 bits antes de que se introdujeran sus encarnaciones de 64 bits.
  92. ^ El papel de la unidad de control en la interpretación de instrucciones ha variado algo en el pasado. Aunque la unidad de control es la única responsable de la interpretación de las instrucciones en la mayoría de las computadoras modernas, no siempre es así. Algunas computadoras tienen instrucciones que son interpretadas parcialmente por la unidad de control con una interpretación posterior realizada por otro dispositivo. Por ejemplo, EDVAC , una de las primeras computadoras con programas almacenados, usaba una unidad de control central que solo interpretaba cuatro instrucciones. Todas las instrucciones relacionadas con la aritmética se pasaron a su unidad aritmética y se descodificaron allí.
  93. ^ Las instrucciones a menudo ocupan más de una dirección de memoria, por lo tanto, el contador del programa generalmente aumenta según el número de ubicaciones de memoria necesarias para almacenar una instrucción.
  94. ^ David J. Eck (2000). La máquina más compleja: un estudio de las computadoras y la informática . AK Peters, Ltd. pág. 54. ISBN 978-1-56881-128-4.
  95. ^ Erricos John Kontoghiorghes (2006). Manual de Computación y Estadística Paralelas . Prensa CRC. pag. 45. ISBN 978-0-8247-4067-2.
  96. ^ La memoria flash también se puede reescribir solo un número limitado de veces antes de desgastarse, lo que la hace menos útil para el uso intensivo de acceso aleatorio. ( Verma y Mielke 1988 )
  97. ^ Donald Eadie (1968). Introducción a la Computadora Básica . Prentice Hall. pag. 12.
  98. ^ Arpad Barna; Dan I. Porat (1976). Introducción a las microcomputadoras y los microprocesadores . Wiley. pag. 85 . ISBN 978-0-471-05051-3.
  99. ^ Jerry Peek; Grace Todino; John Strang (2002). Aprender el sistema operativo UNIX: una guía concisa para el nuevo usuario . O'Reilly. pag. 130 . ISBN 978-0-596-00261-9.
  100. ^ Gillian M. Davis (2002). Reducción de ruido en aplicaciones de voz . Prensa CRC. pag. 111. ISBN 978-0-8493-0949-6.
  101. ^ Sin embargo, también es muy común construir supercomputadoras con muchas piezas de hardware básico barato; generalmente computadoras individuales conectadas por redes. Estos llamados clústeres de computadoras a menudo pueden proporcionar un rendimiento de supercomputadora a un costo mucho menor que los diseños personalizados. Si bien las arquitecturas personalizadas todavía se utilizan para la mayoría de las supercomputadoras más poderosas, ha habido una proliferación de computadoras en clúster en los últimos años. ( TOP500 2006 )
  102. ^ Incluso algunas computadoras posteriores se programaron comúnmente directamente en código de máquina. Algunas miniordenadores como el DEC PDP-8 se pueden programar directamente desde un panel de interruptores. Sin embargo, este método generalmente se usaba solo como parte delproceso de arranque . La mayoría de las computadoras modernas se inician de forma completamente automática al leer un programa de inicio de alguna memoria no volátil .
  103. ^ Sin embargo, a veces existe alguna forma de compatibilidad de lenguaje de máquina entre diferentes computadoras. Unmicroprocesador compatible con x86-64 como AMD Athlon 64 puede ejecutar la mayoría de los mismos programas que un microprocesador Intel Core 2 , así como programas diseñados para microprocesadores anteriores como Intel Pentiums e Intel 80486 . Esto contrasta con las primeras computadoras comerciales, que a menudo eran únicas y totalmente incompatibles con otras computadoras.
  104. ^ Los lenguajes de alto nivel también suelen interpretarse en lugar de compilarse. Los idiomas interpretados se traducen a código de máquina sobre la marcha, mientras se ejecutan, por otro programa llamado intérprete .
  105. ^ No es universalmente cierto que los errores se deban únicamente a la supervisión del programador. El hardware de la computadora puede fallar o puede tener un problema fundamental que produce resultados inesperados en ciertas situaciones. Por ejemplo, el error Pentium FDIV provocó que algunos microprocesadores Intel a principios de la década de 1990 produjeran resultados inexactos para ciertas operaciones de división de punto flotante . Esto fue causado por una falla en el diseño del microprocesador y resultó en un retiro parcial de los dispositivos afectados.
  106. ^ Taylor, Alexander L., III (16 de abril de 1984). "El mago dentro de la máquina" . TIEMPO . Consultado el 17 de febrero de 2007 . (requiere suscripción)
  107. ^ Agatha C. Hughes (2000). Sistemas, expertos y computadoras . MIT Press . pag. 161. ISBN 978-0-262-08285-3. La experiencia de SAGE ayudó a hacer posible la primera red comercial en tiempo real verdaderamente a gran escala: el sistema computarizado de reservaciones de aerolíneas SABRE ...
  108. ^ Leiner, Barry M .; Cerf, Vinton G .; Clark, David D .; Kahn, Robert E .; Kleinrock, Leonard; Lynch, Daniel C .; Postel, Jon; Roberts, Larry G .; Wolf, Stephen (1999). "Una breve historia de Internet" . Sociedad de Internet . arXiv : cs / 9901011 . Código Bibliográfico : 1999cs ........ 1011L . Consultado el 20 de septiembre de 2008 . Cite journal requires |journal= (help)
  109. Según el Shorter Oxford English Dictionary (6a ed, 2007), la palabra computadora se remonta a mediados del siglo XVII, cuando se refería a "Una persona que hace cálculos; específicamente una persona empleada para esto en un observatorio, etc."
  110. ^ "Definición de computadora" . Thefreedictionary.com . Consultado el 29 de enero de 2012 .
  111. ^ II, Joseph D. Dumas (2005). Arquitectura informática: fundamentos y principios del diseño informático . Prensa CRC. pag. 340. ISBN 9780849327490.

Notas

  • Evans, Claire L. (2018). Broad Band: La historia no contada de las mujeres que hicieron Internet . Nueva York: Portfolio / Penguin. ISBN 9780735211759.
  • Fuegi, J .; Francis, J. (2003). "Lovelace & Babbage y la creación de las 'notas ' de 1843 ". IEEE Annals of the History of Computing . 25 (4): 16. doi : 10.1109 / MAHC.2003.1253887 . S2CID  40077111 .
  • a Kempf, Karl (1961). "Monografía histórica: computadoras electrónicas dentro del cuerpo de artillería". Campo de pruebas de Aberdeen(Ejército de los Estados Unidos). Cite journal requires |journal= (help)
  • a Phillips, Tony (2000). "El mecanismo de Antikythera I". Sociedad Matemática Estadounidense. Consultado el 5 de abril de 2006.
  • a Shannon, Claude Elwood (1940). Un análisis simbólico de relés y circuitos de conmutación(Tesis). Instituto de Tecnología de Massachusetts. hdl:1721,1 / 11173.
  • Corporación de Equipos Digitales (1972). Manual del procesador PDP-11/40 (PDF) . Maynard, MA : Corporación de equipos digitales.
  • Verma, G .; Mielke, N. (1988). "Rendimiento de confiabilidad de las memorias flash basadas en ETOX". Simposio Internacional de Física de Confiabilidad de IEEE. Cite journal requires |journal= (help)
  • Swade, Doron D. (febrero de 1993). "Redimiendo la computadora mecánica de Charles Babbage". Scientific American . 268 (2): 86–91. Código Bibliográfico : 1993SciAm.268b..86S . doi : 10.1038 / scientificamerican0293-86 . JSTOR  24941379 .
  • Meuer, Hans ; Strohmaier, Erich; Simón, Horst; Dongarra, Jack (13 de noviembre de 2006). "Las arquitecturas comparten a lo largo del tiempo" . TOP500 . Archivado desde el original el 20 de febrero de 2007 . Consultado el 27 de noviembre de 2006 .
  • Lavington, Simon (1998). Una historia de las computadoras de Manchester (2 ed.). Swindon: Sociedad británica de informática. ISBN 978-0-902505-01-8.
  • Luz, Jennifer S. (1999). "Cuando las computadoras eran mujeres". Tecnología y Cultura . 40 (3): 455–483. doi : 10.1353 / tech.1999.0128 . JSTOR  25147356 . S2CID  108407884 .
  • Stokes, Jon (2007). Inside the Machine: Una introducción ilustrada a los microprocesadores y la arquitectura de computadoras . San Francisco: No Starch Press. ISBN 978-1-59327-104-6.
  • Zuse, Konrad (1993). La computadora: mi vida . Berlín: Pringler-Verlag. ISBN 978-0-387-56453-1.
  • Fieltro, Dorr E. (1916). Aritmética mecánica o La historia de la máquina de contar . Chicago: Instituto Washington.
  • Ifrah, Georges (2001). La historia universal de la informática: del ábaco a la computadora cuántica . Nueva York: John Wiley & Sons. ISBN 978-0-471-39671-0.
  • Berkeley, Edmund (1949). Cerebros gigantes o máquinas que piensan . John Wiley e hijos.
  • Cohen, Bernard (2000). Howard Aiken, Retrato de un pionero de la informática . Física hoy . 53 . Cambridge, Massachusetts: The MIT Press. págs. 74–75. Código bibliográfico : 2000PhT .... 53c..74C . doi : 10.1063 / 1.883007 . ISBN 978-0-262-53179-5.
  • Ligonnière, Robert (1987). Préhistoire et Histoire des ordinateurs . París: Robert Laffont. ISBN 978-2-221-05261-7.
  • Couffignal, Louis (1933). Les machines à calculer; leurs principes, leur évolution . París: Gauthier-Villars.
  • Essinger, James (2004). Jacquard's Web, Cómo un telar manual llevó al nacimiento de la era de la información . Prensa de la Universidad de Oxford. ISBN 978-0-19-280577-5.
  • Hyman, Anthony (1985). Charles Babbage: pionero de la informática . Prensa de la Universidad de Princeton. ISBN 978-0-691-02377-9.
  • Bowden, BV (1953). Más rápido de lo que pensaba . Nueva York, Toronto, Londres: Pitman Publishing Corporation.
  • Moseley, Maboth (1964). Genio Irascible, Charles Babbage, inventor . Londres: Hutchinson.
  • Collier, Bruce (1970). El pequeño motor que podría haberlo hecho: las máquinas calculadoras de Charles Babbage . ISBN de Garland Publishing Inc. 978-0-8240-0043-1.
  • Randell, Brian (1982). "De motor analítico a computadora digital electrónica: las contribuciones de Ludgate, Torres y Bush" (PDF) . Archivado desde el original (PDF) el 21 de septiembre de 2013 . Consultado el 29 de octubre de 2013 .
  • Smith, Erika E. (2013). "Reconociendo una herencia colectiva a través de la historia de la mujer en la informática" . CLCWeb: Literatura y cultura comparadas . 15 (1): 1–9. doi : 10.7771 / 1481-4374.1972 .

enlaces externos

  • Medios relacionados con las computadoras en Wikimedia Commons
  • Wikiversity tiene un cuestionario sobre este artículo
  • Warhol y la computadora