De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La historia de la informática comenzó mucho antes de nuestra disciplina moderna de la informática , apareciendo generalmente en formas como las matemáticas o la física . Los desarrollos de siglos anteriores aludían a la disciplina que ahora conocemos como informática . [1] Esta progresión, desde inventos mecánicos y teorías matemáticas hacia conceptos y máquinas informáticos modernos , condujo al desarrollo de un campo académico importante, un avance tecnológico masivo en todo el mundo occidental y la base de un comercio y una cultura masivos en todo el mundo. [2]

Prehistoria [ editar ]

John Napier (1550-1617), el inventor de los logaritmos

La primera herramienta conocida para su uso en computación fue el ábaco , desarrollado en el período entre el 2700 y el 2300 a. C. en Sumer . [3] El ábaco de los sumerios consistía en una tabla de columnas sucesivas que delimitaban los sucesivos órdenes de magnitud de su sistema numérico sexagesimal . [4] : 11 Su estilo original de uso era mediante líneas dibujadas en arena con guijarros. Los ábacos de un diseño más moderno todavía se utilizan como herramientas de cálculo en la actualidad, como el ábaco chino . [5]

En el siglo V a. C. en la antigua India , el gramático Pāṇini formuló la gramática del sánscrito en 3959 reglas conocidas como Ashtadhyayi, que era altamente sistematizada y técnica. Panini usó metárulos, transformaciones y recursiones . [6]

Se cree que el mecanismo de Antikythera es una de las primeras computadoras analógicas mecánicas. [7] Fue diseñado para calcular posiciones astronómicas. Fue descubierto en 1901 en el naufragio de Antikythera frente a la isla griega de Antikythera, entre Kythera y Creta , y se ha fechado alrededor del año 100 a. C. [7]

Los dispositivos informáticos analógicos mecánicos aparecieron de nuevo mil años más tarde en el mundo islámico medieval y fueron desarrollados por astrónomos musulmanes , como el astrolabio con engranajes mecánicos de Abū Rayhān al-Bīrūnī , [8] y el torquetum de Jabir ibn Aflah . [9] Según Simon Singh , los matemáticos musulmanes también lograron importantes avances en criptografía , como el desarrollo del criptoanálisis y el análisis de frecuencias por parte de Alkindus . [10] [11] ProgramableLas máquinas también fueron inventadas por ingenieros musulmanes , como el flautista automático de los hermanos Banū Mūsā , [12] y el autómata humanoide programable y el reloj de castillo de Al-Jazari , que se considera la primera computadora analógica programable . [13] En la Europa del siglo XIV aparecieron artefactos tecnológicos de complejidad similar , con relojes astronómicos mecánicos . [14]

Cuando John Napier descubrió los logaritmos con fines computacionales a principios del siglo XVII, [15] siguió un período de considerable progreso por parte de inventores y científicos en la fabricación de herramientas de cálculo. En 1623 Wilhelm Schickard diseñó una máquina calculadora, pero abandonó el proyecto, cuando el prototipo que había comenzado a construir fue destruido por un incendio en 1624. [16] Alrededor de 1640, Blaise Pascal , un destacado matemático francés, construyó un dispositivo mecánico de adición basado en un diseño descrito por el matemático griego Héroe de Alejandría . [17] Luego, en 1672, Gottfried Wilhelm Leibniz inventó elStepped Reckoner que completó en 1694. [18]

En 1837, Charles Babbage describió por primera vez su motor analítico, que se acepta como el primer diseño de una computadora moderna. El motor analítico tenía memoria expandible, una unidad aritmética y capacidades de procesamiento lógico capaces de interpretar un lenguaje de programación con bucles y bifurcaciones condicionales. Aunque nunca se construyó, el diseño se ha estudiado extensamente y se entiende que es el equivalente de Turing . El motor analítico habría tenido una capacidad de memoria de menos de 1 kilobyte de memoria y una velocidad de reloj de menos de 10 Hertz. [19]

Se requirió un avance considerable en la teoría de las matemáticas y la electrónica antes de que pudieran diseñarse las primeras computadoras modernas.

Lógica binaria [ editar ]

Gottfried Wilhelm Leibniz (1646-1716), desarrolló la lógica en un sistema numérico binario

En 1702, Gottfried Wilhelm Leibniz desarrolló la lógica en un sentido matemático formal con sus escritos sobre el sistema numérico binario. En su sistema, los unos y los ceros también representan valores verdaderos y falsos o estados de encendido y apagado . Pero pasó más de un siglo antes de que George Boole publicara su álgebra de Boole en 1854 con un sistema completo que permitía modelar matemáticamente los procesos computacionales. [20]

Para entonces, se habían inventado los primeros dispositivos mecánicos impulsados ​​por un patrón binario. La revolución industrial había impulsado la mecanización de muchas tareas, y esto incluía el tejido . Las tarjetas perforadas controlaban el telar de Joseph Marie Jacquard en 1801, donde un agujero perforado en la tarjeta indicaba un uno binario y un punto sin perforar indicaba un cero binario . El telar de Jacquard estaba lejos de ser una computadora, pero ilustraba que las máquinas podían funcionar con sistemas binarios. [20]

Aparición de una disciplina [ editar ]

Charles Babbage (1791-1871), uno de los primeros pioneros en informática

Charles Babbage y Ada Lovelace [ editar ]

Charles BabbageA menudo se le considera como uno de los primeros pioneros de la informática. A partir de la década de 1810, Babbage tuvo la visión de calcular mecánicamente números y tablas. Poniendo esto en realidad, Babbage diseñó una calculadora para calcular números de hasta 8 puntos decimales de largo. Continuando con el éxito de esta idea, Babbage trabajó para desarrollar una máquina que pudiera calcular números con hasta 20 lugares decimales. En la década de 1830, Babbage había ideado un plan para desarrollar una máquina que pudiera usar tarjetas perforadas para realizar operaciones aritméticas. La máquina almacenaría números en unidades de memoria y habría una forma de control secuencial. Esto significa que una operación se realizaría antes que otra de tal manera que la máquina produciría una respuesta y no fallaría. Esta máquina se conocería como el "motor analítico",que fue la primera representación verdadera de lo que es la computadora moderna.[21]

A Ada Lovelace (Augusta Ada Byron) se le atribuye el mérito de ser la pionera de la programación informática y se la considera un genio matemático. Lovelace comenzó a trabajar con Charles Babbage como asistente mientras Babbage trabajaba en su "motor analítico", la primera computadora mecánica. [22] Durante su trabajo con Babbage, Ada Lovelace se convirtió en la diseñadora del primer algoritmo informático, que tenía la capacidad de calcular números de Bernoulli . [23] Además, el trabajo de Lovelace con Babbage resultó en su predicción de que las computadoras futuras no solo realizarían cálculos matemáticos, sino que también manipularían símbolos, matemáticos o no. [24]Si bien nunca pudo ver los resultados de su trabajo, ya que el “motor analítico” no se creó en su vida, sus esfuerzos en años posteriores, a partir de la década de 1840, no pasaron desapercibidos. [25]

Charles Sanders Peirce y los circuitos de conmutación eléctricos [ editar ]

Charles Sanders Peirce (1839-1914), describió cómo las operaciones lógicas podrían llevarse a cabo mediante circuitos de conmutación eléctricos.

En una carta de 1886, Charles Sanders Peirce describió cómo las operaciones lógicas podrían llevarse a cabo mediante circuitos de conmutación eléctricos. [26] Durante 1880-1881 mostró que las puertas NOR solas (o, alternativamente, las puertas NAND solas ) se pueden utilizar para reproducir las funciones de todas las demás puertas lógicas , pero este trabajo no se publicó hasta 1933. [27] La prueba fue hecha por Henry M. Sheffer en 1913, por lo que la operación lógica NAND a veces se llama trazo de Sheffer ; el NOR lógico a veces se llama flecha de Peirce . [28]En consecuencia, estas puertas a veces se denominan puertas lógicas universales . [29]

Finalmente, los tubos de vacío reemplazaron los relés para las operaciones lógicas. La modificación de Lee De Forest , en 1907, de la válvula Fleming se puede utilizar como puerta lógica. Ludwig Wittgenstein introdujo una versión de la tabla de verdad de 16 filas como proposición 5.101 de Tractatus Logico-Philosophicus (1921). Walther Bothe , inventor del circuito de coincidencia , obtuvo parte del Premio Nobel de Física de 1954 por la primera puerta AND electrónica moderna en 1924. Konrad Zuse diseñó y construyó puertas lógicas electromecánicas para su computadora Z1 (de 1935 a 1938).

Hasta y durante la década de 1930, los ingenieros eléctricos pudieron construir circuitos electrónicos para resolver problemas matemáticos y lógicos, pero la mayoría lo hizo de manera ad hoc , sin ningún rigor teórico. Esto cambió con NEC ingeniero Akira Nakashima 's teoría de circuitos de conmutación en la década de 1930. De 1934 a 1936, Nakashima publicó una serie de artículos que mostraban que el álgebra de Boole de dos valores , que descubrió de forma independiente (desconocía el trabajo de George Boole hasta 1938), puede describir el funcionamiento de los circuitos de conmutación. [30] [31] [32] [33]Este concepto, de utilizar las propiedades de los interruptores eléctricos para hacer lógica, es el concepto básico que subyace a todas las computadoras digitales electrónicas . La teoría de circuitos de conmutación proporcionó las bases matemáticas y las herramientas para el diseño de sistemas digitales en casi todas las áreas de la tecnología moderna. [33]

El trabajo de Nakashima fue citado y desarrollado más tarde en la tesis de maestría de 1937 de Claude Elwood Shannon , " Un análisis simbólico de circuitos de relés y conmutadores ". [32] Mientras tomaba una clase de filosofía de pregrado, Shannon había estado expuesta al trabajo de Boole y reconoció que podría usarse para arreglar relés electromecánicos (luego usados ​​en interruptores de enrutamiento telefónico) para resolver problemas lógicos. Su tesis se convirtió en la base del diseño práctico de circuitos digitales cuando se hizo ampliamente conocida entre la comunidad de ingenieros eléctricos durante y después de la Segunda Guerra Mundial. [34]

Alan Turing (1912-1954), matemático , lógico , criptógrafo , tuvo un impacto significativo en el desarrollo de las ciencias de la computación.

Alan Turing y la máquina de Turing [ editar ]

Antes de la década de 1920, las computadoras (a veces computadoras ) eran empleados humanos que realizaban cálculos. Por lo general, estaban bajo la dirección de un físico. Se emplearon muchos miles de computadoras en establecimientos comerciales, gubernamentales y de investigación. Muchos de estos empleados que servían como ordenadores humanos eran mujeres. [35] [36] [37] [38] Algunos realizaron cálculos astronómicos para calendarios, otros tablas balísticas para el ejército. [39]

Después de la década de 1920, la expresión máquina de computación se refería a cualquier máquina que realizaba el trabajo de una computadora humana, especialmente aquellas de acuerdo con los métodos efectivos de la tesis de Church-Turing . La tesis establece que un método matemático es efectivo si pudiera establecerse como una lista de instrucciones que un empleado humano puede seguir con papel y lápiz, durante el tiempo que sea necesario, y sin ingenio o perspicacia. [40]

Las máquinas que calculaban con valores continuos se conocieron como de tipo analógico . Utilizaron maquinaria que representaba cantidades numéricas continuas, como el ángulo de rotación de un eje o la diferencia en el potencial eléctrico. [40]

La maquinaria digital, a diferencia de la analógica, podía representar un estado de un valor numérico y almacenar cada dígito individual. La maquinaria digital usaba motores diferenciales o relés antes de la invención de dispositivos de memoria más rápidos. [40]

La frase máquina de computación fue cediendo gradualmente, después de finales de la década de 1940, a una simple computadora a medida que la aparición de la maquinaria digital electrónica se hizo común. Estas computadoras pudieron realizar los cálculos que realizaron los empleados humanos anteriores. [40]

Dado que los valores almacenados por las máquinas digitales no estaban ligados a propiedades físicas como los dispositivos analógicos, una computadora lógica, basada en equipos digitales, podía hacer cualquier cosa que pudiera describirse como "puramente mecánica". La máquina de Turing teórica , creada por Alan Turing , es un dispositivo hipotético teorizado para estudiar las propiedades de dicho hardware. [40]

Kurt Gödel comenzó a sentar las bases matemáticas de la informática moderna con su teorema de incompletitud (1931). En este teorema, mostró que había límites a lo que podía probarse y refutarse dentro de un sistema formal . Esto llevó a la obra de Gödel y otros para definir y describir estos sistemas formales, incluyendo conceptos como funciones recursivas mu- y funciones lambda definibles . [41]

En 1936, Alan Turing y Alonzo Church , de forma independiente y también juntos, introdujeron la formalización de un algoritmo , con límites en lo que se puede calcular, y un modelo "puramente mecánico" para la computación. [42] Esto se convirtió en la tesis de Church-Turing , una hipótesis sobre la naturaleza de los dispositivos de cálculo mecánicos, como las computadoras electrónicas. La tesis establece que cualquier cálculo que sea posible puede realizarse mediante un algoritmo que se ejecute en una computadora, siempre que se disponga de suficiente tiempo y espacio de almacenamiento. [42]

En 1936, Alan Turing también publicó su trabajo fundamental sobre las máquinas de Turing , una máquina de computación digital abstracta que ahora se conoce simplemente como la máquina universal de Turing . Esta máquina inventó el principio de la computadora moderna y fue el lugar de nacimiento del concepto de programa almacenado que utilizan casi todas las computadoras modernas. [43] Estas máquinas hipotéticas fueron diseñadas para determinar formalmente, matemáticamente, lo que se puede calcular, teniendo en cuenta las limitaciones de la capacidad informática. Si una máquina de Turing puede completar la tarea, se considera que Turing es computable . [44]

El físico de Los Alamos Stanley Frankel , ha descrito la opinión de John von Neumann sobre la importancia fundamental del artículo de Turing de 1936, en una carta: [43]

Sé que en o alrededor de 1943 o '44 von Neumann era muy consciente de la importancia fundamental del artículo de Turing de 1936 ... Von Neumann me presentó ese artículo y, a instancias suyas, lo estudié con detenimiento. Mucha gente ha aclamado a von Neumann como el "padre de la computadora" (en el sentido moderno del término), pero estoy seguro de que él mismo nunca habría cometido ese error. Bien podría llamarse la partera, tal vez, pero me enfatizó firmemente, y estoy seguro de que a otros, que la concepción fundamental se debe a Turing ...

John V. Atanasoff (1903-1995) creador de la primera computadora digital eléctrica llamada Computadora Atanasoff-Berry

Primeros equipos informáticos [ editar ]

La primera computadora digital electrónica del mundo, la computadora Atanasoff-Berry , fue construida en el campus del estado de Iowa desde 1939 hasta 1942 por John V. Atanasoff , profesor de física y matemáticas, y Clifford Berry , estudiante de ingeniería.

En 1941, Konrad Zuse desarrolló la primera computadora funcional controlada por programas del mundo, la Z3 . En 1998, se demostró que era Turing completo en principio. [45] [46] Zuse también desarrolló la máquina de computación S2, considerada la primera computadora de control de procesos . Fundó una de las primeras empresas de informática en 1941, produciendo la Z4 , que se convirtió en la primera computadora comercial del mundo. En 1946, diseñó el primer lenguaje de programación de alto nivel , Plankalkül . [47]

En 1948, se completó el Manchester Baby ; fue la primera computadora digital electrónica del mundo que ejecutó programas almacenados en su memoria, como casi todas las computadoras modernas. [43] La influencia en Max Newman del artículo seminal de Turing de 1936 sobre las Máquinas de Turing y de sus contribuciones lógico-matemáticas al proyecto, fueron cruciales para el desarrollo exitoso del Baby. [43]

En 1950, el Laboratorio Nacional de Física de Gran Bretaña completó Pilot ACE , una computadora programable a pequeña escala, basada en la filosofía de Turing. Con una velocidad de funcionamiento de 1 MHz, el modelo piloto ACE fue durante algún tiempo la computadora más rápida del mundo. [43] [48] El diseño de Turing para ACE tenía mucho en común con las arquitecturas RISC actuales y requería una memoria de alta velocidad de aproximadamente la misma capacidad que una computadora Macintosh temprana , que era enorme para los estándares de su época. [43] Si el ACE de Turing se hubiera construido como estaba planeado y en su totalidad, habría estado en una liga diferente a las otras primeras computadoras. [43]

Claude Shannon (1916-2001), ayudó a crear el campo de la teoría de la información

El primer error informático real fue una polilla . Estaba atascado entre los relés del Harvard Mark II. [49] Si bien la invención del término 'error' a menudo se atribuye erróneamente a Grace Hopper , un futuro contralmirante de la Marina de los Estados Unidos, que supuestamente registró el "error" el 9 de septiembre de 1945, la mayoría de las otras cuentas entran en conflicto al menos con estos detalles. Según estos relatos, la fecha real fue el 9 de septiembre de 1947 cuando los operadores presentaron este 'incidente', junto con el insecto y la anotación "Primer caso real de error encontrado" (consulte el error de software para obtener más detalles). [49]

Shannon y la teoría de la información [ editar ]

Claude Shannon fundó el campo de la teoría de la información con su artículo de 1948 titulado A Mathematical Theory of Communication , que aplicó la teoría de la probabilidad al problema de cómo codificar mejor la información que un remitente desea transmitir. Este trabajo es uno de los fundamentos teóricos de muchas áreas de estudio, incluida la compresión de datos y la criptografía . [50]

Norbert Wiener (1894-1964) creó el término cibernética

Wiener y la cibernética [ editar ]

A partir de experimentos con sistemas antiaéreos que interpretaban imágenes de radar para detectar aviones enemigos, Norbert Wiener acuñó el término cibernética de la palabra griega para "timonel". Publicó "Cybernetics" en 1948, que influyó en la inteligencia artificial . Wiener también comparó la computación , la maquinaria informática, los dispositivos de memoria y otras similitudes cognitivas con su análisis de las ondas cerebrales. [51]

John von Neumann (1903-1957), introdujo la arquitectura de computadora conocida como arquitectura de Von Neumann

John von Neumann y la arquitectura de von Neumann [ editar ]

En 1946, se introdujo un modelo de arquitectura informática que se conoció como arquitectura de Von Neumann . Desde 1950, el modelo de von Neumann proporcionó uniformidad en los diseños informáticos posteriores. La arquitectura de von Neumann se consideró innovadora ya que introdujo la idea de permitir que las instrucciones y los datos de la máquina compartieran espacio de memoria. [52] El modelo de von Neumann se compone de tres partes principales, la unidad aritmética lógica (ALU), la memoria y la unidad de procesamiento de instrucciones (IPU). En el diseño de máquinas de von Neumann, la IPU pasa direcciones a la memoria, y la memoria, a su vez, se enruta de regreso a la IPU si se está obteniendo una instrucción o a la ALU si se están obteniendo datos. [53]

El diseño de la máquina de Von Neumann utiliza una arquitectura RISC (cálculo de conjunto de instrucciones reducido), [ dudoso ] lo que significa que el conjunto de instrucciones utiliza un total de 21 instrucciones para realizar todas las tareas. (Esto contrasta con CISC, computación de conjuntos de instrucciones complejos , conjuntos de instrucciones que tienen más instrucciones entre las que elegir). Con la arquitectura de von Neumann, la memoria principal junto con el acumulador (el registro que contiene el resultado de las operaciones lógicas) [54] son los dos recuerdos que se abordan. Las operaciones se pueden realizar como aritmética simple (estas son realizadas por la ALU e incluyen suma, resta, multiplicación y división), ramas condicionales (estas se ven más comúnmente ahora comoifdeclaraciones o whilebucles. Las ramas sirven como go todeclaraciones), y movimientos lógicos entre los diferentes componentes de la máquina, es decir, un movimiento del acumulador a la memoria o viceversa. La arquitectura de Von Neumann acepta fracciones e instrucciones como tipos de datos. Finalmente, como la arquitectura de von Neumann es simple, su gestión de registros también es simple. La arquitectura utiliza un conjunto de siete registros para manipular e interpretar los datos y las instrucciones obtenidos. Estos registros incluyen "IR" (registro de instrucción), "IBR" (registro de búfer de instrucción), "MQ" (registro de cociente multiplicador), "MAR" (registro de dirección de memoria) y "MDR" (registro de datos de memoria) ". [53] La arquitectura también utiliza un contador de programa ("PC") para realizar un seguimiento de en qué parte del programa se encuentra la máquina. [53]

John McCarthy (1927-2011), fue visto como uno de los padres fundadores de la inteligencia artificial

John McCarthy, Marvin Minsky y la inteligencia artificial [ editar ]

El término inteligencia artificial fue acreditado por John McCarthy para explicar la investigación que estaban haciendo para una propuesta para Dartmouth Summer Research . El nombramiento de la inteligencia artificial también condujo al nacimiento de un nuevo campo en la informática. [55] El 31 de agosto de 1955, se propuso un proyecto de investigación que consistía en John McCarthy, Marvin L. Minsky, Nathaniel Rochester y Claude E. Shannon . [56] El proyecto oficial comenzó en 1956 y constaba de varias partes importantes que, en su opinión, les ayudarían a comprender mejor la composición de la inteligencia artificial. [57]

La idea de McCarthy y sus colegas detrás de las computadoras automáticas era que mientras una máquina es capaz de completar una tarea, lo mismo debería confirmarse con una computadora compilando un programa para obtener los resultados deseados. También descubrieron que el cerebro humano era demasiado complejo para reproducirlo, no por la máquina en sí, sino por el programa. El conocimiento para producir un programa tan sofisticado aún no estaba allí. [57]

El concepto detrás de esto fue observar cómo los humanos comprenden nuestro propio lenguaje y la estructura de cómo formamos oraciones, dando diferentes significados y conjuntos de reglas y comparándolos con un proceso de máquina. [57] La forma en que las computadoras pueden entender es a nivel de hardware. Este lenguaje está escrito en binario (1 y 0). Esto tiene que estar escrito en un formato específico que le dé a la computadora el conjunto de reglas para ejecutar una pieza de hardware en particular. [58]

El proceso de Minsky determinó cómo estas redes neuronales artificiales podrían organizarse para tener cualidades similares al cerebro humano. Sin embargo, solo pudo producir resultados parciales y necesitaba avanzar en la investigación sobre esta idea. [57] Sin embargo, solo debían recibir resultados parciales de las pruebas [56]

La idea de McCarthy y Shannon detrás de esta teoría era desarrollar una forma de utilizar problemas complejos para determinar y medir la eficiencia de la máquina a través de la teoría y los cálculos matemáticos . [59] Sin embargo, solo debían recibir resultados parciales de las pruebas. [57]

La idea detrás de la superación personal es cómo una máquina usaría un código que se modificaría automáticamente para hacerse más inteligente. Esto permitiría que una máquina crezca en inteligencia y aumente la velocidad de cálculo. [60] El grupo creía que podrían estudiar esto si una máquina pudiera mejorar el proceso de completar una tarea en la parte de abstracciones de su investigación. [57]

El grupo pensó que la investigación en esta categoría podría dividirse en grupos más pequeños. Esta consistiría en información sensorial y de otro tipo sobre la inteligencia artificial. [57] Las abstracciones en informática pueden referirse a las matemáticas y al lenguaje de programación. [61]

Su idea de la creatividad computacional es cómo se puede ver que el programa o una máquina tienen formas similares de pensamiento humano. [62] Querían ver si una máquina podía tomar un fragmento de información incompleta y mejorarlo para completar los detalles faltantes como puede hacer la mente humana. Si esta máquina pudiera hacer esto; necesitaban pensar en cómo determinaba la máquina el resultado. [57]

Ver también [ editar ]

  • Museo de la Computación
  • Lista de etimologías de términos informáticos , los orígenes de las palabras informáticas
  • Lista de pioneros en informática
  • Historia de la informática
  • Historia del hardware informático
  • Historia del software
  • Historia de las computadoras personales
  • Cronología de algoritmos
  • Cronología de las mujeres en informática
  • Cronología de la informática 2020-2029

Referencias [ editar ]

  1. ^ Tedre, Matti (2014). La ciencia de la informática: dar forma a una disciplina . Chapman Hall.
  2. ^ "Historia de la informática" . uwaterloo.ca .
  3. ^ Boyer, Carl B .; Merzbach, Uta C. (1991). Una historia de las matemáticas (2ª ed.). John Wiley & Sons, Inc. págs.  252-253 . ISBN 978-0-471-54397-8.
  4. ^ Ifrah, Georges (2001). La historia universal de la informática: del ábaco a la computadora cuántica . John Wiley e hijos. ISBN 978-0-471-39671-0.
  5. Bellos, Alex (25 de octubre de 2012). "Abacus se suma a la alegría numérica en Japón" . The Guardian . Londres . Consultado el 25 de junio de 2013 .
  6. ^ Sinha, AC (1978). "Sobre el estado de las reglas recursivas en la gramática transformacional". Lingua . 44 (2-3): 169-218. doi : 10.1016 / 0024-3841 (78) 90076-1 .
  7. ^ a b "Descripción general del proyecto" . Proyecto de investigación del mecanismo de Antikythera . Consultado el 15 de enero de 2020 .
  8. ^ "Islam, conocimiento y ciencia" . Web islámica . Consultado el 5 de noviembre de 2017 .
  9. ^ Lorch, RP (1976), "Los instrumentos astronómicos de Jabir ibn Aflah y el Torquetum", Centaurus , 20 (1): 11–34, Bibcode : 1976Cent ... 20 ... 11L , doi : 10.1111 / j. 1600-0498.1976.tb00214.x
  10. ^ Simon Singh , El libro de códigos , págs. 14-20
  11. ^ "Al-Kindi, criptografía, descifrado y cifrado" . Consultado el 12 de enero de 2007 .
  12. ^ Koetsier, Teun (2001), "Sobre la prehistoria de las máquinas programables: autómatas musicales, telares, calculadoras", Mecanismo y teoría de la máquina , 36 (5): 589–603, doi : 10.1016 / S0094-114X (01) 00005- 2 ..
  13. ^ Descubrimientos antiguos, Episodio 11: Ancient Robots , History Channel , Archivado desde el original el 1 de marzo, 2014 , recuperado 2008-09-06
  14. ^ Marchant, Jo (noviembre de 2006). "En busca del tiempo perdido" . Naturaleza . 444 (7119): 534–538. Código Bib : 2006Natur.444..534M . doi : 10.1038 / 444534a . PMID 17136067 . 
  15. ^ "John Napier y la invención de los logaritmos, 1614. EW Hobson" . Isis . 3 (2): 285–286. 1920-10-01. doi : 10.1086 / 357925 . ISSN 0021-1753 . 
  16. ^ "1.6 Reloj de cálculo de Shickard | Poco a poco" . Consultado el 17 de marzo de 2021 .
  17. ^ "Historia de la informática: la primera calculadora mecánica" . eingang.org .
  18. ^ Kidwell, Peggy Aldritch ; Williams, Michael R. (1992). Las máquinas de calcular: su historia y desarrollo . MIT Press., p. 38-42, traducido y editado de Martin, Ernst (1925). Die Rechenmaschinen und ihre Entwicklungsgeschichte . Alemania: Pappenheim.
  19. ^ "Historia de CS" . everythingcomputerscience.com . Consultado el 1 de mayo de 2020 .
  20. ↑ a b Tedre, Matti (2014). La ciencia de la informática: dar forma a una disciplina . Prensa CRC.
  21. ^ "Charles Babbage" . Encyclopædia Britannica Edición académica en línea . Encyclopædia Britannica en . Consultado el 20 de febrero de 2013 .
  22. Evans , 2018 , p. dieciséis.
  23. Evans , 2018 , p. 21.
  24. Evans , 2018 , p. 20.
  25. Isaacson, Betsy (10 de diciembre de 2012). "Ada Lovelace, primer programador informático del mundo, celebrado con Google Doodle" . El Huffington Post . Consultado el 20 de febrero de 2013 .
  26. ^ Peirce, CS, "Carta, Peirce a A. Marquand ", con fecha de 1886, Escritos de Charles S. Peirce , v. 5, 1993, págs. 421–23. Véase Burks, Arthur W. , "Revisión: Charles S. Peirce, Los nuevos elementos de las matemáticas ", Boletín de la Sociedad Americana de Matemáticas v. 84, n. 5 (1978), págs. 913-18, véase 917. PDF Eprint .
  27. Peirce, CS (manuscrito invierno de 1880-1881), "Un álgebra de Bool con una constante", publicado en 1933 en Collected Papers v. 4, párrafos 12-20. Reimpreso en 1989 en Writings of Charles S. Peirce v. 4, págs. 218-21, Google [1] . Véase Roberts, Don D. (2009), The Existential Graphs of Charles S. Peirce , pág. 131.
  28. ^ Hans Kleine Büning; Theodor Lettmann (1999). Lógica proposicional: deducción y algoritmos . Prensa de la Universidad de Cambridge. pag. 2. ISBN 978-0-521-63017-7.
  29. ^ John Bird (2007). Matemáticas de ingeniería . Newnes. pag. 532. ISBN 978-0-7506-8555-9.
  30. ^ Historia de la investigación sobre la teoría de la conmutación en Japón , IEEJ Transactions on Fundamentals and Materials , Vol. 124 (2004) No. 8, págs. 720–726, Instituto de Ingenieros Eléctricos del Japón
  31. ^ Teoría de la conmutación / Teoría de la red de circuitos de relé / Teoría de las matemáticas lógicas , Museo de la Computación IPSJ, Sociedad de Procesamiento de la Información de Japón
  32. ^ a b Radomir S. Stanković ( Universidad de Niš ), Jaakko T. Astola ( Universidad de Tecnología de Tampere ), Mark G. Karpovsky ( Universidad de Boston ), Algunas observaciones históricas sobre la teoría del cambio , 2007, DOI 10.1.1.66.1248
  33. ^ a b Radomir S. Stanković, Jaakko Astola (2008), Reimpresiones de los primeros días de las ciencias de la información: Serie TICSP sobre las contribuciones de Akira Nakashima a la teoría de la conmutación , Serie TICSP # 40, Centro internacional de procesamiento de señales de Tampere , Universidad de Tampere de Tecnología
  34. ^ Shannon, Claude (2 de febrero de 2021), "Un análisis simbólico de circuitos de conmutación y relés (1938)" , Ideas que crearon el futuro , The MIT Press, págs. 71-78, ISBN 978-0-262-36317-4, consultado el 17 de marzo de 2021
  35. Light, Jennifer S. (1 de julio de 1999). "Cuando las computadoras eran mujeres" . Tecnología y Cultura . 40 (3): 455–483. doi : 10.1353 / tech.1999.0128 . ISSN 1097-3729 . S2CID 108407884 .  
  36. ^ Kiesler, Sara; Sproull, Lee; Eccles, Jacquelynne S. (1 de diciembre de 1985). "Salas de billar, fichas y juegos de guerra: mujeres en la cultura de la informática". Psicología de la Mujer Trimestral . 9 (4): 451–462. doi : 10.1111 / j.1471-6402.1985.tb00895.x . ISSN 1471-6402 . S2CID 143445730 .  
  37. ^ Fritz, WB (1996). "Las mujeres de ENIAC". IEEE Annals of the History of Computing . 18 (3): 13-28. doi : 10.1109 / 85.511940 .
  38. Gurero, Denise (1 de junio de 2002). "Mujeres pioneras en informática". Toro SIGCSE . 34 (2): 175–180. doi : 10.1145 / 543812.543853 . ISSN 0097-8418 . S2CID 2577644 .  
  39. Grier , 2013 , p. 138.
  40. ↑ a b c d e Kaur, Gurusharan (2019). Elementos y digitalización de la computadora . Editorial Educreación.
  41. ^ "Gödel y los límites de la lógica" . plus.maths.org . 2006-06-01 . Consultado el 1 de mayo de 2020 .
  42. ↑ a b Copeland, B. Jack (2019). "La tesis de Church-Turing" . En Zalta, Edward N. (ed.). Enciclopedia de Filosofía de Stanford (edición de primavera de 2019). Laboratorio de Investigación en Metafísica, Universidad de Stanford . Consultado el 1 de mayo de 2020 .
  43. ^ a b c d e f g "Motor de cálculo automático de Turing" . La historia moderna de la informática . Enciclopedia de Filosofía de Stanford . Laboratorio de Investigación en Metafísica, Universidad de Stanford. 2017.
  44. Barker-Plummer, David (14 de septiembre de 1995). "Máquinas de Turing" . Enciclopedia de Filosofía de Stanford . Consultado el 20 de febrero de 2013 .
  45. ^ Rojas, R. (1998). "Cómo hacer de Zuse's Z3 una computadora universal" . IEEE Annals of the History of Computing . 20 (3): 51–54. doi : 10.1109 / 85.707574 . S2CID 14606587 . 
  46. ^ Rojas, Raúl. "Cómo hacer que el Z3 de Zuse sea una computadora universal" . Archivado desde el original el 14 de julio de 2014.
  47. ^ Charla de Horst Zuse a la Computer Conservation Society en el Science Museum (Londres) el 18 de noviembre de 2010
  48. ^ "BBC News - cómo Pilot ACE de Alan Turing cambió la informática" . BBC News . 15 de mayo de 2010.
  49. ^ a b "El primer" error informático " " (PDF) . CHIPS . Marina de Estados Unidos. 30 (1): 18. Enero-marzo de 2012.
  50. ^ Shannon, Claude Elwood (1964). La teoría matemática de la comunicación . Warren Weaver. Urbana: Prensa de la Universidad de Illinois. ISBN 0-252-72548-4. OCLC  2654027 .
  51. ^ Xiong, Aiping; Proctor, Robert W. (2018). "Procesamiento de la información: el lenguaje y las herramientas analíticas para la psicología cognitiva en la era de la información" . Fronteras en psicología . 9 . doi : 10.3389 / fpsyg.2018.01270 . ISSN 1664-1078 . 
  52. ^ "Arquitectura de Von Neumann - una descripción general | Temas de ScienceDirect" . www.sciencedirect.com . Consultado el 17 de marzo de 2021 .
  53. ↑ a b c Cragon, Harvey G. (2000). Arquitectura e Implementación de Computadores . Cambridge: Cambridge University Press. pp.  1 -13. ISBN 978-0-521-65168-4.
  54. ^ "Acumulador" Def. 3 . Diccionarios de Oxford.
  55. Moor, James (15 de diciembre de 2006). "La conferencia de inteligencia artificial de Dartmouth College: los próximos cincuenta años" . Revista AI . 27 (4): 87–87. doi : 10.1609 / aimag.v27i4.1911 . ISSN 2371-9621 . 
  56. ↑ a b Kaur, Gurusharan (2019). Elementos y digitalización de la computadora . Editorial Educreación.
  57. ^ a b c d e f g h "Descripción general del proyecto" . Proyecto de investigación del mecanismo de Antikythera . Consultado el 15 de enero de 2020 .
  58. ^ Prudhomme, Gerard. Introducción a la programación en lenguaje ensamblador . ISBN 978-1-77361-470-0. OCLC  1089398724 .
  59. ^ McCarthy, John ; Lifschitz, Vladimir (1991). Inteligencia artificial y teoría matemática de la computación: artículos en honor a John McCarthy . Prensa académica. ISBN 0-12-450010-2. OCLC  911282256 .
  60. ^ Haenlein, Michael; Kaplan, Andreas (2019). "Una breve historia de la inteligencia artificial: sobre el pasado, presente y futuro de la inteligencia artificial" . Revisión de la gestión de California . 61 (4): 5–14. doi : 10.1177 / 0008125619864925 . ISSN 0008-1256 . 
  61. ^ Baeten, Jos CM; Ball, Tom; de Boer, Frank S., eds. (2012). Informática teórica: 7ª Conferencia Internacional IFIP TC 1 / WG 2.2, TCS 2012, Ámsterdam, Países Bajos, 26-28 de septiembre de 2012. Actas . Apuntes de conferencias en Ciencias de la Computación. 7604 . Berlín, Heidelberg: Springer Berlin Heidelberg. doi : 10.1007 / 978-3-642-33475-7 . ISBN 978-3-642-33474-0.
  62. ^ "The Creativity Post | ¿Qué es la creatividad computacional?" . El puesto de creatividad . Consultado el 4 de marzo de 2021 .

Fuentes [ editar ]

  • Evans, Claire L. (2018). Broad Band: La historia no contada de las mujeres que hicieron Internet . Nueva York: Portfolio / Penguin. ISBN 9780735211759.
  • Grier, David Alan (2013). Cuando las computadoras eran humanas . Princeton: Prensa de la Universidad de Princeton. ISBN 9781400849369 - a través del Proyecto MUSE.

Lectura adicional [ editar ]

  • Tedre, Matti (2014). La ciencia de la informática: dar forma a una disciplina . Taylor y Francis / CRC Press. ISBN 978-1-4822-1769-8.
  • Kak, Subhash: Ciencias de la computación en la India antigua; Munshiram Manoharlal Publishers Pvt. Ltd (2001)
  • El desarrollo de la informática: una perspectiva sociocultural Matti Tedre's Ph.D. Tesis, Universidad de Joensuu (2006)
  • Ceruzzi, Paul E. (1998). Una historia de la informática moderna . La prensa del MIT. ISBN 978-0-262-03255-1.
  • Copeland, B. Jack. "La historia moderna de la informática" . En Zalta, Edward N. (ed.). Enciclopedia de Filosofía de Stanford .

Enlaces externos [ editar ]

  • Museo de Historia de la Computación
  • Computadoras: del pasado al presente
  • El primer "error informático" en los archivos fotográficos del comando de historia y patrimonio naval.
  • Bitsavers , un esfuerzo por capturar, rescatar y archivar software y manuales de computadora históricos de miniordenadores y mainframes de las décadas de 1950, 1960, 1970 y 1980
  • Entrevistas de historia oral