Historia de la informática

Page 1

Historia de la informรกtica

Historia de la informรกtica

Autor: www.computernostalgia.net


Historia de la informática

Informática hardware ha sido un componente esencial del proceso de cálculo y almacenamiento de datos, ya que se convirtió en útil para los valores numéricos para ser procesados y compartidos. El primer hardware de computación fue probablemente alguna forma de palillo de la cuenta; dispositivos de grabación más adelante incluyen las formas de arcilla fenicios que representó el recuento de elementos, probablemente ganado o granos, en contenedores. Estos parecen haber sido utilizado por los comerciantes, contadores y funcionarios del gobierno de la época. Dispositivos de ayuda a la computación han evolucionado a partir de los dispositivos de grabación y conteo simples a través del ábaco, la regla de cálculo, y los ordenadores electrónicos más recientes. Incluso hoy en día, un usuario experimentado del ábaco usando un dispositivo diseñado hace cientos de años a veces puede completar los cálculos básicos más rápidamente que una persona no calificada usando una calculadora electrónica - aunque para cálculos más complejos, los ordenadores superar el rendimiento de incluso el humano más calificado. Este artículo presenta los principales acontecimientos en la historia del hardware y los intentos de poner en contexto la computación.

Dispositivos más antiguos La humanidad ha usado dispositivos para ayudar en la computación desde hace milenios. Un ejemplo es un dispositivo para establecer la igualdad en peso: las escalas clásicas, más tarde se utilizan para simbolizar la igualdad en la justicia. Otra es simple enumeración: las telas a cuadros de las casas de conteo sirven como estructuras de datos simples para enumerar un montón de monedas, en peso. Una máquina más orientada hacia la aritmética es el ábaco. Una de las primeras máquinas de este tipo fue el ábaco chino. Chinos y otros frustrados con contando con sus dedos inventaron el ábaco

Las primeras calculadoras mecánicas En 1623 Wilhelm Schickard construyó la primera calculadora mecánica y por lo tanto se convirtió en el padre de la era de la computación. Desde su máquina de técnicas tales como ruedas dentadas y engranajes primero desarrollado para los relojes usa, también se le llama un "reloj de cálculo '. Fue puesto en uso práctico por su amigo Johannes Kepler, quien revolucionó la astronomía. Máquinas por Blaise Pascal (la Pascaline, 1642) y Gottfried Wilhelm von Leibniz (1671) siguieron. Alrededor de 1820, Charles Xavier Thomas creó la primera calculadora de éxito producido en masa mecánica, el Thomas Arithmometer, que podrían sumar, restar, multiplicar y dividir. Se basa sobre todo en la obra de Leibniz. Las calculadoras mecánicas, como la base diez addiator, el comptometer, la Monroe, el Curta y el Addo-X permanecieron en uso hasta la década de 1970.


Historia de la informática

Leibniz también describió el sistema de numeración binario, un ingrediente central de todas las computadoras modernas. Sin embargo, hasta la década de 1940, muchos diseños posteriores (incluyendo las máquinas de Charles Babbage de la década de 1800 e incluso ENIAC de 1945) se basaron en el sistema decimal más difíciles de implementar. John Napier observó que la multiplicación y la división de números se pueden realizar mediante la adición y la resta, respectivamente, de los logaritmos de esos números. Dado que estos números reales pueden ser representados como distancias o intervalos en una línea, la regla de cálculo permitía operaciones de multiplicación y división que se llevarán mucho más rápido que antes era posible. Las reglas de cálculo Engranajes están en el fueron usadas por generaciones de corazón de los Calculadora mecánica a ingenieros y otros trabajadores profesionales dispositivos mecánicos partir de 1914 matemáticamente inclinado, hasta la como la calculadora Curta invención de la calculadora de bolsillo. Los ingenieros del programa Apollo para enviar un hombre a la luna hizo que muchos de sus cálculos en las reglas de cálculo, que eran exactos a 3 o 4 cifras significativas. Mientras que la producción de las primeras tablas logarítmicas Napier necesitó realizar muchas multiplicaciones y fue en este punto que él diseñó los huesos de Napier.

1801: La tecnología de tarjetas perforadas En 1801, Joseph-Marie Jacquard desarrolló un telar en el que el patrón se teje fue controlado por tarjetas perforadas. La serie de tarjetas podría ser cambiado sin cambiar el diseño mecánico del telar. Este fue un punto de referencia en la programabilidad. En 1833, Charles Babbage se trasladó desde el desarrollo de su máquina diferencial a desarrollar un diseño más completo, el motor analítico que dibujar directamente en tarjetas perforadas de Jacquard para su programación. La regla de cálculo, una calculadora mecánica básica, En 1890, la Oficina del Censo de los Estados facilita la multiplicación y la división Unidos utilizaron tarjetas perforadas y máquinas de clasificación diseñado por Herman Hollerith para manejar el flujo de datos del censo decenal mandato de la Constitución. La compañía de Hollerith eventualmente se convirtió en el núcleo de IBM. IBM desarrolló la tecnología de tarjetas perforadas en una poderosa herramienta para el procesamiento de datos de negocios y produjo una extensa línea de equipos de registro de la unidad especializada. En 1950 la tarjeta IBM se había convertido en omnipresente en la industria y el gobierno. La advertencia impresa en la mayoría de las tarjetas, "No doble, eje o mutilar", se convirtió en un lema para la era posterior a la Segunda Guerra Mundial.


Historia de la informática

Artículos de Leslie Comrie sobre métodos de tarjetas perforadas y la publicación de WJ Eckert del perforadas Métodos de tarjetas en Computación Científica en 1940, describen técnicas que eran lo suficientemente avanzados para resolver ecuaciones diferenciales, realice multiplicación y división usando representaciones de punto flotante, todo en tarjetas perforadas y plug-tableros similares a los utilizados por los operadores de telefonía. El secreto de Thomas J. Watson Oficina Astronómica Computación, Universidad de Columbia realizó cálculos astronómicos que representan el estado del arte en la informática. En muchas instalaciones de ordenador, se usaron tarjetas perforadas hasta (y después) el final de la década de 1970. Por ejemplo, la ciencia y los estudiantes de ingeniería en muchas universidades de todo el mundo Herman Hollerith inventó presentarían sus asignaciones de programación al centro de cómputo local una máquina tabuladora en la forma de una pila de tarjetas, una tarjeta por línea de programa, y luego usando tarjetas tuvo que esperar a que el programa para poner en cola para procesamiento, perforadas en los años compilado y ejecutado. A su debido tiempo una copia impresa de cualquier 1880. resultado, marcados con la identificación del remitente, se coloca en una bandeja de salida fuera del centro de cómputo. En muchos casos, estos resultados estarían compuestos exclusivamente una copia impresa de los mensajes de error con respecto a la sintaxis de programa, etc, lo que exige un nuevo ciclo editar-compilar-run. Tarjetas perforadas se siguen utilizando y fabricados en el siglo actual, y sus dimensiones distintivas (y la capacidad de 80 columnas) todavía pueden ser reconocidas en formas, registros y programas en todo el mundo.

1835 de 1900: primeras máquinas programables La característica definitoria de una "computadora universal" es la programabilidad, que permite a la computadora para emular cualquier otra máquina de calcular cambiando una secuencia de instrucciones almacenadas. En 1835 Charles Babbage describió su máquina analítica. Era el plan de una computadora programable de propósito general, empleando tarjetas perforadas para la entrada y una máquina de vapor por el poder. Una invención crucial fue usar engranajes para la función servida por las cuentas de un ábaco. En un sentido real, las computadoras contienen todos los ábacos automáticos (técnicamente llamados la ALU o unidad de punto flotante). Su idea inicial era utilizar tarjetas perforadas para controlar una máquina capaz de calcular e imprimir tablas logarítmicas con gran precisión (una máquina de propósito específico). Idea de Babbage pronto se convirtió en un ordenador programable de propósito general, su máquina analítica. Mientras que su diseño era el sonido y los planes eran probablemente correcta, o al menos depurable, el proyecto fue frenado por diversos problemas. Babbage era un hombre difícil de trabajar y discutió con

Charles Babbage


Historia de la informática

alguien que no respeta sus ideas. Todas las piezas para su máquina se tuvieron que hacer a mano y pequeños errores en cada artículo se resume como enormes discrepancias en una máquina con miles de partes. El proyecto se disolvió por disputas con el artesano que construyó las partes y se terminó con el agotamiento de los fondos del gobierno. Ada Lovelace, hija de Lord Byron, tradujo y agregó notas para el "Boceto de la Máquina Analítica" de Federico Luigi, Conte Menabrea. Ella se ha convertido estrechamente asociado con Babbage. Algunos afirman que es la primera programadora de computadoras del mundo, sin embargo esta afirmación y el valor de sus otras contribuciones son disputadas por muchos. Una reconstrucción de la Máquina Diferencial II, un diseño anterior, más limitado, está en funcionamiento desde 1991 en el Museo de Ciencia de Londres. Con algunos cambios triviales, trabaja como Babbage la diseñó y demuestra que Babbage estaba en lo cierto en teoría. El museo utiliza máquinas herramientas informáticas que funcionan para construir las piezas necesarias, siguiendo las tolerancias que un maquinista de la época hubiera sido capaz de lograr. Algunos sienten que la tecnología de la época no fue capaz de producir piezas de precisión suficiente, aunque esto parece ser falso. El fracaso de Babbage para completar el motor puede ser principalmente atribuida a dificultades no solo acerca de la política, sino también su deseo de desarrollar un equipo cada vez más sofisticado. So pena de las finanzas personales y una actitud demasiado ambicioso para su época, con el tiempo llevó a su fracaso. Hoy en día, muchos en el campo de la computación término este tipo de obsesión rastrero featuritis. Babbage pudo haber sido capaz de financiar este proyecto mejor si hubiera sido capaz de trabajar con la gente mejor, con mejores habilidades de liderazgo y gestión que el gobierno pudo haber sido más proclives a continuar con sus contribuciones financieras. Siguiendo los pasos de Babbage, aunque inconsciente de su trabajo anterior, fue Percy Ludgate, un contador de Dublin, Irlanda. Él independiente diseñado una computadora mecánica programable, que describió en un trabajo que fue publicado en 1909.

Augusta Ada King, Condesa de Lovelace


Historia de la informática

1930s-1960s: calculadoras de escritorio Por la década de 1900 a principios de calculadoras mecánicas, cajas registradoras, máquinas de contabilidad, etcétera fueron rediseñadas para usar motores eléctricos, con posición de marcha como la representación del estado de una variable. Empresas como Friden, Marchant y Monroe hicieron calculadoras mecánicas de escritorio desde la década de 1930 que podrían sumar, restar, multiplicar y dividir. La palabra "ordenador" era un puesto de trabajo asignado a las personas que utilizan estas calculadoras para realizar cálculos matemáticos. Durante el proyecto Manhattan, futuro premio Nobel Richard Feynman fue el supervisor de la sala llena de computadoras humanas, muchos de ellos mujeres matemáticas, que entendía las ecuaciones diferenciales que se estaban resueltos para el esfuerzo de guerra. Incluso el renombrado Stanislaw Marcin Ulam fue puesto en servicio para traducir las matemáticas a aproximaciones computables para la bomba de hidrógeno, después de la guerra. En 1948, el Curta fue introducido. Esta fue una pequeña calculadora, portátil, mecánica que era del tamaño de un molinillo de pimienta. Con el tiempo, durante los años 1950 y 1960 una serie de diferentes marcas de calculadora mecánica apareció en el mercado. La primera calculadora electrónica de escritorio era probablemente de Sumlock Comptometer 1961 Anita C / VIII, que utiliza una pantalla de tubo Nixie y 177 tubos THYRATRON subminiature. En junio de 1963, Friden introdujo el de cuatro funciones EC-130. Tenía un diseño completamente transistorizado, la capacidad de 13 dígitos en un CRT de 5 pulgadas e introdujo la notación polaca inversa (RPN) para el mercado de las calculadoras a un precio de $ 2200. El modelo EC-132 añade funciones de las raíces y recíprocos cuadrados. En 1965, Wang Laboratorios produjo el LOCI-2, una calculadora de escritorio transistorizada de 10 dígitos que se utiliza una pantalla de tubo Nixie y podía computar logaritmos. Con el desarrollo de los circuitos integrados y microprocesadores, los caros, grandes calculadoras fueron reemplazados con los dispositivos electrónicos más pequeños.

Computadoras analógicas Pre-1940 Antes de la Segunda Guerra Mundial, las computadoras análogas mecánicas y eléctricas eran consideradas el "estado del arte", y muchos pensaban que eran el futuro de la informática. Computadoras analógicas usan continuamente cantidades variables de cantidades físicas, tales como voltajes o corrientes, o la velocidad de rotación de los ejes, para representar las cantidades que se están procesando. Un ingenioso ejemplo de tal máquina fue el integrador de agua construido en 1936. A diferencia de las computadoras digitales modernas, las computadoras análogas no son muy flexibles, y tienen que ser reconfigurado (es decir, reprogramadas) manualmente para cambiarlas de trabajar en un problema a otro. Las computadoras análogas tenían una ventaja sobre los ordenadores digitales tempranos en que pudieran ser utilizados para resolver problemas complejos, mientras que los primeros intentos de las computadoras digitales eran bastante limitadas.Pero a medida que las computadoras digitales se han convertido en más rápido y utiliza memoria más grande (por ejemplo, la memoria RAM o tienda interna), que han desplazado casi por completo las computadoras analógicas, y la programación de computadoras, o codificación ha surgido como otra profesión humana. Dado que los ordenadores eran raras en esta era, las soluciones eran a menudo codificados-en formas de papel, tales como gráficos y nomogramas, que luego podrían permitir soluciones analógicas a los problemas, tales como la distribución de presiones y temperaturas en un sistema de calefacción. Algunas de las computadoras analógicas más ampliamente desplegado dispositivos para apuntar las armas, como el visor de bombardeo Norden y la artillería apuntando computadoras para acorazados incluido. Algunos de ellos se quedaron en uso por décadas después de la Segunda Guerra Mundial.


Historia de la informática

Ordenadores analógicos híbridos, controlados por la electrónica digital, permanecían en uso sustancial en los años 1950 y 1960, y más tarde en algunas aplicaciones especializadas.

1940: primeras computadoras digitales eléctricos La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como circuitos electrónicos, relés, condensadores y tubos de vacío equivalentes mecánicos y los cálculos digitales reemplazado reemplazado cálculos analógicos. Los equipos diseñados y construidos entonces a veces han sido llamados ordenadores "primera generación". Computadoras de primera generación, como la Atanasoff-Berry Computer, Z3 y Colossus fueron construidas a mano usando circuitos que contenían relés o válvulas de vacío (tubos), y, a menudo utilizan tarjetas perforadas o cinta de papel perforado para la entrada y como medio de almacenamiento principal (no volátil) medio.Temporal, o almacenamiento de trabajo, fue proporcionado por líneas de retardo acústicas (que utilizan el tiempo de propagación del sonido en un medio tal como alambre para almacenar datos) o por tubos de Williams (que utilizan la capacidad de un tubo de imagen de televisión para almacenar y recuperar datos) . Para 1954, la memoria de núcleo magnético estaba desplazando rápidamente la mayoría de otras formas de almacenamiento temporal, y dominó el campo hasta mediados de la década de 1970. En esta época, se produjeron una serie de diferentes máquinas con capacidades de avance constante. Al principio de este período, nada remotamente parecido a una computadora moderna existía, excepto en los planes perdidos hace mucho tiempo de Charles Babbage y las reflexiones matemáticas de Alan Turing y otros. Al final de la era, los dispositivos como el EDSAC se habían construido, y se acordó universalmente como computadores digitales. Definición de un solo punto en la serie como el "primer equipo" pierde muchas sutilezas. El artículo de Alan Turing 1936 ha demostrado ser enormemente influyente en la informática y ciencias de la computación de dos maneras. Su propósito principal era una elegante prueba de que había problemas (a saber, el problema de la parada) que no podían ser resueltos por un proceso mecánico (un ordenador). Al hacerlo, sin embargo, Turing proporcionó una definición de lo que es un equipo universal es: una construcción llamada la máquina de Turing, un dispositivo puramente teórico inventado para formalizar la noción de ejecución del algoritmo, en sustitución de lenguaje universal más engorroso de Kurt Gödel basado en aritmética. Las computadoras modernas son Turing-completo (es decir, la capacidad de ejecución del algoritmo equivalente a una máquina universal de Turing), a excepción de su memoria finita. Este tipo limitado de Turing integridad es a veces visto como una capacidad umbral separando las computadoras de propósito general de sus predecesores de propósito especial. Sin embargo, como se verá, teórico Turing-completitud es un largo camino desde un dispositivo de computación universal, práctica. Para ser un ordenador de propósito general práctica, debe haber alguna manera conveniente de introducir nuevos programas en el ordenador, tales como cinta perforada. Para una versatilidad total, la arquitectura Von Neumann utiliza la misma memoria, tanto para almacenar programas y datos; prácticamente todas las computadoras actuales utilizan esta arquitectura (o alguna variante). Por último, si bien es teóricamente posible implementar una computadora completa mecánicamente en su totalidad (como el diseño de Babbage mostró), hicieron posible la velocidad y más adelante la miniaturización que caracteriza a los modernos ordenadores electrónicos. Hubo tres corrientes paralelas de desarrollo informático en la era de la Segunda Guerra Mundial, y dos eran o en gran parte ignorado o se han mantenido deliberadamente en secreto. La primera fue el trabajo alemán de Konrad Zuse. El segundo fue el desarrollo secreto de la computadora Colossus en el Reino Unido. Ninguno de ellos tenía mucha influencia en los diversos proyectos de computación en los Estados Unidos. Después de la guerra, los investigadores informáticos británicos y estadounidenses colaboraron en algunos de los pasos más importantes hacia un dispositivo de computación práctica.


Historia de la informática

Desarrollos americanos En 1937, Claude Shannon produjo su tesis de maestría en el MIT que implementó álgebra booleana usando relés electrónicos e interruptores por primera vez en la historia. Titulada Un Análisis Simbólico de relés y circuitos de conmutación, la tesis de Shannon básicamente fundó el diseño de circuitos digitales práctico. En noviembre de 1937, George Stibitz, que entonces trabajaba en los Laboratorios Bell, completó un ordenador basado en relés que llamó el "Modelo K" (de "cocina", donde se había reunido él), que calcula usando la suma binaria. Por tanto, los laboratorios Bell autorizó un programa de investigación completo a finales de 1938 con Stibitz en el timón. Su Calculadora de números complejos, completó 08 de enero 1940, fue capaz de calcular los números complejos. En una demostración de la conferencia de la American Mathematical Society en el Dartmouth College, el 11 de septiembre de 1940, Stibitz fue capaz de enviar los complejos comandos remotos Calculadora Número de líneas telefónicas por un teletipo. Fue la primera máquina de computación utilizado alguna vez de forma remota a través de una línea telefónica. Algunos participantes de la conferencia que fue testigo de la demostración fueron John Von Neumann, John Mauchly y Norbert Wiener, quien escribió sobre ella en sus memorias. En 1938 John Vincent Atanasoff y Clifford E. Berry de la Universidad Estatal de Iowa desarrollaron la AtanasoffBerry Computer (ABC), una computadora electrónica de propósito especial para los sistemas de ecuaciones lineales. El diseño utiliza más de 300 tubos de vacío para la alta velocidad y los condensadores empleados fijos en un tambor giratorio mecánicamente para la memoria. Aunque la máquina ABC no era programable, que fue el primer ordenador moderno en varios otros aspectos, incluyendo los primeros en utilizar circuitos electrónicos matemática binaria y. ENIAC co-inventor John Mauchly visitó el ABC cuando todavía estaba en construcción en junio de 1941, y su influencia sobre el diseño del ENIAC es motivo de controversia entre los historiadores de la computadora. El ABC fue olvidado en gran parte hasta que se convirtió en el foco de la demanda Honeywell v Sperry Rand, que invalidó la patente de ENIAC.

ENIAC realizó cálculos de trayectoria balística con 160 kW de potencia. Fuente: Foto del Ejército de EE.UU., de K. Kempf.

En 1939, el desarrollo comenzó en los laboratorios Endicott de IBM en la Harvard Mark I. Conocido oficialmente como la calculadora automática de secuencia controlada, la Mark I era una computadora electro-mecánica de propósito general construida con financiación IBM y con la asistencia de algunos miembros del personal de IBM bajo la dirección de matemático de Harvard Howard Aiken. Su diseño fue influenciado por la Máquina Analítica. Era una máquina decimal que utiliza ruedas de almacenamiento e interruptores rotatorios además de relés electromagnéticos. Fue programable mediante cinta de papel perforado, y contenía varias calculadoras trabajando en paralelo. Los modelos posteriores contenían varios lectores de cinta de papel y la máquina podía cambiar entre lectores basados en una condición. Sin embargo, esto no acaba de hacer que la máquina de Turing-completo. El Mark I se trasladó a la Universidad de Harvard para comenzar a funcionar en mayo de 1944.

El ENIAC fabricación estadounidense (Electronic Numerical Integrator y ordenador), a menudo llamada la primera computadora electrónica de propósito general, validado públicamente el uso de la electrónica para la computación a gran escala. Esto fue crucial para el desarrollo de la computación moderna, inicialmente debido a la enorme ventaja de la velocidad, pero en última instancia, debido al potencial para la miniaturización. Construido bajo la dirección de John Mauchly y J. Presper Eckert, era 1000 veces


Historia de la informática

más rápido que sus contemporáneos. Desarrollo y construcción del ENIAC duró desde 1941 a pleno funcionamiento a finales de 1945. Cuando se propuso su diseño, muchos investigadores creyeron que las miles de válvulas delicadas (por ejemplo, tubos de vacío) se quemarían a menudo que el ENIAC estaría con tanta frecuencia hacia abajo para reparaciones como para ser inútil. Fue, sin embargo, capaz de hasta miles de operaciones por segundo durante horas en un tiempo medio entre fallos de las válvulas. ENIAC era inequívocamente un dispositivo Turing-completo. Para "programa" ENIAC, sin embargo, la intención de volver a colocar él - algunos dicen que esto ni siquiera califica como la programación, por lo demás cualquier tipo de reconstrucción de alguna computadora limitada podría ser visto como la programación. En ese momento, sin embargo, el cálculo sin ayuda fue vista como bastante de un triunfo para ver la solución de un solo problema como el objeto de un programa. (Las mejoras realizadas en 1948 hicieron posible la ejecución de programas almacenados fijados en la memoria de tabla de funciones, lo que hizo la programación menos un esfuerzo de una sola vez, y más sistemático.) Jon von Neumann, sobre la base de las ideas desarrolladas por Eckhart y Mauchly después de reconocer las limitaciones de la ENIAC, escribió un informe de gran circulación que describe un diseño de la computadora (el diseño EDVAC) en el que los programas y los datos de trabajo se almacenan tanto en una sola tienda unificada . Este diseño básico, que se conoció como la arquitectura de von Neumann, serviría como base para el desarrollo de las primeras, las computadoras digitales de propósito general realmente flexibles.

Coloso Durante la Segunda Guerra Mundial, los británicos en Bletchley Park logró una serie de éxitos a romper cifrado de comunicaciones militares alemanas. La máquina de cifrado alemana Enigma, fue atacado con la ayuda de aparatos electromecánicos llamados bombes. La bombe, diseñado por Alan Turing y Gordon Welchman, después de la bomba de Polonia, descartó posibles ajustes Enigma realizando cadenas de deducciones lógicas implementadas eléctricamente. La mayoría de las posibilidades llevó a una contradicción, y los pocos que quedan podrían ser probados con la mano.

Colossus fue utilizada para romper los cifrados alemanes durante la Segunda Guerra Mundial

Los alemanes también desarrollaron una serie de sistemas de encriptación de télex, bastante diferentes de Enigma. El Lorenz SZ 40/42 de la máquina se utiliza para las comunicaciones del ejército de alto nivel, denominado "Atún" por los británicos. Las primeras intercepciones de mensajes Lorenz comenzaron en 1941. Como parte de un ataque a los atunes, el profesor Max Newman y sus colegas ayudaron a especificar el Coloso. El Mk I Colossus fue construido en 11 meses por Tommy Flowers y sus colegas en la Estación de Investigación de la oficina de correos en Dollis Hill en Londres y luego enviado a Bletchley Park.

Colossus fue el primer dispositivo de computación totalmente electrónico. El coloso utiliza un gran número de válvulas (tubos de vacío). Tenía entrada de cinta de papel y era capaz de ser configurado para realizar una variedad de operaciones lógicas booleanas sobre sus datos, pero no fue Turing-completo.Nueve Mk II Colosos se construyeron (El Mk I fue convertido en un Mk II haciendo diez máquinas en total). Los detalles de su existencia, el diseño y uso se mantuvieron en secreto hasta bien entrada la década de 1970.Winston Churchill personalmente emitió una orden para su destrucción en pedazos no más grandes que la mano


Historia de la informática

de un hombre. Debido a este secreto los Colosos no se incluyeron en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus está ahora en exhibición en Bletchley Park.

Z-series de Konrad Zuse Trabajar de forma aislada en la Alemania nazi, Konrad Zuse comenzó la construcción en 1936 de sus calculadoras primera serie Z que ofrece la memoria y (inicialmente limitada) capacidad de programación. Puramente mecánico, pero ya binario Z1 de Zuse, acabado en 1938, nunca funcionó fiablemente debido a problemas con la precisión de las piezas. Máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Se basaba en relés de teléfono y trabajó satisfactoriamente. Así, el Z3 se convirtió en la primera computadora controlada por programa funcional. En muchos aspectos, era muy similar a las máquinas modernas, pionero en numerosos avances, tales como números de punto flotante. La sustitución del sistema decimal difíciles de poner en práctica (utilizada en el diseño anterior de Charles Babbage) por el sistema binario simple significa que las máquinas de Zuse eran más fáciles de construir y potencialmente más fiable, dadas las tecnologías disponibles en ese momento. Esto es a veces visto como la razón principal por la que Zuse tuvo éxito donde Babbage falló.

Una reproducción de la computadora Z1 de Zuse

Los programas se introducen en Z3 en películas perforadas. Los saltos condicionales faltaban, pero desde la década de 1990 se ha demostrado teóricamente que Z3 seguía siendo un ordenador universal (ignorando sus limitaciones de tamaño de almacenamiento físico). En 1937 dos patentes, Konrad Zuse también anticipó que las instrucciones de la máquina pueden ser almacenados en el mismo almacenamiento utilizado para los datos - la idea clave de lo que se conoció como la arquitectura Von Neumann y fue implementado por primera vez en el diseño posterior British EDSAC (1.949). Zuse también afirmó haber diseñado el primer lenguaje de programación de alto nivel, (Plankalkül), en 1945, aunque nunca se publicó formalmente hasta 1971, y se puso en práctica por primera vez en 2000 por la Universidad Libre de Berlín - cinco años después Zuse murió. Zuse sufrió reveses durante la Segunda Guerra Mundial, cuando algunas de sus máquinas fueron destruidas en el curso de las campañas de bombardeos aliados. Al parecer, permaneció en gran parte desconocido a los ingenieros en el Reino Unido y EE.UU. su trabajo hasta mucho más tarde, aunque por lo menos IBM era consciente de ello, ya que financió su compañía de lanzamiento de la posguerra en 1946 a cambio de una opción sobre las patentes de Zuse.

Máquinas de von Neumann de primera generación El primer trabajo de la máquina de von Neumann fue el Manchester "Baby" o Pequeña Escala Experimental Machine, construida en la Universidad de Manchester en 1948; que fue seguido en 1949 por el equipo de Manchester Mark I que funcionó como un sistema completo utilizando el tubo de Williams para la memoria, y los registros de índice también introducidos. El otro contendiente por el título de "primera computadora de programa almacenado digital", fue EDSAC, diseñado y construido en la Universidad de Cambridge. Operacional menos de un año después de la Manchester "Baby", que era capaz de hacer


Historia de la informática

frente a los problemas reales. EDSAC fue realmente inspirada por los planes para la EDVAC (Electronic Discrete Variable Automatic Computer), el sucesor del ENIAC; estos planes ya estaban en su lugar por el tiempo que el ENIAC fue exitosamente operacional. A diferencia de la ENIAC, que utiliza el procesamiento paralelo, la EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada ola sucesiva de la miniaturización, y una mayor fiabilidad. Algunos ven el Manchester Mark I / EDSAC / EDVAC como "Evas" de que casi todas las computadoras actuales derivan su arquitectura. La primera computadora programable universal en Europa continental fue creada por un equipo de científicos bajo la dirección de Sergei Lebedev Alekseyevich de Kiev Instituto de Electrotécnica, URSS (ahora Ucrania). El HSHAV ordenador (posiblemente de pie para máquina de calcular Pequeño Electrónico) entró en funcionamiento en 1950. Tenía cerca de 6.000 tubos de vacío y se consume 25 kW de potencia. Se podría llevar a cabo unas 3.000 operaciones por segundo. Otra máquina temprana fue CSIRAC, un diseño australiano que corrió su primer programa de prueba en 1949. En octubre de 1947, los directores de J. Lyons & Company, una empresa de catering británico famoso por sus salones de té, pero con fuertes intereses en las nuevas técnicas de gestión de la oficina, decidió tomar un papel activo en la promoción del desarrollo comercial de las computadoras. Para 1951 el equipo LEO Yo estaba en funcionamiento y corrió primer trabajo ordenador de la oficina rutina regular del mundo. Máquina de la Universidad de Manchester se convirtió en el prototipo para la Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y al menos otras nueve fueron vendidos entre 1951 y 1957.

UNIVAC I, la primera computadora electrónica comercial, conseguido 1.900 operaciones por segundo en un paquete más pequeño y más eficiente que el ENIAC

En junio de 1951, la UNIVAC I (Universal Automatic Computer) fue entregado a la Oficina del Censo de EE.UU.. Aunque fabricada por Remington Rand, la máquina a menudo se refiere equivocadamente como la "IBM UNIVAC". Remington Rand eventualmente vendió 46 máquinas en más de $ 1 millón cada uno. UNIVAC fue la primera computadora producida en masa "; todos los predecesores habían sido unidades 'one-off'. Solía 5.200 tubos de vacío y consumió 125 kW de potencia. Se utiliza una línea de retardo de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales más signo (palabras de 72 bits) para la memoria. A diferencia de las máquinas anteriores que no utilizó un sistema de tarjetas perforadas, sino una entrada de cinta de metal. En noviembre de 1951, la compañía J. Lyons comenzó la operación semanal de un trabajo de las valoraciones de panadería en el LEO (Lyons Electronic Office). Esta fue la primera aplicación de negocio para ir a vivir en un ordenador de programa almacenado.

En 1952, IBM anunció públicamente la Máquina IBM 701 Electronic Data Processing, la primera en su exitosa serie 700/7000 y su primera computadora central IBM. El IBM 704, introducido en 1954, utiliza la memoria de núcleo magnético, que se convirtió en el estándar para las máquinas grandes. El lenguaje de programación primero implementado alto nivel de propósito general, Fortran, también estaba siendo desarrollado en IBM por 704 durante 1955 y 1956 y puesto en libertad a principios de 1957. (1945 diseño de Konrad Zuse del lenguaje de alto nivel Plankalkül no se implementó en ese momento .)


Historia de la informática

IBM presentó un equipo más asequible menor en 1954 que demostró ser muy popular. El IBM 650 pesaba más de 900 kg, la fuente de alimentación conectada pesaba alrededor de 1.350 kg y ambos fueron llevados a cabo en gabinetes separados de aproximadamente 1,5 metros por 0,9 metros por 1,8 metros. Nos costó $ 500.000 o podría ser alquilado por 3.500 dólares al mes. Su memoria de tambor era originalmente solamente 2.000 palabras de diez dígitos, y precisa de la programación arcana para la computación eficiente. Las limitaciones de memoria, tales como este eran a dominar la programación durante décadas después, hasta que la evolución de un modelo de programación que era más simpático para el desarrollo de software. En 1955, Maurice Wilkes inventó la microprogramación, que más tarde fue utilizado ampliamente en las CPUs y unidades de punto flotante de la unidad central y otros equipos, como por ejemplo la serie IBM 360. La microprogramación permite la instrucción de base fija para ser definido o extendido por programas incorporados (ahora a veces llamado firmware, microcódigo o millicode).

Maurice Wilkes dio cuenta de que las operaciones básicas y de uso frecuente pueden ser programados directamente en hardware

En 1956, IBM vendió su primer sistema de disco magnético, RAMAC (Random Access Método de Contabilidad y Control). Utilizó 50 discos de metal de 24 pulgadas, con 100 pistas por lado.Puede almacenar 5 megabytes de datos y un costo de $ 10.000 por megabyte. (A partir de 2005, el almacenamiento en disco cuesta menos de $ 1 por gigabyte).

1950 y 1960: de segunda generación

Transistores, anteriormente, revolucionaron las computadoras como sustitutos más pequeños y más eficientes para los tubos de vacío

El siguiente paso importante en la historia de la informática fue la invención del transistor en 1947. Esto reemplaza las válvulas hambrientos frágiles y de potencia con un componente mucho más pequeño y más fiable. Ordenadores transistorizados se conoce normalmente como "segunda generación" y dominaron a finales de 1950 y comienzos de 1960. Mediante el uso de transistores y circuitos impresos se logró una disminución significativa en el tamaño y el consumo de energía, junto con un aumento de la fiabilidad. Por ejemplo, el transistorizado IBM 1620, que sustituyó a la voluminosa IBM 650, era del tamaño de un escritorio de oficina. Computadoras de segunda generación eran todavía caros y se utilizan principalmente por las universidades, los gobiernos y las grandes corporaciones.

En 1959, IBM envió el basado en transistores IBM 7090 mainframe y mediana escala IBM 1401. Este último fue diseñado en torno a la entrada de tarjetas perforadas y resultó ser un ordenador de propósito general popular. Algunos 12.000 fueron enviados, por lo que es la máquina más exitosa en la historia de la computadora en ese momento. Uso una memoria de núcleo magnético de 4.000 caracteres (más tarde ampliado a 16.000 caracteres). Muchos aspectos de su diseño se basa en el deseo de reemplazar las máquinas de tarjetas perforadas que eran de uso generalizado en la década de 1920 hasta principios de 1970.


Historia de la informática

En 1960, IBM envió la, basado en transistores más pequeños IBM 1620, originalmente con cinta de papel perforada única, pero pronto se actualizó a tarjetas perforadas.Demostró una computadora científica popular y sobre 2000 fue enviado. Uso una memoria de núcleo magnético de hasta 60.000 dígitos decimales. También en 1960, el DEC lanzó el PDP-1 su primera máquina para su uso por personal técnico en laboratorios y para la investigación. En 1961, Burroughs publicó el B5000 el primer procesador dual y el ordenador de memoria virtual. Otras características únicas fueron una arquitectura de pila, el direccionamiento basado en descriptores, y sin necesidad de programación directamente en lenguaje ensamblador. En 1962, Sperry Rand enviado el UNIVAC 1107, una de las primeras máquinas con un sistema de registro general y la base de la exitosa serie de UNIVAC 1100.

Primer ordenador de Digital Equipment Corporation fue el PDP1 Fue construido en su mayoría de DEC módulos del sistema de la serie 1000, utilizando microaleación y Transistores difusamicro-aleación

En 1964 IBM anunció la serie S/360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También fue pionero en el uso comercial de microprogramas, y un conjunto de instrucciones extendido diseñado para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de productos de IBM, que antes de ese tiempo se había incluido tanto una línea de productos "comerciales" y una línea "científica" separada. El software proporcionado con el System/360 también incluyó importantes avances, entre ellos disponibles en el mercado multi-programación, nuevos lenguajes de programación, y la independencia de los programas de los dispositivos de entrada / salida. Más de 14.000 sistemas System/360 fueron enviados por el 1968. También en 1964, el DEC lanzó el PDP-8 de la máquina mucho más pequeños destinados a ser utilizados por el personal técnico en laboratorios y para la investigación.

Post-1960: tercera generación y más allá La explosión en el uso de las computadoras empezó con las computadoras "tercera generación". Éstas se basaron en Jack St. Clair Kilby de e invención independiente de Robert Noyce del circuito integrado (o microchip), que más tarde dio lugar a la invención de Ted Hoff del microprocesador, en Intel. Durante la década de 1960 hubo un considerable solapamiento entre las tecnologías de segunda y tercera generación. Todavía en 1975, Sperry Univac continuaba la fabricación de máquinas de segunda generación, como el UNIVAC 494.

El circuito integrado microscópica, arriba, combina muchos cientos de transistores en una unidad para la fabricación

El microprocesador condujo al desarrollo del microordenador, ordenadores pequeños y de bajo costo que pueden ser poseídos por los individuos y las pequeñas empresas. Los microordenadores, el primero de los cuales aparecieron en la década de 1970, se convirtió en omnipresente en la década de 1980 y más allá. Computing ha evolucionado con las


Historia de la informática

arquitecturas de microcomputadoras, con características añadidas de sus hermanos más grandes, ahora dominantes en la mayoría de los segmentos del mercado.


Historia de la informática

Aviso de copyright: El computernostalgic.blogspot.com licencias usa subvenciones libre acceso a todo el contenido del artículo y las fotos en este sitio, en el mismo sentido como software libre tiene licencia libre. Este principio se conoce como copyleft. Es decir, los artículos y las fotos computernostalgic.blogspot.com pueden ser copiados, modificados y redistribuidos, siempre y cuando la nueva versión conceda las mismas libertades a otros y reconozca a los autores del artículo computernostalgic. blogspot.com utilizado (un enlace directo de nuevo a este sitio es satisfactorio). Artículos y fotos computernostalgic. blogspot.com por lo tanto, seguirán siendo libres para siempre y puede ser utilizada por cualquier persona sujeta a ciertas restricciones, la mayoría de las cuales sirven para asegurar esa libertad. Para cumplir con los objetivos anteriores, la historia de la computación artículos y fotos contenidas en computernostalgic. blogspot.com tienen licencia para el público bajo la GNU Free Documentation License .

http://computernostalgic.blogspot.com


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.