Primera generación de computadoras
La primera rimera generación de computadoras abarca desde el año 1945 hasta el año 1958,, época en que la tecnología electrónica era a base de bulbos o tubos de vacío,, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina. máquina
Características: • •
Estaban construidas con electrónica de válvulas Se programaban en lenguaje de máquina
1. grandes y obsoletas Un programa es un conju conjunto nto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios). La primera generación ración de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó: •
•
1947 ENIAC.. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato arato que ocupaba todo un sótano en la universidad. Construida con 18.000 bulbos consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en los Estados Unidos. 1949 EDVAC.. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas
•
•
•
centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis. 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos. 1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas. 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético.
El tubo de vacío La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como circuitos electrónicos, relés, condensadores y tubos de vacío que reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos analógicos. Las computadoras que se diseñaron y construyeron entonces se denominan a veces "primera generación" de computadoras. La primera generación de computadoras eran usualmente construidas a mano usando circuitos que contenían relés y tubos de vacío, y a menudo usaron tarjetas perforadas (punched cards) o cinta de papel perforado (punched paper tape) para la entrada de datos [input] y como medio de almacenamiento principal (no volátil). El almacenamiento temporal fue proporcionado por las líneas de retraso acústicas (que usa la propagación de tiempo de sonido en un medio tal como alambre para almacenar datos) o por los tubos de William (que usan la habilidad de un tubo de televisión para guardar y recuperar datos). A lo largo de 1953, la memoria de núcleo magnético estaba desplazando rápidamente a la mayoría de las otras formas de almacenamiento temporal, y dominó en este campo a mediados de los 1970s.
En 1936 Konrad Zuse empezó la construcción de la primera serie Z, calculadoras que ofrecen memoria (inicialmente limitada) y programabilidad. Las Zuses puramente mecánicas, pero ya binarias, la Z1 terminada en 1938 nunca funcionó fiablemente debido a los problemas con la precisión de partes. daniela w/h En 1937, Claude Shannon hizo su tesis de master en MIT que implementó álgebra booleana usando relés electrónicos e interruptores por primera vez en la historia. Titulada "Un Análisis Simbólico de Circuitos de Relés e Interruptores" (A Symbolic Analysis of Relay and Switching Circuits), la tesis de Shannon, esencialmente, fundó el diseño de circuitos digitales prácticos. La máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Estaba basada en relés de teléfono y trabajó satisfactoriamente. Así la Z3 fue la primera computadora funcional controlada mediante programas. En muchas de sus características era bastante similar a las máquinas modernas, abriendo numerosos avances, tales como el uso de la aritmética binaria y números de coma flotante. El duro trabajo de reemplazar el sistema decimal (utilizado en el primer diseño de Charles Babbage) por el sistema binario, más simple, significó que las máquinas de Zuse fuesen más fáciles de construir y potencialmente más fiables, dadas las tecnologías disponibles en ese momento. Esto es a veces visto como la principal razón por la que Zuse tuvo éxito donde Babbage falló; sin embargo, la mayoría de las máquinas de propósito general de ahora continúan teniendo instrucciones de ajustes decimales, la aritmética decimal es aun esencial para aplicaciones comerciales y financieras, y el hardware de coma flotante decimal está siendo agregado en algunas nuevas máquinas (el sistema binario continua siendo usado para direccionamiento en casi todas las máquinas). Se hicieron programas para las Z3 en películas perforadas [punched films]. Los saltos condicionales eran extraños, pero desde los 1990s los puristas teóricos decían que la Z3 era aún una computadora universal (ignorando sus limitaciones de tamaño de almacenamiento físicas). En dos patentes de 1937, Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en el mismo tipo de almacenamiento utilizado por los datos - la clave de la visión que fue conocida como la arquitectura de von Neumann y fue la primera implementada en el diseño Británico EDSAC (1949) más tarde.
Zuse también diseño el primer lenguaje de programación de alto nivel "Plankalkül" en 1945, aunque nunca se publicó formalmente hasta 1971, y fue implementado la primera vez en el 2000 por la Universidad de Berlín, cinco años después de la muerte de Zuse. Zuse sufrió retrocesos dramáticos y perdió muchos años durante la Segunda Guerra Mundial cuando los bombarderos británicos o estadounidenses destruyeron sus primeras máquinas. Al parecer su trabajo permaneció largamente desconocido para los ingenieros del Reino Unido y de los Estados Unidos hasta mucho más tarde, aunque por lo menos IBM era consciente de esto y financió su compañía a inicios de la post-guerra en 1946, para obtener derechos sobre las patentes de Zuse. En 1940, fue completada la Calculadora de Número Complejo, una calculadora para aritmética compleja basada en relés. Fue la primera máquina que siempre se usó remotamente encima de una línea telefónica. En 1938, John Vincent Atanasoff y Clifford E. Berry de la Universidad del Estado de Iowa desarrollaron la Atanasoff Berry Computer (ABC) una computadora de propósito especial para resolver sistemas de ecuaciones lineales, y que emplearon capacitores montados mecánicamente en un tambor rotatorio para memoria. La máquina ABC no era programable, aunque se considera una computadora en el sentido moderno en varios otros aspectos. Durante la Segunda Guerra Mundial, los británicos hicieron esfuerzos significativos en Bletchley Park para descifrar las comunicaciones militares alemanas. El sistema cypher alemán (Enigma), fue atacado con la ayuda con las finalidad de construir bombas (diseñadas después de las bombas electromecánicas programables) que ayudaron a encontrar posibles llaves Enigmas después de otras técnicas tenían estrechadas bajo las posibilidades. Los alemanes también desarrollaron una serie de sistemas cypher (llamadas Fish cyphers por los británicos y Lorenz cypers por los alemanes) que eran bastante diferentes del Enigma. Como parte de un ataque contra estos, el profesor Max Newman y sus colegas (incluyendo Alan Turing) construyeron el Colossus. El Mk I Colossus fue construido en un plazo muy breve por Tommy Flowers en la Post Office Research Station en Dollis Hill en Londres y enviada a Bletchley Park.
El Colossus fue el primer dispositivo de cómputo totalmente electrónico. El Colossus usó solo tubos de vacío y no tenía relees. Tenía entrada para cinta de papel [paper-tape] y fue capaz de hacer bifurcaciones condicionales. Se construyeron nueve Mk II Colossi (la Mk I se convirtió a una Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso se mantuvieron en secreto hasta los años 1970. Se dice que Winston Churchill había emitido personalmente una orden para su destrucción en pedazos no más grandes que la mano de un hombre. Debido a este secreto el Colossi no se ha incluido en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus esta ahora expuesta en Bletchley Park. El trabajo de preguerra de Turing ejerció una gran influencia en la ciencia de la computación teórica, y después de la guerra, diseñó, construyó y programó algunas de las primeras computadoras en el Laboratorio Nacional de Física y en la Universidad de Mánchester. Su trabajo de 1936 incluyó una reformulación de los resultados de Kurt Gödel en 1931 así como una descripción de la que ahora es conocida como la máquina de Turing, un dispositivo puramente teórico para formalizar la noción de la ejecución de algoritmos, reemplaza al lenguaje universal, más embarazoso, de Gödel basado en aritmética. Las computadoras modernas son Turing-integrada (capacidad de ejecución de algoritmo equivalente a una máquina Turing universal), salvo su memoria finita. Este limitado tipo de Turing-integrados es a veces visto como una capacidad umbral separando las computadoras de propósito general de sus predecesores de propósito especial. George Stibitz y sus colegas en Bell Labs de la ciudad de Nueva York produjeron algunas computadoras basadas en relee a finales de los años 1930 y a principios de los años 1940, pero se preocuparon más de los problemas de control del sistema de teléfono, no en computación. Sus esfuerzos, sin embargo, fueron un claro antecedente para otra máquina electromecánica americana. La Harvard Mark I (oficialmente llamada Automatic Sequence Controlled Calculator) fue una computadora electro-mecánica de propósito general construida con financiación IBM y con asistencia de algún personal de IBM bajo la dirección del matemático Howard Aiken de Harvard. Su diseño fue influenciado por la Máquina Analítica. Fue una máquina decimal que
utilizó ruedas de almacenamiento e interruptores rotatorios además de los relees electromagnéticos. Se programaba mediante cinta de papel perforado, y contenía varias calculadoras trabajando en paralelo. Más adelante los model modelos os contedrían varios lectores de cintas de papel y la máquina podía cambiar entre lectores basados en una condición. No obstante, esto no hace mucho la máquina Turing-integrada. integrada. El desarrollo empezó en 1939 en los laboratorio de Endicott de IBM; la Mark I se llevó a la Universidad de Harvard para comenzar a funcionar en mayo de 1944.
ENIAC La construcción estadounidense ENIAC (Electronic Numerical Integrator and Computer), a menudo llamada la primera computadora electrónica de propósito general, públicamente validó el uso de elementos electrónicos para computación a larga escala. Esto fue crucial para el desarrollo de la computación moderna, a, inicialmente debido a la ventaja de su gran velocidad, pero últimamente debido al potencial para la miniaturización. Construida bajo la dirección de John Mauchly y J. Presper Eckert, Eckert era mil veces más rápida que sus contemporáneas. El desarrollo y construcción de la ENIAC comenzó en 1941 siendo compleamente operativa hacia finales de 1945.. Cuando su diseño fue propuesto, muchos investigadores creyeron que las miles de válvulas delicadas (tubos de vacío) se quemarían a menudo, o, lo que implicaría que la ENIAC estuviese muy frecuentemente en reparación. Era, sin embargo, capaz de hacer más de 100.000 cálculos simples por segundo y eso durante unas horas que era el tiempo entre fallos de las válvulas.
Para programar la ENIAC, sin embargo, se debía realambrar por lo que algunos dicen que eso ni siquiera se puede calificar como programación, pues cualquier tipo de reconstrucción de una computadora se debería considerar como programación. Varios años después, sin embargo, fue posible ejecutar programas almacenados en la memoria de la tabla de función. A todas las máquinas de esta época les faltó lo que se conocería como la arquitectura de Eckert-Mauchly: sus programas no se guardaron en el mismo "espacio" de memoria como los datos y así los programas no pudieron ser manipulados como datos. La primera máquinas Eckert-Mauchly fue la Manchester Baby o SmallScale Experimental Machine, construida en la Universidad de Manchester en 1948; esta fue seguida en 1949 por la computadora Manchester Mark I que funcionó como un sistema completo utilizando el tubo de William para memoria, y también introdujo registros de índices. El otro contendiente para el título "primera computadora de programa almacenado digital" fue EDSAC, diseñada y construida en la Universidad de Cambridge. Estuvo operativa menos de un año después de la Manchester "Baby" y era capaz de resolver problemas reales. La EDSAC fue realmente inspirada por los planes para la EDVAC, el sucesor de la ENIAC; estos planes ya estaban en lugar por el tiempo la ENIAC fue exitosamente operacional. A diferencia la ENIAC, que utilizo procesamiento paralelo, la EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada onda teniendo éxito de miniaturización, e incrementó la fiabilidad. Algunos ven la Manchester Mark I/EDSAC/EDVAC como las "Evas" de que casi todas las computadoras actuales que derivan de su arquitectura. La primera computadora programable en la Europa continental fue creada por un equipo de científicos bajo la dirección de Segrey Alekseevich Lebedev del Institute of Electrotechnology en Kiev, Unión Soviética (ahora Ucrania). La computadora MESM (Small Electronic Calculating Machine (МЭСМ)) fue operacional en 1950. Tenía aproximadamente 6.000 tubos de vacío y consumía 25 kW. Podía realizar aproximadamente 3.000 operaciones por segundo.
La máquina de la Universidad de Manchester se conv convirtió irtió en el prototipo para la Ferranti Mark I.. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo menos otras nueve se vendieron entre 1951 y 1957 1957.
UNIVAC I En junio de 1951, la UNIVAC I [Universal Automatic Computer] se entregó a la Oficina del Censo estadounidense estadounidense.. Aunque fabricada por la Remington Rand,, la máquina era err erróneamente óneamente llamada la "IBM UNIVAC". La Remington Rand eventualmente vendió 46 máquinas a más de $1 millón cada una. La UNIVAC fue la primera computadora "producida en masa"; todas las predecesoras habían sido "una fuera de" las unidades. Usaba 5.200 tubos ddee vacío y consumía 125 kW. Utilizó una línea de retraso de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales más la señal (72 (72-bit de palabras) para memoria. oria. En contraste con las primeras máquinas no usó un sistema de tarjetas perforadas, sino una entrada de cinta de metal. También en 1921 (julio), la Remington Rand demostró el primer prototipo de los 409, una calculadora de tarjeta perforada de tarjeta enchufada programada. Esta fue la primera instalada, en la Revenue Service facility en Baltimore, en 1952. La 409 evolucionó para volverse la computadora Univac 60 y 120 en 1953 1953.
Segunda generación de computadoras La Segunda Generación de los transistores reemplazó a las válvulas de vacío en los circuitos de las computadoras. Las computadoras de la segunda generación ya no son de válvulas de vacío, sino con transistores, son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación. Las características más relevantes de las computadoras de la segunda generación son: • • •
•
•
Estaban construidas con electrónica de transistores Se programaban con lenguajes de alto nivel 1951, Maurice Wilkes inventa la microprogramación,, que simplifica mucho el desarrollo de las CPU 1956,, IBM vendió su primer sistema de disco magnét magnético, ico, RAMAC [Random Access Method of Accounting and Control]. Usaba 50 discos de metal de 61cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos y con un coste de $10.000 por megabyte. El primer lenguaje de programación de propósito general de altoal nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto alto-nivel nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).
•
•
•
•
1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. tenía una memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70. 1960, IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades. Utilizaba una memoria de núcleo magnético de mas de 60.000 dígitos decimales. DEC lanzo el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación. 1964, IBM anunció la serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y una línea "científica". El software proporcionado con el System/350 también incluyo mayores avances, incluyendo multiprogramación disponible comercialmente, nuevos lenguajes de programación, e independencia de programas de dispositivos de entrada/salida. Más de 14.000 System/360 habían sido entregadas en 1968.
Tercera generación de computadoras La Tercera generación de computadoras computadoras(1965-1974) A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce.. Después llevó a Ted Hoff a la invención del hols en Intel. A finales de 1960, investigadores como George Gamow notó que las secuencias de nucleótidos en el ADN formaban un código,, otra forma de codificar o programar. A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos inutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, amplificador un oscilador, o una puerta lógica lógica.. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras computadoras. En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nnombre de serie 360. Estas computadoras de tercera generación sustituyeron totalmente a los de segunda,, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales. Esto es lo que ocurrió en (1964 (1964-1974) 1974) que comprende de la Tercera generación de computadoras:
• • • • • • •
Menor consumo de energía Apreciable reducción del espacio Aumento de fiabilidad Teleproceso Multiprogramación Renovación de periféricos Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 PDP y la PDP-11
Cuarta generación de computadoras
El microprocesador,, utilizado en estas computadoras Cuarta Generación producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de ch chips ips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacénen en un chip. Usando VL VLSI, SI, un fabricante puede hacer que una computadora pequeña rivalice con una
computadora de la primera generación que ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras. Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chip", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares. El término PC se deriva de que para el año de 1981, IBM, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras , como la Macintosh, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal. Microprocesador El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo. El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en terminales informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores. Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones de transistores; el PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7 millones de transistores, y el Alpha 21164A, de Digital Equipment Corporation, con 9,3 millones de transistores. El Microprocesador, es un circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo.
Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de microprocesadores en todo el mundo. El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor. Los microprocesadores modernos incorporan hasta 10 millones de transistores (que actúan como amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal. Un microprocesador consta de varias secciones diferentes. La unidad aritmético-lógica (ALU, siglas en inglés) efectúa cálculos con números y toma decisiones lógicas; los registros son zonas de memoria especiales para almacenar información temporalmente; la unidad de control descodifica los programas; los buses transportan información digital a través del chip y de la computadora; la memoria local se emplea para los cómputos realizados en el mismo chip. Los microprocesadores más complejos contienen a menudo otras secciones; por ejemplo, secciones de memoria especializada denominadas memoria cache, modernos funcionan con una anchura de bus de 64 bits: esto significa que pueden transmitirse simultáneamente 64 bits de datos. Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar todas las actividades del microprocesador.
Quinta generación de computadoras La quinta generación de computadoras computadoras,, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems Systems)) fue un ambicioso proyecto lanzado por Japón a finales de la década de 1970.. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,1 usando el lenguaje PROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimient rendimiento o y prestaciones de estas computadoras se empleaba la cantidad de LIPS ((Logical Logical Inferences Per Second)) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Very Large Scale Integration Integration). El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales sigui siguieron eron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores.. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para
que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla. A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras basadas en los modelos desarrollados en los Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía, Comercio e Industria (MITI) decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El Centro de Desarrollo y Proceso de la Información de Japón (JIPDEC) fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos con la participación conjunta de empresas de la industria dedicadas a la tecnología e instituciones académicas, a instancias de Hazime Hiroshi. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado. Inicio En 1981 a iniciativa del MITI se celebró una Conferencia Internacional, durante la cual Kazuhiro Fuchi anunció el programa de investigación y el 14 de abril de 1982 el gobierno decidió lanzar oficialmente el proyecto, creando el Institute for New Generation Computer Technology (Instituto para la Nueva Generación de Tecnologías de Computación o ICOT por sus siglas en inglés), bajo la dirección de Fuchi, a quien sucedería en el puesto como director del instituto Tohru Moto-Oka, y con la participación de investigadores de diversas empresas japonesas dedicadas al desarrollo de hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi, Toshiba y Sharp.5 Los campos principales para la investigación de este proyecto inicialmente eran: • •
•
Tecnologías para el proceso del conocimiento. Tecnologías para procesar bases de datos y bases de conocimiento masivo. Sitios de trabajo del alto rendimiento.
• •
Informáticas funcionales distribuidas. Supercomputadoras para el cálculo científico
Debido a conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los ot Aparte de las reacciones a nivel institucional, en un plano más popular comenzó a ser conocido en Occidente gracias a la aparición de libros en los que se hablaba del proyecto de manera más o menos directa o era citado7 pero principalmente por artículos aparecidos en revistas dedicadas a los aficionados a la informática; así por ejemplo, en el número de agosto de 1984 de la estadounidense Creative Computing se publicó un artículo que trataba ampliamente el tema, "The fifth generation: Japan's computer challenge to the world"8 (traducido, La Quinta Generación: El desafío informático japonés al mundo). Y sobre sus potenciales resultados, expresaba una opinión relativamente optimista, en la línea de lo augurado por los propios promotores del proyecto. Principales eventos y finalización del proyecto •
1981: se celebra la Conferencia Internacional en la que se perfilan y definen los objetivos y métodos del proyecto.
•
1982: el proyecto se inicia y recibe subvenciones a partes iguales aportadas por sectores de la industria y por parte del gobierno.
•
1985: se concluye el primer hardware desarrollado por el proyecto, conocido como Personal Sequential Inference machine (PSI) y la primera versión del sistema operativo Sequentual Inference Machine Programming Operating System (SIMPOS). SIMPOS fue programado en Kernel Language 0 (KL0), una variante concurrente de Prolog11 con extensiones para la programación orientada a objetos, el metalenguaje ESP. Poco después de las máquinas PSI, fueron desarrolladas las máquinas CHI (Co-operative Highperformance Inference machine).
•
1986: se ultima la máquina Delta, basada en bases de datos relacionales.
•
1987: se construye un primer prototipo del hardware llamado Parallel Inference Machine (PIM) usando varias máquinas PSI conectadas en red. El proyecto recibe subvenciones para cinco años más. Se desarrolla una nueva versión del lenguaje propuesto, Kernel Language 1 (KL1) muy similar al "Flat GDC" (Flat Guarded Definite Clauses), influenciada por desarrollos posteriores del Prolog y orientada a la computación paralela. El sistema operativo SIMPOS es re-escrito en KL1 y rebautizado como Parallel Inference Machine Operating System, o PIMOS.
•
1991: concluyen los trabajos en torno a las máquinas PIM.
•
1992: el proyecto es prorrogado un año más a partir del plan original, que concluía este año.
•
1993: finaliza oficialmente el proyecto de la quinta generación de computadoras, si bien para dar a conocer los resultados se inicia un nuevo proyecto de dos años de duración prevista, llamado FGCS Folow-on Project.12 El código fuente del sistema operativo PIMOS es lanzado bajo licencia de dominio público y el KL1 es portado a sistemas UNIX, dando como resultado el KLIC (KL1 to C compiler).
•
1995: finalizan todas las iniciativas institucionales vinculadas con el proyecto.
Como uno de los productos finales del Proyecto se desarrollaron cinco Máquinas de Inferencia Paralela (PIM), llamadas PIM/m, PIM/p, PIM/i, PIM/k y PIM/c, teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el sistema de gestión de bases de datos en paralelo Kappa, el sistema de razonamiento legal HELIC-II, el lenguaje de programación Quixote, un híbrido entre base de datos deductiva orientada a objetos y lenguaje de programación lógico13 y el demostrador automático de teoremas MGTP.
Once años después del inicio del proyecto, la gran suma de dinero, infraestructura y recursos invertida en el mismo no se correspondía con los resultados esperados y se dio por concluido sin haber cumplido sus objetivos. El hardware propuesto y sus desarrollos de software no tenían enían cabida en el mercado informático, que había evolucionado desde el momento en el que se lanzara el proyecto, y en el que sistemas de propósito general ahora podían hacerse cargo de la mayoría de las tareas propuestas como objetivos iniciales de las máquinas quinas de quinta generación, de manera semejante a como había pasado en el caso del mercado potencial de las máquinas Lisp, Lisp en el que sistemas para la creación de Sistemas Exper Expertos tos basados en reglas como CLIPS,, implementados sobre computadoras comunes, habían convertido a estas costosas máquinas en innecesarias y obsoletas.15 Por otra parte, dentro de las disputas entre las diferentes ramas de la Inteligencia Artificial,, el proyecto japonés partía del paradigma basado en la programación lógica y la programación declarativa,, dominante tras la publicación en 1969 por Marvin Minsky y Seymour Papert del libro Perceptrons,, pero que pasaría progresivamente a un segundo plano en favor de la programación de Redes Neuronales Artificiales (RNA) tras la publicación en 1986 por parte de McClelland y Rumelhart del libro Parallel Distributed Processing,, lo que junto a sus escasos resultados contribuyó a que el proyecto de la quinta generación cayera en el olvido a su término en 1993.