26 minute read
Tema 1: Introducción
En este tema tomaremos contacto con el ordenador y la informática en general. Estas son algunas de las cuestiones que trataremos:
¸ Qué es la informática. ¸ Cómo surgió la informática. ¸ Algunos conceptos básicos, que debes conocer antes de continuar el curso.
Advertisement
1.1 ¿Qué es la informática?.
Antes de comenzar este capítulo, ¿sabrías contestar la siguiente pregunta?:
La informática es un conjunto de conocimientos y técnicas que hacen posible el tratamiento de la ________ mediante el uso de __________.
a) Información/teclados y ratones. b) Documentación/ordenadores. c) Documentación/teclados y ratones. d) Información/ordenadores.
Si tu respuesta ha sido d ¡enhorabuena!, parece que sabes qué es la informática, aunque te recomendamos repasar el capítulo si quieres conocer otros aspectos importantes.
Si, por el contrario, tu respuesta no ha sido correcta, es mejor que estudies a fondo este primer capítulo, en el que tomarás contacto con la informática.
INTRODUCCIÓN
¡Hola!, bienvenido al primer capítulo de nuestro curso de Informática básica. A lo largo del mismo vamos a intentar introducirte en el mundo de la informática y que conozcas los conceptos básicos relacionados.
La informática es un mundo que cambia muy rápidamente y lo que hoy es una novedad o un gran avance, mañana puede ser algo obsoleto que ya no se utiliza. Pero no te preocupes, en este curso vamos a enseñarte lo más básico, que es aquello que menos cambios experimenta. Pero dejémonos de palabrería y comencemos ya.
TEORÍA
Lo primero que vamos a hacer es responder a la pregunta: ¿Qué es la informática?
El término informática se define como “un conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información mediante dispositivos electrónicos o el uso de ordenadores”.
Efectivamente, la misión principal de la informática es hacer más sencillo el tratamiento de la información.
En sus inicios, esta información era exclusivamente numérica, y la "informática" se utilizaba para facilitar la realización de cálculos y operaciones matemáticas que manualmente resultaban casi imposible realizar. Por ejemplo, el ENIAC, uno de los primeros ordenadores, resolvió en 2 horas un problema que a una persona le hubiera llevado 100 años.
Con el paso del tiempo, el tipo de información se ha ido ampliando y en la actualidad los ordenadores no sólo sirven para realizar complejos cálculos numéricos, también permiten trabajar con texto, imágenes, sonidos, etc.
Quizás la informática te pueda parecer algo muy reciente, pero la realidad es que sus inicios se remontan varios siglos atrás, aunque de forma muy diferente a como la conocemos hoy. Lo que sí es más reciente, es el término informática que se estableció en 1962 por la contracción los términos Información y Automática.
La mayoría de las veces se asocia la informática con los ordenadores y, aunque desde luego son el elemento más importante, por sí solos resultan casi inútiles ya que necesitan de otros dispositivos y elementos que les permitan trabajar con los diferentes tipos de información.
A lo largo de este curso podrás conocer los principales elementos que se utilizan en informática.
Además, no hace falta estar delante de un ordenador para utilizar la informática, ya que hoy en día está muy extendida en muchas áreas y en nuestra vida diaria es fácil encontrarnos con ella, aunque muchas veces sin saberlo:
Los cajeros automáticos. Los efectos especiales de muchas películas. La creación y grabación de música. Sistemas de navegación aérea. Los sistemas de seguridad y control que incorporan los coches modernos.
En estos, y en muchos casos más, la informática juega un papel decisivo e importante, con el objetivo de facilitar el tratamiento de la información.
RESUMEN
Desde hace miles de años, el hombre ha ideado sistemas que le ayudaran a realizar cálculos numéricos. Al principio eran sistemas muy sencillos con los que por ejemplo, podían llevar la cuenta de intercambios comerciales, pero pronto se idearon sistemas que facilitaban la realización de cálculos aritméticos, por ejemplo el ábaco.
Como veremos en el próximo capítulo, lo que principalmente se conoce como informática, es decir los ordenadores, aparecen en los años 30 y se convierten desde entonces en elementos imprescindibles para el tratamiento de grandes cantidades de información o cálculos complejos, y desde luego auténticos motores para muchos descubrimientos e investigaciones científicas.
1.2 Introducción histórica del ordenador.
Antes de comenzar este capítulo, ¿sabrías contestar las siguientes preguntas?:
¿Quién es el inventor de la primera máquina mecánica de cálculo?
a) Blaise Pascal. b) Gottfried Leibnitz. c) Herman Hollerit. d) Charles Babbage.
¿Qué nombre tenía el primer ordenador electromecánico?
a) ENIAC. b) EDVAC. c) Mark I.
Si tus respuestas han sido a y c ¡enhorabuena!, pareces conocer la historia de la informática, aunque te recomendamos repasar el capítulo si quieres conocer otros aspectos importantes.
Si, por el contrario, tus respuestas no han sido correctas, es mejor que estudies a fondo este capítulo.
INTRODUCCIÓN
Aunque el verdadero boom de la informática se ha producido recientemente, se puede decir que sus inicios se remontan a la antigüedad, cuando ya se utilizaban los ábacos para realizar cálculos numéricos.
De aquellos primitivos ábacos a los ordenadores de hoy en día existen grandes diferencias, pero comparten el objetivo común de facilitar el procesamiento de información. En este capítulo veremos la evolución de la informática a lo largo del tiempo.
TEORÍA
Desde los primeros tiempos de la humanidad, el hombre ha sentido la necesidad de contar los objetos que le rodean y realizar cálculos numéricos con ellos, para lo cual ha ideado diferentes sistemas que facilitaran estas tareas.
En esos primeros tiempos, el hombre se valía de lo que tenía más a mano, entre ello, sus propios dedos. También utilizaba piedras, surcos en el suelo, muescas, etc.
Pero el dispositivo de cálculo más antiguo que se conoce es el ábaco, que surge entre el 2000 y el 1000 a.C.
El ábaco consiste en una serie de cuentas (bolas) ensartadas en alambres que permiten representar los distintos números en el sistema decimal y realizar operaciones con ellos.
Este sistema se utilizó durante mucho tiempo en todo el mundo aunque especialmente en la cuenca mediterránea.
En 1642 aparece la primera máquina mecánica de cálculo. Su inventor, Blaise Pascal, construyó una máquina del tamaño de un cartón de cigarrillos, compuesta por engranajes y con la que se podían sumar y restar diferentes números.
Este inventor daría nombre posteriormente a uno de los lenguajes de programación más importantes: el Pascal.
Treinta años más tarde, en 1672, otro gran inventor llamado Leibnitz, crearía otra calculadora mecánica que mejoraba lo conseguido por Pascal, ya que podía multiplicar, dividir y extraer raíces cuadradas.
Pero la persona a la que se considera como origen de la informática es Charles Babbage, que en 1822 inventó una máquina diferencial para el cálculo de polinomios y, además, asentó las bases teóricas fundamentales en las que aún se basan los ordenadores actuales, entre ellas la utilización del sistema binario.
Otro nombre importante en la historia de la informática es Herman Hollerit, que sería el fundador de I.B.M (International Bussiness Machines). A finales del siglo pasado ideó una máquina que utilizaba tarjetas perforadas para contar y seleccionar determinada información y que se utilizó para realizar el censo en mucho menos tiempo de lo que se hacía hasta entonces.
Se puede considerar la máquina de Hollerit como la primera máquina de procesar datos.
A principios del siglo XX comienza a utilizarse la energía eléctrica para construir máquinas de calcular. Hacia 1941 se construye el primer ordenador electromecánico denominado Mark I, desarrollado por IBM y Howard Aiken. Su tamaño era el de una gran habitación, 16 metros de largo por 2 de alto.
En 1945 Presper Eckert y John Mauchly construyen el ENIAC (Electronic Numerical Integrator and Calculator), una máquina electrónica capaz de sumar, restar, multiplicar y dividir, además de resolver problemas. Su principal característica es que se utilizaron válvulas para su construcción.
Años más tarde Eckert y Mauchly fundaron su propia compañía y en 1951 venderían a la oficina del Censo de Estados Unidos, el primer ordenador tal y como se concibe hoy en día, el UNIVAC I.
En 1952, John Von Newmann introduce modificaciones importantes sobre el ENIAC y se construye el EDVAC. La modificación más importante es que utiliza programas almacenados. Hasta ese momento los programas se realizaban mediante cableado, por lo que cada vez que se cambiaba de programa, había que modificar la estructura interna del ordenador.
Desde estos ordenadores hasta los que se construyen en la actualidad, ha habido una gran evolución en la que se han ido incorporando los últimos avances tecnológicos. De esta forma podemos considerar 5 etapas o generaciones:
Primera generación (1950 – 1960): son ordenadores construidos de forma similar al ENIAC, es decir, utilizando tecnología de válvulas. Estos ordenadores son muy grandes y muy caros y están dirigidos casi exclusivamente al ámbito científico y militar.
Segunda generación (1960 – 1965): esta generación está marcada por la aparición de los transistores y su utilización en los ordenadores para sustituir a las válvulas. Con ellos, las máquinas ganan potencia a la vez que pierden tamaño y consumo. Los ordenadores se empiezan a utilizar en el campo administrativo y de gestión de las empresas. En esta etapa también surgen lenguajes de programación como COBOL y FORTRAN.
Tercera generación (1965 – 1970): aparecen los circuitos integrados que reducen aún más el tamaño y el consumo de los ordenadores. Esto da pie a que surjan los miniordenadores, de tamaño y precio reducido aunque de poca potencia. El software empieza a cobrar importancia.
Cuarta generación (1971 – actualidad): aparece el microprocesador, que es un chip que contiene todos los componentes electrónicos de la unidad central de proceso, UCP (también conocida como CPU). Los ordenadores se hacen más pequeños y aparecen los microordenadores y
los ordenadores domésticos. El uso de los ordenadores se extiende a muchas áreas y se aplica en diferentes productos: aparatos electrónicos, automóviles, robótica, etc.
En 1981 IBM lanza al mercado el PC (Personal Computer) que establece las pautas de lo que son los ordenadores actuales y aparece también el sistema operativo DOS. La combinación de ambos provoca la popularización de los ordenadores personales de uso doméstico, cuya oferta se completa con ordenadores más económicos como el Spectrum, el MSX, Commodore y Amstrad.
Los ordenadores actuales pertenecen a esta cuarta generación, pero el avance que se ha producido es espectacular. Además el desarrollo es tan rápido que los ordenadores se quedan obsoletos en menos de dos años.
A partir del año 1993 se produce el gran boom de Internet, que consigue conectar a millones de personas de todo el mundo. Los ordenadores incorporan toda clase de dispositivos multimedia y se convierten en un electrodoméstico más.
Quinta generación (1982 – actualidad): Hacia el año 1982, en Japón se empieza a hablar de ordenadores de quinta generación, basados en la inteligencia artificial. Con el nombre de quinta generación se refiere a una serie de ordenadores experimentales con inteligencia artificial, utilización del lenguaje natural, alta velocidad de proceso y un largo etcétera.
Cronología
6000 a.C. :
Se utilizan huesos y palos como cuentas.
4000 – 1200 a.C.:
Los habitantes de la primera civilización conocida, en Sumeria, graban las transacciones comerciales en tablas de barro.
3000 a.C.:
Se inventa el ábaco en Babilonia.
1800 a.C.:
En Egipto se utiliza un avanzado sistema de números aditivos.
1200 a.C.:
Hay claras evidencias de que los chinos utilizaban un sistema numérico
posicional.
S XVII:
John Napier, inventor de los logaritmos, desarrolla una compleja máquina que le permitía realizar operaciones de multiplicación y división. En 1642, Blaise Pascal construye el primer calculador mecánico, o Pascalene, que podía sumar y restar. En 1673, Gottfried Leibnitz construye una máquina capaz de multiplicar y dividir.
S XIX:
En 1801, Joseph Jacquard utiliza tarjetas perforadas para controlar los dibujos de las telas en las máquinas de tejer. En 1822, Thomas de Colmar comienza a producir el Aritmometro, el primer
calculador producido en serie.
En 1822, Charles Babbage, construye una máquina diferencial para el cálculo de polinimios, la primera máquina de calcular que podía encadenar varias operaciones consecutivas. En 1838, Samuel Morse da a conocer el telégrafo. En 1854, George Boole publica su trabajo “Una investigación de las leyes del pensamiento”, donde describe un sistema para el razonamiento simbólico y lógico que se convertirá en la base del diseño de ordenadores. En 1858 se establece la primera conexión telegráfica transoceánica. En 1876, Graham Bell inventa y patenta el teléfono. En 1890, Herman Hollerit crea una máquina eléctrica que utilizaba tarjetas perforadas y con la que realiza el censo de 1890 en mucho menos tiempo. En 1895, Guglielmo Marconi envía la primera señal de radio. En 1896, Herman Hollerit establece la Tabulating Machine Company, que más tarde (en 1924) se convertiría en IBM.
1904:
John Ambrose Fleming, patenta la primera válvula de vacío.
1911:
La Tabulating Machine Company de Hollerit se fusiona con otras dos compañías formando CTR (Calculating, Tabulating and Recording Co.).
1917:
El escritor Karel Câpek, utiliza por primera vez la palabra “robot” en su obra RUR (Rossum´s Universal Robots). El término proviene de una palabra
Checa que significa “trabajo forzado”.
1924:
T.J. Watson, presidente de la CTR, renombra la compañía como IBM (International Bussiness Machines).
1925:
Se funda la Bell Labs, que posteriormente se convertirá en una de las principales compañías de comunicaciones y ordenadores. Vannevar Bush desarrolla el primer ordenador analógico para resolver ecuaciones diferenciales.
1927:
En Estados Unidos se lleva a cabo la primera demostración de emisión televisiva, en la que aparece la cara de Herbert Hoover (presidente de ese país). La voz que lo acompaña se transmite por el cable telefónico.
1928:
Vladimir Zworykim inventa el tubo de rayos catódicos. El reloj de cristal de cuarzo hace posible una exactitud sin precedentes en la medida del tiempo. Las tarjetas perforadas se utilizan en las máquinas calculadoras.
1929:
Primeras transmisiones con éxito de televisión en color.
1931:
Konrad Zuse construye la primera calculadora digital electrónica.
1932:
Bell Labs crea la primera melodía generada por ordenador, la llama
“Daisy”.
1935:
IBM presenta la primera máquina de escribir eléctrica.
1938:
William Hewlett y David Packard forman la Hewlett-Packard en un garaje de California.
1941:
J.V. Atanasoff y Clifford Berry desarrollan una máquina electrónica digital con capacidad para almacenar datos y que opera en sistema binario. La máquina se denominó ABC (Atanasoff – Berry Computer). Zuse desarrolla el Z3, el primer ordenador electromecánico controlado por un programa automático completamente funcional.
1942:
1944:
El ordenador Colossus ayuda a los ingleses a descifrar las claves de los alemanes.
En un proyecto conjunto entre la universidad de Harvard e IBM, Howard
Aiken completa el primer ordenador programable, el Mark 1. La máquina está compuesta por válvulas de vacío y se utilizan tarjetas perforadas para programarla, siendo capaz de calcular problemas.
1945:
Mauchly y Eckert completan la construcción del ENIAC, un ordenador de 30 toneladas que será utilizado por el ejército para realizar cálculos de trayectorias balísticas. John Von Newmann propone un nuevo diseño del ENIAC en el que presentaba por primera vez el concepto de almacenamiento de programas en memoria (hasta entonces se realizaba mediante cableado) y la utilización de aritmética binaria. El ordenador se llamó EDVAC y se terminó de construir en 1952. Zuse desarrolla el primer lenguaje de programación denominado
“plankalkul” y que fue diseñado para ser un programa de ajedrez.. Se registra el primer error o “bug” de un ordenador. Vannevar Bush publica “As we may think” una anticipación del uso del hipertexto.
1946:
Herman Goldstine inventa los diagramas de flujo.
1947:
Se presenta la memoria de cilindro magnético como dispositivo de almacenamiento para ordenadores.
1949:
John Mauchly desarrolla el que se considera como primer lenguaje de programación de alto nivel, el Short Order Code.
1950:
Alan Turing publica un artículo en la revista “Mind” donde establece los criterios sobre el Test de Turing de inteligencia de las máquinas, los inicios de la inteligencia artificial.
1951:
Tras fundar su propia empresa, Mauchly y Eckert entregan el ordenador
UNIVAC I a la oficina del censo.
1953:
IBM presenta el modelo 650, conocido como Calculador de Cilindro
Magnético que se convierte en el primer ordenador fabricado en serie y del cual se construyeron más de 1000 unidades.
1954:
Aparece la Uniprinter de Earl Masterson, que es una impresora de línea desarrollada especialmente para ordenadores y capaz de ejecutar 600 líneas por minuto. Texas Instruments presenta el transistor de silicio, elemento de gran importancia en la reducción de costes. El Univac 1103A se convierte en la primera máquina comercial con memoria de núcleos de ferrita.
1955:
El UNIVAC de la General Electric se utiliza en la gestión de nóminas. Es la primera aplicación comercial de un ordenador.
1956:
El Whirlwind utiliza el primer teclado de entrada directa a un ordenador. John Backus y un equipo en IBM inventan FORTRAN, el primer lenguaje de programación para ordenadores científicos. IBM presenta el RAMAC 305 (Random Access Method of Accounting and
Control), un sistema de almacenamiento de datos en disco duro.
1957:
Por primera vez se escanea y procesa una fotografía utilizando un ordenador. El Laboratorio Electromecánico de Japón desarrolla un ordenador de transistores, el ETL Mark III. John McCarthy forma el Departamento/Laboratorio de Inteligencia
Artificial en MIT. Comienza la carrera espacial con la puesta en órbita del Sputnik I por parte de Rusia. Estados Unidos crea la Advanced Research Projects Agency (ARPA).
1958: Comienza la Segunda Generación de Ordenadores con el uso generalizado del transistor.
El progreso de Bell Labs sobre los modernos teléfonos de datos, permite a las líneas telefónicas transmitir datos binarios. John McCarthy presenta LISP, el primer lenguaje de inteligencia artificial. Se desarrolla el lenguaje de programación ALGOL 58.
1959:
Texas Instruments desarrolla y patenta el primer circuito integrado. Se desarrolla el lenguaje de programación COBOL (Common Business Oriented
Languaje). Xerox presenta la primera fotocopiadora comercial.
1960:
DEC presenta el primer ordenador comercial con teclado y monitor.
1961:
George C. Devol presenta el primer dispositivo robótico que se convertirá en el primer robot industrial. Su primer uso fue automatizar la producción de televisores.
1962:
Bell Labs desarrolla un software para el diseño, el almacenamiento y la edición de música sintetizada. Steve Rusell, un graduado de MIT, inventa el primer videojuego, Spacewar. Se lanza el satélite de comunicaciones Telstar que permitirá transmitir las primeras imágenes transatlánticas de televisión.
Las universidades de Purdue y Stanford crean los primeros departamentos de informática.
1963:
Ivan Sutherland presenta el Sketchpad, una herramienta de dibujo interactiva que fue la precursora del diseño asistido por ordenador (CAD) y el concepto
WYSIWYG. El American National Standars Institute acepta el código ASCII de 7 bits para el intercambio de información.
1964: Inicio de la Tercera Generación de ordenadores que se caracteriza por el uso de circuitos integrados.
El sistema /360 de IBM marca el inicio de la tercera generación de ordenadores. Este ordenador utiliza direccionamiento binario y memoria virtual. En American Airlines se implementa un sistema informático de reserva de
vuelos.
IBM desarrolla un sistema de diseño asistido por ordenador. IBM presenta el lenguaje de programación PL/1. Doug Engelbart inventa el ratón. El número de ordenadores de Estados Unidos es de 18000. DEC lanza el PDP-8, el primer miniordenador producido en serie. Esta máquina utiliza módulos de circuitería de transistores. John Kemey y Thomas Kurtz desarrollan el lenguaje de programación Basic (Beginner’s All-Purpose Symbolic Instruction Code).
1965:
En MIT desarrollan Multics, un sistema operativo de tiempo compartido. Ivan Sutherland muestra un dispositivo que se considera como el primer casco de
realidad virtual.
Ken Iverson de IBM desarrolla el lenguaje APL. La Universidad de Pennsylvania lanza la primera titulación académica en
Informática. Theodore Nelson acuña el término hipertexto, que se refiere a un texto que está enlazado con gráficos, sonido u otros textos.
1967:
Ole-Johan Dahl y Kristen Nygaard del Centro de Computación de Noruega desarrollan una versión de propósito general del lenguaje Simula, el primer lenguaje orientado a objetos. Se inicia la industria del software al anunciar IBM que el software y el hardware ya no irán más unidos. Niklaus Wirth comienza a desarrollar Pascal, el lenguaje de programación estructurada.
1968:
La Universidad de Pennsylvania expide el primer título en Informática. Burroughs presenta los primeros ordenadores que incorporan circuitos integrados (el B2500 y el B3500). Un Estándar Federal sobre Procesamiento de Información establece el uso del formato de seis dígitos (YYMMDD) para el intercambio de información, plantando la semilla del “Problema del Año 2000”. Robert Noyce, Andy Grove y Gordon Moore establecen la compañía Intel.
1969:
El departamento de defensa de los Estados Unidos establece Arpanet como una red de investigación con cuatro nodos operativos: la University of California at Los
Angeles, la University of California de Santa Barbara, Stanford Research Institute y la University of Utah. Bell Labs se retira del proyecto Multics (primer sistema operativo de tiempo compartido) y comienza a desarrollar Unix.
1970:
Aparecen los disquetes (floppy disk) de la mano de IBM. Dennis Ritchie y Keneth Thomson de la Bell Labs completan el sistema operativo UNIX.
1971:
Intel lanza el primer microprocesador, el 4004. Se crea el servicio de Correo electrónico. Primera calculadora de bolsillo. Se desarrolla el lenguaje de programación Pascal.
1973:
Se desarrolla el servicio FTP.
1974:
Se establecen las especificaciones del protocolo TCP/IP. Intel produce su microprocesador 8080, de 8 bits.
1975:
Bill Gates y Paul Allen popularizan el BASIC, el primer lenguaje de programación para micrordenadores. IBM presenta la impresora laser.
1976:
IBM desarrolla la impresora de inyección de tinta.
1977:
Steve Wozniack y Steve Jones constituyen la compañía Apple . Bill Gates y Paul Allen fundan la compañía Microsoft.
1978:
Se presenta la aplicación Wordstar, un procesador de texto que se convertirá en uno de los más utilizados en entorno DOS. Aparece el microprocesador 8086 de Intel, el primer microprocesador de 16 bits.
1979:
Aparece la primera hoja de cálculo electrónico. Se crea USENET, la primera red de grupos de noticias.
1980:
Aparece dBase II, la primera base de datos para ordenadores personales.
1981:
Xerox lanza al mercado el ordenador Xerox Star que fue la primera estación de trabajo que utilizaba un interface gráfico y ratón. IBM presenta el PC (Personal Computer) que incorpora el sistema operativo DOS, desarrollado por Microsoft y un microprocesador 8080. Aparece el Osborne 1, el primer ordenador portátil.
1982:
Aparecen los primeros PCs clónicos de la mano de diversas compañías como por ejemplo Compaq. Aparece la primera versión de AutoCad. La revista Times nombra al ordenador “Hombre del año”. Aparece el término Internet para designar a un conjunto de redes conectadas. Se adopta el protocolo TCP/IP como estándar en las comunicaciones por
Internet.
1983:
Aparece Lotus 1-2-3, una aplicación que incluye una hoja de cálculo, una base de datos y un programa de gráficos.
1984:
Apple lanza al mercado el primer ordenador Macintosh, que incluye interfaz gráfica de usuario. Sony y Phillips presentan el CD-ROM, que se convertiría años más tarde en uno de los dispositivos de almacenamiento principales. Se presenta en servicio DNS, que permite sustituir las direcciones IP de los ordenadores conectados a una red, por nombres más fáciles de recordar. El nuevo PC AT de IBM incorpora el microprocesador Intel 80286, el primero de 16 bits.
1985:
1987:
Microsoft lanza Windows. Intel presenta el microprocesador 80386, el primero de 32 bits y que incorpora gestión de memoria.
Aparece el modelo PS/2 de IBM, con el sistema operativo OS/2.
1988:
Se crea el servicio IRC (chat), que permite mantener conversaciones en tiempo real entre varios usuarios a través de Internet.
1990:
Microsoft lanza Windows 3.0. Intel presenta su microprocesador 80486, que alcanzará una velocidad de hasta 100 MHz.
La empresa The World proporciona el primer servicio de acceso a Internet
a través de línea telefónica.
Arpanet es oficialmente disuelta.
1991:
Se crean los servicios de Internet: Gopher y World Wide Web. Los ordenadores empiezan a incorporar dispositivos multimedia como el
CD-ROM o la tarjeta de sonido.
1992:
Microsoft lanza al mercado Windows 3.1.
1993:
Apple presenta los PDA (Personal Digital Assistant), pequeños ordenadores que se manejan con un pequeño puntero en forma de boli y que puede reconocer la escritura manual. Intel desarrolla su procesador 80586, más conocido como Pentium y que alcanza velocidades de hasta 200 MHz. Aparece Mosaic, el primer navegador gráfico para la Web.
1994:
1995:
Se funda Netscape Communications y lanza el primer navegador Netscape
Navigator.
Sun Microsystems desarrolla el lenguaje Java, de gran importancia en
Internet. Microsoft presenta el sistema operativo Windows 95.
1997:
Intel presenta el procesador Pentium II con velocidades de hasta 450 MHz. Internet cuenta con 50 Millones de usuarios repartidos en 150 países.
1998:
Microsoft lanza al mercado Windows 98, que incorpora algunas diferencias con respecto a Windows 95, en su mayor parte en relación con la integración con Internet.
1999:
Intel lanza el microprocesador Pentium III que alcanzará velocidades de más de 650 MHz..
RESUMEN
El primer instrumento que inventó el hombre para facilitar el cálculo numérico fue el ábaco, hacia el 3000 a.C. Posteriormente, se construyeron máquinas más sofisticadas, como las de Pascal y Leibnizt en el siglo XVII o la máquina diferencial de cálculo de Babbage en el siglo XIX.
A principios del siglo XX se investiga la aplicación de energía eléctrica para desarrollar máquinas de cálculo. En esta etapa se construyen grandes ordenadores del tamaño de una habitación, entre ellos el Mark I y el ENIAC. Son los ordenadores de la primera generación.
Con los transistores vendrían los ordenadores de segunda generación, los circuitos integrados traerían los de tercera generación y, por último, el microprocesador daría entrada a los ordenadores de cuarta generación, que son los ordenadores actuales. También se puede hablar de una quinta generación, en la que se incluyen una serie de ordenadores experimentales que utilizan inteligencia artificial.
1.3 Conceptos generales.
Antes de comenzar este capítulo, ¿sabrías contestar las siguientes preguntas?:
¿Cuáles de los siguientes elementos pueden considerarse hardware?
a) Sistema operativo. b) Monitor. c) Un juego. d) Un procesador de textos.
¿Qué es un Macintosh?
a) Un ordenador portátil con la tecnología PC. b) Un ordenador personal de la casa Apple. c) Un ordenador de primera generación que no evolucionó.
Si tus respuestas han sido b y b, pareces conocer los conceptos generales del mundo de la informática.
Si, por el contrario, tus respuestas no han sido correctas, es mejor que estudies a fondo este capítulo.
INTRODUCCIÓN
Ahora que ya conoces un poco la evolución histórica de la informática, vamos a meternos con algunos conceptos generales que te serán de gran ayuda para los próximos temas que tratemos.
Lo primero que vamos a ver es la distinción entre hardware (elementos físicos del sistema de un ordenador) y software (que son los programas, datos..., es decir todo aquello que no se puede "tocar").
TEORÍA
Cómo ya se ha definido en anteriores capítulos, la informática es el conjunto de técnicas que hacen posible el tratamiento automático de la información.
Dentro de este conjunto de técnicas podemos incluir el ordenador, los dispositivos especiales, los sistemas operativos, los lenguajes de programación, etc. De esta forma podemos agrupar todos estos elementos en dos grandes grupos:
Hardware: es todo aquello que se puede tocar, todos los elementos físicos que componen el ordenador, así como los periféricos: impresoras, escáner, ratón, teclado, altavoces, etc.
Software: es todo aquello que no se puede tocar, es decir los programas que le dicen al ordenador lo que tiene que hacer, ya sean aplicaciones ofimáticas, programas de diseño gráfico, juegos, lenguajes de programación o sistemas operativos.
Si recuerdas, los primeros ordenadores sólo tenían componentes hardware, ya que los programas se realizaban mediante cableado, es decir, de forma física y palpable.
Clases de ordenadores
El ordenador es el elemento principal que se utiliza en informática. Ahora bien, existen distintas clases de ordenadores:
Mainframes: son ordenadores de gran potencia y tamaño que permiten conectarse a ellos un gran número de usuarios al mismo tiempo, utilizando para ello "terminales tontos" que sólo poseen los dispositivos de entrada y de salida (teclado, monitor y, en ocasiones, unidades de almacenamiento).
Ordenadores personales de sobremesa: como su propia palabra indica, son ordenadores en los que sólo puede trabajar una persona al mismo tiempo. Son los ordenadores más extendidos y podemos distinguir a su vez dos tipos:
1. PC: el PC (personal computer) fue creado en 1981 por
IBM. Debido a que muy pocos componentes de los utilizados fueron patentados, muchas empresas pudieron crear clónicos de este modelo, que se extendió rápidamente como ordenador personal.
2. Macintosh: este otro tipo de ordenadores personales fue creado por Apple, y fueron los primeros en utilizar una interfaz gráfica que más tarde se popularizaría con
Windows. No son tan populares como los PCs, quizás porque hasta hace poco no ha habido clónicos de
Macintosh y el único fabricante era Apple. De todas formas tienen un gran prestigio, sobre todo en el campo profesional del diseño gráfico.
PC y Macintosh utilizan distinta tecnología, por tanto, el software de ambos no es totalmente compatible (no puede usarse el mismo programa en un ordenador y en otro), aunque últimamente se están dando grandes avances para que la compatibilidad sea total.
Ordenadores portátiles: son pequeños ordenadores, del tamaño de un maletín que además incorporan una batería que les permite trabajar en cualquier lugar. Aparecieron a mediados de los 80 y se hicieron muy populares entre los ejecutivos. Los portátiles pueden utilizar tecnología PC o Macintosh.
Handheld PC u ordenadores de mano: son ordenadores más pequeños aún que los portátiles, de tamaño similar a una calculadora grande. Se utilizan como agendas personales pero tienen capacidad para almacenar archivos e incluso manejar pequeñas versiones de aplicaciones ofimáticas. Generalmente utilizan una versión reducida de Windows especialmente creada para estos dispositivos y que se denomina Windows
CE.
PDA (Personal Digital Assistant): los PDA son ordenadores aún más pequeños que los Handheld PC, generalmente sin teclado y que funcionan como una agenda personal en la que el usuario puede tener un listín de direcciones, un bloc de notas, una calculadora y un organizador de tareas. Además, puede transmitir datos a un ordenador, incluso vía módem.
Todos estos ordenadores pertenecen a la cuarta generación de ordenadores (ver capítulo anterior), pero están en constante evolución, sobre todo a nivel de
microprocesador, que día a día se ven mejorados en velocidad y potencia de procesamiento. Para que te hagas una idea del cambio, los primeros PCs de IBM llevaban un procesador 8080 de Intel que funcionaba a una velocidad de 2 megaherzios (MHz), mientras que los últimos modelos de PC incorporan procesadores Pentium III que alcanzan velocidades superiores a 500 MHz., además de incorporar funciones especiales para la reproducción de elementos multimedia.
RESUMEN
El elemento fundamental en la informática es el ordenador, aunque no es el único que interviene. En informática podemos distinguir dos clases de elementos:
Hardware: es la parte física del ordenador, todos los elementos que se pueden
“tocar”, por ejemplo el teclado, la pantalla, el procesador, etc. Software: son los programas, sistemas operativos y datos que se utilizan en el ordenador (la parte que no se puede “tocar”).
Existen diferentes tipos de ordenador:
PC: fueron creados por IBM y son los más extendidos. Macintosh.: creados por Apple, fueron los primeros en incorporar una interfaz gráfica. Portátiles: son ordenadores pequeños con autonomía de energía que permiten utilizarlos en cualquier parte. Handheld PC: son ordenadores de bolsillo pero con los que se puede trabajar con diversas aplicaciones.