Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 1. Introducción. El método científico Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Ciencia en general Biología Criminología Inicio Contacte
La ciencia y el método científico Ejemplo del método científico Escepticismo y pensamiento crítico Algunos casos en la informática
1.1 La ciencia y el método científico Es habitual que los humanos busquemos explicaciones sobre lo que vemos, sentimos y oímos, que una vez encontradas suelen ser complejas y variadas. Es la forma de trabajar de nuestra mente, que usa la inteligencia para comprender mejor nuestras experiencias. Con frecuencia es suficiente designar con un nombre a una situación sucedida. Por ejemplo, un agricultor escucha un sonido fuerte procedente del cielo y dice "es un trueno". Pero no siempre el nombre nos da suficiente información sobre el tema, aunque si es tranquilizador el hecho de ser capaces de asignar un nombre, esto significa que hemos tenido una experiencia similar previamente y que podemos reconocerla. Nos indica que otras personas también han percibido el mismo tipo de hechos. A partir de nuestra experiencia podemos deducir lo que ocurrirá a continuación. El agricultor dirá "lloverá pronto". Hemos sido capaces de organizar nuestras percepciones de forma que podemos reconocerlas como modelos comunes y hemos aprendido a utilizar una información que nos ayuda a comprender aquello con los que nos encontramos en la vida cotidiana. El agricultor puede decir "dios se ha enfadado y manda estos rayos contra nosotros, pronto se compadecerá y enviará lluvia". En otras ocasiones el mismo dios enviará sol, o viento, o nieve. Teorías Las teorías se desarrollan como respuestas a preguntas del tipo ¿por qué? o ¿cómo?. Se observa alguna secuencia de hechos, alguna regularidad en torno a dos o más variables y alguien se pregunta por qué esto es así. Una teoría intenta explicar los hechos y consiste en: Un conjunto de definiciones que claramente describen las variables que se van a utilizar Un conjunto de supuestos que delinean las condiciones bajo las cuales se va a aplicar la teoría Una o más hipótesis sobre el comportamiento de estas variables Predicciones que se deducen de los supuestos de la teoría, y que se pueden contrastar con datos efectivos obtenidos de observaciones o experimentos. Una de las principales consecuencias de las teorías es que nos sirven para predecir hechos que todavía no han sucedido. De esta forma podemos comprobar si una teoría es correcta o no, haciendo experimentos cuyos resultados pueden no sólo demostrar que la teoría es falsa, sino también sugerir dónde se equivoca, y de esta forma se pueden proponer teorías corregidas. Criterios de aceptación de una teoría La pregunta que lógicamente aparece a continuación es ¿cuáles son los criterios necesarios para convencer a alguien que una explicación dada es correcta?. Por supuesto, la respuesta depende del tipo de persona.
2 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Para alguien que se inclina por aceptar una explicación teísta puede ser suficiente con verificar que la explicación coincide con la de los libros religiosos, otras personas aceptan una idea si está avalada por alguien al que se le considera instruido e inteligente. Ambos argumentos seguro que no convencen a un auditorio científico. Puede haber más de una explicación científica sobre una cuestión. A veces una explicación puede incluir a otra, por ejemplo la teoría cinética de los gases engloba la ley de Gay-Lussac. Un examen de casos en los que las nuevas teorías sobre la naturaleza han sido aceptadas puede ser de mucha ayuda. Supongamos que en un período de la historia se haya aceptado una teoría sobre la naturaleza que proporciona una explicación de los sucesos y que es válida en muchos casos, llamémosla primera teoría aceptada. Supongamos que esta teoría tenga algunos defectos que son reconocidos por lo menos por algunos científicos, en estas condiciones debe proponerse una nueva teoría, en cierto modo para subsanar estos defectos. Seguidamente se comentan factores de gran ayuda con vistas a convencer a la comunidad científica que acepte una nueva teoría: A) Reductibilidad La nueva teoría debe ser por lo menos tan buena como la antigua. La norma que se sigue para demostrar este criterio consiste en demostrar que en las situaciones pertinentes la nueva teoría se reduce a la antigua.
Cuando se ha acumulado un gran cuerpo de información en un campo, cualquier modificación debe tener en cuenta todos los logros de las teorías existentes. Esto significa que toda persona que desee aportar algo en este campo, debe conocerlo muy bien, una teoría expuesta por un individuo inexperto es muy difícil que llegue a ser considerada. El primer criterio puede resumirse de la siguiente forma: una teoría nueva debe conducir a los mismos resultados obtenidos con las teorías aceptadas previamente en todos los casos que se ha probado que son útiles. B) Innovación La nueva teoría debe ser mejor que la antigua, no es suficiente dar los mismos resultados que la anterior. Se dice que ambas teorías son equivalentes cuando en todos los casos las predicciones de la nueva teoría son las mismas que las de la antigua y la elección entre una u otra es cuestión de gustos. Si verdaderamente la nueva teoría debe reemplazar a la anterior, debe añadir algo nuevo. Por ejemplo, la teoría cinética de los gases no sólo reproduce todos los logros de Gay-Lussac y Arquímedes, sino que ayuda a explicar fenómenos sobre los que las antiguas teorías no tenían nada que decir. Con ayuda de la teoría cinética podemos calcular, por ejemplo la velocidad del sonido y la resistencia que el aire ofrece a los proyectiles que lo atraviesan. Es más importante el caso en el que una teoría nueva es capaz de obtener predicciones correctas donde la antigua fallaba. Esto sucedió en el año 1900 cuando la física decía que los electrones de los átomos al describir órbitas a su alrededor deben radiar energía y por lo tanto caerían en espiral hacia el centro de la órbita. Como los átomos son estables, pues caso contrario no estaríamos nosotros aquí, la teoría anterior no es correcta. Fue necesaria la aparición de la Física Cuántica para explicar los hechos experimentales. Una nueva teoría debe explicar hechos que no hayan sido abarcados por teorías previamente 3 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
aceptadas o que hayan sido predichos de forma incorrecta. C) Testabilidad Debe ser posible comprobar que una teoría es correcta. Normalmente el argumento clave a favor de una teoría es que realice una predicción real del resultado de un experimento que no haya sido todavía efectuado. La teoría de Maxwell de la electricidad y magnetismo propuesta en 1873 predijo que las ondas electromagnéticas podrían ser enviadas a través del espacio a velocidades próximas a las de la luz, estas ondas fueron descubiertas por Heinrich Hertz en 1887. La comprobación final llegó el 12 de diciembre de 1901 por parte, entre otros, del italiano Guillermo Marconi, que patentó su descubrimiento en 1900. Existen teorías tan indefinidas o complicadas que se resisten a una comprobación experimental. El Oráculo de Delfos en la antigua Grecia, proclamaba que era capaz de predecir el futuro, pero sus aseveraciones eran siempre tan indefinidas que si la predicción no resultaba cierta podía argumentarse que había sido mal interpretada. Una teoría que siempre puede reajustarse de forma que explique cualquier resultado experimental no puede ser satisfactoria. Deben poderse obtener consecuencias de una nueva teoría que difieran de las demás teorías similares, y además estas consecuencias deben prestarse a comprobación experimental. D) Elegancia Una teoría sobre la naturaleza debe ser bella. Este es otro elemento (llamémosle elegancia o belleza) que ayuda a que una nueva teoría tenga mejor acogida. Los científicos creen que las formas de las leyes de la naturaleza son simples, las teorías físicas más importantes del pasado son muy simples, como F=ma, E=mc2. Una nueva teoría debe inclinarse por un enunciado universal de sus principios que sea breve y de gran contenido.
Como expuso Henri Poincaré (1854-1912), en la conferencia que ofreció en la Sociedad Psicológica de París. ... ¿cuáles son las entidades matemáticas a las que les atribuimos este carácter de belleza y de elegancia, las que pueden producirnos tal emoción estética? Son las que tienen sus elementos armoniosamente dispuestos, de tal forma que la mente puede captar sin esfuerzo su totalidad, al tiempo que percibe sus detalles ... E) Otras consideraciones Finalmente se ha de llamar la atención sobre los criterios que no deben tenerse en cuenta. Por ejemplo no es necesario que una teoría científica esté de acuerdo con las ideas de V. I. Lenin, por poner un ejemplo, sin negar en ningún momento la gran importancia de dicha persona. O tampoco es necesario que esté conforme con respecto a lo que nos dice la Biblia sobre la creación, aunque mucha gente lo crea, sin darse cuenta que dicho documento es una novela.
4 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Método científico La elección no es entre teoría y observaciones, sino entre mejores o peores teorías para explicar las observaciones; los hechos son intocables. Pero esto no quiere decir que las teorías sean humildes sirvientes de las observaciones, de hecho casi todos los científicos están más interesados en las teorías, viéndose los experimentos como unos sirvientes que permiten decidir entre varias teorías. El método científico se puede describir mediante el siguiente proceso: 1. Plantear un problema 2. Observar algo 3. Buscar una teoría que lo explique 4. Hacer predicciones usando esa teoría 5. Comprobar esas predicciones haciendo experimentos u observaciones 6. Si los resultados están de acuerdo con la teoría, volver al paso cuatro, si no, volver al tercero
En la práctica, el método científico es más complicado. No siempre está clara la metodología para hacer los experimentos, que cambia de un área de la ciencia a otra. Hay "experimentos" que se pueden hacer en un ordenador, y otros donde esto no está tan claro. Los resultados han de ser aceptados por expertos en el área correspondiente antes de ser publicados. Los experimentos deben repetirse independientemente, y a veces no se consiguen los mismos resultados. Las demostraciones han de ser verificadas, y
5 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
ocasionalmente se encuentran errores. Un ejemplo real propuesto a escolares, se explica en detalle en la web "Curioso Pero Inútil (CPI)", sobre la reacción que se produce al mezclar mentos con algunas bebida resfrescantes gaseosas de cola.
Enlace recomendado: Los premios "Anti Nobel" 2004 En matemáticas se admite el especular sobre las consecuencias de alguna famosa conjetura no demostrada con ¡muchísimo cuidado de anunciar esta dependencia! Algunos experimentos son tan laboriosos que deben hacerse entre varios científicos, o partes del experimento se asignan a otros expertos (análisis estadístico, construcción de instrumental e instalaciones, programas informáticos). Hay experimentos que requieren años o incluso decenios para realizarse (exploración espacial), para construir el instrumental (CERN), o para analizar los datos. Algunas observaciones ocurren en fechas inaplazables (eclipses) o lugares inconvenientes (volcanes). A veces se pierden irremisiblemente parte de los datos, que hay que suplir de alguna forma. Hay experimentos irrealizables con la tecnología disponible, o demasiado caros, o que requieren demasiado tiempo (evolución). No sólo se cambian las teorías, sino también los axiomas, definiciones, modelos y clasificaciones. Algunos filósofos arguyen, con cierta razón, que no existe El método científico, sino muchos métodos científicos. ¿Es infalible? Nótese un aspecto importante del método científico, no acaba nunca; no existe una "verdad científica absoluta". Pero esto no disminuye el valor de las aplicaciones de la ciencia; el principio de Arquímedes sigue explicando por qué los barcos flotan. ¿El método científico es infalible? Sí y no. No, en el sentido que suele producir teorías provisionales que son falsas. Hablaremos más de esto después. Sí que es infalible en dos sentidos, por una parte, el método científico nunca asegura nada de forma conclusiva, así que no puede equivocarse. Dicho de otra forma, si demuestras que alguna teoría científica está equivocada, estás formando parte del mismo método científico, que se está autocorrigiendo gracias a tu ayuda. Esto puede parecer una tontería hasta que se compara con otras formas de obtener conocimiento.
Pero en estos casos tampoco se equivoca, porque, dada la naturaleza inexperimentable de estos fenómenos, el método científico no valida nada al respecto ni cierto ni falso. De nuevo, esto puede parecer una tontería hasta que se recuerdan los problemas que otras doctrinas tienen para delimitar su alcance. También se puede argumentar que si bien es posible que el método científico no sea suficiente para conocer toda verdad, por lo menos es necesario el tener alguna forma de autocrítica. Recordemos una opinión de Francis Crick, codescubridor de la molécula de ADN (ácido desoxiribonucleico, DNA) recogida en su libro "La búsqueda científica del alma"; según él, nuestro cerebro evolucionó cuando éramos cazadores-recolectores, y por lo tanto es un mero accidente que con dicho órgano seamos capaces hoy día de comprender la complejidad y abstracción propias de la ciencia moderna, ya que de poco nos servía esta habilidad para dejar descendientes en la época en que nuestro cerebro alcanzaba su forma actual. Como toda cara tiene su cruz, este órgano tan complejo y capaz como es nuestro cerebro, nos proporciona un instrumento inapreciable para poner en marcha la ilimitada capacidad que tenemos para engañarnos a nosotros mismos. Y añade Crick, más o menos, que sin una cierta disciplina como proporcionan la ciencia y el escepticismo, es muy dudoso que el género humano hubiese sido capaz de progresar culturalmente. 6 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
A mediados del siglo XIV, el filósofo inglés Guillermo de Occam, formuló lo que se podría llamar un principio, un principio del pensamiento, y que ha pasado a la historia de la filosofía de la ciencia. Es el llamado "principio de economía del pensamiento", o "principio de parsimonia", o más comúnmente, la "navaja de Ockam". En su formulación original, esta regla dice "Entia non sunt multiplicanda sine necesitate", que los que saben de latín dicen que se traduce como que "los entes no deben ser multiplicados si no es necesario". Según este principio, si tenemos dos modelos científicos para explicar un fenómeno, aquel que sea más "sencillo" será digno de mayor consideración. En realidad, esto no es así. Como el método científico impone, ha de ser la comprobación experimental, la verificación empírica, la que ha de decidir entre los dos modelos. Pero, en muchas ocasiones, la complejidad del fenómeno a estudiar impide una eficaz comprobación empírica, o la misma prueba experimental no permite decidir entre los distintos modelos. Un símil simple sería éste: si las teorías científicas fuesen programas de ordenador, y tuviésemos tres "programas" para explicar lo mismo, nos quedaríamos con el que ocupase menos espacio en nuestro ordenador. Esta podría ser, por tanto, una formulación más elaborada, o más próxima a una formalización, del célebre principio.
Karl Popper y el criterio de demarcación
La filosofía de la ciencia en el siglo XX se ha constituido en una actividad cuya principal preocupación ha sido el problema del cambio científico. Inherente a este problema se encuentra el problema de la evaluación de teorías científicas. ¿Hay algo así como un cambio científico? ¿existe progreso en la ciencia? En caso tal, ¿es susceptible de una teoría de la racionalidad científica? Diversos filósofos se han hecho famosos por sus aportaciones a esta faceta de la filosofía: Paul K. Feyerabend (1924-1994), Imre Lakatos (1922-1974), Thomas S. Kuhn (1926-1996) y Karl Popper (1902-1997). El problema de la demarcación tiene que ver fundamentalmente con la pregunta: ¿Cómo discriminar entre una hipótesis científica y otra que fuese más bien una especulación filosófica o metafísica o pseudociencia? La solución racional la aportó Popper. Lo que diferencia a la ciencia de otros tipos de conocimiento es su posibilidad sistemática de ser RECHAZADA por los datos de la realidad. A diferencia del enfoque empírico-inductivo, según el cual un enunciado es científico en la medida en que su VERACIDAD pueda ser confirmada por la experiencia, en el enfoque racionalista de Popper y sus seguidores, un enunciado será científico en la medida en que más se arriesgue o se exponga a una confrontación que evidencie su FALSEDAD, esto es el criterio de demarcación. Según esta posición, la ciencia se distingue de otros conocimientos por ser "falsable" (y no "verificable"), es decir, porque contiene mecanismos orientados a determinar su posible falsedad. La base de este criterio está en la misma crítica al empirismo y al inductivismo: por más que un enunciado se corresponda fielmente con miles de millones de casos de la realidad, en principio nada impide que de pronto aparezca un caso contradictorio. Si, por ejemplo, observamos milones de cuervos y vemos, además, que todos son negros, no hay razón lógica para concluir en que todo cuervo es necesariamente negro, ya que siempre cabe la
7 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
posibilidad de que aparezca alguno de otro color. Y, dado que el conjunto completo de todos los casos posibles escapa a la observación del ser humano, nunca será posible VERIFICAR o comprobar la verdad de un enunciado como "todos los cuervos son negros". Pero, en cambio, sí será siempre posible determinar su FALSEDAD, para lo cual bastará un solo caso en que no se cumpla la ley. Por tanto, el conocimiento científico no persigue demostrar su veracidad, sino exponerse a cualquier caso que evidencie su falsedad. Así, todo enunciado científico podrá ser mantenido sólo provisionalmente (aún cuando transcurran siglos), mientras no aparezca un caso que lo contradiga (es decir, jamás podrá ser decisivamente VERIFICADO); pero, en cambio, sí podrá ser refutado y desechado definitivamente apenas surja un dato que lo niegue. En síntesis, los enunciados científicos se distinguen justamente por estar siempre expuestos a pruebas de FALSEDAD. De esta forma, el "falsacionismo" viene a ser el criterio de demarcación entre ciencia y no-ciencia y, por tanto, es la magnitud de su "contenido de falsedad" lo que hace más o menos científico a un conocimiento dado. De lo anterior se infiere que la meta de la ciencia y de la investigación jamás podrá ser la CERTEZA objetiva, la cual no existe, sino, más bien, la "verosimilitud", o sea, el grado en que un enunciado sea capaz de salir ileso de las pruebas de falsación y de prevalecer ante otros enunciados competidores por su mayor capacidad de cobertura ante los datos de la experiencia. A diferencia del positivismo lógico, el racionalismo desecha el concepto de "verdad objetiva e inmutable", acepta la relatividad del conocimiento científico, admite los factores sociales e intersubjetivos que condicionan su validez y, tal vez lo más importante, plantea su carácter de CORRECTIBILIDAD sobre la base de constantes procesos de falsación ante los hechos y ante otras opciones de conocimiento. Así, y de acuerdo a esta interpretación, mientras el conocimiento especulativo idealista (los discursos retóricos, por ejemplo, o políticos, religiosos, subjetivistas, psicologistas, etc.) se vale de subterfugios para evadir su confrontación con la experiencia y para escapar a toda evidencia de falsedad, el conocimiento científico se valida, por encima de todo, en sus posibilidades de error. Desde este ángulo queda plenamente aceptado y justificado el hecho de que sea en la ciencia, precisamente, donde se descubra la mayor cantidad de errores del conocimiento humano, ya que otros tipos de conocimientos evaden las confrontaciones o riesgos y esconden sus debilidades. Como contraparte, es también en la ciencia donde se halla el mayor número de rectificaciones y evoluciones, mientras otros tipos de conocimiento permanecen estancados e improductivos. En resumen, el esquema de Popper del método científico es muy sencillo y él mismo lo expresó en su forma más condensada en el título de su famoso libro, Conjeturas y refutaciones. La ciencia es simplemente asunto de tener ideas y ponerlas a prueba, una y otra vez, intentando siempre demostrar que las ideas están equivocadas, para así aprender de nuestros errores.
Actualmente se están viendo gran cantidad de anuncios y artículos sobre métodos o técnicas pertenecientes a la pseudomedicina. Son claros ejemplos de irracionalidad, y de lo que no debe ser nunca una teoría científica. Seguidamente se comentan escuetamente algunas terapias pseudocientíficas muy llamativas, que algunos de los lectores habrán sufrido alguna vez. Homeopatía .- Inventada por el médico alemán Samuel Christian Hahnemann (1755-1843), trata las enfermedades con disoluciones extremadamente diluidas (de hecho suele ser agua edulcorada). Su no validez se justifica de forma comprensible sin ser experto en ciencias ni en medicina, sólo con el sentido
8 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
común.
¿Por qué no creo que la homeopatía sea efectiva? ¿Qué hace alguien normalmente cuando se siente enfermo? Generalmente, irá a ver a un médico. ¿Por qué? Porque un médico se supone que es la persona más cualificada para estudiar los síntomas que presenta, realizar todas las exploraciones necesarias para determinar con exactitud que está afectando a su salud, administrar sustancias de probada efectividad en estos casos o intervenir de manera más enérgica realizando una operación, y llevar a cabo el seguimiento de la evolución del paciente. Si se decide a administrar alguna sustancia al paciente, ¿cómo se determina que esa droga en particular tiene altas posibilidades de ser eficaz?. Desde siempre se ha conocido la importancia del efecto placebo en el proceso de curación. El efecto placebo es un efecto no específico consistente en la curación de una enfermedad por el simple hecho de tratarla, ndependientemente del tipo de tratamiento que se siga. Paracelso ya advertia en el siglo XVI "Ha de saberse que la voluntad es un poderoso ayudante de la medicina", en muchos casos la simple confianza del paciente en el médico puede producir una curación, y a veces ni siquiera esta confianza es necesaria. Por lo tanto si se pretende determinar el efecto de una nueva droga sobre una enfermedad se hace imprescindible eliminar el sesgo introducido por el efecto placebo; esto puede realizarse mediante un ensayo o test doble ciego. Imaginemos un grupo de pacientes bastante homogéneo en cuanto a edad, hábitos, historial clínico, etc... que padecen una misma enfermedad y sin que ellos lo sepan, dividámoslo en dos, Grupo A y Grupo B, por ejemplo. Llamemos a la nueva droga que pretendemos estudiar Droga I y obtengamos una sustancia totalmente inofensiva y sin efectos terapéuticos como por ejemplo, cápsulas con agua destilada o pastillas de lactosa; llamemos a esta sustancia Droga II. En un ensayo doble ciego se administra a uno de los grupos, pongamos el Grupo A, una de las dos drogas, digamos la Droga I, mientras que al Grupo B se le administra la Droga II; pero de manera que ni los pacientes ni los médicos que los tratan saben a que grupo pertenece cada uno ni que drogas les estan siendo suministradas. Concluída la experiencia se reunen los datos de los dos grupos y se analizan para determinar si el porcentaje de curaciones en el Grupo A, para el que se empleó la Droga I, es mayor que en el Grupo B, al que se suministro la sustancia inócua, la sustancia placebo, Droga II. Si esto es así y se demuestra así en otros ensayos similares realizados sobre otros grupos se concluye que la Droga I es eficaz contra esa enfermedad. De todos modos ¿por qué se producen curaciones en el Grupo B si sólo se le está administrando una sustancia totalmente inócua?, por una parte tenemos el hecho de que el simple tratamiento, aunque sea con una sustancia inútil, ayuda a activar los mecanismos de defensa del propio organismo, por otra parte tenemos el hecho de que muchas enfermedades tienen componentes psicosomáticos y finalmente tenemos el hecho de que un gran número de enfermedades presentan un cierto período de remisión, la enfermedad aparece, progresa y después desaparece aunque no se realice ningún tratamiento.
9 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Esta introducción puede parecer algo extensa pero será muy útil a la hora de discutir algunos puntos relativos a la homeopatía. La homeopatía se originó en Alemania a principios del siglo XIX. Samuel Hahnemann (1755-1843) publicó en 1810 un voluminos libro titulado "Organon", en el desarrollaba y exponía toda la homeopatía y es esa misma homeopatía, siguiendo básicamente los mismos principios expuestos en "Organon", la que se sigue practicando hoy en día. Los dos pilares básicos de la homeopatía son la Ley de Similia y la Ley de los Infinitesimales. Veamos ahora con calma como son de ridiculos estos dos principios fundamentales homeopáticos. La Ley de Similia asegura que una sustancia curará una cierta enfermedad si suministrada a una persona sana provoca los mismos síntomas o sintomas muy parecidos a los que produce dicha enfermedad. De esta ley, o supuesta ley, deriva el nombre de homeopatía: homois "similar" y pathos "sufrimiento", en griego. Para ser uno de los principios básicos de la homeopatía no deja de ser bastante sorprendente. Si alguien sufre una intoxicación por arsénico. ¿se curará administrándole más arsénico? Yo diria que no. De todos modos, dado que cualquier sustancia puede emplearse como un remedio homeopático, ¿cómo se sabe que síntomas produce una sustancia determinada?. Según Hahnemann se debia realizar un proceso de prueba. Se debía administrar a una persona sana cantidades cada vez mayores de esa sustancia hasta que aparecieran los primeros síntomas de intoxicación, dichos síntomas debían compararse con las enfermedades catalogadas y si eran parecidos a los síntomas de alguna enfermedad, esa sustancia pasaba a considerarse útil para el tratamiento de dicha enfermedad. La Ley de los Infintesimales nos dice que cuanto más pequeña sea la dosis más poderoso será el efecto de la sustancia. Los efectos de la sustancia se potencian con la dilución de la misma; cuanto más diluida esté la sustancia más poderoso será su efecto. Los remedios homeopáticos se preparan siguiendo diluciones decimales. Se parte de una cierta cantidad de disolución, se extrae una décima parte y a dicha fracción se le añaden nueve decimos de agua destilada, se agita la nueva mezcla resultante y se repite el proceso varias veces hasta llegar al grado de dilución deseado. Son muy habituales grados de dilución de 1/1000000 o 1/10000000, y en algunos casos se llega a grados de dilución tan extremos que la probabilidad de encontrar alguna molécula de la supuesta sustancia activa en la preparado final es inferior al 50%. Si la sustancia no es soluble en agua puede molerse muy finamente y mezclarse con lactosa, siguiendo un proceso de dilución similar pero empleando la lactosa en lugar de agua destilada. Un compuesto que es prácticamente agua destilada o lactosa debería resultarnos familiar, no es más que un placebo como los que se emplean en los ensayos clínicos doble ciego!!. Del mismo modo que en nuestro Grupo B había pacientes que se curaban, algunos de los pacientes que acuden a un homeópata se curarán, ¿significa eso que los remedios homeopáticos son efectivos? Después de lo explicado en la introducción vemos que la respuesta es un NO rotundo. En el siglo XIX la medicina no estaba muy desarrollada, se basaba en principios erróneos y los remedios que se suministraban solían ser muy agresivos, incluyendo por ejemplo las sangrías entre sus prescripciones habituales. Con este panorama, no es extraño que la homeopatía tuviera un cierto éxito. Suministrando remedios totalmente inócuos al menos no hacía empeorar la salud del paciente, y en algunos casos este podía superar la enfermedad y curarse por si solo de una manera mucho más satisfactoria que con la intervención de la medicina de la época. Sin embargo, hoy en día la situación es radicalmente diferente, la medicina y la farmacología actuales son disciplinas que se rigen por el método científico y han conseguido éxitos sin
10 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
precedentes. Por otra parte, ningún preparado homeopático ha superado nunca un ensayo doble ciego realizado con un mínimo de garantías contra el fraude o el engaño. Después de todo lo dicho cabe preguntarse ¿por qué la homeopatía sigue siendo popular? ¿cómo se las arreglan los homeópatas para justificar lo injustificable?. Un punto que suele destacarse a menudo es que la medicina trata enfermedades mientras que la homeopatía trata enfermos. Se arguye que la medicina sólo mira de atacar los síntomas de las enfermedades, mientras que la homeopatía trata al paciente como un todo, (sea eso lo que sea). Por supuesto,esto es un disparate, porque si bien es cierto que hay casos en que se prescriben medicinas para eliminar o mitigar los síntomas, (la más típica sería la aspirina), se olvida que esto no constituye la norma. Por ejemplo, la medicina dió un paso de gigante con el descubrimiento de los antibióticos, y precisamente una sustancia como la penicilina lo que hace es atacar la raiz del problema en ningún caso los síntomas. Por su parte, ¿qué hace la homeopatía? Estudia los síntomas del enfermo y administra en cantidades infinitesimales una sustancia que en grandes cantidades provoca esos mismos síntomas en una persona sana, en otra persona!!. ¿Quién pone más enfasis en los síntomas?; además, diría que con este proceder no se trata al paciente como un individuo único o como un todo. Otro punto que se destaca de la homeopatía es que las disoluciones infinitesimales que prescribe sólo incluyen productos naturales. Esta es una falacia que se podría aplicar a un montón de "medicinas lternativas". Parece que los productos naturales son per se beneficiosos pero se olvidan de que la naturaleza está llena de venenos y tóxinas de origen vegetal o animal potentísimos. Los antibióticos, empleados por la medicina no por la homeopatía, tienen su origen en un producto natural pero no olvidemos que los productos naturales están expuestos a la contaminación; por lo tanto la purificación de estas sustancias o su síntesis artificial representa un gran paso hacia adelante. La Ley de los Infinitesimales viola los principios establecidos por la medicina, la farmacología, la física o la química, ¿cómo la justifican los homeópatas?. Hanhemann pensaba que a medida que la sustancia perdía propiedades "materiales" a base de diluciones sucesivas, ganaba propiedades "espirituales". Hoy en día, las propiedades "espirituales" han sido reemplazadas por energías misteriosas o por vibraciones de no se sabe que; ningún culto pseudocientífico actual sería tal sino mencionara energías que no puede detectar ni poner de manifiesto, y la homeopatía no es ninguna excepción. En relación a esto será interesante destacar el caso del Dr. Benveniste. Benveniste encabezaba un artículo publicado en el año 1988 en Nature, en el que parecía establecer que una disolución muy diluída de un cierto anticuerpo podía desencadenar una reacción en leucocitos humanos. Lo sorprendente era que "muy diluido" significaba en este caso una dilución de una parte entre 10120!!. Esto significaba que no existía ni un solo anticuerpo en la disolución final. ¿Cómo lo explicaba Benveniste? Para él, el agua tenía una especie de "memoria". Podía retener la estructura del anticuerpo, de modo que aunque este ya no estaba presente, el agua podía desencadenar la reacción en los leucocitos. Parecía que este estudio daba una cierta credibilidad a la Ley de los Infinitesimales; sin embargo, habría que advertir primero que ese estudio estaba en parte subvencionado por una importante empresa francesa de productos homeopáticos. Por supuesto, esto por si
11 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
mismo no desacredita la investigación realizada, pero un equipo enviado por Nature al laboratorio de Benveniste demostró que los experimentos estaban estadisticamente mal controlados, que no se habían tomado medidas para eliminar causas de error sistemático y no existía una base sólida para las afirmaciones que se realizaban en el artículo. El experimento sólo fué reproducido por un equipo israelí; curiosamente la persona encargada de realizar el recuento de leucocitos que habían reaccionado era la misma!!. Parece pues que la Ley de los Infinitesimales sigue sin confirmación experimental y sigue contradiciendo todas las leyes conocidas de la física y de la química. La homeopatía es un culto médico que se aprovecha de la ignorancia de la gente para prescribir remedios inútiles y además cobrar por ello. La salud de las personas es algo demasiado delicado como para permitir que se juege con ella y es por ello que al igual que los "productos milagro", los productos homeopaticos deberían desaparecer de las farmacias. Documento elaborado por Ferran Terrasa. Senoterapia .- Inventada por un médico italiano, hace pocos años. Se trata de diagnosticar enfermedades por la forma de los pechos femeninos y curar con un masaje suave sobre los mismos. Magnetizadores.- Para imanar al agua, engañan a mucha gente, pues el agua y fluidos análogos no se pueden imanar.
Magnetizadores. Robert Park, de la Sociedad Física Americana "No conozco ningún científico que se tome esta afirmación seriamente... es otra manía. Ellos van y vienen con brazaletes de de cobre y cristales, y ese tipo de cosas, y esto pasará también" - Robert Park, de la Sociedad Física Americana" "Los átomos de hierro de un iman están atestados juntos en un estado sólido en el que un átomo está junto a otro. En tu sangre solo 4 atomos de hierro se encuentran en cada molécula de hemoglobina, y están separados por distancias demasiado grandes como para formar un imán. Esto es fácilmente comprobable pinchando tu dedo y colocando una gota de sangre cerca de un imán." - Michael Shermer La Magnetoterapia es un tipo de "medicina alternativa" que afirma que los campos magnéticos tienen poderes curativos. Algunos afirman que los imanes pueden ayudar a los huesos rotos a curar más rápido, pero la mayoria del material proviene de aquellos que afirman que calma el dolor. Gran parte del soporte a estas nociones proviene de testimonios y anécdotas, y puede ser atribuido a "efectos placebo y otros efectos acompañantes de su uso" (Livingston 1998). No hay casi ninguna evidencia científica apoyando la magnetoterapia. Una grandemente publicitada excepción es un estudio a doble ciego realizado en la Escuela de medicina Baylos que comparó el efecto de imanes e imanes simulados en la rodilla enferma de 50 pacientes de post-polio. El grupo experimental reportó una significativamente mayor disminución del dolor que el grupo de control. No ha habido ninguna repetición todavía de este estudio.
12 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Un estudio menos publicitado en el Ney York College de Medicina Podológica encontró que los imanes no tenían ningún efecto en la curación del dolor de talón. Tras un periodo de 4 semanas, 19 pacientes llevaron una plantilla moldeada que incluia una lámina imantada, mientras 15 pacientes llevaron la misma plantilla pero sin la lámina. En ambos grupos el 60% informó de mejoras. A despecho de que no haya habido virtualmente ningún test científico de la terapia magnética, una creciente industria está produciendo brazaletes magnéticos, bandas, plantillas, fajas, colchones, etc... y anunciando milagrosos poderes para sus productos. El mercado magnético puede estar aproximandose a los 150 millones de dólares anuales (Collie). (Lerner anuncia que las ventas en EE.UU. pueden ser de medio millar de millones, y que en el resto del mundo se llega como mucho a dos veces esa cifra) Los imanes se estan convirtiendo en la elección preferidda para quiroprácticos y otros "especialistas del dolor". La anteriormente alfarera Marylynn Chetkof vende productos de Russell Biomagnetics, y anuncia que los imanes son mejores que los calmantes, o que vivir con dolor (Collie). Incluso un contratista de la construcción como Rick Jones esta tratando de invertir en la actual locura magnética. El ha fundado una compañía denominada Optimum Health Technologie Inc.s (Tecnologias para la Salud Optima) para comercializar su "Magnassager" (Magneto-masajeador), un vibrador portátil con imanes al precio de 489$. Jones anuncia que su invento "no es solo otro artefacto para dar masajes" El dice que usa un campo magnético para ayudar a circular la sangre mientras masajea los músculos. Jones obtuvo 300000 $ de los inversores y gastó todo ello en "desarrollo de producto y márketing" Ni un centavo se destinó a estudios científicos del aparato antes de enviarlo al mercado, aunque el le dio 20000$ a un Fisiólogo para evaluar su aparato "para asegurarme de que no era un cachivache". La afirmación de que el magnetismo ayuda a "circular la sangre" es común entre los defensores de la magnetoterapia, pero no hay ninguna evidencia científica de que los imanes le hagan nada a la sangre. Aun en contra de las evidencias de que los imanes no tienen otro efecto que el placebo, abundan las teorias de cómo funcionan. Algunos dicen que los imanes son como un masaje shiatsu; otros afirman que los imanes aceptan al hierro de los hematíes, incluso otros afirman que los imanes generan una reacción alcalina en el cuerpo (Collie). Bill Roper, jefe de Magnetherapy afirma que "Los imanes no curan ni calman nada. Todo lo que hace es colocar tu cuerpo en su estado normal para que pueda empezar el proceso de curación" (Collie). Como ha averigaudo esto no queda del todo claro. Algunos defensores de la terapia magnética parecen basar su creencia en una convencimiento metafísico de que todas las enfermedades se deben a una especie de desequelibrio o dis-harmonia en la energía. El equilibrio o flujo de energía electromagnética debe ser restaurado para recuperar la salud, y suponen que los imanes son capaces de hacer eso. Los más rabiosos abogados de la terapia magnética son atletas como Jim Colbert y John Huston (golf), Dan Marino (fútbol americano) y Lindsay Davenport (tenis). Su creencia está basada en poco más que razonamiento post-hoc. Es posible que el alivio que un cinturón magnético proporciona a un golfista con un problema de espalda, por ejemplo, no sea simplemente una función del efecto placebo o de la falacia regresiva. Bien puede ser debida a la ayuda de la aportación de calor adicional que el cinturón provoca. El producto funcionaría igual de bien sin los imanes. Además, los deportistas no son dados a los tests científicos más de lo que lo son los fabricantes de magnetocacharros. Los atletas no son los únicos enamorados de los poderes curativos de los imanes. El Dr.
13 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Richard Rogachefsky, un cirujano ortopédico de la Universidad de Miami, afirma haber usado imanes en cerca de 600 pacientes, incluidas persoas que habian sido disparadas. El dice que los imanes "aceleran el proceso de curación". ¿Su evidencia? Puede explicarlo mirando los rayos X. El Dr. William Jarvis es escépticoa este respecto. Dice: "Cualquier doctor que se apoya en impresiones clínicas, en lo que piensan, en lo que ven, es un loco" (Collie). Hay una buen razón por la que los científicos hacen estudios controlados a doble ciego para testear la eficacia causal: para prevenir la Autosugestión. El Dr. Mark S. George, un profesor asociado de psiquiatría, Neurología y Radiología en la Universidad Médica de Carolina del Sur, en Charleston, hizo un experimento controlado sobre el uso de imanes para tratar la depresión. Sólo estudió 12 pacientes en 2 semanas, sin embargo, asi que sus resultados son poco significativos. Mientras las ventas de productos magnéticos continuan aumentando hay unos pocos estudios científicos en marcha. La Universidad de Virginia está testando imanes en pacientes de fibromialgia. Las universidades de Miami y Kentucky estan haciendo pruebas en gente con síndrome de tunel carpiano (Collie), En el presente, sin embargo, no tenemos ninguna buena razón para creer que los imanes tienen ningún poder curativo más que los cristales o los brazaletes de cobre. Ionizadores de aire.- Dicen aumentar los iones negativos en el aire por que son maravillosos para todo. Estudiados los aparatos, muchos ni siquiera son capaces de formar iones. Acumulador de orgones.- El orgón es una energía telúrico-sexual, son como las partículas elementales de la energía sexual (como los quars que forman el óctuple sendero, pero de orgasmo), y tener muchas, dice el alemán que promociona este engaño, es muy conveniente. Psicoanálisis.- Fascinante forma, inventada por Freud para sacar dinero a la burguesía y crédulos por el estilo. Técnica biocibernética quántica holográmica.- Inventada por un autodenominado "profesor" Pere Ribalta, de Sabadell. Actualmente ha sido condenado a 15 años de cárcel, por los daños causados en enfermos que siguieron sus tratamientos, incluso con resultado de muerte. Curación espiritual.- Los espíritus benéficos de los cielos o incluso el mismo Dios curan nuestras enfermedades siempre que tengamos fe y a veces dinero que donar. a) Ciencia Cristiana.-Especie de Iglesia médica, que cura a base de fe. La curación es la salvación eterna. La oración y no cometer pecados la mejor profilaxis. b) Lourdes, Fátima. Mendujorge y más.- Milagros católicos para todos los gustos. La Virgen María en plan enfermera. Las religiones casi siempre han considerado de alguna forma la persistencia de vida después de la muerte, incluso hay personas que han estado muy graves que relatan hechos que aparentemente están fuera de la normalidad. Todas estas creencias son falsas, estando actualmente justificados dichas situaciones desde el punto de vista puramente científico. Otras creencias irracionales Astrología.- En todo el mundo se publican miles de secciones astrológicas, los tan conocidos "horóscopos", aparecen indiscriminadamente en periódicos, revistas, folletos y en los últimos años en Internet. La astrología presupone que la posición de los planetas y el Sol en una determinada franja del cielo; llamada constelaciones del zodiaco, influyen en nuestras vidas. Según dicen los astrólogos (no 14 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
confundir con astrónomos) la posición del Sol a la hora de nacer marca de por vida las características particulares de una persona. Carece de cualquier base científica, las fuerzas gravitacionales de los planetas son insignificantes sobre una persona en el momento de nacer; además es absurdo que cada doceava parte de la población terrestre tenga un futuro igual. Cualquier intento de verificación experimental no corfirma la validez de esta pseudociencia.
Enlace recomendado: Una revisión crítica de la astrología Enlace recomendado: Visión crítica de la astrología Grafología.- Es otra pseudociencia que entre las muchas "utilidades" que ofrece, está la de adivinar el carácter de una persona en base a su escritura. No se debe de confundir con la valoración de igualdad entre dos escritos o firmas, que es función de los "peritos caligráficos". Lamentablemente se enseña como ciencia en una asignatura de los estudios de Licenciatura en Criminología en la Universidad de Murcia.
Enlace recomendado: Grafología, otra pseudociencia
Valoramos la ciencia como factor de progreso, pero también nos asustamos de sus implicaciones ¿Lo hacemos de forma racional o moviéndonos por instintos? Fuente: Blogalia, autor Javier Armentia Publicado en Territorios, Ciencia y Futuro, El Correo, miércoles 15 de octubre de 2003 La percepción pública de la ciencia viene mediada por numerosos factores, que a menudo nada tienen que ver con el contenido y alcance real de las investigaciones, sino con ideas populares que se van asentando, propiciadas desde los medios de comunicación y, a menudo, alentadas desde sectores interesados en hacer valer sus opiniones. En general, siempre se suele comentar que existe un analfabetismo científico funcional en una parte de la ciudadanía: el desconocimiento sobre aspectos fundamentales de la ciencia y la tecnología actuales se suele poner de manifiesto en encuestas de opinión. En diferentes encuestas que se han ido realizando en los últimos decenios se muestra cómo la gente puede creer que el hombre convivió con los dinosaurios, cómo no entienden la estructura atómica de la materia o muchas otras "lagunas" en los conocimientos objetivos. En el Eurobarómetro, una encuesta que se viene realizando desde hace quince años se incluía en 1996 una pregunta para valorar el conocimiento de las tecnologías genéticas por parte de los europeos. Dos terceras partes de los encuestados decía que era correcta la
15 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
afirmación "los tomates naturales no tienen genes, sólo los transgénicos los tienen". Sin embargo, la valoración que se establece sobre la ciencia es mucho más positiva que lo que cabría concluir del estado de desconocimiento. En los mismos Eurobarómetros, se ve cómo el ciudadano europeo concede en general mucho valor a la ciencia, depositando en ella una confianza alta a la hora de la resolución de importantes problemas como los ambientales, las enfermedades o en general, por su capacidad de mejorar la calidad de vida. Recientemente se ha publicado el estudio "Percepción social de la ciencia y la tecnología en España", promovido por la Fundación Española Ciencia y Tecnología (FECyT). Los encuestados en este trabajo, valorando en una escala de 1 a 5 en la que 1 significaba que no había asociación alguna y 5 una asociación completa, relacionaban la ciencia con "progreso" (4,35), "bienestar" (3,74), "riqueza" (3,55), "oportunidades" (3,55). Hacen notar los autores cómo la asociación con el progreso es mayor que otras características que se suelen relacionar con los avances científico-tecnológicos. De esta manera, la idea que podríamos obtener del estado de la percepción social de la ciencia sería en cierto modo positivo: valoramos la ciencia, aunque la desconocemos. Una conclusión obvia, precisamente en la dirección que trabajan los planes comunitarios en este sentido, sería favorecer la comunicación sobre ciencia, la educación, y fomentar las vocaciones a la vez que realizar políticas de inversión en ciencia que permitan la creación de un verdadero espacio científico europeo no sólo como motor de la industria, sino con la capacidad de involucrar al ciudadano. La realidad, sin embargo, muestra que hay sectores de la ciencia en los que esa valoración cae, o en general, en los cuales se establece una duda o incluso un temor ante la propia ciencia. El asunto de los organismos transgénicos es un buen ejemplo donde se muestra cómo la investigación científica y la opinión popular se separan de manera importante. Las efectivas campañas de alerta (a menudo sin justificación racional alguna) por parte de algunos sectores del activismo ecologista han conseguido que la percepción de lo "transgénico" sea muy negativa. De poco sirve que las grandes multinacionales de la biotecnología hayan promovido una imagen casi idílica del avance que podría suponer estas técnicas en solucionar el hambre en el mundo, o mejorar la calidad de los cultivos. La sombra de la duda sobre la inocuidad de los productos ha conseguido que, incluso (o principalmente) en los planos políticos se hayan establecido moratorias o programas de contención ante estos nuevos productos. La fuerza de las palabras convierte a algunas en verdaderos tabús: sólo mencionarlas hace que la gente se posicione críticamente (por más que se reconozca el desconocimiento de por qué no gusta o por qué se teme). El hecho de que principalmente la vía de información sobre temas de ciencia sean los medios de comunicación generalistas (en primer lugar radio y televisión) en los cuales la información científica ocupa un pequeñísimo porcentaje del tiempo de emisión, algo que los propios encuestados califican como insuficiente, facilita el que ciertas ideas se transmitan acríticamente. Un ejemplo reciente, que aún promueve calurosos debates en las todas las escalas sociales lo constituyen los efectos (presuntos) de las radiaciones emitidas por antenas de telefonía. Dejando aparte el hecho de que ningún estudio contrastado adecuadamente ha conseguido demostrar el efecto cancerígeno de las antenas (ni tampoco del uso de los teléfonos móviles), y a pesar de que las investigaciones establecen que estas tecnologías trabajan dentro de un margen de riesgo adecuado, simplemente hablar de "radiaciones electromagnéticas" supone que mucha gente piense que son algo dañino. En anuncios de televisión podemos oír cosas como que un producto "protege contra las
16 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
dañinas radiaciones electromagnéticas". ¿Pero no es la luz una radiación electromagnética? ¿No lo son las ondas de radio o las de TV? El propio calor nos llega en forma de radiación infrarroja, la misma con la que conseguimos que los mandos a distancia hagan su función. Un mundo sin radiaciones electromagnética sería un mundo muerto. Confundir de esta manera al público, podríamos pensar, sería delictivo si no se contara con una percepción de lo dañino mediada por campañas políticas en contra de la telefonía, por ejemplo, en donde se juega a asociar la "radiación" también con otra palabra tabú: "radiactividad". Nada tiene que ver una con otra, pero en un mundo que sobrevivió a una tensión de decenios con la amenaza de la guerra nuclear, todo lo relacionado con ese mundo nos sigue pareciendo peligroso y desasosegante. Lejos están los años en que los detergentes proporcionaban un "blanco nuclear":hasta los años cincuenta la ciencia del átomo era percibida como uno de los mayores avances, a pesar del uso bélico de la misma a finales de la II Guerra Mundial. Pero posteriormente todo un activismo antinuclear consiguió hacer cambiar a la opinión pública: todo lo radiactivo es peligroso. Es evidente que tales maximalismos no son acordes con una actitud científica que ha de valorar siempre los riesgos y las consecuencias de forma menos apasionada. Pero también es evidente que nos movemos de forma mucho más gregaria y menos crítica que lo que sería conveniente. El hecho de que cuando un médico solicita para un paciente un diagnóstico mediante resonancia magnética nuclear casi sistemáticamente oculte las dos últimas palabras, por la asociación casi instantánea que establecemos entre "nuclear" y cáncer, es un síntoma de que las cosas no se están haciendo bien. Y PALABRAS COMODÍN: LO NATURAL La alta valoración que ponemos al adjetivo "natural" es la otra cara de la misma moneda que hace tabúes a los términos científicos. Parece que todo lo natural fuera intrínsecamente bueno (a pesar de que tan naturales son los virus como cualquier agente infeccioso o veneno que existe en la naturaleza). Basta con echar un vistazo a los anuncios de cualquier tipo de producto para encontrar cómo se ejercita la desinformación propagandística en este sentido. El hecho de que mucha gente prefiera una "medicina natural" indica el desconocimiento y el prejuicio que establecemos: de hecho, unas dos terceras partes de los medicamentos convencionales tienen principios activos que son "naturales", pero el proceso industrial permite, adecuadamente, establecer la forma de aplicación y la dosis adecuada que lo hacen un tratamiento efectivo. Por el contrario, y sirva como ejemplo, un cocimiento (natural) de plantas recetado como una verdadera panacea por una medicina que se dice alternativa supone una dosificación incontrolada: ni se puede saber exactamente cuánto medicamento estamos ingiriendo ni podemos controlar otras sustancias que se están introduciendo a la vez. La moda de lo natural frente a lo artificial sigue existiendo, pero se aprovecha de nuestro desconocimiento para vendernos algo que, realmente, no es ciencia, sino pura pseudociencia. (cortesía de J. Merelo)
Carl Sagan
17 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Carl Sagan hace un análisis muy interesante sobre el caso de Lourdes. Resulta que desde la "aparición" de 1858, unos cien millones de personas han visitado Lourdes con la esperanza de ser curados de una enfermedad que la medicina "oficial" no ha logrado vencer. La Iglesia Católica (ICAR) ha rechazado la autenticidad de una enorme cantidad de casos, y sólo ha aceptado 65 en casi un siglo y medio. Existen casos bien documentados de personas "desahuciadas" que se han curado sin intervención médica, aunque son muy escasos. Esto no es el caso del efecto placebo. Se atribuye simplemente a "curación espontánea", no hay razón alguna aparente para que la curación se dé, y sin embargo se da. Si se consideran los 65 casos en casi siglo y medio aceptados por la ICAR, estos casos son de tumores, tuberculosis, optalmitis, bronquitis, parálisis, etc. Pero ninguno es por, digamos regeneracion de un miembro o de una espina dorsal cercenada. De las 65 curaciones, hay una proporción de diez a uno más de mujeres que de hombres. La probabilidad de curación después de visitar Lourdes es entonces, de aproximadamente una en un millon, se tienen tantas probabilidades de curarse despues de visitar Lourdes, como se tienen de ganar el premio mayor de la loteria, o de morir en un accidente aéreo, por ejemplo. La curación espontánea de todos los tipos de cáncer juntos se estima en algo entre uno en diez mil y uno en cien mil. Si sólo un cinco por ciento de aquellos que van a Lourdes fueran por cáncer, tendría que haber habido entre 50 o 500 curas "milagrosas" unicamente por cáncer. Dado que sólo tres de las 65 curas comprobadas eran casos de cáncer, el índice de curación espontánea en Lourdes parece ser inferior que el de cualquier otro lugar. En otras palabras, un enfermo tendría más probabilidad de curarse espontáneamente (o "milagrosamente" si prefiere) quedándose en casa sin hacer nada en vez de ir a Lourdes. Evidentemente, si se habla con uno de los 65 curados, va a ser muy difícil convencerlo de que no fue su viaje a Lourdes lo que curó su cáncer. Esta es una ilustracion clasica de la falacia post hoc ergo propter hoc (despues del hecho, por lo tanto, debido al hecho) Esto no tiene que ver con el efecto placebo, que en la mayoria de los casos produce una "cura falsa", lo cual es fatal para pacientes que tienen una enfermedad tratable por la medicina.
CARL SAGAN Nació en Nueva York el nueve de Noviembre de 1934. Estudió en la Universidad de Chicago, donde recibió un Ph.D. en astrofísica. Casado con Ann Druyan. Ampliamente reconocido por sus trabajos científicos, es más recordado por sus esfuerzos por aumentar la difusión de la ciencia desde una visión razonada y escéptica. "La mayoría de los organismos en la Tierra dependen de su información genética, que está 'precableada' en sus sistemas nerviosos, en mayor grado que de su información extragenética, que es adquirida durante sus vidas. Para los seres humanos, y de hecho para todos los mamíferos, es al contrario. Aún cuando nuestro comportamiento es aún significativamente controlado por nuestra herencia genética, tenemos, a través de nuestros cerebros, una mucho más rica oportunidad de crear nuevos senderos culturales y
18 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
de comportamiento a corto plazo. Hemos hecho una especie de acuerdo con la naturaleza: nuestros hijos serán difíciles de criar, pero su capacidad para nuevos conocimientos aumentará en mucho la capacidad de supervivencia de la especie humana. Además, los seres humanos hemos inventado, en las más recientes pocas décimas de porciento de nuestra existencia, el conocimiento no sólo extragenético sino también extrasomático; información almacenada fuera de nuestros cuerpos, de la cual, la escritura es el más notable ejemplo." (De "The Dragons of Eden", Los Dragones del Edén)
No hay garantía de que el universo se conformará a nuestras predisposiciones. Pero no veo cómo podremos tratar con el universo - tanto el universo exterior como el interior - sin estudiarlo. La mejor manera de evitar abusos es que la población en general sea científicamente literata, para comprender las implicaciones de tales investigaciones. A cambio de la libertad de investigación, los científicos están obligados a explicar sus trabajos. Si la ciencia es considerada un sacerdocio cerrado, muy difícil y arcano para la comprensión de la persona promedio, los peligros de abuso son mayores. Pero si la ciencia es un tópico de interés y preocupación general - si tanto sus delicias como sus consecuencias sociales se discuten regular y competentemente en las escuelas, la prensa, y en la mesa familiar - habremos mejorado enormemente nuestras posibilidades para entender cómo es realmente el mundo y para mejorarlo a él y a nosotros." (De "Broca's Brain", El Cerebro de Broca)
Sus contribuciones Carl Sagan fue central para el descubrimiento de las altas temperaturas superficiales de Venus y las causas de los cambios estacionales observados en la apariencia de Marte. Ganó el Premio Pulitzer para no-ficción en 1978 por Los Dragones del Edén: Especulaciones Sobre la Evolución de la Inteligencia Humana. En 1980, su serie en 13 capítulos para los servicios de televisión pública "Cosmos", se convirtió en una de las series más populares en la historia de la televisión pública Americana. Carl Sagan fue el "David Duncan Professor of Astronomy and Space Sciences" y el Director del Laboratorio para Estudios Planetarios en la Universidad de Cornell. Fue un importante contribuyente a las misiones de exploración Mariner, Viking y Voyager. Obtuvo las Medallas de NASA por Excepcionales Logros Científicos, Logros en el Programa Apollo, y Servicio Público Distinguido (dos veces). El premio internacional de Astronáutica: el Prix Galbert. El premio Joseph Priestley "por distinguidas contribuciones al bienestar de la humanidad". El Premio Masursky del American Astronomical Society. Y en 1994, el Public Welfare Medal, el honor más elevado del National Academy of Sciences. Director de la División de Ciencias Planetarias de la Sociedad Americana de Astronomía. Director de la Sección de Astronomía de la Sociedad Americana para el Avance de la Ciencia. Presidente de la Sección de Planetología de la Unión Geofísica Americana. Editor en Jefe de Icarus, la principal revista profesional de estudios del Sistema Solar. Cofundador y Presidente del Planetary Society, el más grande grupo de intereses espaciales del mundo. Hay un asteroide, el 2709 Sagan, en su nombre. Más de 400 artículos científicos y populares publicados. Carl Sagan murió el Viernes, 20 de Diciembre de 1996, a la edad de 62 años.
Libros (de algunos existe versión en español):
19 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Intelligent Life in the Universe (con I. S. Shklovskii) The Dragons of Eden (1977): Speculations on the Evolution of Human Intelligence Murmurs of Earth: The Voyager Interstellar Record (con F. D. Drake, Ann Druyan, Timothy Ferrys, Jon Lomberg and Linda Salzman Sagan) The Cosmic Connection: An Extraterrestrial Perspective Other Worlds Mars and the Mind of Man (conRay Bradbury, Arthur C. Clarke, Bruce Murray and Walter Sullivan) Intelligent Life in the Universe Broca's Brain (1979): Reflections On the Romance of Science Cosmos (1980) Contact (1985): A Novel Comet (1985) (conAnn Druyan) A Path Where No Man Thought (1990): Nuclear Winter and the End of Arms Race (conRichard Turco) Shadows of Forgotten Ancestors (1992): A Search for Who We Are (conAnn Druyan) Pale Blue Dot: A Vision of the Human Future in Space The Demon-Haunted World: Science as a Candle in the Dark Billions & Billions (1997): Thoughts on Life and Death at the Brink of the Millennium (Póstumo, publicado por Ann Druyan)
Estafa pura y dura..- Hasta ahora hemos visto efectos más o menos subjetivos tanto por el lado del paciente como por parte de pseudomédico. Sin embargo gran parte de las técnicas de curanderismo se tratan de una auténtica estafa. El método habitual utilizado es el de diagnosticar una enfermedad inexistente, montar toda una parafernalia espíritual-mágico-médica y decir que el mal ha desaparecido. Las mayores o menores dotes escénicas del supuesto sanador la darán fama y dinero. Más graves aún son las estafas sobre enfermos reales (y a veces muy graves) que depositan su confianza, lo único que les queda, en estos vendedores de ilusión, suelen ser los casos más sangrantes y tristes de familias destrozadas o arruinadas por las "artes" de estas gentes.
Cirugía psíquica Sin apoyo, equipo quirúrgico o anestesia curanderos inprovisados hacen curaciones complejas, como extracciones de tumores usando sólo sus manos o, ¿algo más?. La gente desesperada recurre a medidas desesperadas. Los que han sido victimas de este engaño han pagado el precio, pero el embuste no se limita a los filipinos. La cirugia psíquica se ha vuelto un fenómeno latinoamericano, lo vemos por todos los países en pequeñas iglesias y grupos y lejos de la vista del publico. Sus magos y timadores se hacen pasar por verdaderos curanderos y les quitan a las personas su dinero y también la oportunidad de un verdadero tratamiento médico. Las operaciones se realizan en cuartos oscuros donde la trampa es facil de ocultar, pero aún en las condiciones más abiertas el ardid es dificil de detectar. El procedimiento empieza pidiéndole al paciente que se acueste en una mesa mirando hacia el cielo para ver hacia Dios pero enseguida se verá la verdadera razón de esto. No hay ningún intento por mantener condiciones de asepsia. Al terminar el procedimiento el falso cirujano limpia el área de insercción con las toallas. Toda la operacion puede realizarse en minutos. Cuando termina el paciente puede
20 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
examinar los resultados, no hay huellas de ningún tipo de corte, incisiones o cicatrices. Ahora miremos como se realiza esta convincente operación: Antes de la llegada del paciente el cirujano psíquico prepara las herramientas para su farsa: sangre simulada, algodón colorante alimentario, una bolsa de plástico y varias tiras de tocino con mucha grasa. Estos artículos se usan para crear unos pequeños recipientes llamados cargas. Funcionan asi: El tocino se pone en la bolsa y se satura con colorante. Esto será el convincente tumor que se extrae del estómago del paciente, luego la bolsa se llena con una buena dósis de sangre simulada, los guantes evitan las evidencias incriminatorias en las manos del cirujano, forma una bola con la bolsa y la carga está lista. la carga se oculta donde sea menos evidente, el recipiente del algodón por ejemplo. El timador se asegura de que no se vea y luego pasa el paciente. A este se le dice que mire hacia arriba, en algunos procedimientos se le coloca boca abajo. En cualquiera de los casos, esto da al supuesto cirujano una posición propicia para disfrazar su artimaña. El algodón no tiene nada que ver con la higiene, el propósito de frotar el estomago es darle opotunidad de ocultar la carga con la palma de la mano antes de masajear el area. Los curanderos psiquicos no son más que unos timadores
El curandero de Campanillas protagoniza un espacio de Tele5 JOSÉ PRIETO. EFE/MADRID (2001/11/23) Telecinco emite hoy, a partir de la medianoche, el reportaje de investigación 'El extirpador', en el que se muestra cómo un autodenominado 'cirujano psíquico', que lleva siete años 'operando' en Campanillas, engaña a sus pacientes, personas enfermas que ven en él su salvación. En 'El extirpador' se cuenta la historia de Andrés, anteriormente operario de grúa de la construcción de Barcelona y antiguo militante activo de los Testigos de Jehová, que lleva 7 de sus 52 años 'curando' en su consulta de la barriada de Campanillas a pacientes que le llegan de toda España, porque su fama ha traspasado fronteras. Él asegura que es un 'cirujano psíquico' porque con la sola ayuda de un bisturí simple y sus manos, dice él, se mete en las entrañas de sus pacientes y 'extirpa' tumores y 'arregla' lo que los médicos son incapaces de curar en los quirófanos. El protagonista del reportaje prepara su zona de operaciones con meticulosidad. Primero dibuja el contorno de la camilla con sal e impide que nadie lo traspase y cerca de él coloca un cesto con algodones donde esconde un simple bisturí con el que realiza las supuestas incisiones que, milagrosamente, no dejan ni siquiera un rasguño. A través de las incisiones imaginarias extrae el tumor o la causa del mal del enfermo, que no es otra cosa que vísceras de cerdos, corderos o aves.
21 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Los reporteros localizan, incluso, el establecimiento donde el 'sanador' adquiere el espinazo de cerdo con el que simula columnas vertebrales humanas. En cuanto a la sangre con la que tiñe sus operaciones, se trata en realidad de pigmento mezclado con otros líquidos. El día que la policía le detiene, Andrés está llevando a cabo una delicada operación en los testículos de su primer paciente.
1.2 Ejemplo del método científico Casi todo el mundo ha visto alguna vez un experimento semejante a éste: Supongamos una bolsa de material ligero. Un extremo de la bolsa tiene una boca, que puede mantenerse abierta, por ejemplo mediante un aro; este extremo se sostiene sobre algo que caliente el aire como un hornillo o un mechero. La bolsa se levanta y se hincha en todo su volumen. En este momento se suelta, y se eleva hasta el techo de la habitación, permanece en el techo durante un momento, y luego cae lentamente hasta el suelo. ¿Qué ha ocurrido? ¿Por qué ha ocurrido? Existen muchas formas de explicar los sucesos que se producen en la naturaleza. El tipo de explicación que aceptemos depende de nuestros conocimientos y de los supuestos que hayamos aceptado. La explicación que convence a una persona, puede no satisfacer a ninguna otra. Haciendo la pregunta ¿Por qué se eleva la bolsa hasta el techo?, se pueden dar distintas respuestas. A) Respuesta animista "Porque quiere alejarse del fuego". Esta respuesta satisfaría a muchos niños e incluso a algunas personas primitivas (aunque actualmente hay quienes "encuentran" una relación con la parapsicología). El animismo es la creencia de que todos los objetos naturales se encuentran vivos y poseen alma. El hecho de que la bolsa se eleve no es más sorprendente que el que un niño ande hacia una puerta. Un ejemplo es el Chamanismo. El mundo animista es un mundo caótico pues todos los objetos se comportan de acuerdo con sus impulsos naturales. Sobrevivir en este mundo implica ser capaces de conocer qué es lo que va a ocurrir a continuación, y si es posible controlarlo en alguna medida. B) Explicación mágica La magia se define como el arte de producir efectos o controlar sucesos mediante encantamientos, hechizos y rituales. La imagen del científico como mago de salón, capaz de realizar todo tipo de trucos, no es posible encontrarla actualmente. Hace más de un siglo era corriente que los científicos ganaran dinero haciendo demostraciones de salón sobre chispas y productos químicos capaces de producir espumas. El hombre primitivo debía enfrentarse con situaciones que no podía controlar. Entonces creía en la existencia de seres superiores que podían hacer cosas que a los humanos no les estaban permitidas.
22 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
C) Explicación sobrenatural Ha sido un "milagro". En otras palabras, existe algún ser que es capaz de interferir en los procesos naturales y de producir sucesos que ordinariamente no ocurrirían. De igual forma que algunos reyes y gobernantes, este ser tiene la propiedad de violar las leyes de la naturaleza, aun cuando originalmente estas hayan sido creadas por él. Un caso curioso, que denota el bajo nivel cultural existente en España, es que se anuncian cursos de milagros en Málaga, por 150 euros. D) Explicación teísta Teísmo es la creencia en un dios al que se le considera creador y gobernador del universo. "Es la voluntad de dios". Haya habido o no, un milagro, todas las cosas ocurren de acuerdo con un esquema ordenado por un ser supremo. Si existen leyes obedecidas por la naturaleza, es él quien las ha creado; si algún suceso viola estas leyes, él es el único responsable. En última instancia, todo ocurre porque él lo desea y directa o indirectamente lo produce. Esta creencia es soportada por mucha gente, incluso por algunos científicos. Sin embargo desde el punto de vista científico explica muy poco, porque explica demasiado. Si todas las cosas se deben a la voluntad divina y si esa voluntad se encuentra por encima del conocimiento humano, es que no conocemos nada. Por otra parte si existe, o existió una divinidad que estableció originalmente el sistema natural y sus leyes, de cualquier forma que se establecieran, es deber del científico descifrar la naturaleza de estas leyes. E) Explicación teleológica Teleológico, significa dirigido hacia un fin definido, o que posee un último propósito. "El aire caliente por naturaleza tiende a elevarse", según dijo Aristóteles. Mediante varios experimentos se puede comprobar que el calor se encuentra asociado con la elevación de la bolsa. Es el aire que llena la bolsa el que origina que ésta se estire y se hinche. Es el aire del interior de la bolsa el que absorbe calor, calentándose y transportando la bolsa hasta el techo. ¿Por qué se acepta la existencia de una sustancia invisible como el aire?. No es por que lo podamos sentir directamente, sino porque nos ayuda a explicar otros fenómenos que podemos percibir. No todos los conceptos de este tipo sobreviven al paso del tiempo. En el esquema teleológico encontramos explicaciones más profundas que buscan propósitos más generales. Así podemos decir que el aire caliente se eleva para que la tierra pueda enfriarse y las plantas puedan crecer, y así nosotros tengamos alimentos para comer, y la cadena pueda alargarse enormemente. Estas explicaciones dan lugar a discusiones filosóficas. F) Explicación empírica Empírico significa basado en la experiencia práctica, sin intentar comprender por qué se ha producido el hecho. * Principio de Arquímides: Cuando un cuerpo se sumerge en un fluido, es empujado hacia arriba por una fuerza que es igual al peso del fluido desplazado.
Arquímedes vivió en la ciudad griega de Siracusa hacia el año 200 ane. Su principio lo descubrió cuando el rey Hiero, le preguntó cómo podía saber si la corona que se había comprado era realmente de oro. Este objeto tan valioso debía tratarse de forma no destructiva. Arquímedes mientras se encontraba en los baños públicos tuvo una idea, y
23 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
salió corriendo por las calles de Siracusa, vestido a la usanza de los baños públicos grecorromanos, es decir desnudo, gritando Eureka ("Lo he encontrado"). La aplicación de su principio distingue el plomo del oro, sumergiendo la corona en agua, el plomo es más ligero que el oro y por lo tanto 1 kg de plomo ocupa más volumen que uno de oro. Arquímedes pesó la corona en el aire y en el agua, si fuera de oro perdería peso en al agua un 5 por ciento, y si fuera de plomo un 8 por ciento. De esta forma demostró que habían estafado al rey, ganando una fama imperecedera, mientras que el destino del orfebre fue menos afortunado.
A continuación se muestra una simulación en Java, de un experimento que permite verificar el principio de Arquímides, relativo al empuje en líquidos. Un sólido colgando de un dinamómetro se sumerge en un líquido (mediante el arrastre del ratón). En este caso se reduce la fuerza medida, siendo igual a la diferencia entre el peso y la fuerza de empuje. Se pueden cambiar (dentro de ciertos límites) los valores preseleccionados de las densidades y del área de la base y altura del cuerpo actuando sobre los campos de texto correspondientes. Tras presionar la tecla "Intro", el programa indica los nuevos valores de la profundidad, volumen desplazado, fuerza de empuje, peso y fuerza medida. Se supone un valor g = 9.81 m/s2 para la aceleración de la gravedad. Si aparece el mensaje "Máximo excedido" con letras en rojo, es necesario seleccionar otro rango de medida adecuado.
* Ley de Gay-Lussac: Cuando se calienta (o enfría) un gas a presión constante, se expansiona (o contrae) proporcionalmente al aumento (disminución) de la temperatura.
Explicación Cuando la temperatura aumenta, el aire del interior de la bolsa aumenta igualmente de temperatura. Se constata que cuando aumenta la temperatura el volumen del gas crece igualmente Esto se puede explicar viendo en detalle el comportamiento de las moléculas de gas
24 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
Como consecuencia de la agitación, las moléculas de gas ejercen una cierta presión sobre las paredes de la bolsa
http://www.um.es/docencia/barzana/II/Ii01.html
Al subir la temperatura del aire, la agitación de las moléculas aumenta igualmente; por lo que ejercen mayor presión sobre las paredes de la bolsa, lo que tiene como consecuencia el aumento de su volúmen.
Estos dos principios difieren de las explicaciones previas en dos aspectos importantes: son cuantitativos, nos dicen la magnitud que cabe esperar de un efecto, y se pueden aplicar a otros experimentos además del que estamos describiendo. Estos principios se pueden aplicar al caso de la bolsa con aire caliente. De acuerdo con la ley de Gay-Lussac, al calentar el aire se expansiona, por lo tanto desplaza una cantidad de aire más frío, exterior a la bolsa, que es más pesado que el aire caliente del interior. Luego por el principio de Arquímedes, el cuerpo sumergido (es decir la bolsa con aire caliente) es empujado hacia arriba por una fuerza que es mayor que su propio peso. De esta forma la bolsa se eleva hasta el techo. Cuando el aire en su interior se enfría, se vuelve tan pesado como el aire que le rodea y el peso extra de la bolsa, es suficiente para hacerla descender. Ambos principios son ejemplos de leyes empíricas, que describen lo más fielmente posible, qué es lo que sucede.
Feynman y la educación científica Aunque nunca hayan oído hablar de Richard Feynman (1918-1988) su aliento seguramente les haya rozado en algún momento de sus vidas, sobre todo si han tenido la suerte de disfrutar de uno de esos maestros que se divierten horrores enseñando ciencia y haciéndonos sentir el placer de la propia inteligencia. Feynman no era el típico físiqueiro de camisa de rayas con el bolsillo petao de bolis de cuatrocolores y mirada perdida en un espacio multidimensional que caricaturizó con precisa crueldad Jerry Lewis en El
25 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
profesor chiflado. Al contrario: brillante, seductor y deslenguado, la biografía de Feynman revela a un tipo dispuesto a disfrutar de la vida, ya sea haciendo y enseñando física, o como miembro de un grupo de samba y asiduo intérprete de frigideira en el carnaval de Río. Fue precisamente en una de sus estancias en Brasil donde tuvo lugar la anécdota que hoy les cuendo, recogida en ¿Está Vd de broma Mr Feynman? Nuestro hombre había pasado varios meses dando clases a universitarios brasileños, asombrado por el carácter memorístico de los estudios de física e ingeniería: sus alumnos conocían al dedillo todas las definiciones pero eran incapaces de aplicarlas a problemas reales; anotaban atentamente todo lo que decía el profesor pero nunca, jamás, hacían una pregunta sobre lo que escuchaban. Al final del curso fue invitado a contar sus experiencias como profesor ante una nutrida representación de la comunidad universitaria. La sala de conferencias estaba llena. Comencé definiendo la ciencia como una forma de comprender el comportamiento de la naturaleza. Luego pregunté: ¿Hay alguna buena razón para enseñar ciencia? Desde luego, ningún país puede considerarse civilizado a menos que triqui, triqui, triqui...? Y allí estaban todos diciendo que sí con la cabeza, porque así es como piensan. Luego dije, ¿Esto por supuesto es absurdo, porque ¿qué motivos tenemos para pensar que debemos estar a la altura de otros países? Tiene que haber alguna razón seria, no sólo que otros países también lo hacen. Hablé entonces de la utilidad de la ciencia, de su contribución a la mejora de la condición humana y todo eso, provocándoles un poco. Y seguí: El objetivo de mi charla es demostrarles que en Brasil... ¡no se enseña absolutamente nada de ciencia! Podía verlos agitarse pensando: ¿Cómo? ¿Nada de ciencia? ¡Es una estupidez!, pero si tenemos todos estos cursos?. (...) Así que sostuve el libro de física elemental que ellos usaban y dije: En ningún lugar de este libro se mencionan resultados experimentales, excepto en un sitio donde hay una bola que rueda por un plano inclinado y se cuenta hasta dónde ha llegado la bola al cabo de un segundo, dos segundos, tres segundos, etc. Los datos incluso vienen con errores de modo que si uno los analiza parecen auténticos resultados experimentales, un poco por arriba o por debajo de los valores teóricos. Hasta se menciona la necesidad de corregir los errores experimentales, lo que es estupendo. El problema es que si calculamos el valor de la aceleración a partir de estos datos obtenemos la respuesta correcta. Sin embargo, una bola que rueda por un plano inclinado, si realmente se hace el experimento, debe emplear parte de su energía para vencer la inercia y empezar a rodar, lo que hace que con los datos reales obtengamos un valor de la aceleración que es 5/7 del valor teórico. Así pues, este único ejemplo de un experimento es algo totalmente ficticio. ¡Nadie ha hecho rodar nunca esa bola, o no habrían obtenido este resultado!. También he descubierto otra cosa, continué. Pasando las hojas al azar y poniendo el dedo en cualquier página puedo mostrarles el problema; lo que allí aparece no es ciencia, sino memorización. Así que seré lo suficientemente valiente como para hacerlo ahora, frente a esta audiencia, y poner el dedo en cualquier sitio y leerles una frase cualquiera. Y así lo hice. Brrrrrrrrrup - puse el dedo y comencé a leer: Triboluminiscencia. Triboluminiscencia es la luz que se emite al aplastar cristales... ¿Es esto ciencia? ¡En absoluto! Lo que aquí tenemos es lo que una palabra significa en términos de otras palabras. No hemos dicho nada sobre la naturaleza, nada sobre el hecho de que cuando uno aplasta cristales se produce luz, y por qué se produce. ¿Han visto alguna vez a un
26 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
alumno intentarlo? No lo verán, pues no pueden.
1.3 Escepticismo y pensamiento crítico Las personas tendemos a agrupar nuestros conocimientos y queremos saber la razón por lo qué ocurre una cosa determinada. Nos preguntamos cuál es la relación entre una experiencia concreta y alguna otra experiencia. A lo largo de la historia de la humanidad han existido grandes pensadores, que han influido mucho en el desarrollo posterior. La mayoría de las veces dudamos de las diversas razones que se nos presentan para explicar un fenómeno, algunos, incluso creemos en muy pocos hechos, esta visión de la realidad es lo que se denomina escepticismo.
Enlace recomendado: ¿Qué es el pensamiento crítico? Con frecuencia a los escépticos se nos describe como personas inhumanas, frías y robóticas, esto es falso. Como todo el mundo tenemos creencias (o convicciones como algunos prefieren denominarlas), generalmente de tipo racional, fundamentadas en la lógica, en conocimientos científicos y en hechos comprobados, nunca en el mero deseo de que algo sea cierto. En cuanto a la frialdad, es completamente falso, posiblemente apreciamos cosas diferentes. Los escépticos no somos menos apasionados, imaginativos o sensibles que los crédulos, y solemos tener mucho mejor sentido del humor.
Acerca del escepticismo
A pesar de todas las facilidades y el gran avance tecnológico que la ciencia ha logrado para la humanidad a lo largo de su historia, actualmente, como siempre, existe una enorme desinformación sobre varios aspectos del conocimiento humano. Se observa que por muchos motivos (¿educación deficiente seria uno?), que un gran número de personas no consigue distinguir fácilmente entre una realidad posible y una realidad ficticia. Esta dificultad en separar lo real de lo irreal, permite la aparición y proliferación de personas o grupos organizados que fomentan la desinformación con el objetivo de obtener ventajas de algún tipo (monetarias, políticas, etc.), y con este fin incentivan conscientemente la desinformación y la ignorancia. Preguntas que nos hacemos ¿Cómo curar rápidamente una enfermedad terrible? ¿Cómo saber el futuro y así prevenir posibles desventuras? ¿Existe alguna entidad superior que se preocupa por mí y me protege? Estas son preguntas obvias que una persona con el mínimo de discernimiento ha realizado en alguna etapa de su vida. ¿Quién no ha tenido veces incontables problemas de salud, de dinero o sentimentales, problemas que ponen a prueba hasta la última pizca de resistencia física y emocional? Lamentablemente, la vida para una enorme mayoría de la población es una sucesión de penurias sin
27 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
fin, cuyos orígenes muchas veces vienen del propio ámbito y educación familiares, pasando por una deficiente educación escolar, y finalizando en una sociedad desorganizada y no preparada para resolver problemas elementales e inmediatos. En este contexto, nada más natural que buscar una tabla de salvación en cualquier mano que se extienda para aparentemente ayudar, buscando respuestas fáciles e inmediatas a problemas difíciles y complicados. Derecho a la duda La rígida educación que nuestras sociedades han impuesto, limita desde temprano nuestra capacidad de rebelión contra ideas y preconceptos adquiridos, y por esta razón, tendemos a aceptar casi todo lo "establecido" como siendo algo intrínsecamente verdadero e irrevocable. La conclusión es que hay millones de personas que no saben que tienen un derecho elemental, tanto como comer y respirar, y es el derecho a la duda. Todos nacemos con este derecho, el de preguntar, indagar, cuestionar y exigir pruebas ante cualquier afirmación realizada, sea del cuño que fuere, científica, política, religiosa o económica, pero muy pocas personas ejercen este derecho natural. El escepticismo es la escuela que pregona el uso de este derecho, el irrenunciable derecho a la duda, el derecho que toda persona tiene a no ser engañada, manipulada o dirigida con fines excusos y escondidos. El escepticismo es la sana actitud que hace rodar con suavidad el progreso de la ciencia, invitándonos a cuestionar continuamente las bases de las disciplinas que dieron al hombre la supremacía sobre el planeta, como son la Física, la Biología, la Química y otras, y que soportan a nuestra tecnología. Un escéptico no acepta ninguna verdad establecida a priori, sino que la acepta al final de una larga cadena deductiva, o sea, cuando ya no hay argumentos que puedan invalidarla. Por el contrario, otras escuelas de pensamiento pregonan algunas verdades como siendo legítimas por derecho propio, y que necesitan argumentos propios para negarlas. Exije pruebas Así, la próxima vez que alguien te prometa una cura milagrosa a través de una piedra, pregúntate antes: ¿cómo una piedra puede influir en mi salud?, cuando alguien te hable de energías espirituales que realizan milagros, piensa si existe algún tipo de energía que no pueda ser medida ni estudiada (sin necesidad de ser un experto en Física), y cuando te digan que ha sido visto un habitante de otro planeta, pregúntate antes, cómo es que millares de astrónomos profesionales que vigilan el cielo día y noche nunca han visto nada. Exije pruebas, no te conformes con cualquier cosa. La persona que duda es la que debe ser convencida, y así, tiene todo el derecho de escoger que armas prefiere, como le gustaría ser convencida, y que método lógico desea emplear. Cabe al proponente responder a todas y cada una de las dudas levantadas y dejar satisfecho al escéptico en cuestión. Si alguna duda persiste después de presentadas todas las pruebas posibles, entonces el escéptico tiene todo el derecho de continuar siendo escéptico.La carga de la prueba siempre recae sobre quien afirma algo.
28 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
¿Qué es el argumento ad ignorantiam? Un sujeto afirma el enunciado A y le pide a un segundo sujeto que intente demostrar que el enunciado A no es cierto. Si el segundo sujeto fracasa en su demostración, el primer sujeto dirá que su enunciado es cierto. Se trata del argumento ad ignorantiam: si no puedes probar que lo que yo digo es falso, entonces lo que yo digo es verdadero. Lo increíble es que aún hoy se siga usando este argumento continuamente: demuestra que no he visto un ovni, demuestra que no hay fantastmas en tal hotel abandonado, demuestra que mi péndulo no te adivina el futuro, etc. Pues yo les digo a estos seguidores ikerjimenianos: hoy he viajado al futuro y he conocido a mis nietos, tenían elefantes rosas con medias turquesas. Demostradme que es falso. Este tipo de argumentación puede llevar a defender enunciados absurdos, aunque también es útil para la sociedad: todo el mundo es inocente mientras no se demuestre lo contrario. Por último un texto de Locke en el que cataloga los argumentos en cuatro clases: Antes de abandonar este asunto deberíamos reflexionar un poco sobre estas cuatro clases de argumentos.... El primero consiste en recibir las opiniones de aquellos hombres que, por su aprendizaje, por su eminencia, por su poder o por alguna otra causa, han adquirido una reputación y la han asentado con autoridad ante los demás. Cuando los hombres han sido elevados a cualquier clase de dignidad, se considera una falta de modestia, en otros, contradecirles en cualquier asunto, o poner en duda la autoridad de aquellos hombres que ante los demás la tienen. Se suele censurar el que un hombre no abandone rápidamente su propuesta ante la de otros autores ya consagrados, considerándolo como un acto de orgullo desmedido; ....El que basa sus tesis en unas autoridades semejantes, piensa que siempre debe de triunfar en su causa, y se muestra dispuesto a calificar de imprudente a cualquiera que ose contradecirlas. Esto es lo que pienso se puede llamar «argumentum ad verecundiam»...En segundo lugar, otra forma de la que los hombres se valen comúnmente para acallar a los demás, y para obligarlos a aceptar sus juicios y a recibir las opiniones en debate, estriba en exigir al adversario que admita lo que ellos alegan como una prueba, o que designen otra mejor Y a esto es a lo que llamo «argumentum ad ignorantiam».... Una tercera forma consiste en obligar a un hombre mediante consecuencias extraídas de sus propios principios a concesiones. Esto es lo que ya se conoce con el nombre de «argumentum ad hominem»..... La cuarta manera consiste en el empleo de pruebas extraídas de los fundamentos del conocimiento o de la probabilidad. Es a lo que llamo «argumentum ad judicium». Este, entre los cuatro, es el único que conlleva una verdadera instrucción y que nos hace adelantar en el camino del conocimiento...ya que, tal vez, me puede llevar hacia la reflexión de la verdad. ( Referencia)
Fuente: Ciencia en el XXI. Mirando con la mente. Bajo licencia Cretaive Commons
El movimiento escéptico utiliza la red para propagar sus ideas 29 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Lo irracional nos invade, siendo el mundo de lo paranormal su punta de lanza más visible. El movimiento escéptico trata de combatir esta plaga a base de "fomentar la reflexión y la duda". Sus socios, entre los que se incluyen prestigiosos científicos, pensadores o periodistas de todo el mundo animan a cualquier persona a participar. Internet es una de sus herramientas más poderosas. Jueves, 14 junio 2001 ÁLEX FERNÁNDEZ, IBLNEWS.com Un 15% de la población recurre a curanderos cuando tiene algún problema de salud; entre la cuarta parte y la mitad de los españoles tiene alguna creencia esotérica; las dos principales revistas ocultistas de España venden más de 50000 ejemplares mensuales. La lista de este tipo de datos es muy larga, lo cual es preocupante, por lo menos para aquel que se considera escéptico. ¿Eres un escéptico? Seguramente tú, lector de IBLNEWS, seas un escéptico, aunque no seas consciente de ello. De todas formas, si no tienes muy claro que es eso de ser escéptico, te animamos a que leas las siguientes preguntas. Si tus respuestas son negativas, ¡felicidades!, eres un escéptico convencido: ¿Es posible adivinar el futuro? ¿Visitan la Tierra seres de otros planetas? ¿Convivió el ser humano con los dinosaurios? ¿Está próximo el fin del mundo? ¿Ha demostrado la NASA que Jesucristo resucitó? ¿Es peligroso viajar por el triángulo de las Bermudas? ¿Tiene Satanás debilidad por la España profunda? ¿Hay gente capaz de operar sin causar dolor ni cicatriz alguna? ¿Está el futuro escrito en las estrellas? ¿Existen las casas encantadas? ¿Se pueden doblar cucharas con el poder de la mente? ¿Es posible comunicarse con el mundo de los espíritus? ¿Dejó Dios escrito en la Biblia el pasado y el futuro de la humanidad? ¿Son las pirámides egipcias obra de seres venidos de otros mundos? ¿Se manifiestan los espíritus a través de la ouija? Puede que parezcan estúpidas algunas de dichas preguntas, pero como decimos, muchas personas responderían convencidas con un sí. Para Manuel Toharia, director del Museo de Ciencias de Valencia y miembro de la ARP- Asociación para el Avance del Pensamiento Crítico, la postura escéptica nace como reacción a la enorme cantidad de creencias basadas en afirmaciones de personas que se arrogan cierta autoridad y/o que tienen suficiente credibilidad entre personas crédulas ("si no hubiera bobos no habría engañabobos"). Origen de la palabra "escéptico" Tal vez haya más de uno que le suene mal aquello de ser "escéptico". En opinión de Félix Ares, director del Museo de Ciencias de San Sebastián y actual presidente de la Asociación, "en castellano la palabra escéptico tiene connotaciones negativas que no lo tenía la palabra griega "esketikos". En efecto, el escepticismo surge en la Grecia Clásica como escuela filosófica y su creador, Pirron de Elis, defiende que es imposible conocer algo de modo totalmente cierto. Los escépticos, por lo tanto, le dan ese sentido, como nos recuerda Ares: "todo saber es provisional y revisable. Duda de todo. No creas en "popes" de ningún tipo". El movimiento escéptico surge hace 25 años en Estados Unidos de la mano del filósofo Paul Kurtz, que ayudado por científicos de la talla de Carl Sagan, Isaac Asimov, Martin Gardner o Stephen Jay Gould crean la CSICOP, el Comité para la Investigación
30 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Científica de lo Paranormal. En el mundo de habla hispana la idea cuaja en 1985 con la creación de la sociedad ARP, la Alternativa Racional a las Pseudociencias, en la que siguiendo la estela de la CSICOP, comienza a ganar paulatinamente adeptos en la lucha contra lo irracional. Según Luis Alfonso Gámez, periodista de El Correo y miembro histórico de la ARP, "A mediados de los años 80, ufólogos, astrólogos, parapsicólogos, curanderos y demás campaban a sus anchas por los medios de comunicación sin que nadie les llevara la contraria. Hasta que ARP empezó a sonar en los medios". Sin embargo, la lucha es desigual. Para Toharia, "el combate contra las seudociencias tiene pocos apoyos oficiales. En realidad, parece como si a los rectores de la sociedad no les importase el nivel de engaño que sufren sus conciudadanos, generalmente por un deficiente nivel cultural en lo científico". Según Gámez, "el gobierno norteamericano ha preferido que la gente crea en OVNIs, para que no se hable de proyectos secretos gubernamentales". Internet: poderosa herramienta Internet se ha convertido para los escépticos en el medio de comunicación y expansión por excelencia. Como bien dice Javier Armentia, director del Planetario de Pamplona y expresidente de la ARP, "en el últimos años, la labor de ARP se ha visto renovada con nuevas aportaciones, de profesionales de muchos campos de la actividad intelectual. Ello ha sido posible gracias a la popularización de esa nueva ágora que supone Internet". Y es que la red ha permitido que el mensaje de ARP llegue a los escépticos de habla hispana de todo el mundo bien a través de las webs de la asociación y sus simpatizantes, bien a través de la lista de correo escéptica hispana. Según Gámez, "Internet es ahora para nosotros una herramienta básica tanto de proyección hacia el exterior como a la hora del trabajo interno: reuniones de la directiva, intercambio de opiniones con los socios, sesiones del consejo de redacción de nuestra revista, etcétera. Es un frente en el que no pasa semana sin que recibamos alguna solicitud de adhesión." No sólo las pseudociencias Más de uno podría pensar que los escépticos se limitan a luchar contra las pseudociencias. Sin embargo, ser escéptico supone algo más, tal y como se refleja en los estatutos de la asociación: "La ARP impulsa el desarrollo de la ciencia, el pensamiento crítico, la educación científica y el uso de la razón; promueve la investigación crítica de las afirmaciones paranormales y pseudocientíficas desde un punto de vista científico y racional, y divulga la información sobre los resultados de estas investigaciones entre la comunidad científica y el público en general." Por otra parte, los escépticos no tratan de eliminar las creencias por sí mismas. Como bien dice Toharia, "una creencia, sin más, podría ser criticada pero la libertad de las personas para creer lo que quieran está por encima de lo demás (otra cosa es que quieran imponer esa creencia por la fuerza, claro). Pero un creencia que se disfraza de ciencia no es más que un fraude que hay que denunciar ante la sociedad como tal". Por su parte, según Félix Ares, "Nunca nos hemos metido con las creencias; nos hemos metido con aquellos que dicen que sus creencias están demostradas científicamente. Por ejemplo, nunca nos hemos metido con los que creen que la Sabana Santa es la mortaja de Jesucristo. Sí lo hemos hecho con los que dicen que la Ciencia ha demostrado que es la mortaja de Jesucristo."
31 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Queda mucho por hacer Además de por lo comentado anteriormente, además de pensar y vivir como un escéptico, se puede actuar como tal: Según Toharia "los que hemos dado ese paso pensamos que no basta con tener una postura escéptica, sino que hay que evitar que determinados "cuentistas" sigan engañando a la gente; se trata de los que, tomando el idioma y la apariencia de la ciencia, no hacen más que propagar creencias sin fundamento racional alguno". En definitiva, se trata de combatir y someter a análisis escéptico no sólo lo paranormal, sino todo conocimiento situado en el límite del saber científico y toda afirmación que se sustente en él, en la pseudociencia o en la falsa ciencia. Así quedaba reflejado en el editorial de la primera revista de la Sociedad: "Hay que acabar con las falacias a las que se agarran los charlatanes pseudocientíficos para defender su presencia en los medios de comunicación y para no ser objeto de chanzas, la principal de las cuales es argüir que todas las ideas son respetables y tienen el mismo derecho a ser defendidas. No, no es verdad. No todas las ideas son respetables. Las idioteces no son respetables; son idioteces. Y, a veces, peligrosas. Cuando un pseudoarqueólogo aventura que algunas razas humanas descienden de extraterrestres y otras no, está haciendo un nada sutil ejercicio de racismo, y el racismo no es respetable, y hay que denunciarlo". El editorial también hacía referencia a la influencia de los pseudocientíficos a través de los poderosos medios de comunicación. En opinión de Luis Alfonso Gámez, si bien la prensa escrita ha ido retirando de sus páginas el mundo de la pseudociencia, los medios audiovisuales siguen siendo un lugar de referencia para los seguidores de lo paranormal. Queda por lo tanto mucho por hacer, sobre todo para que no ocurran casos como los de políticos que apoyan la inclusión de la homeopatía en la Sanidad Pública o que respetables Universidades recojan en sus planes de estudios seminarios, cursos o asignaturas sobre astrología.
1.4 Algunos casos en la informática HOAXES (burlas, engaños) Mensajes de solidaridad para ayudar a niños enfermos que no existen, falsas alertas de virus, dudosos métodos para hacerse millonario. Cualquier cadena es buena para recolectar direcciones de correo electrónico y saturar los servidores. Hay otros que repiten el esquema de las viejas cadenas de la suerte que recibíamos por correo postal que te auguran calamidades si cortabas la cadena y te prometen convertirte en millonario si la sigues. He recibido muchas cadenas en las que se decía "no sé si será cierto pero por las dudas yo lo reenvío". Para los temerosos, supersticiosos y magufos, la realidad es que yo he roto infinidad de cadenas y no me ha sucedido nada. Básicamente, podemos dividir los hoaxes en las siguientes categorías: * Alertas sobre virus incurables * Mensajes de temática religiosa * Cadenas de solidaridad * Cadenas de la suerte
32 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
* Leyendas urbanas * Métodos para hacerse millonario * Regalos de grandes compañías * Otros * Mensajes tomando el pelo a la gente que envía hoaxes Hay otros mensajes que no nacen como hoaxes pero pueden ser considerados como tales: * Poemas y mensajes de amor y esperanza (suelen venir en un archivo de Power Point pesadísimo). * Mensajes para unirte a programas de afiliados. * Chistes y fotos que circulan en cadena.
Enlace recomendado: Hoax. Los mitos más difundidos en Internet Algunos detalles sobre los hoaxes (Información ampliada en Rompecadenas) Características No tienen firma. Algunos invocan los nombres de grandes compañías. Piden al receptor que lo envíe a todos sus contactos. Te amenazan con grandes desgracias si no lo reenvias.
Objetivos Conseguir direcciones de mail. Congestionar los servidores. Alimentar el ego del autor.
Consecuencias Hacen perder tiempo y dinero al receptor. Congestionan los servidores. Nos llenan de publicidad y basura. Hacen perder valor a cadenas creadas por gente que realmente lo necesita.
Hoax "Virgen de Guadalupe" Este mensaje es un hoax y no debe ser reenviado. El texto es el siguiente: "Asunto: VIRGEN DE GUADALUPE No rompan la cadena, es milagrosa, pidan algo!!! Recuerden sus palabras: "No estoy yo aqui que soy tu Madre?"
33 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Carta a la Virgen de Guadalupe: Hermosa Virgen de Guadalupe, te pido en nombre de todos mis hermanos del mundo que bendigas y nos protejas. Danos una prueba de tu amor y bondad y recibe nuestras plegarias y oraciones. Oh Purisima Virgen de Guadalupe, alcanzame de tu hijo el perdon de mis pecados, bendicion para mi trabajo, remedio a mis enfermedades y necesidades, y todo lo que creas conveniente pedir para mi familia. Oh Santa Madre de Dios, no desprecies las suplicas que te dirigimos en nuestras necesidades. Queridos hermanos, antes que nada quiero decirles que la Virgen de Guadalupe es buena y milagrosa y siempre nos acompaña en cualquier lugar. Esta carta tiene como fin darle la vuelta al mundo para recibir milagros con esta hermosa cadena. Debes hacer 19 copias y repartirlas en los siguientes diez dias y a cambio recibiras una prueba de la Virgen por muy imposible que sea. Esta carta es sagrada, por favor no te burles de ella, si la recibes y la repartes antes de los 10 dias, tendras una sorpresa y una felicidad muy grande. QUE TENGAS UN BUEN DIA"
SPAM (Correo no solicitado) Todos los usuarios de correo electrónico estamos acostumbrados a recibir cada día mensajes publicitarios no solicitados. Esta práctica, aunque no es ilegal en muchos países, ya que no hay leyes que la prohiban, perjudica a todos los usuarios de internet, inclusive a quienes la realizan. Actualmente, se calcula que más del 50% de los e-mails que se envían son no solicitados, o sea, son spam. Esto quiere decir que en el momento en que estás leyendo este tema, se están enviando varios millones de e-mails no solicitados. El spam es perjudicial para todos, hasta para la empresa que lo envía. Por lo general, las direcciones son robadas o compradas. Yo mismo recibo cada día dos o tres ofertas de bases de datos con millones de direcciones de email al increible precio de US$ 35. Esta gente aclara, con gran dignidad, que no copia ni vende software. También ponen en sus mensajes (que dicho sea de paso son spam porque no son solicitados) "no compre bases truchas, todas nuestras bases cuentan con direcciones reales y activas". Aunque hay algunos spammers que te envían solamente un mensaje, también hay muchos que te bombardean todas las semanas con el mismo mensaje con archivos adjuntos sobre la necesidad de filtrar el agua de la ducha con un análisis de varias páginas, que nadie lee. De todos modos, si cada persona que abre una página web te va a enviar un mail, el correo electrónico sería absolutamente inservible. Tampoco es lógico que me envíen un mensaje en formato HTML promocionando un nuevo servicio de distribución de videos, exclusivo para la ciudad de Lima, cuando yo vivo a miles de km de distancia.
34 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Esto, además de ofrecer una imagen negativa sobre la empresa que envía el spam, muestra la poca utilidad de las bases de datos compradas. Por otro lado los spammers invocan una supuesta ley por la cual el mensaje que están enviando no puede ser considerado spam si tiene una forma de ser removido. Esto es falso, esa ley no existe. Además, la mayoría de las veces si uno contesta el mail pidiendo ser eliminado de la lista, lo único que hace es confirmar que su dirección existe. Por lo tanto, es conveniente no responder nunca a un mensaje no solicitado. Lo mejor es aplicar filtros o reglas de mensaje para evitar recibir mensajes de esas direcciones, un programa para el entorno Windows, gratuíto y muy bueno, es K9. Otra opción, es quejarse al postmaster del que envía el spam. Lo más peligroso de muchos correos no solicitados, es que pueden incluir archivos con virus o troyanos, y ser activados ya sea de forma involuntaria al intentar leerlos o incluso si se tiene un programa de correo como Outlook (de Microsoft)se activan automaticamente. Es imprescindible el tener siempre un programa antivirus y otro que detecte los troyanos, el detector de troyanos (o programas espía) más completo y gratuito es Ad-Aware, que se puede descargar de Lavasoft. Se ha de tener mucho cuidado con este tipo de programas, pues algunos eliminan los troyanos, pero ellos son otros troyanos. Un troyano reciente, Whiter.F, está diseñado para eliminar todos los archivos del disco duro. Se propaga mediante correo electrónico, redes P2P, canales de IRC o transferencias FTP. EL usuario ve un mensaje que dice "cometiste un acto de pirateria, te lo mereces" y seguidamente borra los ficheros del disco duro. La proliferación de filtros y virus se esta convirtiendo en un problema para los "spammers" profesionales. Resulta que muchos proveedores de internet impiden que los mensajes comerciales no solicitados llegen a los buzones de los usuarios. Por supuesto que no están dispuestos a ver como ese millonario negocio se derrumba y ahora han centrado sus esfuerzos en bombardear a los usuarios de las aplicaciones de mensajería instantánea. AOL IM, Yahoo Messenger, ICQ y por supuesto MSN Messenger son desde hace unas semanas un lugar donde no es raro encontrarse con un mense promocionando un producto y que no sabes como ha llegado hasta allí. Se trata de spim, durante el 2003 se enviaron 1000 millones de spims, aunque en el 2002 fueron 500 millones, según recoge en una investigación Ferris Research. Y para este año se prevén nada más ni nada menos que 4000 millones.
Juego de Palabras: 'Spam' Publicado en el suplemento cultural 'Territorios' de El Correo, 13.10.04
35 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
La lengua inglesa goza de una inventiva peculiar para crear palabras, y también de una capacidad especial para consolidarlas en el habla. Así se ha visto con "spam", el término con que ya todos los usuarios del correo electrónico denominan a los mensajes parasitarios que entran en su buzón. Hay quien piensa que la palabra es un tecnicismo de la informática formado bien mediante siglas, bien por abreviatura de otra voz más larga. Pero no nació así. "Spam" es el nombre de una marca de comida popularizada a mediados del siglo XX. Se trataba de una variedad de carne en lata, puesta en el mercado norteamericano por la empresa charcutera Hormel Foods en 1937. Sirvió de alimento a los soldados estadounidenses y rusos en la II Guerra Mundial, y en los años 50 y 60 empezó a exportarse a varios lugares del mundo. Fue entonces cuando lo que en principio se había llamado "Hormels Spiced Ham" quedó reducido a las cuatro letras de "Spam", de mayor pegada comercial. Nada de esto explicaría cómo pudo "spam" llegar a la jerga informática, ni siquiera metafóricamente, si no fuera porque los tronchantes Monty Python la usaron hasta la saciedad en un sketch de su "Flying Circus" en 1969. En él, unos vikingos entraban en una taberna y pedían la carta a la camarera, quien les recitaba una inacabable retahíla de platos... en ninguno de los cuales faltaba el "spam": «huevos con spam, spam con tomate, bacon y spam...». Al igual que el correo electrónico no querido, el spam lo invadía todo y había que tragarlo de todas formas. José María Romera
PHISHING Recientemente se han popularizado los ataques phishing. Es una estafa que utiliza mecanismos electrónicos, como puede ser un mensaje de correo o una página web, para convencer al usuario que revele información sensible, que va desde datos personales y privados hasta las claves de acceso a servicios. Los ataques phishing son posibles por la combinación de unos mecanismos débiles de protección de acceso que generalmente no son otra cosa que una simple combinación de usuario y contraseña, y la capacidad innata de las personas a revelar cualquier información a quien nos la pregunte. El método utilizado con más frecuencia en los casos de phishing masivo consiste en el envío de mensajes que simulan ser enviados por alguien sobre quien en teoría confiamos (habitualmente bancos) y donde se nos informe que, por cualquier circunstancia, es preciso revelar nuestra contraseña de usuario o bien "verificar" nuestros datos rellenando un formulario.
36 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
La experiencia demuestra que la mayoría de las personas simplemente actúa de buena fe y se cree cualquier petición de datos privados. SMISHING El SMiShing es como se denomina a un reciente tipo de delito usando técnicas de ingeniería social mediante mensajes de texto dirigidos a los usuarios de telefonía móvil celular. Las víctimas reciben mensajes cortos de texto con contenido similar a este: "Estamos confirmando que se ha dado de alta para un servicio de citas. Se le cobrarán dos euros al día a menos que cancele su petición: www.?????.com", cuando accedemos a la dirección web, las víctimas son incitados a descargar algún programa que suele ser un troyano y si operamos bajo Windows es fácil que se instale en el ordenador. Otras veces el mensaje señala un número para anular el servicio y una grabación pedirá datos personales, entre ellos un número de cuenta bancaria o tarjeta de crédito. Hay otros que avisan de que hemos recibido una foto, premio, video, tarjeta de felicitación, etc, con el mismo resultado final de ser víctima de un fraude. WEB FALSA DE RECARGAS - Es una variante del Phishing que solo busca un propósito, robar datos bancarios a los usuarios. Detrás de llamativas ofertas prometiendo recargas más económicas (habitualmente de telefonía móvil celular) se puede esconder una estafa, que lo único que busca es hacerse con información del usuario. -Este tipo de fraude puede ser algunas veces mas peligroso que el tradicional phishing, el ataque no es directo, se encuentra en los anuncios de los enlaces patrocinadores de buscadores de Internet. OFERTA FALSA DE TRABAJO SCAM O PHISHING LABORAL / MULERO El Scam es la captación de personas por medio de correos electrónicos, anuncios en web de trabajo, chats, irc, etc... donde empresas ficticias le ofrecen trabajar cómodamente desde casa y cobrando unos beneficios muy altos. Sin saberlo, la víctima esta blanqueando dinero obtenido por medio del phishing (procedente de estafas bancarias). * Siempre le piden que tenga o abra una cuenta bancaria. * Su trabajo consiste en recibir transferencias bancarias a su cuenta bancaria, sacar este dinero posteriormente para enviarlo a países extranjeros por medio de empresas tipo Western Union, Money Gram. * Frases para captar a victimas: ¿Esta usted en paro y tiene ganas de trabajar? ¿Quiere obtener un dinero extra? ¿Quiere trabajar cómodamente desde casa? ¿Quiere tener beneficios de forma rápida?. * Nos mandan un contrato (falso) para hacer mas creíble la oferta. Una vez obtenidos los datos de la victima y no colabora la victima será amenazada. PHISHING-CAR - OFERTAS FALSAS DE VEHÍCULOS
37 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Captación de compradores de coches a un coste muy bajo, la venta nunca se efectúa, esta persona realiza un pago como señal, se queda sin dinero y sin coche. - ¿Como se produce y en que consiste? Se producen por medio de llamativas ofertas en vehículos lujosos, incluso tienen web trampas con nombre de dominios muy similares a empresas con mucho prestigio que se dedican a la venta de vehículos de ocasión, pero todas los fraudes tienen algo en común: * El pago se realiza por medio de empresas de envió de dinero a otros países (Western Union, Money Gram). * El vendedor le oferta la entrega a domicilio. * En un 90% el vehículo que venden esta fuera de su país, de esta manera usted solo puede verlo en fotos. * Le piden primero el 30% o el 40% del precio ofertado como primera señal. * Captan a las victimas por medio de anuncios en web de venta de coches o de segunda mano y por supuesto la recepción de correos electrónicos. * Muchas veces el vendedor dice que es un español que vive en Gran Bretaña y por motivos laborales de estancia en el país ingles, tiene que cambiar de forma urgente de coche por que se conduce por la izquierda y su coche al estar matriculado en España el volante esta al lado contrario y no se adapta, por este motivo vende el coche de forma muy económica, te enseñan un coche matriculado en España. * La mayoría de los estafados enviaron el dinero a Reino Unido, esto no quiere decir que cambien. PHARMING Es una técnica para llevar a cabo estafas "online", aunque en muchos medios comentan que no es necesario usar ingeniería social esta definición no es totalmente cierta ya que es necesario que nuestra maquina o la remota "sea manipulada". El pharming consiste en manipular las direcciones DNS que utiliza el usuario, con el objetivo de engañarle y conseguir que las paginas que visite el usuario no sean realmente originales aunque su aspecto sea idéntico. Resumiendo desvía el tráfico de Internet de un sitio web hacia otro sitio de apariencia similar, con la finalidad de engañar a los usuarios para obtener sus nombres y contraseñas de acceso, que se registrarán en la base de datos del un sitio falso que fue creando antes y donde simula a la web que suplantan. * Hay gusanos y troyanos que realizan esta función. * La victima se entera cuando existe un movimiento extraño de dinero en sus cuentas. LOTERIAS FALSAS Falso premio de loterías, el usuario recibe un correo electrónico donde le notifican que tiene un premio de
38 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
loteria, si un usuario contesta a este correo le solicitaran a continuación todos datos bancarios para un falso ingreso del premio. En otros casos se le solicita un parte del premio que tendrá que enviarlo a un país para poder cobrar el premio completo. En todos los casos el premio es falso. (Fuentes: Ministerio de Industria, julio de 2006 y Guia Rápida sobre el Fraude en la Red. Comisión de seguridad en la red de la Asociación de Internautas a cargo de José María Luque Guerrero.") BOTNET Una botnet, o red robot, consiste en cierto número de ordenadores que, sin el conocimiento de sus propietarios, han sido infectados por código malicioso y están siendo manipulados para enviar programas maliciosos, como spam y spyware, hacia otras computadoras en Internet. Tales ordenadores, llamados bots en el argot informático, operan bajo el control de un solo hacker (o un pequeño grupo de ellos) conocido como botmaster. Una vez que el botmaster ha creado la botnet, los ataques pueden ocurrir de diferentes maneras: denegación de servicio distribuido Negación del Servicio (DDoS -Distributed Denial of Service), spam, keyloggers programas espías que capturan la actividad del teclado de los usuarios- o ataques remotos. Una de las principales estrategias de captación de atención de esta amenaza se basa en la ingeniería social. Por ejemplo, a través del envío de un mail cuyo título indica: Check out this picture! (¡Mira esta foto!) . Así, en un archivo adjunto infectado que simula ser una imagen .JPG, los hackers pueden inspeccionar en búsqueda de vulnerabilidades dentro del sistema operativo o navegador. En cuestión de segundos, la red queda infectada. Los síntomas que puede detectar el usuario para determinar si su red ha sido infectada son: 1. Lentitud anormal en su sistema. 2. Aumento en el consumo de ancho de banda. 3. Mensajes emergentes extraños.
Enlaces recomendados: Carlo M. Cipolla: estupidez humana Ccleaner, limpiador de basura en discos, bajo Windows Ad-Aware detector y limpieza de troyanos
Bibliografía recomendada: Bouvet, J.F.(dirección), Hierro en las espinacas, Taurus, Madrid, 1999 Dawkins R., Destejiendo el arco iris, Tusquets Editores, Barcelona, 2000
39 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Sagan C., El Mundo y sus Demonios, Planeta, Barcelona, 1997 Sánchez Ron J.M., Historia de la Física Cuántica, Crítica, Barcelona, 2001 Shapiro E. , Física sin matemáticas, Alhambra, Madrid, 1981
Enlaces recomendados: ARP-SAPC Sociedad para el avance del pensamiento crítico ¿Existe el método científico? La página racionalista Rompecadenas Sin dioses Maguferías en criminología Fraudes en medicina y psicología
Enlaces de interés: El nacimiento de la mecánica cuántica
Lista de citas y frases célebres:
Creer es más fácil que pensar. He ahí la razón de que hayan más creyentes. "Si la gente es buena sólo porque temen al castigo y porque esperan una recompensa, entonces verdaderamente somos un grupo lastimoso." Albert Einstein "Si ese ser es omnipotente, entonces cada ocurrencia, incluyendo cada acción humana, cada pensamiento humano y cada sentimiento y aspiración humana también es Su obra; ¿cómo es posible pensar en hacer responsable al hombre por sus actos y pensamientos ante tal Ser todopoderoso? Al dar castigo y recompensas, hasta cierto punto estaría juzgándose a Sí mismo. ¿Cómo puede combinarse esto con la bondad y justicia que se le adjudican? Albert Einstein, Out of My Later Years (New York: Philosophical Library, 1950), p. 27. "No puedo concebir un Dios que recompensa y castiga sus criaturas, o que tenga una voluntad del tipo que experimentamos en nosotros. Tampoco puedo ni quiero concebir un individuo que sobrevive a su muerte física; dejemos que los espíritus débiles, por
40 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
miedo o por egoísmo absurdo, valoren tales ideas. Yo estoy satisfecho con el misterio de la eternidad de la vida y con la consciencia y el atisbo de la maravillosa estructura del mundo existente, junto con la lucha dedicada a comprender una porción, así sea minúscula, de la Razón que se manifiesta a sí misma en la naturaleza." Albert Einstein, The World as I See It. "El comportamiento ético de un hombre debería basarse suficientemente en la simpatía, educación y los lazos y necesidades sociales; no es necesaria ninguna base religiosa. El hombre verdaderamente estaría en un pobre camino si tuviera que ser reprimido por miedo al castigo y por la esperanza de una recompensa después de la muerte." Albert Einstein, "Religion and Science", New York Times Magazine, 9 November 1930 "No creo en la inmortalidad del individuo, y considero que la ética es exclusivamente de interés humano, sin ninguna autoridad sobrehumana detrás de ella." "Albert Einstein: The Human Side", edited by Helen Dukas and Banesh Hoffman, and published by Princeton University Press. "Las bases de la moralidad no deberían ser dependientes de los mitos ni atadas a cualquier autoridad, no sea que la duda acerca del mito o de la legitimidad de la autoridad ponga en peligro la base del juicio y la acción intachables. " Albert Einstein "Si 50 millones de personas creen una tontería, sigue siendo una tontería." Anatole France Eh! supongo que somos gente horrible y realmente inmoral porque nos rehusamos a acoger la idea de un tipo grande en el firmamento que exige ser adorado y alabado todo el tiempo y que, si Ud. pertenece a la religión equivocada o no tiene religión, lo enviará a un campo de concentración subterráneo y eterno a freirse para siempre. Kel Crum Aunque se ha dicho que la fe mueve montañas, la experiencia ha demostrado que la dinamita lo hace mucho mejor. Si conoce el autor de esta cita, le agradeceré mucho si me lo hace saber. La verdad os hará libres. La mentira.. creyentes. Pepe Rodríguez. El problema con el mundo es que los estúpidos están seguros de todo y los inteligentes están llenos de dudas. Bertrand Russell Bien, la evolución es una teoría. También es un hecho. Y los hechos y las teorías son cosas distintas, no escalones en una jerarquía de certeza creciente. Los hechos son los datos acerca del mundo. Las teorías son estructuras de ideas que explican e interpretan los hechos. Los hechos no desaparecen cuando los científicos debaten teorías rivales para interpretarlos. La teoría de la gravitación de Einstein reemplazó la de Newton en este siglo, pero las manzanas no se quedaron suspendidas en el aire esperando el resultado. Y los humanos evolucionaron de ancestros simiescos ya sea por medio del mecanismo propuesto por Darwin o por otro que falte por escubrirse. Stephen Jay Gould, "Evolution as Fact and Theory" Science and Creationism, (New York: Oxford University Press, 1984), p. 118.
41 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática. Capitulo 1, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii01.html
Siempre me ha parecido que el mayor pecado de todos es "presumir conocer la mente de Dios..." David B. Stephens, Ph.D. Su artículo sobre las supercherías de los creacionistas afirma que en Alabama, todos los textos de biología ahora deben llevar adhesivos advirtiendo al lector de que la evolución es una "creencia sin probar" y "debería considerarse como (sólo) una teoría." Con miras en el juego limpio, uno asumiría que los creacionistas igualmente insisten en que estos adhesivos sean adheridos a las Biblias. John R. Harris, Carta al Editor, L.A. Times Las creencias antiguas son difíciles de erradicar incluso aunque sean demostrablemente falsas Edward O. Wilson, Consilience: The Unity of Knowledge, (First edition, New York: Alfred A. Knopf, 1998), p. 256. Cuando el cristianismo tomó el control del Imperio Romano, suprimió los escritos de sus críticos e incluso los echó a las llamas. Robert L. Wilken, The Christians As the Romans Saw Them (New Haven: Yale, 1984), p. xii. La fe ciega puede justificar lo que sea. Si un hombre cree en un dios diferente, o incluso, si usa un ritual diferente para adorar al mismo dios, la fe ciega puede decretar que debe morir - en una cruz, empalado, atravesado por la espada de un Cruzado, con un disparo en una calle de Beirut, o dinamitado en un bar en Belfast. Los memes de la fe ciega tienen sus propias formas inmisericordes de propagarse a sí mismos. Esto es cierto en la fe ciega patriótica y política al igual que en la religiosa. Richard Dawkins, The Selfish Gene (New edition, New York: Oxford University Press, 1989), p. 198. Fuente: La Página Racional
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en todas mis páginas
42 de 45
18/04/2008 20:44
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 2. Ofimática Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Ciencia en general
1 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Biología Criminología Inicio Contacte
Introducción Openoffice (StarOffice) Editor de textos Hoja de cálculo Selecciona un texto y pulsa aquí para oírlo
2.1 Introducción La explosión informativa que se da en la actualidad (entre cuyas causas destacan la incidencia de la información en el desarrollo de la tecnología e investigación y que la sociedad demanda información) es un hecho que hace difícil discernir la información conveniente o beneficiosa, de la que supone contaminación o perjudicial, que a veces hace que se pueda decir que "no se distinga el árbol de entre el bosque". La velocidad de crecimiento, hace necesario que el tratamiento de la información, se lleve a cabo de forma automática. Como origen y causa de éste crecimiento exponencial de la información, aparece paradójicamente la solución, la informática, definida como el tratamiento de la información de forma automatizada. La informática, tan versátil y polimórfica comenzó a aplicarse a diferentes campos, empezando el uso de ordenadores en primer lugar en el ámbito militar, ocupando entonces gran espacio y consumiendo mucha energía, a través de las sucesivas generaciones, en base a los adelantos de la ciencia, fueron reduciendo su tamaño y consumo, haciéndose asequible a cualquier tipo de actividad, habiéndose extendido en la actualidad al mundo económico, empresarial y personal, siendo imprescindibles en la oficina para tener una eficaz gestión de la empresa. La fusión de los trabajos de oficina y de la informática dio lugar a la Ofimática. Se entiende como Ofimática todo lo relacionado con la organización de flujos de trabajo en oficinas, despachos, etc. y el respectivo apoyo a estos procesos mediante el ordenador. Dicho de paso, esta vez el español es más preciso que el inglés, con el nebuloso "System-engineering" y el más limitado "Business Process Re-engineering" (BOP). Hablar de la automatización de la oficina -en paralelo a la automatización de fábricas- no es correcto: en la fábrica el automatismo -el ordenador- sustituye al trabajador como dueño del proceso y lo convierte en supervisor o reparador, mientras en las oficinas las personas siguen como actores principales, apoyándose solamente para su trabajo y la coordinación del mismo en la infraestructura informática. La ofimática no trata del uso del ordenador individual, promueve la reingeniería de los procesos y sus etapas en su totalidad usando la informática como instrumento de eliminar, reducir y agilizar los mismos. No es lo mismo como la informática tradicional con su enfoque en información estandarizada, si no que parte del hecho que cada caso es diferente y requiere un tratamiento distinto, de tal forma que se pueden estandarizar solamente las formas y el proceder pero no el contenido mismo, por tanto se trasciende el modelo cliente-servidor tradicional.
2 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
En el entorno ofimático no son necesarios grandes equipos, sino que es suficiente con ordenadores personales sencillos conectados entre sí y a internet, formando redes locales entre los que se comparte información y se abaratan los costos. La ofimática de esta manera se ha convertido en algo que crece y que se usa cada vez más. La ofimática, por sus peculiares características, suministra un buen campo para ejemplificar acerca del impacto de la convergencia e integración de las tecnologías. La oficina, y por lo tanto la ofimática, que no es más que la tecnología aplicada a la oficina, es un entorno donde no existen tareas muy determinadas, entran actividades tan diversas como el tratamiento de documentos o la comunicación telefónica. En un entorno así es lógico pensar que se necesitan tecnologías combinadas, no soluciones aisladas encaminadas a resolver un problema en concreto. La ofimática ha de proporcionar herramientas que faciliten al usuario (sea éste un individuo o un grupo) la tarea a realizar. Definiciones de ofimática:
Bair (1985) La ofimática es la utilización de ordenadores en la oficina como soporte a los trabajadores de la información que no son especialistas en ordenadores. Elli y Nutt (1980). Un sistema automatizado de información para la oficina trata de realizar las tareas de la oficina tradicional por medio de sistemas de ordenadores. Hammer y Sirbu (1982). La utilización de la tecnología para mejorar la realización de funciones de oficina. Olson y Lucas (1982). La automatización de oficinas se refiere a la utilización de sistemas integrados de ordenadores y comunicaciones, como soporte a los procedimientos administrativos en un entorno de oficina.
Aplicaciones El software de ofimática comprende una serie de aplicaciones que se distribuyen de forma conjunta para ser empleadas simultáneamente en diversos sistemas. Usualmente estas herramientas de ofimática incluyen: Aplicaciones de productividad personal Administradores de bases de datos Hojas de cálculo Procesadores de textos Presentadores de ideas Gráficos
2.2 OpenOffice (StarOffice) Es un conjunto completo (suite) para oficina creado por Star Division, una empresa alemana adquirida por Sun Microsystems. Está compuesta por una serie de aplicaciones de productividad entre las que hay procesador de textos, hoja de cálculo, gestor de bases de datos, programa para crear presentaciones, programa para diseño gráfico, navegador y unos cuantos accesorios más. En sus comienzos fue muy popular en el entorno Linux, quienes podían conseguir versiones gratuitas a través de Internet, aunque Star también ofrecía versiones comerciales. Sun decidió darle un gran impulso
3 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
y adoptó la filosofia de distribuirla gratuitamente, de manera que actualmente es posible bajarla desde la web de Sun y otros muchos lugares de internet. OpenOffice está disponible en versiones para sistemas operativos: Windows, Linux, Solaris. Mac OS y OS/2. Sun también lo distribuye en un CD-ROM. La empresa en realidad no cobra por la suite sino por el costo de producir el CD y de imprimir los manuales. Esta suite de oficina, resulta muy típica en cuanto a las aplicaciones que incluye. Sin embargo lo interesante es su origen, pues fue diseñada inicialmente para el sistema operativo Linux, sin embargo tuvo tal acogida entre el público que Star Division decidió crear una versión aparte de la misma para Windows. En la actualidad no se emplea de forma intensiva con este sistema, pero según los expertos, ha logrado salir bien librada de muchas pruebas. La suite está compuesta por varias aplicaciones básicas, más una serie de accesorios bastante útiles. Los componentes del paquete son (es indistinto considerar StarOffice u OpenOffice): StarOffice Desktop: Un escritorio que se superpone al de Windows cuando se ejecuta la suite. StarOffice Writer: Procesador de textos, muy potentsuitecompatible con MS-Excel. StarOffice Impress: Herramienta para realizar presentaciones. Es compatible (no totalmente) con MS-PowerPoint. StarDraw: Aplicación para diseño gráfico. Compatible con Corel Draw y muy similar a esta herramienta. StarImage: Programa para edición de imágenes. Puede abrir archivos JPG, GIF, TIFF, BMP, etc. StarOffice Discussion: Lector para mensajes provenientes de grupos de discusión, bien desde Internet o desde la Intranet de una empresa. StarOffice Base: Sencillo gestor de bases de datos, que permite abrir y editar archivos de MS-Access y de otras bases de datos como Oracle. La nueva versión es compatibe y parecida a MS Access. StarMath: Singular aplicación que permite escribir fórmulas matemáticas StarOffice Chart: Aplicación que permite generar gráficos estadísticos, que complementa a StarOffice Calc. StarOffice Schedule: Agenda y calendario que le permite al usuario llevar control de sus actividades profesionales y personales. StarOffice Basic: Herramienta que permite crear macros para las aplicaciones principales de StarOffice. A partir del tres de mayo de 2006 el formato Open Document, con el que se almacenan los documentos escritos bajo Openoffice (o Staroffice), ha sido aprobado como estándar ISO 26300, hecho que no poseen otros editores de textos, como por ejemplo Microsoft Office. Este formato ocupa mucho menos que los tan conocidos .DOC y .RTF.
El Proyecto GNU por Richard Stallman publicado originalmente en el libro "Open Sources" La primera comunidad que comparte el software Cuando comencé a trabajar en el Laboratorio de Inteligencia Artificial del MIT en 1971, me incorporé a una comunidad que compartía el software que ya tenía varios años de existencia. El acto de compartir software no estaba limitado a nuestra comunidad en particular; es tan antiguo como las computadoras, de la misma manera que compartir recetas es tan antiguo como cocinar. Pero nosotros lo hacíamos en mayor grado que la mayoría de los otros.
4 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
El Laboratorio de IA usaba un sistema operativo denominado ITS (Incompatible Timesharing System) [Sistema incompatible de tiempo compartido] que los hackers (1) del staff habían diseñado y escrito en lenguaje ensamblador para la PDP-10 de Digital, una de las más grandes computadoras de la época. Mi trabajo como miembro de esta comunidad, como hacker de sistema en el staff del laboratorio de IA, era mejorar este sistema. No denominábamos "software libre" a nuestro software porque dicho término no existía; pero éso es lo que era. Cuando alguien de otra universidad o compañía deseaba aportar y usar un programa, lo permitíamos con gusto. Si usted veía a alguien usando un programa interesante y poco conocido, siempre se podía pedir el código fuente para verlo, de manera que uno podía leerlo, cambiarlo, o canibalizar ciertas partes del mismo para hacer un nuevo programa. (1) El uso de "hacker" para referirse al "quebrantador de la seguridad" es una confusión proveniente de los medios masivos. Nosotros los hackers nos negamos a reconocer dicho significado, y continuamos utilizando la palabra para indicar a "alguien apasionado por la programación y que disfruta al ser hábil e ingenioso". El colapso de la comunidad La situación cambió drásticamente durante la primera parte de los 1980s cuando Digital discontinuó la serie PDP-10. Su arquitectura, elegante y poderosa en los 60s, no se pudo extender naturalmente a los espacios de direccionamiento más grandes que se hicieron factibles en los 80s. Esto significó que prácticamente todos los programas que componían a ITS se volvieron obsoletos. La comunidad de hackers del laboratorio de IA ya se había colapsado, cierto tiempo antes. En 1981, la compañía derivada Symbolics había contratado a casi todos los hackers del laboratorio de IA, y la despoblada comunidad ya no era capaz de mantenerse a sí misma. (El libro Hackers, de Steve Levy, describe estos eventos, y muestra un claro panorama de esta comunidad en sus comienzos.) Cuando el laboratorio de IA adquiere una nueva PDP-10 en 1982, sus administradores deciden utilizar el sistema no libre de tiempo compartido de Digital en lugar de ITS. Las computadoras modernas de esa época, como la VAX o el 68020, tienen sus propios sistemas operativos, pero ninguno de ellos es software libre: usted debe firmar un "acuerdo de no revelar" (nondisclosure agreement) aún para obtener una copia ejecutable. Esto quiere decir que el primer paso para poder utilizar una computadora era prometer que no ayudaría a su vecino. Se prohibía la existencia de una comunidad cooperativa. La regla hecha por los dueños de software propietario era: "si usted comparte con su vecino, usted es un pirata. Si desea algún cambio, ruéguenos para que lo hagamos nosotros". La idea de que el sistema social del software propietario--el sistema que dice que usted no tiene permitido compartir o cambiar el software-- es antisocial, que no es ético, que está sencillamente equivocado, puede ser una sorpresa para algunos lectores. ¿Pero qué otra cosa podríamos decir sobre un sistema que se basa en dividir el público e impide socorrer a los usuarios? Los lectores que se sorprendan por esta idea es porque han tomado el sistema social del software propietario tal como se lo han dado, o porque lo han juzgado en función de los términos sugeridos por las empresas que hacen software propietario. Los publicadores de software han trabajado duro y parejo para convencer a las personas de que solamente hay una manera de ver este tema.
5 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Cuando los publicadores de software habla de "hacer valer" sus "derechos" o de "detener la piratería", lo que *dice* es secundario. El mensaje real de estas declaraciones está en las presunciones no declaradas que ellos dan por sentado; se supone que el público debe aceptarlas de manera acrítica. Así que examinémoslas. Una de las presunciones es que las compañías de software tienen un derecho natural incuestionable que las habilita para ser dueñas de un software, y por lo tanto a disponer de poder sobre todos los usuarios del mismo. (Si éste fuera un derecho natural, entonces sin importar cuánto daño le causare al público, no podríamos objetarlo.) De manera muy interesante, la Constitución de los Estados Unidos de América y la tradición legal rechazan esta visión; el copyright no es un derecho natural, sino un monopolio artificial impuesto por el gobierno que limita el natural derecho a copia de los usuarios. Otra presunción no declarada es que la única cosa importante sobre del software es qué trabajo le permite realizar a usted--que a nosotros los usuarios de computadoras no nos debe importar qué clase de sociedad nos permiten tener. Una tercera presunción es que no tendríamos software utilizable (o, que nunca tendríamos un programa para hacer tal o cual trabajo en particular) si no le ofrecemos a una compañía poder sobre los usuarios de dicho programa. Esta presunción puede haber sonado plausible, antes de que el movimiento por el software libre demostrara que podemos hacer abundante software útil sin ponerle cadenas. Si nos resistimos a aceptar dichas presunciones, y juzgamos acerca de estos temas sobre la base moral que nos da el sentido común ordinario y ponemos al usuario en primer lugar, arribaremos a conclusiones muy distintas. Los usuarios de computadoras deben tener libertad para modificar los programas para ajustarlos a sus necesidades, y libertad para compartir el software, porque la base de la sociedad está en ayudar a las otras personas. No se dispone aquí del espacio necesario para explayarnos en el razonamiento que hay detrás de esta conclusión, y por ese motivo pido al lector que vea la página web http://www.gnu.org/philosophy/why-free.es.html. Una elección moral severa. Al desaparecer mi comunidad, se hizo imposible continuar como antes. En lugar de ello, me enfrenté a una elección moral severa. La elección fácil era unirme al mundo del software propietario, firmar los acuerdos de no revelar, y prometer que no iría en ayuda de mi amigo hacker. Es muy probable que desarrollara software que se entregaría bajo acuerdos de no revelar y de esa manera incrementara también las presiones sobre otra gente para que traicionen a sus compañeros. Podría haber hecho dinero de esta manera, y tal vez me hubiese divertido escribiendo código. Pero sabía que al final de mi carrera, al mirar atrás a los años construyendo paredes para dividir a la gente, sentiría que usé mi vida para empeorar el mundo. Ya había estado del lado en que se reciben los acuerdos de no revelar, por experiencia propia, cuando alguien se negó a entregarme, a mí y al Laboratorio de IA del MIT, el código fuente del programa de control de nuestra impresora.(La ausencia de ciertas características en este programa hacía que el uso de la impresora fuera frustrante en extremo.) Así que no podía decirme a mí mismo que los acuerdos de no revelar son
6 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
inocentes. Me enojó mucho cuando él se negó a compartir con nosotros; no podía ahora cambiarme de lugar y hacerle lo mismo a todos los demás. Otra elección, fácil pero dolorosa, era abandonar el campo de la computación. De esta manera no se usarían mis habilidades para mal, pero aún así se desperdiciarían. Yo no sería culpable por dividir y restringir a los usuarios de computadoras, pero ello sucedería igual. Así que busqué la manera en la cual un programador podría hacer algo para bien. Me pregunté: ¿habrá algún programa o programas que yo pueda escribir, de tal manera de otra vez hacer posible una comunidad? La respuesta era clara: lo primero que se necesitaba era un sistema operativo. Este es el software crucial para empezar a usar una computadora. Con un sistema operativo usted puede hacer muchas cosas; sin uno, ni siquiera puede funcionar la computadora. Con un sistema operativo libre, podríamos tener de nuevo una comunidad de hackers cooperando--e invitar a cualquiera a unírsenos. Y cualquiera sería capaz de utilizar una computadora sin que de movida conspire a favor de la privación de sus amigas o amigos. Como desarrollador de sistema operativo, tengo las habilidades apropiadas para esa tarea. Así que aún cuando no tenía garantías de éxito, me dí cuenta que había sido elegido para hacer ese trabajo. Decidí hacer que el sistema fuese compatible con Unix pues así sería portable, y los usuarios de Unix podrían cambiarse a él con facilidad. El nombre GNU se eligió siguiendo una tradición hacker, como acrónimo recursivo para "GNU's Not Unix". Un sistema operativo es más que un núcleo, apenas suficiente para hacer funcionar otros programas. En los 1970s, todo sistema operativo digno de llamarse así incluía procesadores de órdenes, ensambladores, compiladores, intérpretes, depuradores, editores de texto, programas de correo, y muchos otros. ITS los tenía, Multics los tenía, VMS los tenía, Unix los tenía. El sistema operativo GNU también los incluiría. Más adelante escuché estas palabras, atribuídas a Hillel (1): "Si yo no me preocupo por mí mismo, ¿quién lo hará por mí? Si sólo me preocupo por mí mismo, ¿qué es lo que soy? Si no lo hago ahora, ¿cuándo?" La decisión de iniciar el proyecto GNU se basó en un espíritu similar. (1) Como ateo que soy, no soy seguidor de ningún líder religioso, pero algunas veces encuentro que admiro alguna cosa que dijo uno de ellos. Libre como en libertad El término "free software" [N. del T.: en inglés free = libre o gratis] se malinterpreta a veces--no tiene nada que ver con el precio. El tema es la libertad. Aquí, por lo tanto, está la definición de software libre: un programa es software libre, para usted, un usuario en particular, si: - Usted tiene libertad para ejecutar el programa, con cualquier propósito. - Usted tiene la libertad para modificar el programa para adaptarlo a sus secesidades. (Para que esta libertad sea efectiva en la práctica, usted debe tener acceso al código
7 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
fuente, porque modificar un programa sin disponer del código fuente es extraordinariamente dificultoso.) - Usted tiene la libertad para redistribuir copias, tanto gratis como por un cánon. - Usted tiene la libertad para distribuir versiones modificadas del programa, de tal manera que la comunidad pueda beneficiarse con sus mejoras. Como "free" [libre] se refiere a libertad y no a precio, no existe contradicción entre la venta de copias y el software libre. De hecho, la libertad para vender copias es crucial: las colecciones de software libre que se venden en CD-ROM son importantes para la comunidad, y la venta de las mismas es una manera importante de obtener fondos para el desarrollo de software libre. Por lo tanto, si la gente no puede incluir un programa en dichas colecciones, dicho programa no es software libre. A causa de la ambigüedad de "free", la gente ha estado buscando alternativas, pero nadie ha encontrado una alternativa apropiada. El idioma inglés tiene más palabras y matices que ningún otro, pero carece de una palabra simple, no ambigüa que signifique "libre", como en libertad-- "unfettered" [sin cadenas] es la palabra que más se acerca en significado. Otras alternativas como liberated [liberado], freedom [libertad] y open [abierto] tienen el significado equivocado o alguna otra desventaja. Software GNU y el sistema GNU El desarrollo de un sistema complejo es un proyecto de gran envergadura. Para ponerlo dentro de mi alcance, decidí adaptar y usar las piezas existentes de software libre siempre que fuera posible. Por ejemplo, en los mismos comienzos decidí que TeX sería el principal compaginador de texto; unos pocos años más tarde, decidí que usaría el sistema X Window, en lugar de escribir otro sistema de ventanas para GNU. A causa de esta decisión, el sistema GNU no coincide con la suma de todo el software GNU. El sistema GNU incluye programas que no son software GNU, programas que fueron desarrollados por otras personas y proyectos para sus propios propósitos, pero que nosotros podemos utilizar porque constituyen software libre. El inicio del proyecto En enero de 1984 renuncié a mi trabajo en el MIT y comencé a escribir software GNU. Era necesario abandonar el MIT, para que el MIT no interfiriera con la distribución de GNU como software libre. Si hubiese continuado como parte del staff, el MIT podría haber reclamado propiedad sobre el trabajo, y podría haber impuesto sus propios términos de distribución, o incluso podría haberlo transformado en un paquete de software propietario. Yo no tenía la intención de hacer un trabajo enorme sólo para ver que perdía la utilidad para la cual se había realizado: crear una nueva comunidad para compartir software. Sin embargo, el Profesor Winston, por entonces a cargo del Laboratorio de IA del MIT, me invitó amablemente a que continúe utilizando las instalaciones del Laboratorio. Los primeros pasos Poco después de comenzar en el proyecto GNU, escuché acerca del Free University Compiler Kit [Kit de Compilador de la Universidad Libre], también conocido como VUCK. (La palabra alemana para free comienza con una V.) Se trataba de un compilador diseñado para manejar múltiples lenguajes, C y Pascal entre ellos, y para admitir múltiples máquinas destino. Le escribí a su autor para consultarle si GNU lo podría usar.
8 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Él me respondió burlonamente, dejando en claro que la universidad era libre, pero el compilador no. Por lo tanto, decidí que mi primer programa para el proyecto GNU sería un compilador multilenguaje, multiplataforma. Con la esperanza de evitar tener que escribir todo el compilador por mí mismo, obtuve el código fuente del compilador Pastel, que era un compilador multiplataforma desarrollado en el "Lawrence Livermore Lab". Admitía, y estaba escrito en una versión extendida de Pascal, diseñada para usarse como lenguaje de programación a nivel de sistema. Le agregué un front end para C, y comencé a transportarlo a la computadora Motorola 68000. Pero tuve que abandonar la idea al descubrir que el compilador necesitaba varios megabytes de espacio en la pila, y los sistemas Unix basados en 68000 sólo permitían 64 kbytes. Fue entonces cuando me dí cuenta que el compilador Pastel funcionaba analizando el fichero de entrada completo y transformándolo en un árbol sintáctico, luego convertía todo el árbol sintáctico en una cadena de "instrucciones" y luego generaba el fichero entero de salida, y en ningún momento liberaba el espacio ocupado. En ese momento llegué a la conclusión de que debería escribir un nuevo compilador partiendo desde cero. Ese nuevo compilador se conoce ahora como GCC; no hay nada del compilador Pastel en él, pero me las arreglé para adaptar y usar el front end que había hecho para C. Pero eso pasó unos años más tarde; primero, trabajé sobre GNU Emacs. GNU Emacs Comencé a trabajar sobre GNU Emacs en setiembre de 1984, y al principio de 1985 ya empezaba a ser usable. Esto me permitió usar sistemas Unix para las tareas de edición; como no tenía ningún interés en aprender a usar vi o ed, había realizado mis tareas de edición en otras clases de máquinas hasta ese momento. A estas alturas, la gente comenzó a querer usar Emacs, con lo que apareció el tema de cómo distribuirlo. Por supuesto, lo puse en el servidor de FTP anónimo de la computadora del MIT que usaba. (Esta computadora, prep.ai.mit.edu, se transformó a causa de ello en la sede principal de distribución a través de FTP de GNU; cuando fue decomisada unos años después, transferimos el nombre a nuestro nuevo servidor FTP.) Pero en aquella época, mucha gente interesada no estaba en Internet y no podía obtener una copia por FTP. Así que la pregunta era: ¿qué tendría que decirles a ellos? Podría haber dicho, "Busque un amigo que esté en la red y que haga una copia para usted". O podría haber hecho lo que hice con el Emacs para PDP-10 original, decirles: "Envíeme por correo una cinta y un sobre con su dirección y los sellos de correo necesarios, y yo le devolveré la cinta con Emacs dentro". Pero no tenía trabajo, y estaba buscando de qué manera podía hacer dinero con el software libre. Entonces anuncié que le enviaría la cinta a quien me la pidiera, mediante el pago de un cánon de $150. De esta manera, inicié un negocio de distribución de software libre, el precursor de las compañías que en la actualidad distribuyen completos sistemas GNU basados en Linux. ¿Es libre el programa para cualquier usuario? Si un programa es software libre cuando abandona las manos de su autor, esto no significa que será software libre para todos los que tienen una copia de él. Por ejemplo, el software de dominio público (software que no está sujeto al copyright de nadie) es software libre; pero cualquiera puede hacer una versión modificada propietaria a partir de él. En ese mismo sentido, muchos programas libres están sujetos a copyright pero se distribuyen mediante sencillas licencias permisivas que admiten las versiones modificadas propietarias. El ejemplo paradigmático de este problema es el X Window System. Desarrollado en el
9 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
MIT, y entregado como software libre con un licencia permisiva, fue rápidamente adoptado por varias compañías de computación. éstas agregaron X a sus sistemas Unix propietarios, sólo en formato binario, y lo cubrieron con el mismo acuerdo de no revelar. Estas copias de X eran tanto (software) libres en cuanto lo era el Unix. Los desarrolladores del X Window System no consideraban que esto fuese un problema--esperaban y buscaban que esto sucediese. Su meta no era la libertad, sólo el "éxito", definido como "tener muchos usuarios". No les preocupaba si esos usuarios tenían libertad, sólo que sean numerosos. Esto nos lleva a una situación paradójica en la cual dos maneras distintas de contabilizar la cantidad de libertad dan por resultado dos respuestas distintas a la pregunta "¿Es libre este programa?". Si usted juzga en base a la libertad que se proporcionaba con los términos de distribución de la entrega del MIT, diría que X es software libre. Pero si usted mide la libertad del usuario promedio de X, diría que X es software propietario. La mayoría de los usuarios de X usan las versiones propietarias que vienen con los sistemas Unix, no la versión libre. Copyleft y la GNU GPL La meta de GNU era dar libertad a los usuarios, no sólo popular. Por lo tanto, debíamos usar términos de distribución que impidieran que el software GNU se transformara en software propietario. El método que utilizamos se denomina "copyleft".(1) El copyleft usa la ley de copyright, pero la da vuelta para servir a lo opuesto de su propósito usual: en lugar de ser un medio de privatizar el software, se transforma en un medio de mantener libre al software. La idea central del copyleft es que le damos a cualquiera el permiso para correr el programa, copiar el programa, modificar el programa y redistribuir versiones modificadas--pero no le damos permiso para agregar restricciones propias. De esta manera, las libertades cruciales que definen al "software libre" quedan garantizadas para cualquiera que tenga una copia; se transforman en derechos inalienables. Para que el copyleft sea efectivo, las versiones modificadas deben ser también libres. Esto asegura que todo trabajo basado en el nuestro quedará disponible para nuestra comunidad si se publica. Cuando los programadores que tienen trabajo como programadores se ofrecen como voluntarios para mejorar un software GNU, es el copyleft lo que impide que sus empleadores digan: "no puede compartir esos cambios, porque los queremos usar para hacer nuestra versión propietaria del programa". El requerimiento de que los cambios deben ser libres es esencial si queremos asegurar la libertad para cada usuario del programa. Las compañías que privatizaron el X Window System en general realizaron algunos cambios para transportarlo a sus sistemas y hardware. Estos cambios fueron pequeños comparados con el gran tamaño de X, pero no fueron triviales. Si el hacer cambios fuera una excusa para negar libertad a los usuarios, sería fácil para cualquiera tomar ventaja de la excusa. Un tema relacionado trata la combinación de un programa libre con código no libre. Tal combinación será inevitablemente no-libre; cualesquiera libertades que falten a la parte no-libre, le faltarán también al todo. Si se permiten tales combinaciones se abriría un agujero lo suficientemente grande como para hundir el barco. Por ello, un requerimiento crucial para el copyleft es que se tape este hoyo: cualquier cosa agregada a o combinada con un programa bajo copyleft debe ser tal que la versión combinada total sea también
10 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
libre bajo copyleft. La implementación específica de copyleft que usamos para la mayoría del software GNU es la Licencia Pública General de GNU (GNU General Public License) o LPG GNU para abreviar. Tenemos otras clases de copyleft que se usan en circunstancias específicas. Los manuales GNU también están bajo copyleft, pero utilizamos un copyleft mucho más simple, porque no es necesaria la complejidad de la LPG GNU para los manuales. (1) En 1984 o 1985, Don Hopkins (un compañero muy imaginativo) me envío una carta por correo. En el sobre, escribió varios dichos divertidos, entre ellos éste: "Copyleft--all rights reversed" [Copyleft--todos los derechos "reversados"]. Utilicé la palabra "copyleft" para denominar al concepto dedistribución que estaba desarrollando en esa época. La Fundación para el Software Libre A medida que el interés en el uso de Emacs crecía, otras personas se involucraron en el proyecto GNU, y decicimos que era el momento de buscar fondos nuevamente. Por ello en 1985 creamos la "Free Software Foundation" [Fundación para el Software Libre--FSL], una organización de caridad libre de impuestos para el desarrollo del software libre. La FSL también acaparó el negocio de distribución en cinta de Emacs; más adelante lo extendió al agregar otros productos de software libre (tanto GNU como no-GNU) a la cinta, y con la venta de manuales libres. La FSL acepta donaciones, pero la mayoría de sus ingresos han provenido siempre de las ventas--de copias de software libre, y otros servicios relacionados. En la actualidad vende CD-ROMs de código fuente, CD-ROMs con binarios, manuales agradablemente impresos (todos con libertad para redistribuir y modificar), y las Distribuciones De Lujo (en las cuales incorporamos toda la colección de software lista para usar en la plataforma de su elección). Los empleados de la Fundación para el Software Libre han escrito y mantenido una cantidad de paquetes de software GNU. Dos notables casos son la biblioteca C y el shell. La biblioteca C de GNU es lo que usa todo programa que corre en un sistema GNU/Linux para comunicarse con Linux. Fue desarrollada por un miembro del staff de la Fundación para el Software Libre, Roland McGrath. El shell que se usa en la mayoría de los sistemas GNU/Linux es BASH, el Bourne Again SHell(1), que fue desarrollado por Brian Fox, empleado de la FSL. Hemos provisto los fondos para el desarrollo de esos programas porque el proyecto GNU no se queda solamente en herramientas o un entorno de desarrollo. Nuestra meta era tener un sistema operativo completo, y esos programas eran necesarios para esa meta. (1) "Bourne again shell" es una broma sobre el nombre "Bourne Shell", que era el shell usual en Unix. Asistencia para el Software Libre La filosofía del software libre rechaza una práctica específica de negocio ampliamente difundida, pero no está contra el negocio. Cuando los negocios respetan la libertad de los usuarios, les deseamos éxito. La venta de copias de Emacs demostró una clase de negocio con software libre. Cuando la FSL se apropió de ese negocio, necesité de otro medio de vida. Lo encontré en la venta de servicios relacionados con el software libre que había desarrollado. Esto incluía la enseñanza, sobre temas tales como cómo programar GNU Emacs, y cómo personalizar GCC, y desarrollo de software, en la mayor parte transportar GCC a otras plataformas.
11 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
En la actualidad cada una de esas clases de negocios con software libre está puesta en práctica por una cantidad de corporaciones. Algunas distribuyen colecciones de software libre en CD-ROM; otras venden asistencia en niveles que van desde responder preguntas de usuarios, reparación de errores, hasta el agregado de nuevas características mayores. Incluso estamos viendo compañías de software libre basadas en el lanzamiento de nuevos productos de software libre. Aunque, tenga cuidado--una cantidad de compañías que se asocian a sí mismas con el término "open source" en realidad basan su negocio en software no-libre que trabaja con software libre. Ellas no son compañías de software libre, sino compañías de software propietario cuyos productos tientan a los usuarios a abandonar su libertad. Ellas usan la denominación "valor agregado" lo que refleja los valores que desearían que adoptemos: conveniencia por encima de libertad. Si valoramos más la libertad, deberíamos denominarlos productos con "libertades usstraídas". Metas técnicas La meta principal de GNU era el software libre. Aún en el caso que GNU no tuviese ventajas técnicas sobre Unix, tendría una ventaja social, al permitir cooperar a los usuarios, y una ventaja ética, al respetar la libertad de los usuarios. Pero era natural que se apliquen los estándares conocidos de buenas prácticas al trabajo--por ejemplo, reservar dinámicamente las estructuras de datos para evitar límites de tamaño fijo arbitrarios, y manejar todos lo posibles códigos de 8 bits cuando tuviese sentido. Además, rechazamos el enfoque de Unix para pequeños tamaños de memoria, al decidir que no trabajaríamos para máquinas de 16 bits (era claro que las máquinas de 32 bits serían la norma para cuando el sistema GNU estuviese terminado), y al no hacer ningún esfuerzo para reducir el uso de memoria, a menos que excediera el megabyte. En los programas para los cuales no era crucial el manejo de ficheros muy grandes, incentivamos a los programadores a leer el fichero completo en memoria, y luego explorar su contenido, sin tener que preocuparse por la E/S. Estas decisiones permitieron que muchos programas GNU sobrepasaran a sus contrapartidas UNIX en confiabilidad y velocidad. Computadoras donadas A medida que la reputación del proyecto GNU crecía, la gente comenzó a ofrecer al proyecto donaciones de máquinas con UNIX corriendo. Fueron muy útiles porque la manera más fácil de desarrollar componentes de GNU era hacerlo en un sistema UNIX, y luego ir reemplazando los componentes del sistema uno a uno. Pero ellas trajeron una cuestión ética: si era correcto para nosotros siquiera tener una copia de UNIX. UNIX era (y es) software propietario, y la filosofía del proyecto GNU dice que no debemos usar software propietario. Pero, aplicando el mismo razonamiento que lleva a la conclusión que la violencia en defensa propia está justificada, concluí que era legítimo usar un paquete propietario cuando ello era crucial para desarrollar un reemplazo libre que ayudaría a otros a dejar de usar el paquete propietario. Pero, aún cuando esto era un mal justificable, era todavía un mal. En la actualidad ya no tenemos más copias de Unix, porque las hemos reemplazado por sistemas operativos libres. En los casos en que no pudimos reemplazar el sistema operativo de una máquina por uno libre, se procedió al reemplazo de la máquina.
12 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
La lista de tareas de GNU A medida que proseguía el proyecto GNU, se desarrollaron o encontraron una cantidad creciente de componentes, y eventualmente se vio la utilidad de hacer una lista con los huecos faltantes. La usamos para reclutar desarrolladores para escribir las piezas faltantes. Esta lista comenzó a conocerse como la lista de tareas de GNU. Además de los componentes Unix faltantes, agregamos a la lista otros útiles proyectos de software y documentación que, de acuerdo a nuestra visión, debe tener un sistema verdaderamente completo. En la actualidad, casi ningún componente Unix queda en la lista de tareas GNU--esos trabajos ya han sido terminados, fuera de algunos no esenciales. Pero la lista está llena de proyectos que algunos pueden denominar "aplicaciones". Cualquier programa que sea atrayente a más de una estrecha franja de usuarios sería una cosa útil para añadir a un sistema operativo. Aún los juegos están incluídos en la lista de tareas--y han estado desde el principio. Unix incluía juegos, así que GNU debía incluirlos también. Pero la compatibilidad no es un problema para los juegos, así que no seguimos la lista de juegos que Unix tenía. En lugar de ello, listamos un espectro de diferentes clases de juegos que les podrían gustar a los usuarios. La LPG para Bibliotecas de GNU La biblioteca C de GNU usa una clase especial de copyleft denominada "GNU Library General Public License" [Licencia Pública General para Bibliotecas de GNU] que da permiso para enlazar software propietario con la biblioteca. ¿Porqué hacer esta excepción? No es una cuestión de principios; no hay ningún principio que diga que debemos incluir código de los productos de software propietario. (¿Porqué contribuir con un proyecto que se rehusa a compartir con nosotros?) El uso de la LPGB para la biblioteca C, o para cualquier otra biblioteca, es un tema de estrategia. La biblioteca C hace un trabajo genérico; todo sistema propietario o compilador viene con una biblioteca C. Por lo tanto, el hacer que nuestra biblioteca esté sólo disponible para el software libre, no le daría al software libre ninguna ventaja--sólo hubiera desalentado el uso de nuestra biblioteca. HAy un sistema que es una excepción a esto: en un sistema GNU (y esto incluye los sistemas GNU/Linux), la biblioteca C de GNU es la única biblioteca C. Así que los términos de distribución de la biblioteca C de GNU determinan si es posible compilar un programa propietario para un sistema GNU. No hay ninguna razón ética para permitir aplicaciones propietarias en un sistema GNU, pero estratégicamente parece que si no se permite, ello hará más para desalentar el uso del sistema GNU que para alentar el desarrollo de aplicaciones libres. Por estas razones es que el uso de la LPG para Bibliotecas es una buena estrategia para la biblioteca C. Para otras bibliotecas, la decisión estratégica necesita considerarse en cada caso particular. Cuando una biblioteca hace un trabajo especial que puede ayudar a escribir cierta clase de programas, y luego entregarla bajo la LPG, limitándola sólo a programas libres, es una manera de ayudar a otros desarrolladores de software libre, al proporcionarles una ventaja contra el software propietario. Considere la GNU Readline, una biblioteca desarrollada para proporcionar la edición en la línea de órdenes para BASH. Readline se entrega bajo la LPG GNU ordinaria, no bajo
13 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
la LPG para Bibliotecas. De esta manera probablemente se reduce la cantidad de uso de Readline, pero eso no significa pérdida para nosotros. Mientras tanto, al menos una útil aplicación se ha transformado en software libre específicamente para poder usar Readline, y ésa es una ganancia real para nuestra comunidad. Los desarrolladores de software propietario tienen las ventajas que el dinero proporciona; los desarrolladores de software libre necesitan crear ventajas entre sí. Tengo la esperanza de que algún día tendremos una gran colección de bibliotecas cubiertas por LPG que no tengan parangón entre el software propietario, que proporcionen útiles módulos que sirvan como bloques constructivos en nuevo software libre, y que sumen una mayor ventaja para adelantar el desarrollo de software libre. ¿Rascarse una comezón? Eric Raymond dice que "Todo buen trabajo de software comienza con un desarrollador rascándose una comezón personal". Puede que ocurra algunas veces, pero muchas de las piezas esenciales de software GNU se desarrollaron a los fines de tener un sistema operativo libre completo. Vinieron desde una visión y un plan, no desde el impulso. Por ejemplo, desarrollamos la biblioteca C de GNU porque un sistema del estilo Unix necesita una biblioteca C, el shell Bourne-Again (bash) porque un sistema del estilo Unix necesita un shell, y el tar GNU porque un sistema del estilo Unix necesita un programa tar. Lo mismo se aplica a mis propios progamas--el compilador GNU C, GNU Emacs, GDB y GNU Make. Algunos de los programas GNU se desarrollaron para tratar amenazas específicas a nuestra libertad. Por ello, desarrollamos gzip para reemplazar al programa Compress, perdido para nuestra comunidad a causa de las patentes LZW. Proporcionamos fondos para desarrollar LessTif, y más recientemente iniciamos GNOME y Harmony, para lidiar con los problemas causados por cierta biblioteca propietaria (vea más abajo). Estamos desarrollando el GNU Privacy Guard para reemplazar un software popular de cifrado no-libre, porque los usuarios no deben verse obligados a elegir entre privacidad y libertad. Por supuesto, la gente que escribe estos programas se interesa en el trabajo, y varias personas han agregado muchas características para satisfacer sus propias necesidades e intereses. Pero ése no es el motivo por el cual existe el programa. Desarrollos inesperados Al comienzo del proyecto GNU, imaginé que desarrollaríamos el sistema GNU completo, y luego lo entregaríamos completo. No es así como ha sucedido. Como cada componente de un sistema GNU se implementó en un sistema Unix, cada componente podía correr en sistemas Unix, mucho antes de que existiera un sistema GNU completo. Algunos de esos programas se hicieron populares, y los usuarios comenzaron a extenderlos y transportarlos--a las distintas versiones incompatibles de Unix, y algunas veces a otros sistemas también. El proceso hizo que dichos programas sean más potentes, y atrayeran tanto fondos como contribuyentes al proyecto GNU. Pero también demoró el completamiento de un sistema mínimo en funciones por varios años, a medida que el tiempo de los desarrolladores GNU se usaba para mantener esos transportes y en agregar características a los componentes existentes, en lugar de adelantar la escritura de los componentes faltantes.
14 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
El GNU Hurd En 1990, el sistema GNU estaba casi completo; el único componente importante faltante era el núcleo. Decidimos implementar nuestro núcleo como una colección de procesos servidores corriendo sobre Mach. Mach es un micronúcleo desarrollado en Carnegie Mellon University y luego en la University of Utah; el GNU HURD es una colección de servidores (o "manada de ñus") que corren sobre Mach, y se ocupan de las tareas del núcleo Unix. El inicio del desarrollo se demoró mientras esperábamos que Mach se entregue como software libre, tal como se había prometido. Una razón para elegir este diseño había sido evitar lo parecía ser la parte más dura del trabajo: depurar el núcleo sin un depurador a nivel de código fuente para utilizar. Esta parte del trabajo ya había sido hecha en Mach, y esperábamos depurar los servidores HURD como programas de usuario, con GDB. Pero llevó un largo tiempo hacer esto posible, y los servidores multihilo que se envían mensajes unos a otros han sido muy difíciles de depurar. Hacer que HURD trabaje sólidamente se ha tardado varios años. Alix El núcleo GNU no se iba a llamar originalmente el HURD. Su nombre original era Alix--denominado así a partir de una mujer que era mi amor de aquella época. Ella era administradora de sistema Unix y había hecho notar que su nombre seguía el patrón de nomenclatura común a las versiones de sistema Unix; a modo de broma, le dijo a sus amigos, "Alguien debería darle mi nombre a un núcleo". Yo no dije nada, pero decidí sorprenderla con un núcleo llamado Alix. No se dió de esa manera. Michael Bushnell (ahora Thomas), el principal desarrollador del núcleo, prefirió el nombre HURD, y redefinió Alix para referirse a cierta parte del núcleo--la parte que captura las llamadas del sistema y las gestiona por medio del envío de mensajes a los servidores HURD. Más tarde, Alix y yo nos separamos, y ella cambió su nombre; independientemente, el diseño de HURD se cambió para que la biblioteca C envíe los mensajes directamente a los servidores, y esto hizo que el componente Alix desapareciera del diseño. Pero antes que estas cosas sucedieran, un amigo de ella encontró el nombre Alix en el código fuente de HURD, y se lo mencionó. Así que el nombre cumplió su objetivo. Linux y GNU/Linux El GNU HURD no está listo para el uso en producción. Afortunadamente, está disponible otro núcleo. En 1991, Linus Torvalds desarrolló un núcleo compatible con Unix y lo denominó Linux. Cerca de 1992, al combinar Linux con el sistema no tan completo de GNU, resultó en un sistema operativo libre completo. (La combinación en sí misma dió un considerable trabajo.) Es gracias a Linux que podemos ver funcionar un sistema GNU en la actualidad. Denominamos a esta versión GNU/Linux, para expresar su composición como combinación de un sistema GNU con Linux como núcleo. Desafíos en nuestro futuro Hemos probado nuestra capacidad para desarrollar un amplio espectro de software libre. Esto no significa que somos invencibles o que nada nos puede detener. Muchos desafíos hacen que el futuro del software libre sea incierto; estar a la altura de los mismos requerirá esfuerzos firmes y resistencia, algunas veces durante años. Requerirá la clase de determinación que la gente muestra cuando valora su libertad y no deja que nadie se la quite. Las siguientes cuatro secciones discuten dichos desafíos.
15 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Hardware secreto Los fabricantes de hardware tienden cada vez más a mantener las especificaciones de hardware secretas. Esto hace difícil la escritura de controladores libres, y de esa manera, que Linux y XFree86 puedan admitir nuevo hardware. Tenemos sistemas libres completos por hoy, pero no los tendremos mañana si no podemos usar las computadoras del mañana. Existen dos maneras de lidiar con este problema. Los programadores pueden hacer ingeniería reversa para darse cuenta como usar el hardware. El resto de nosotros puede elegir el hardware que admite software libre; a medida que nuestro número crezca, el secreto de las especificaciones se transformará en una política contraproducente. La ingeniería reversa es un trabajo enorme; ¿tendremos los programadores con la suficiente determinación para realizarla? Sí--si hemos construído un fuerte sentimiento de que el software libre es un tema de principio, y de que los controladores no libres son intolerables. ¿Y una gran cantidad de nosotros estará dispuesto a gastar dinero extra, o incluso tiempo extra, para que podamos usar controladores libres? Sí, si se difunde la determinación para tener libertad. Bibliotecas no libres Una biblioteca no libre que corre sobre un sistema operativo actúa como una trampa para los desarrolladores de software libre. Las características atractivas de la biblioteca son el cebo; si usted usa la biblioteca, cae en la trampa, porque su programa no puede ser parte útil de un sistema operativo libre. (Estrictamente hablando, podemos incluir su programa, pero no funcionará sin la biblioteca faltante.) Peor aún, si el programa que usa la biblioteca se hace popular, puede hacer caer a otros programadores incautos dentro de la trampa. La primer instancia de este problema fue el kit de herramientas Motif, allá en los 80s. Aunque aún no había sistemas operativos libres, era claro el problema que Motif iba a causarles más adelante. El proyecto GNU respondió de dos maneras: solicitando a los proyectos individuales de software libre que admitan tanto los widgets del kit libre de herramientas de X como el de Motif, y solicitando a alguien que escriba un reemplazo libre para Motif. El trabajo tomó varios años; LessTif, desarrollado por Hungry Programmers [Programadores hambrientos] tomó la potencia necesaria como para admitir la mayoría de las aplicaciones Motif recién en 1997. Entre 1996 y 1998, otra biblioteca kit de herramientas GUI no libre, denominada Qt, se usó en una sustancial colección de software libre: el escritorio KDE. Los sistemas libres GNU/Linux no podían usar KDE, porque no podíamos usar la biblioteca. Sin embargo, algunos distribuidores comerciales de sistemas GNU/Linux que no eran tan estrictos al adherirse al software libre, agregaron KDE a sus sistemas--produciendo un sistema con más capacidades, pero menos libertad. El grupo KDE instaba activamente a más programadores a usar Qt, y millones de nuevos "usuarios de Linux" nunca escucharon la idea de que había un problema con esto. La situación se presentaba lúgubre. La comunidad del software libre respondió a este problema de dos maneras: GNOME y Harmony. GNOME, el GNU Network Object Model Environment [Entorno Modelo de Objetos en Red de GNU], es el proyecto de escritorio de GNU. En 1997 Miguel de Icaza lo inició, y se desarrolló con aporte de Red Hat Software, para proporcionar capacidades de escritorio similares, pero usando sólo software libre. Tiene también ventajas técnicas,
16 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
tales como admitir una variedad de lenguajes, no sólo C++. Pero su propósito principal fue la libertad: evitar el uso de cualquier software no libre. Harmony es una biblioteca de reemplazo compatible, diseñada para poder hacer funcionar el software KDE sin usar Qt. En noviembre de 1998, los desarrolladores de Qt anunciaron un cambio de licencia, que cuando se lleve a cabo, hará que Qt sea software libre. No hay manera de estar seguro, pero pienso que esto ocurrió en parte debido a la firme respuesta de la comunidad frente al problema que presentaba Qt cuando no era libre. (La nueva licencia es inconveniente e injusta, así que aún es deseable evitar su uso.) ¿Cómo responderemos a la siguiente biblioteca no libre que nos tiente? ¿Comprenderá la totalidad de la comunidad la necesidad de mantenerse fuera de la trampa? ¿Alguno de nosotros entregará libertad por conveniencia, y generará un importante problema? Nuestro futuro depende de nuestra filosofía. Patentes de software La peor amenaza que enfrentamos proviene de las patentes de software, que pueden colocar a algoritmos y características fuera de los límites del software libre hasta por veinte años. Las patentes del algoritmo de compresión LZW se solicitaron en 1983, y hasta ahora no podemos entregar software libre que produzca GIFs adecuadamente comprimidos. En 1998, se tuvo que quitar de una distribución un programa libre para producir audio comprimido MP3 a causa de la amenaza de un juicio por patente. Existen maneras de tratar con las patentes: podemos buscar evidencia de que la patente no es válida, y podemos buscar maneras alternativas de realizar el trabajo. Pero cada uno de estos métodos trabaja sólo ciertas veces; cuando ambos fallan, una patente puede forzar a que todo software libre carezca de alguna característica que los usuarios desean. ¿Qué haremos cuando esto suceda? Aquellos de nosotros que valoremos el software libre por la libertad nos apegaremos al software libre de cualquier manera. Nos las arreglaremos para tener nuestro trabajo realizado sin las características patentadas. Pero aquellos que valoren el software libre porque esperan que sea técnicamente superior, cuando las patentes lo obliguen a mantenerse atrás, es más probable que piensen que se trata de una falla. Por lo tanto, si bien es útil hablar acerca de la efectividad práctica del modelo "catedral" de desarrollo, y de la confiabilidad y potencia de cierto software libre, no debemos detenernos allí. Debemos hablar acerca de libertad y principio. Documentación libre La mayor deficiencia en nuestro sistema operativo libre no está en el software-- es la falta de buenos manuales libres que podamos incluir en nuestros sistemas. La documentación es una parte esencial de cualquier paquete de software; cuando un paquete importante de software libre no viene con un buen manual libre, ése es un hueco importante. Tenemos muchos de esos huecos en la actualidad. La documentación libre, como el software, es un tema de libertad, no de precio. El criterio para un manual libre es muy parecido al del software libre: es una cuestión de otorgar a los usuarios ciertas libertades. La redistribución (incluso la venta comercial) debe estar permitida, en línea y en papel, de tal manera que el manual pueda acompañar a cada copia del programa. El permiso para modificarlo es también crucial. Como regla general, no creo que sea
17 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
esencial que las personas tengan permiso para modificar toda clase de artículos y libros. Por ejemplo, no creo que usted o yo estemos obligado a dar permiso para modificar artículos como este, que describe nuestras acciones y nuestra visión. Pero existe una razón particular debido a la cual la libertad para modificar la documentación es crucial para el software libre. Cuando la gente ejercita su derecho a modificar el software, y agrega o cambia características, si son concientes también cambiarán el manual--así proporcionarán documentación precisa y útil con el programa modificado. Un manual que no permite a los programadores ser concientes y terminar el trabajo, no satisface las necesidades de nuestra comunidad. La existencia de algunas clases de límites acerca de cómo se deben hacer las modificaciones no implica problemas. Por ejemplo, el requerimiento de preservar el aviso de copyright del autor original, los términos de distribución, o la lista de autores, están bien. Tampoco trae problemas requerir que la versión modificada incluya un aviso de que fue modificada, e incluso que haya secciones completas que no puedan borrarse o cambiarse siempre y cuando dichas secciones traten temas que no sean de índole técnica. Estas clases de restricciones no son un problema porque no impiden al programador conciente que adapte el manual para ajustarlo al programa modificado. En otras palabras, no impiden a la comunidad del software libre la completa utilización del manual. Sin embargo, debe ser posible modificar todo el contenido *técnico* del manual, y luego distribuir el resultado en todos los medios usuales, a través de todos los canales usuales; si esto no es así, las restricciones obstruyen la comunidad, el manual no es libre, y necesitaremos otro maual. ¿Será que loa desarrolladores de software libre tendrán la conciencia y determinación para producir un espectro completo de manuales? Una vez más, nuestro futuro depende de nuestra filosofía. Debemos hablar acerca de la libertad En la actualidad se estima que hay unos diez millones de usuarios de sistemas GNU/Linux, tales como el Debian GNU/Linux y Red Hat Linux. El software libre ha desarrollado ciertas ventajas prácticas que hacen que los usuarios estén congregándose hacia allí por razones puramente prácticas. Las buenas consecuencias de esto son evidentes: mayor interés en el desarrollo de software libre, más clientes para empresas de software libre, y mayor capacidad para animar a las compañías a que desarrollen productos de software libre, en lugar de productos de software propietario. Pero el interés en el software crece más rápido que la conciencia acerca de la filosofía sobre la cual está basado, y esto crea problemas. Nuestra capacidad de enfrentar los desafíos y amenazas que se describieron más arriba depende de la voluntad de mantenerse firmes del lado de la libertad. Para asegurarnos de que nuestra comunidad tiene esta voluntad, necesitamos esparcir la idea entre los nuevos usuarios a medida que ellos llegan a nuestra comunidad. Pero estamos fracasando en esto: los esfuerzos realizados para atraer nuevos usuarios a nuestra comunidad sobrepasan por lejos a los esfuerzos dedicados a la enseñanza cívica acerca de nuestra comunidad. Necesitamos hacer ambas cosas, y es necesario que mantengamos ambos esfuerzos balanceados. "Open Source" La enseñanza acerca de la libertad a los nuevos usuarios se hizo más
18 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
difícil en 1998, cuando una parte de la comunidad decidió dejar de usar el término "software libre" y usar "open source software" en su lugar. Algunos de los que favorecieron este término tenían como objetivo evitar la confusión de "free" con "gratis"--una meta válida. Otros, sin embargo, apuntaban a apartar el espíritu de principio que ha motivado el movimiento por el software libre y el proyecto GNU, y resultar así atractivos a los ejecutivos y usuarios comerciales, muchos de los cuales sostienen una ideología que pone las ganancias por encima de la libertad, de la comunidad, y de los principios. Por lo tanto, la retórica de "open source" se centra en el potencial de realización de potente software de alta calidad, pero esquiva las ideas de libertad, comunidad y principio. Las revistas sobre "Linux" son un claro ejemplo de esto--están llenas de propagandas acerca de software propietario que funciona sobre GNU/Linux. Cuando aparezca la próxima Motif o Qt, ¿incentivarán estas revistas a los programadores a apartarse de ellas, o pondrán propagandas de las mismas? El apoyo de las empresas puede contribuir a la comunidad de varias maneras; si todo lo demás se mantiene igual, esto es útil. Pero si ganamos su apoyo mediante el recurso de hablar menos de libertad y principio esto puede ser desastroso; hace que empeore el desbalance previo entre el alcance y la educación cívica. "Software libre" y "open source" describen la misma categoría de software, más o menos, pero dicen diferentes cosas acerca del software, y acerca de los valores. El proyecto GNU continúa utilizando el término "free software" [software libre] para expresar la idea de que la libertad, no solamente la tecnología, es lo importante. ¡Pruébelo! La filosofía de Yoda ("No hay 'para probar'") suena linda, pero no funciona conmigo. He realizado la mayor parte de mi trabajo con ansiedad por saber si podría llevarlo a cabo, y con la inseguridad de que no sería suficiente alcanzar la meta si lo lograba. Pero lo intenté igual, porque no había otro entre el enemigo y mi ciudad. Para mi propia sorpresa, algunas veces he tenido éxito. Algunas veces he fallado; algunas de mis ciudades han caído. Luego he encontrado otra ciudad amenazada, y me preparé para otra batalla. A lo largo del tiempo, aprendí a buscar las amenazas y ponerme entre ellas y la ciudad, y llamar a otros hackers para que se unan a mí. En la actualidad, con frecuencia no soy el único. Es un consuelo y un placer cuando veo un regimiento de hackers excavando para mantener la trinchera, y caigo en cuenta que esta ciudad sobrevivirá--por ahora. Pero los peligros son mayores cada año que pasa, y ahora Microsoft tiene a nuestra comunidad como un blanco explícito. No podemos dar por garantizado el futuro en libertad. ¡No lo dé por garantizado! Si usted desea mantener su libertad, debe estar preparado para defenderla.
Por favor envíe sus preguntas (en inglés) sobre FSF & GNU a gnu@gnu.org. También hay otras maneras de contactar a la FSF. Por favor envíe comentarios (en inglés) estas páginas a webmasters@www.gnu.org, envíe otras preguntas (en inglés) a gnu@gnu.org.
19 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Copyright (C) 1998 Richard Stallman Está permitida la copia textual y distribución de este artículo en su totalidad por cualquier medio, siempre y cuando esta nota se preserve. Actualizado: $Date: 2003/02/18 20:33:43 $ $Author: luferbu $
Traducción: César Ballardini (Argentina) <cballard@santafe.com.ar> Revisión: - Ramsés Morales (Panamá) <ramses@computer.org> - César Villanueva (Venezuela) <dandel@etheron.net> - Oscar Mendez Bonilla (México) <omendez@acnet.net> Coordinación: Hugo Gayosso <hgayosso@gnu.org> Actualizada: 30 Nov 1999 Cesar Javier Bolaños Vizcarra (México) < cesarbv@netspace.com.mx> Actualizada: 08 Feb 2003 Luis Bustamante
2.3 Editor de textos Los editores o procesadores de texto son unos de los programas más importantes y usuales en la utilización de cualquier ordenador personal. La posibilidad de escribir largos o repetitivos documentos, corregirlos, modificarlos e imprimirlos es una ventaja sustancial del ordenador sobre la máquina de escribir. Los procesadores o tratamientos de textos son programas que permiten realizar todas las operaciones necesarias para crear, guardar, recuperar, modificar e imprimir un texto. Al escribir con un procesador de textos, no hay que preocuparse del final de la línea, ni tampoco del fin de página, ya que el programa pasa automáticamente a la línea siguiente o a la hoja siguiente cuando una esté completa. El propio procesador delimitará el tamaño de la hoja, líneas por página. Mediante sencillos procedimientos podemos mover, borrar, subrayar o repetir párrafos, frases y palabras dentro de un texto. Una vez finalizada la manipulación del documento, podemos guardarlo en un soporte magnético u óptico, imprimirlo o ambas cosas. (Cuando se edita o crea un texto, éste reside en la memoria interna, luego solo permanece temporalmente, perdiéndose al desconectar el equipo. Para evitar la pérdida, antes debe guardarse en un soporte, si deseamos conservarlo). Los procesadores tienen acceso y comunicación con otros programas: bases de datos, hojas de cálculo, diccionarios, otros archivos, etc, aunque esto ya no es imprescindible en los entornos Linux o Windows, dada las facilidades que ofrecen para la interrelación entre programas. Todos los procesadores de textos permiten establecer cabeceras y piés de página, definir la anchura del documento, el número de caracteres por línea, definir longitud de páginas, marcar márgenes y tabuladores, mover, copiar o borrar bloques de textos, definir atributos de texto (negrita, subrayado ...).También ofrecen la posibilidad de crear de forma sencilla tablas, gráficos, dibujos e insertar incluso imágenes. Es normal la la posibilidad de visualizar el documento en pantalla en su formato definitivo, es decir tal y como va a imprimirse. Esta muestra previa es muy interesante para comprobar su aspecto final sin necesidad de imprimirlo; se conoce como WYSIWYNG (se obtiene lo que se ve). Un programa que no es WYSIWYNG, aunque es el más potente de todos es Tex, escrito por Donald Knuth de la Universidad de Stanford (EE.UU.), muy utilizado por los matemáticos y científicos en general, contando con muchos defensores.
20 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
Respecto a la seguridad, guardan automáticamente una copia del documento anterior; otros tienen claves de acceso (PASSWORD) que protegen el texto, permitiendo su manipulación sólamente a los usuarios que conozcan la contraseña. Sin embargo Microsoft WORD tiene niveles de seguridad muy deficientes. Los procesadores de texto tienen la posibilidad de disponer de los tipos de letras del respectivo sistema operativo, aunque es el tipo de impresora la que realmente determina la variedad y calidad que se puede utilizar. Los procesadores actuales cuentan con programas auxiliares como los diccionarios ortográficos, de sinónimos o bilingües. Los ortográficos sirven para revisar el documento completo detectando los errores de mecanografía y faltas de ortografía. Los de sinónimos (tesauros) permiten consultar posibles alternativas a una palabra. Los diccionarios bilingües permiten buscar la palabra en otro idioma. Otras posibilidades hasta hace poco tiempo consideradas como avanzadas son: editores de fórmulas, posibilidad de definir macros, sombreados de marcos, escritura en columnas. Es también muy importante la existencia de una ayuda lo más sencilla y completa posible que evite la consulta constante del manual. Algunos programas incluyen discos tutores y libros de aprendizaje con ejemplos. Otros programas interesantes son los comprobadores de estilo que comparan los textos con una serie de reglas gramaticales. Detectan errores de puntuación, mayúsculas, palabras repetidas, palabras en desuso. Los procesadores de textos son programas de usurario que permiten realizar todas las operaciones necesarias para crear, guardar, recuperar, modificar e imprimir un texto. El procesamiento de textos no es escribir Aunque se piense que el ser un buen mecanógrafo es importante para escribir en un programa editor de textos, hay algunas aptidudes de la mecanografía que son contraproducentes. Seguidamente se listan los nuevos hábitos a tener en cuenta al pasar al uso de un editor de textos: Utiliza la tecla intro (o retorno de carro) sólo cuando debas. Los ajustes de línea se producen automáticamente. Utiliza guías de tabulación y márgenes, no la barra espaciadora para alinear columnas No subrayes. Utiliza cursivas y negritas para enfatizar el texto. Utiliza sólo un espacio después de un punto. Se deben evitar los espacios dobles Benefíciate de los caracteres especiales. Caracteres no comunes de las máquinas de escribir hacen que los escritos parezcan más profesionales. Nuevas herramientas para la manipulación de textos Los procesadores de textos han evolucionado rapidamente, las nuevas tendencias han dado lugar a grandes cambios: Procesamiento de textos escritos a mano. Es algo que requiere programas muy complicados, pero actualmente existen los ordenadores denominados tablet PC, basados en las modernas Otro ejemplo son los equipos denominados PDA (asistente personal digital) como por ejemplo los Palm, en los que se introduce el texto con una especie de lápiz. Procesamiento de texto con el habla. Hablando frente a un micrófono se le dice al ordenador lo que
21 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
debe escribir e incluso se le pueden dar órdenes de cómo hacerlo. Los programas de reconocimiento de voz buscan patrones en las ondas de sonido interpretando las palabras. Actualmente hay algunos disponibles, con resultados buenos, siempre que se les haga un aprendizaje previo para cada interlocutor. El más conocido es Voice Type de IBM. Procesadores web en línea (online). El usuario usa un programa residente en un servidor, a través de internet, no siendo preciso el disponer del editor de textos en el propio ordenador. Los más conocidos son: Zohowriter, AjaxWrite, Google Docs , proveniente de la adquisición de Writely por Google y gOFFICE. Algunos incorporan otras aplicaciones ofimáticas.
Un poco de historia sobre Tex La aparición de las computadoras ha introducido a los autores de artículos, informes o libros científicos (o a sus secretarios/as) en el mundo de la edición. La edición de trabajos en la mayor parte de las disciplinas de carácter humanístico-lingüístico no presenta dificultades importantes. Sin embargo en textos científicos de matemáticas, física, etc. la situación es diferente debido a la necesidad de usar fórmulas o gráficos complicados. Hasta hace bien poco tiempo era frecuente encontrar trabajos mecanografiados con las fórmulas escritas a mano. Con la llegada de los ordenadores personales y el uso de sistemas que operan en un entorno gráfico (Windows, Mac, X-Windows,...) algunos de esas dificultades han quedado obsoletas, pero han aparecido otras: - La gran variedad de editores existentes en el mercado, con las ventajas parciales de unos y otros o las preferencias de los autores, dificulta el intercambio de originales, incluso aunque los autores trabajen sobre un mismo sistema operativo. La frenética (e interesada) carrera de las "versiones" o la existencia (cuando están disponibles) de "conversores" que nunca acaban de funcionar satisfactoriamente, no contribuye a mejorar el panorama. - La posibilidad de intercambio de originales entre autores que utilizan entornos operativos diferentes (MSDOS, OSDOS, UNIX, VMS, MAC,..) es prácticamente inexistente. En el mejor de los casos será posible exportar a un formato "solo texto" con el coste de reducir las prestaciones del editor a las de una vulgar máquina de escribir. - El hecho de la creciente globalización que en nuestro mundo se da en todos los ámbitos de la actividad humana, requiere y genera recursos de interconectividad, trabajo en equipo (a veces desde lugares geográficamente alejados), etc. Pero las enormes posibilidades que hoy existen para la interconectividad de los ordenadores a través de las redes locales o internacionales tiene como handicap lo expresado en los dos puntos anteriores. Incluso en el limitado ámbito del "sólo texto", quienes han tenido alguna experiencia conocen bien que los caracteres con algún tipo de acento se comportan de forma impredecible al viajar por las redes. En los años 1970 la American Mathematical Society encargó a Donald E. Knuth, profesor de la Universidad de Stanford, la creación de un sistema para escribir textos científicos (especialmente matemáticos), que fuera cómodo y transportable entre plataformas. A partir de las ideas de Gutemberg y utilizando las computadoras como herramientas, Knuth creó el TeX que muchos consideran ahora como la aportación más importante habida en este campo desde la imprenta de Gutemberg. Prácticamente el cien por cien de los departamentos de matemáticas en todas las
22 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
universiades utilizan TeX para escribir en sus publicaciones y trabajos científicos, buena parte de las revistas mas importantes especializadas en matemáticas utilizan TeX (desde luego todas las que publica la AMS) y algunas solo publican originales que les sean remitidos en este formato. Los ficheros con formato TEX viajan constantemente por las redes informáticas de todo el mundo como mensajeros de investigaciones realizadas y resultados científicos obtenidos. Implementado inicialmente en máquinas grandes con sistema propio, el TeX fue posteriormente compilado en los diferentes plataformas y sistemas. Comercializado durante el tiempo necesario para amortizar la inversión, Donald E. Knuth y la American Mathematical Society pusieron de forma gratuita el programa fuente a disposición de la comunidad científica internacional. Siguiendo su ejemplo, muchas personas han contribuido (y contribuyen) desinteresadamente a implementar módulos adicionales al programa original. Hay incluso una asociación de usuarios de TeX la "TeX Users Group" para intercambiar información sobre problemas comunes y soluciones. En colaboración con ellos la AMS publica desde 1980 una revista llamada TUGboat sobre estos temas. Actualmente está en fase de elaboración, entre todos los usuarios que deseen participar, la versión 3 del dialecto LaTeX , el más extendido de los dialectos del TeX, coordinada por un equipo "The LaTeX team" que pone libremente a disposición de la comunidad científica, semestralmente en servidores Internet, los progresos que se van realizando con las ideas y colaboraciones de todos. La aproximación asintótica a esa versión 3 se llama LaTeXe. El TeX es un compilador, no es un editor de textos. De hecho, los autores pueden emplear para crear los textos TEX su editor preferido y esa facilidad también ha contribuido a su difusión.
2.4 Hojas de cálculo Las hojas de cálculo (hojas electrónicas o planillas) nacieron cuando surgió la necesidad de adaptar los sistemas de planificación utilizados en los grandes ordenadores a los nuevos microordenadores. Son una combinación de calculadora, lápiz y papel, que unido a la potencia y capacidad de almacenar datos de los ordenadores, las convierten en una herramienta de primerísima importancia en el mundo empresarial. En 1961 se desveló el concepto de una hoja de cálculo electrónica en el artículo "Budgeting Models and System Simulation" de Richard Mattessich. Pardo y Landau merecen parte del crédito de este tipo de programas, y de hecho intentaron patentar (patente en EE.UU. número 4398249) algunos de los algoritmos en 1970. La patente no fue concedida por la oficina de patentes por ser una invención puramente matemática. Pardo y Landau ganaron un caso en la corte estableciendo que "algo no deja de ser patentable solamente porque el punto de la novedad es un algoritmo". Este caso ayudó al comienzo de las patentes de software. La primera hoja de cálculo comercializada masivamente (Visicalc, posteriormente comprada por Lotus) nació en 1977 de una idea de un estudiante, Dan Bricklin, de administración de empresas de la Universidad de Harvard (EE.UU.). Los cálculos empresariales manejan unas cantidades de datos que suelen variar dependiendo de los supuestos, por lo que hasta la invención de la hoja electrónica se había desechado aplicar la informática a ese entorno de trabajo, donde cada caso originaría un programa distinto. La hoja de cálculo se presenta como una tabla o matriz de dos dimensiones (actualmente existen de tres) que consta de un número de filas y columnas variable según el modelo del que se trate. (Ej. en LOTUS 123, una de las primeras, tiene 8192 filas y 256 columnas, en total más de 2000000 de celdas). Con los
23 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática (GAP). Capitulo 2, 2007/08. Of...
http://www.um.es/docencia/barzana/II/Ii02.html
datos se pueden representar variados tipos de gráficos, de gran utilidad en ambientes empresariales. Las filas son los datos horizontales y las columnas los verticales. El lugar donde se produce la intersección de una fila y una columna se denomina celda. Las columnas habitualmente se nombran con letras (A,B, ... AA, AB, ....) y las filas desde 1 en adelante. Hojas de cálculo web (online) Análogamente a como sucede con los editores de textos, el usuario emplea un programa residente en un servidor, a través de Internet, no siendo preciso el disponer del editor de textos en el propio ordenador. Los más conocidos son: EditGrid, ThinkFree, IRows, GoogleDocs, Zohowriter, Xcellery.
Prácticas de ofimática de la asignatura Introducción a la Informática: - Uso de Google Docs - Prácticas con Openoffice
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en mis webs
Imprimir
Aquí puedes cambiar el tamaño y color del texto
Página Rafael Barzanallana Actualización en Fisica Biografía de Edward Lorenz
Actualización en Avisos. II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software. Tutorial sobre la nueva versión de Google Docs
Actualización en Software. Tutorial sobre el programa HTTrackl
Actualización en Avisos.
24 de 26
18/04/2008 20:40
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 3. La información Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Ciencia en general Biología Criminología Inicio Contacte
Introducción Las ondas, portadoras de la información La información como magnitud fundamental Información y mensajes Selecciona un texto y pulsa aquí para oírlo
Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsar en la esquina inferior derecha
3.1 Introducción Información es una de las palabras más empleada en los entorrnos tecnológicos actuales tiene unos orígenes que en nada se parecen al significado actual. En latín in-formare era dar forma (ej.:: informare effigiem significa hacer el retrato de persona u objeto), y también significaba dar forma mental, es decir hacerse una representación o concebir una idea a partir de algo. En el siglo XVII ya aparece el término información en castellano, cuyo sentido era de averiguación legal (por ejemplo, de delitos), y hasta el siglo XIX no adquiere el significado de educación o instrucción. Como sucedía habitualmente, mientras tanto el francés llevaba la palabra hasta el inglés, donde se en el siglo XIV aparece con el significado de "comunicación del conocimiento". En el siglo XX muchas lenguas compartían ya la palabra en este último sentido. Bajo el término información consideramos cualquier conocimiento susceptible de ser transmitido. Sin emabrgo en los entornos tecnológicos información es algo estructurado: "datos ya sea en la forma de números, gráficos o palabras que han sido organizados, sistematizados y presentados de modo que los patrones subyacentes queden claros", según Bryan Pfaffenberger, en su obra "Diccionario para usuarios de computadoras e internet, México, 1998". R. W. Hamming (1915-1998) ha calculado que, desde los tiempos del físico Isaac Newton (1642-1727), el acervo de conocimiento se viene duplicando aproximadamente cada 17 años, lo que equivale a decir que aumenta exponencialmente y se desglosa en miles de ramas especializadas. Aunque por ahora no parezca ser capaz de dar respuestas convincentes a sus preguntas fundamentales, el saber acumulado por los humanos alcanza unas cotas asombrosas de complejidad y ha transformado, sobre todo en los últimos 200 años, casi todos sus conceptos y formas de vivir, incluyendo sus relaciones con ellos mismos, con los demás seres vivos, con la Naturaleza, hasta con el espacio y el tiempo. Seguidamente se comentan algunos ejemplos de transmisión de la información en la naturaleza, casos de seres vivos que nos encontramos en la vida diaría. Las abejas Si ponemos un recipiente con un jarabe dulce en las proximidades de una colmena, en cuanto una abeja accede a él y lo prueba, pasa poco tiempo antes de que lleguen gran parte de las restantes de la misma colmena. De alguna forma, la primera en acudir ha transmitido la información sobre la existencia del
2 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
jarabe a las otras. El científico austríaco C. Frisch (1886-1982) realizó una serie de experimentos sencillos de los que dedujo la forma en que se trasmitía la información, como se indica seguidamente. Si el jarabe se ha situado a menos de 100 m de la colmena, la abeja que llega con la noticia transmite la información mediante un baile circular. Pero si el jarabe se pone a más distancia, el baile cambia por completo, la abeja corre un poco en línea recta, rápidamente meneando el abdomen por los lados, después de una vuelta completa a la izquierda, de nuevo corre en línea recta y da una vuelta entera por la línea de un arco de circunferencia, pero hacia la derecha. Además el ritmo del baile depende de la distancia, a 100 m la abeja en 15 s hace 10 ciclos enteros, a 200 m hace siete ciclos, a 1000 m hace cinco ciclos y a seis km sólo hace dos. El baile contiene la información que indica en la dirección en la que se debe volar. Como la información la da dentro de la colmena, efectúa la parte rectilínea de su baile con un ángulo determinado respecto a la fuerza de la gravedad. Marcando abejas, se ha comprobado que el 88% de ellas, con la información recibida de la que descubrió el jarabe, llegan al sitio donde se ncuentra. Las hormigas y los escarabajos Observando la vida de las hormigas, se descubrió que a las muertas otras las transportan, fuera del hormiguero, en cuanto se transmite de alguna forma la información de que está muerta, que no suele ser de inmediato, es decir que una hormiga puede estar muerta varios días bajo la indiferencia del resto, hasta que aparece de golpe cierta señal y las hormigas la llevan a un lugar alejado. La explicación está en unas sustancias conocidas en biología como feromonas (también responsables de la atracción entre distintos sexos, y que se suelen vender en tiendas de artículos de magia) en el momento en que se desprende la feromona característica de que una hormiga está muerta el resto la llevan fuera del hormiguero. Si a una hormiga viva se le impregna de la feromona correspondiente, el proceso es como si estuviera muerta y aunque vuelva al hormiguero repetidas veces, la sacan fuera mientras que persista la feromona. Estudios recientes indican el posible uso de estas feromonas de hormiga para tratar la enfermedad de Alzheimer. Según algunas informaciones pseudocientíficas en la especie humana se da el caso curioso de que las mujeres rubias y pelirrojas tienen más cantidad de una feromona determinada, con lo cual suelen ser más atractivas para los hombres y las que se tiñen el pelo no consiguen este efecto. Por lo que respecta a los escarabajos descortezadores del pino, es de gran interés el estudio de la comunicación química de esta especie de gran importancia como plaga forestal, comenzando desde el aislamiento e identificación de feromonas y atrayentes volátiles del árbol hospedador, estudio de los mecanismos presentes durante el proceso de colonización, estudio de relaciones interespecíficas a nivel de semioquímicos hasta el diseño de las técnicas para el uso de feromonas con fines de control. Las mariposas El lenguaje de las feromonas y olores está muy difundido en el mundo de los animales. Entre ellos los más fuertes y de largo alcance son los relacionados con instinto de la reproducción. Por ejemplo la hembra de la mariposa llamada "los grandes ojos del pavo real" manda sus señales hasta una distancia de 20 km, mediante un transmisor químico de potencia ínfima. La industria de la perfumería no está en condiciones de competir con la naturaleza, el olor de los perfumes como mucho se aprecia a una decena de metros. Los peces En el año 1942, las falsas alarmas del sistema norteamericano de defensa de costas en el Atlántico, fueron la causa del descubrimiento de los sonidos que emiten unos peces, conocidos como tamborileros. Se estableció que "suenan" aproximadamente en el mismo rango que la voz humana, de 5000 a 10000 Hz 3 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
(vibraciones por segundo). Unas especies emiten un chirrido, otras murmullos, otras golpes sueltos y así se pueden clasificar en muchos tipos. Se realizó el siguiente experimento: en un acuario se introdujo un hidrófono y grabaron en cinta los sonidos producidos por los peces al masticar la comida, posteriormente reprodujeron estos sonidos en el acuario y los peces se acercaron al altavoz pensando que allí había comida. Los sonidos no son la única forma de transmitir información por parte de los peces. Los que habitan en grandes profundidades, tienen su fuente de luz. Esta consiste en faroles biológicos con lentes, reflectores y hasta diafragmas, estos impulsos de luz pueden tener distintas frecuencias y diversas duraciones. En África los peces de la familia mormínidos, que habitan en ríos turbios y agitados, emplean impulsos eléctricos para las comunicaciones. Estos peces tienen una especie de radares portátiles. Sus cuerpos son dipolos eléctricos, la cola tiene carga negativa y la cabeza positiva. Generando un campo eléctrico de una frecuencia dada, de forma que los objetos que se encuentran a su alrededor deforman el campo del dipolo, detectándolos de esta forma. Las serpientes Los zoólogos desde hace tiempo han comprobado que ciertas serpientes venenosas, como por ejemplo el ancistrodon (conocida como mocassin), tienen cuatro fosas nasales, las complementarias forman dos agujeos profundos. En estos hoyos se ha descubierto una membrana que los divide en dos cámaras, y que está atravesada por un sinfín de terminaciones nerviosas, se ha comprobado que son termolocalizadores. Perciben la irradiación de calor, por lo que determinan la dirección hacia su origen. Las serpientes tienen una vista muy débil, un olfato que casi no vale nada y un oído muy malo. Por eso durante el proceso de la evolución se desarrolló el sistema localizador de calor. Análogo a las cámaras de fotografíar que captan imágenes en la frecuencia del infrarrojo del espectro electromagnético. El hombre Según una hipótesis, nuestro antepasado común con los monos, dryopithecus, vivía en los árboles, se alimentaba de vegetales y bajaba con poca frecuencia a la tierra, pues era peligrosa para él. Millones de años vivió en un laberinto de ramas y su organismo se adaptó a esta forma de vida en los árboles. Estos saltos de rama en rama, exigían no sólo músculos, sino vista aguda, cálculo y orientación rápida. Los ojos que en la mayoría de los animales miraban en diferentes direcciones, comenzaban a aproximarse y a mirar hacia delante, se les creó la visión del volumen y del color. Se les complicó el cerebro y el sistema nervioso. El intercambio de información en estos colectivos se supone que era elemental, contactos cariñosos o bruscos, mímica y gestos y cierta cantidad de sonidos inarticulados. Estos sonidos formaban de 10 a 15 combinaciones a las que condicionalmente llamaremos palabras. El cambio de clima provocó que los dryopithecus bajaran a la tierra, tomando una posición casi vertical (así podían observar mejor el terreno) y las extremidades delanteras se quedaron casi sin ocupación. La lucha por la existencia pronto les encontró empleo, armadas con una piedra o un palo se convirtieron en un recurso para conseguir alimentos y para defenderse. Lo demás lo hizo el trabajo. Se perfeccionó el cerebro y en respuesta el cerebro hizo más hábiles a las manos del hombre. El trabajo era colectivo y por lo tanto exigía comunicación. Las muecas y sonidos inarticulados eran insuficientes, siendo reemplazados a lo largo de la evolución por la palabra oral y la escritura. Transición que duró muchos miles de años. La población del mundo aumentaba rápidamente, formándose tribus y pueblos aislados, apareciendo la 4 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
necesidad de la transmisión de la información a largas distancias. Para este propósito se han empleado muchos medios, corredores incansables, mensajeros a caballo, combinaciones de hogueras (indios), tambores gigantes, palomas mensajeras. Llegó un momento en que esto era insuficiente, la vida exigía una transmisión de la información más rápida. La electricidad hizo la revolución, apareció el telégrafo por cable. El paso siguiente fue el invento del teléfono, en la exposición mundial de París miles de personas hacían cola para hablar a través de él con otros visitantes.
Atribuyen la invención del teléfono a un italiano La Cámara de Representantes (Diputados) de los Estados Unidos decidió darle el crédito de la invención del teléfono, hasta ahora atribuida al estadounidense de origen escocés Alexander Graham Bell, al italiano Antonio Meucci. "La vida y obra de Antonio Meucci deben obtener el justo reconocimiento, y su trabajo en la invención del teléfono debe serle atribuido", dice el texto, que fue aprobado por simple exclamación a partir de la propuesta de un legislador republicano de origen italiano, Vito Fosella, del estado de Nueva York. De este modo, los legisladores dieron por terminada una discusión histórica. La resolución es una revancha póstuma para Meucci, un florentino que emigró primero a Cuba y luego a Estados Unidos. Meucci tiene en Staten Island, estado de Nueva York, un museo, el "Garibaldi-Meucci", que es una especie de templo de la italianidad neoyorquina. Emily Gear, la directora del museo, dijo: "El teléfono lo inventó él, pero no tuvo suerte". Su historia, siguió, "refleja el drama de tantos inmigrantes todavía hoy, discriminados porque no pueden hablar la lengua del país que los hospeda". Según sostiene la Sociedad Histórica Italiana en América, la fama y la fortuna le fueron vedadas a este inmigrante florentino porque no contó con los 250 dólares necesarios para patentar su invento. Meucci descubrió los principios que guían el funcionamiento del teléfono en 1849 y desarrolló un aparato que funcionaba en 1859. En 1860 lo presentó en un diario local, escrito en italiano. Y el 28 de diciembre de 1871 dejó registrado su primer intento de solicitud provisoria, cinco años antes de que Bell llenara los papeles. Su patente temporaria N° 3.335 se venció al no poder afrontar los costos del trámite. El juicio que inició Meucci contra la Compañía Bell fundada por Alexander no llegó a buen puerto. Los papeles de su patente temporaria se perdieron misteriosamente. Según la resolución que aprobaron los legisladores la semana pasada, la patente fue acordada a Bell, quien trabajaba en el laboratorio en el que Meucci había depositado su material. Siguiendo el proceso por fraude, en 1887 las autoridades intentaron anular la patente entregada a Bell, pero en 1889 después de la muerte de Meucci, ocurrida en 1896 el caso fue cerrado. Tampoco se conoció jamás quién fue el comprador del primer aparato creado por él, que vendió por 6 dólares cuando estaba necesitado. "Dejémosle a Meucci el honor de ser
5 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
reconocido como ''el Padre del Teléfono''. Dejemos Bell que tenga el dinero", dijo John La Corte, presidente de Sociedad Histórica Italiana en América.
El paso siguiente fue la transmisión de señales sin el uso de cables, el siete de mayo de 1895 Popov creó la radio. Pero surgió un problema, el espectro de ondas que pueden llevar la información a cualquier punto del planeta, las ondas cortas, sólo pueden transmitir pequeñas cantidades de información y además no en cualquier hora del día y tiempo del año. Mientras que las ondas ultracortas que transmiten gran cantidad de información, sólo se propagan dentro de los límites de la visión directa. La solución al problema fueron los satélites artificiales de la Tierra. Con sólo tres satélites a una distancia de 36000 km y equidistantes entre sí se puede solucionar el problema de las comunicaciones (excepto las zonas muy próximas a los polos). Cada día, cada uno de nosotros se ocupa de transmitir información por el tiempo, pero sólo en un sentido, del presente al futuro. Por ejemplo, si apuntamos un número de teléfono en una agenda, estamos transmitiendo esa información al futuro, esta transmisión durará el tiempo que exista la agenda. El periódico de hoy, que como es normal trae malas noticias, se convierte en un transmisor de datos al futuro. Si alguien dentro de 30 años, desea enterarse de lo que pasó hoy, podría encontrarlo en una hemeroteca. Por consiguiente, habiendo registrado la información, la ponemos en poder de un futuro, lejano o cercano, en dependencia del tipo de dispositivo de memoria que empleemos. ¿Es posible tener información del futuro, por ejemplo como vivirá la humanidad en el año 2040? Es posible una solución, mediante el estudio de tendencias del desarrollo de la humanidad en el pasado, suponiendo su validez para el futuro. A veces estas predicciones no son fiables. Otra solución (no es real, es una paradoja) es tripular una nave a velocidades próximas a la de la luz. Según la teoría de Albert Einstein (1879-1955), la marcha del tiempo al aumentar la velocidad del movimiento se retrasa, mientras que en la Tierra todo seguirá a su ritmo habitual. Al regresar la nave espacial, se tendrá el planeta con cientos o miles de años transcurridos, por lo que no encontrará a sus familiares, aunque sobreviva el tripulante de la nave, pues todos sus procesos biológicos se habrán ralentizado. Por ahora sólo es una realidad la transmisión de información del pasado y del presente hacia el futuro. El primer dispositivo de memoria fue el cerebro de los animales, que apareció en el proceso de evolución de muchos millones de años. Sobrevivía aquel que mejor recordaba el lugar donde se encontraban los peligros, los refugios, los alimentos. El hombre gracias al trabajo comenzó rápidamente a perfeccionar su cerebro y por lo tanto su memoria. Existen estimaciones del volumen de la memoria humana, que la consideran superior a la información contenida en una gran biblioteca (que puede ser de 1013 bit). La velocidad de percepción de la información por el hombre no sobrepasa los 25 bit por segundo lo que equivale a una palabra por segundo. Si un individuo capta información durante 70 años, y diez horas diarias, no cogerá más de 3*109 bit.
El mito del diez por ciento Alguien le robó la mayor parte del cerebro y usted probablemente no lo sabía. Bueno, no significa exactamente que le hayan quitado el cerebro, pero han decidido que Ud. no lo usa. Se trata del viejo mito, escuchado una y otra vez, que dice que la gente usa sólo el diez por ciento del cerebro.
6 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Mientras que para aquellos que repiten ese mito esto probablemente sea verdad, los demás felizmente usamos todo el cerebro. El mito y los medios Ese remanido supuesto del diez por ciento aparece todo el tiempo. El año pasado, los avisos publicitarios de la revista nacional para la U.S. Satellite Broadcasting mostraban el dibujo de un cerebro. Debajo figuraba la leyenda: Ud. sólo usa el 11 por ciento de su potencial. Bien, estuvieron más cerca que el mito del diez por ciento, pero todavía les faltó un 89. En julio de 1998, la cadena de televisión ABC emitió unos spots promocionales del programa The Secret Lives of Men (Las vidas secretas de los hombres), para la temporada de otoño. El spot consistía en una propaganda en la que se podía leer, Los hombres sólo usan el diez por ciento del cerebro ocupando toda la pantalla. Una de las razones por las cuales este mito ha permanecido, es que ha sido adoptado por videntes y otros integrantes del mundo paranormal para explicar los poderes parapsíquicos. En más de una ocasión he escuchado a videntes que le dicen a la audiencia Solamente usamos el 10 por ciento de la mente. Si los científicos no saben lo que hacemos con el 90 por ciento restante, ¡entonces debemos estar usándolo para los poderes parapsíquicos! En Reason To Believe: A Practical Guide to Psychic Phenomena (Razón para creer: guía práctica para los fenómenos parapsíquicos), el autor Michael Clark menciona a un hombre llamado Craig Karges. Karges cobra un montón de dinero por su programa Intuitive Edge (Al filo de la intuición), el cual está diseñado para desarrollar habilidades parapsíquicas naturales. Clark cita a Karges diciendo: Normalmente utilizamos sólo del 10 al 20 por ciento de la mente. Piense cuán diferente sería su vida si Ud. pudiera usar ese otro 80 ó 90 por ciento, que conocemos con el nombre de mente subconsciente (Clark 1997, 56). También ésta fue la razón que dio Caroline Myss intentando explicar sus poderes intuitivos en una sección de Eye to Eye with Bryant Gumbel (Ojo a ojo con Bryant Gumbel, o Frente a frente con Bryant Gumbel), que se emitió en julio de 1998. Myss, que ha escrito libros sobre el desarrollo de los poderes intuitivos, dijo que todo el mundo tiene dones intuitivos, y lamentó que usáramos tan poquito del potencial de la mente. Para empeorar las cosas, apenas una semana antes, en el mismo programa, se había presentado información correcta acerca del mito. Entre el programa y la publicidad, aparecía en pantalla un spot con una breve encuesta: ¿Qué porcentaje del cerebro usamos? Las respuestas, tipo multiple-choice (de elección múltiple) iban desde el 10 hasta el 100 por ciento. Apareció la respuesta correcta, lo cual me alegró. Pero si los productores sabían que lo que había dicho una de las entrevistadas era clara y manifiestamente erróneo, ¿por qué permitieron que saliera al aire? ¿El cerebro derecho no sabe lo que está haciendo el cerebro izquierdo? Tal vez la entrevista a Myss era una repetición, en cuyo caso los productores presumiblemente chequearon los hechos después de que se emitió al aire y sintieron la responsabilidad de corregir el error en la emisión de la semana siguiente. O posiblemente las emisiones se difundieron en secuencia y los productores simplemente no se preocuparon y emitieron a Myss y a su desinformación de todos modos. Incluso Uri Geller, quien construyó su carrera tratando de convencer a la gente de que podía doblar metales con la mente, salió al ruedo con esta perlita. Esto aparece en la introducción de su libro Uri Gellers Mind-Power Book (El libro de los poderes mentales de Uri Geller): Nuestras mentes son capaces de proezas notables, increíbles, y todavía no
7 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
las utilizamos en su plenitud. De hecho, la mayoría de nosotros usamos sólo cerca del 10 por ciento del cerebro, con suerte. El otro 90 por ciento está lleno de habilidades y potenciales aún no descubiertas, lo cual significa que nuestras mentes operan en forma muy limitada en lugar de funcionar a pleno. Creo que alguna vez tuvimos pleno poder sobre nuestra mente. Lo hacíamos para sobrevivir, pero a medida que el mundo se sofisticó y se hizo más complejo nos olvidamos de muchas habilidades que alguna vez tuvimos (énfasis en el original). Evidencia en contra del mito del diez por ciento El argumento que dice que los poderes parapsíquicos provienen de la vasta parte del cerebro no utilizada se basa en la falacia lógica del argumento por ignorancia. En esta falacia, la falta de pruebas para sostener una posición (o simplemente la falta de información) se usa para tratar de apoyar una suposición determinada. Aunque fuera cierto que la mayor parte del cerebro humano no se usa (lo cual no es cierto), eso de ninguna manera implica que haya alguna capacidad extra que pueda darle a la gente poderes parapsíquicos. Esta falacia surge constantemente en las afirmaciones paranormales, y prevalece especialmente entre los partidarios de los OVNI. Por ejemplo: dos personas ven una extraña luz en el cielo. El primero, un creyente en los OVNI, dice, ¡Mira allí! ¿Puedes ex-pli-carme eso? El escéptico contesta que no, que no puede. El creyente en los OVNI se regocija. ¡Ja! ¡No sabes lo que es, por lo tanto debe tratarse de extraterrestres! dice, argumentando desde la ignorancia. Lo que sigue son dos de las razones por las cuales el mito del diez por ciento resulta sospechoso. (Para un análisis más extenso y detallado del tema, véase el capítulo de Barry Beyerstein en el nuevo libro Mind Myths: Exploring Everyday Mysteries of the Mind, 1999 [Mitos de la mente: explorando los misterios cotidianos de la mente]). 1) Las técnicas de investigación por imágenes tales como los PET (Tomografía por emisión de positrones) y la FMRI (resonancia magnética funcional por imágenes) muestran claramente que la mayor parte del cerebro no permanece inactiva. En verdad, aunque ciertas funciones menores pueden utilizar sólo una pequeña parte del cerebro en un momento determinado, cualquier conjunto de actividades o patrones de pensamiento complejos usarán muchas partes del mismo. Así como una persona no utiliza todos los músculos a la vez, tampoco utilizan todo el cerebro a la vez. Para ciertas actividades, tales como comer, mirar televisión, o leer The Skeptical Inquirer, usted puede usar unas pocas partes específicas del cerebro. Sin embargo, en el transcurso del día se utilizarán casi todas las partes del cerebro. 2) El mito presupone una localización extrema de las funciones cerebrales. Si las partes usadas o necesarias estuvieran dispersas por todo el órgano, esto implicaría que de hecho se necesita gran parte del cerebro. Pero el mito implica que la parte utilizada del cerebro es un área discreta, limitada, y la parte no utilizada es como un apéndice o amígdala, que ocupa espacio pero es esencialmente innecesaria. Pero si todas esas partes del cerebro no se usan, el hecho de remover o dañar las partes no usadas no conllevaría grandes efectos o ni siquiera se notaría. Sin embargo las personas que han sufrido traumas cerebrales, un infarto, u otro daño cerebral, frecuentemente se encuentran severamente impedidos. ¿Ha escuchado Ud. a algún médico decir, afortunadamente cuando la bala penetró en el cráneo, solamente dañó el 90 por ciento del cerebro, que no usaba? Por supuesto que no. Variantes del mito del diez por ciento El mito no es simplemente algo estático o un malentendido. Tiene diversas formas, y su
8 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
adaptabilidad le da una vida más prolongada que la que tiene un spam laqueado. En su versión básica el mito afirma que años atrás un científico descubrió que nosotros utilizamos verdaderamente sólo el 10 por ciento del cerebro. Otra variante se refiere a que sólo el 10 por ciento del cerebro ha sido mapeado, y que esto se malinterpretó mapeado por usado. Antes, Craig Karges había presentado una tercera variante. Ésta dice que, de alguna manera, el cerebro se encuentra ingeniosamente dividido en dos partes: la mente consciente que se usa del 10 al 20 por ciento del tiempo (presumiblemente a plena capacidad); y la mente subconsciente, en donde el restante 80 ó 90 por ciento del cerebro permanece inutilizado. Esta descripción revela un profundo malentendido de la investigación de las funciones cerebrales. La larga vida del mito se debe en parte a que si una variante resulta incorrecta, la persona que cree en ella puede simplemente cambiar la razón de su creencia y apoyarse en otra base, mientras la creencia misma permanece intacta. Así, por ejemplo, si a un individuo se le muestra un examen PET en donde se observa actividad en todo el cerebro, todavía puede seguir argumentando que lo del 90 por ciento se refiere a la mente subconsciente, y por lo tanto la figura del mito queda a salvo. Independientemente de la variante, el mito se repite y se expande, sea por gente bien intencionada o por aquellos que mienten deliberadamente. La creencia que permanece es, entonces, lo que Robert J. Samuelson denominó un psico-hecho (psycho-fact), una creencia que, a pesar de no estar sólidamente basada en los hechos, se toma como real porque su constante repetición cambia la manera en que experimentamos lo que vivimos. El lego va a repetirlo una y otra vez hasta que, tal como sucede con la advertencia de no tirarse al agua después de comer, termine por convertirse en una creencia ampliamente difundida. (Triumph of the Psycho-Fact, Newsweek, May 9, 1994.) Los orígenes del mito no son del todo claros. Beyerstein, del Laboratorio de comportamiento cerebral de la Universidad Simon Fraser en British Columbia, lo ha rastreado hasta principios del siglo veinte. En una reciente columna de la revista New Scientist también se sugirieron otras fuentes, incluyendo a Albert Einstein y Dale Carnegie (Brain Drain 1999). Probablemente tenga un sinnúmero de fuentes, principalmente la malinterpretación o malentendido de los hallazgos científicos legítimos así como los gurúes de autoayuda. El más poderoso atractivo del mito es probablemente la idea de que podemos desarrollar poderes parapsíquicos o al menos lograr ventajas competitivas tales como mejorar la memoria y la concentración. Todo esto se encuentra a nuestra disposición, como dicen los avisos, si aprovechamos el más poderoso de nuestros órganos, el cerebro. Ya es tiempo de desechar este mito, aunque si ha sobrevivido casi un siglo, seguramente continuará vivo en el próximo milenio. Quizá la mejor manera de combatirlo sea contestar a nuestro interlocutor, cuando lo mencione, Ah, ¿y qué parte no usas? Benjamin Radford The Skeptical Inquirer, March-April 1999 Traducción de Alejandro Borgo. Benjamin Radford es Jefe deb Edición de la revista The Skeptical Inquirer y es graduado en psicología.
Agradecimientos
9 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Estoy en deuda con el Dr. Barry Beyerstein por sus sugerencias y ayuda en la investigación. Referencias Beyerstein, Barry. 1999. Whence cometh the myth that we only use ten percent of our brains? In Mind-myths: Exploring Everyday Mysteries of the Mind and Brain, edited by Sergio Della Sala. New York: John Wiley and Sons. Brain Drain. 1999. The Last Word (column). New Scientist 19/26 December 1998-2 January 1999. Clark, Michael. 1997. Reason to Believe. New York: Avon Books. Geller, Uri, and Jane Struthers. 1996. Uri Gellers Mind-power Book. London: Virgin Books. Fuente: Sin dioses
El siguiente vídeo trata sobre el asunto del mito del 10% del cerebro, por parte del profesor Carlos J. Álvarez, psicólogo de la Universidad de La Laguna. (Fuente: Magonia)
A pesar de la perfección de la memoria humana, esta tiene defectos, el principal es que su contenido no se transmite por vía biológica a los descendientes, sino que se destruye al morir las células del encéfalo. Otro defecto es que no siempre se consigue en el momento necesario reproducir y emplear la información previamente memorizada. Los humanos hablaron durante unos doscientos mil años antes de que plasmaran sus ideas para la posteridad. Cuando los habitantes de Mesopotamia, conocidos como sumerios, rasparon unos símbolos sobre unas tablas de arcilla hace 5000 años, sin saberlo iniciaron una nueva era de la humanidad, lo que conocemos como historia. La presencia de fuentes escritas denota la línea técnica divisoria entre lo que
10 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
los expertos clasifican como prehistoria. La escritura apareció casi al mismo tiempo en diversos lugares, y por las mismas razonesr, fue creada cuando las civilizaciones comenzaron a crecer lo suficiente como para querer llevar un control del concepto que comenzó a tomar importancia con la sociedades sedentarias, agricultoras, el concepto de la propiedad. Nuestros antepasados lejanos para superar estos defectos emplearon unos dispositivos de memoria muy simples, cortaban ramas, amontonaban piedras, hacían cortes en los árboles. La lucha por la existencia les obligó a encontrar métodos más perfectos. Los indios empleaban conchas de colores, los incas cartas de nudos llamadas quipos. Aparecieron los petroglifos, signos e imágenes grabados en las piedras. En el cuarto milenio antes de nuestra era aparecieron las escrituras del antiguo Egipto, los jeroglíficos. Otros dispositivos de memoria fueron placas de arcilla, pieles, papiro, pergamino, cortezas de abedul y posteriormente el papel.
Jeroglífico El paso siguiente fue el invento de la imprenta por el alemán Johannes Gutenberg (1398-1468). A su ayuda llegó la fotografía y más recientemente el cine. Más tarde se inventaron dispositivos para grabar y reproducir los sonidos. Al principio era un sencillísimo fonógrafo, siendo desplazado por el magnetófono y sus posteriores versiones actuales. La aparición de los ordenadores exigió la creación de dispositivos de memoria de elevadas capacidades, que han ido evolucionando con el tiempo: tarjetas perforadas, relés electromagnéticos, núcleos de ferrita, discos magnéticos, memorias de semiconductores, discos ópticos, memorias holográficas y experimentalmente memorias de bacterias y de nanotubos. Sin embargo actualmente no se han logrado memorias del tipo de la humana, tanto por su arquitectura como por su capacidad.
3.2 Las ondas, portadoras de la información La primera posibilidad del hombre de transmitir la información aparece junto con el primer grito que da al nacer, después empleamos este medio toda la vida. Hay quien piensa que cualquier información de por sí misma tiene la propiedad de pasar por el espacio sin ayuda de algún portador que circule. El sonido viaja por el espacio debido a las oscilaciones del aire. El que habla, con sus cuerdas vocales hace oscilar el aire, que transmite esta información a las siguientes capas de aire y así sucesivamente, si creamos un vacío alrededor de un orador, por ejemplo de los que leen monótonamente una conferencia, ya no se le oirá, y el auditorio podrá dedicarse a dormir. Aproximadamente lo mismo ocurre al difundir cualquier información en el espacio. Un barco que pasa lejos se detecta en la orilla por las olas que llegan, las han traído las oscilaciones de las partículas de agua. La información se transmite en el espacio solamente con la ayuda de un proceso que se propague en el espacio. A este proceso oscilatorio móvil lo llamamos ondulatorio. En función del medio ambiente oscilante, las ondas pueden ser de mar, de sonido, de radio, etc. Estas ondas son los mensajeros que difunden la información por el espacio, hay algunas que van a la máxima velocidad posible, la velocidad
11 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
de la luz, mientras que otras transmiten la información muy despacio, como por ejemplo las ondas en los líquidos viscosos. Este movimiento ondulatorio aparece en casi todas las ramas de la Física. El movimiento de una onda únicamente depende del tipo de onda y del material a través del cual se propaga, pero no depende del movimiento del cuerpo que provoca la onda. Cuando una fuente emisora lleva una velocidad mayor que la velocidad de la onda se produce una onda de choque (utilizadas para desintegrar cálculos renales con equipos de litotricia), como por ejemplo los estampidos sónicos de los aviones y la radiación de Vavilov-Cherenkov. Una onda de choque transporta toda la energía ondulatoria emitida a lo largo de la trayectoria del movimiento de la fuente en un estallido violento. Supongamos un muelle metálico muy largo (el juguete conocido en EE.UU como "slinky") y lo ponemos de lado a lado de una habitación. Entonces agrupamos con la mano unas cuantas espiras, cerca de uno de los extremos del muelle. Este grupo de espiras comprimidas parece moverse como un rizo hacia el otro lado del muelle. Viaja de esta forma hasta el extremo más alejado, una vez allí parece rebotar y vuelve al punto en el que se inició el proceso. Este proceso se repite sucesivas veces, pero la región comprimida se hace más ancha y su contorno menos definido. Al final es difícil reconocer esta región. El movimiento se ha extendido a todo el muelle y se observa un temblor y una agitación general, al final el muelle permanece en reposo. Cualquiera que efectúe el proceso antes descrito con el muelle debe de comprobar que algo se mueve hacia delante y atrás en el muelle. Sin embargo ni un solo trozo de metal se ha desplazado más de unos pocos centímetros de su posición inicial. ¿Qué fue lo que se movió a través de la habitación? Lo que se movió fue la silueta de espiras del muelle, la región en donde estas espiras estaban más juntas de lo normal. Cualquier silueta o forma que se desplace se puede llamar una onda.
Ondas Podemos ser más precisos y definir como perturbación cualquier distribución de las partes de un sistema que sea diferente de su condición de reposo natural. Una onda física es una perturbación que se mueve debido al efecto que las partes del sistema ejercen entre sí. Una onda se puede utilizar para enviar información. Supongamos que apagamos las luces, y que en cada extremo del muelle se pone una persona. Las señales se envían mediante la contracción de espiras en un extremo, notándose en el otro extremo la región comprimida. Una vez finalizado el movimiento se puede enviar otra señal. Para enviar mensajes largos se puede utilizar un código semejante al Morse. La onda que se enviaba a través del muelle, se producía comprimiendo algunas espiras del muelle. Las ondas en las que la perturbación coincide con la dirección del movimiento se conocen como ondas longitudinales o de compresión. Sin embargo las conocidas como ondas transversales, la perturbación forma un ángulo recto con la dirección de propagación de la onda. Las ondas sonoras son longitudinales, mientras que las que se producen en la superficie del agua son en su mayor parte transversales. Las ondas luminosas son transversales.
12 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Hasta el momento se han comentado ondas en las que la perturbación inicial dura muy poco tiempo, y en las que la perturbación no se volvía a repetir. Se conocen como pulsos. Cuando una perturbación que produce la onda se repite a intervalos regulares de tiempo, se tiene un tren de ondas. Por ejemplo, al cantar se produce un tren de ondas sonoras. Los trenes de ondas difieren entre sí en la rapidez con que se repiten los pulsos. El tiempo transcurrido entre la repetición de los pulsos recibe el nombre de período, que se representa por T. La frecuencia es el número de repeticiones por segundo y se representa por la letra f. La relación entre la frecuencia y el período de un tren de ondas regular es muy simple. El producto de la frecuencia por el período es siempre igual a uno. El producto de la longitud de onda por la frecuencia es igual a la velocidad de propagación de la onda. La unidad de frecuencia es el Hercio (Hz), que corresponde a un ciclo por segundo. Una forma de crear un tren de ondas sonoras es dar palmadas rítmicamente. Cada palmada envía un pulso sonoro. Al dar palmadas sucesivas se crea un tren de ondas. Si entre cada una transcurre un segundo, el período será de un segundo y la frecuencia un Hercio. Al dar la segunda palmada, el pulso sonoro producido por la primera se habrá desplazado una distancia considerable, si la velocidad del sonido es de 350 m/s, el primer pulso lleva una adelanto de 350 m respecto al siguiente. Si se da una palmada cada segundo, se produce un tren de pulsos sonoros espaciados 350 m entre sí. La longitud de onda es la distancia entre dos pulsos consecutivos, por lo que en este caso la longitud de onda será de 350 m. Si se dan dos palmadas por segundo, la longitud de onda será de 175 m. Entonces se llega a la conclusión de que el producto de la longitud de onda por la frecuencia de cualquier tren de ondas es igual a la velocidad de propagación de la onda. El efecto Doppler En una autopista, si estamos parados, es habitual oír el sonido de los vehículos que circulan por ella, procedentes de los ruidos de los motores. Es fácil advertir la variación del sonido cuando nos adelanta otro vehículo. Es obvio que la mayoría de los vehículos no disminuyen su velocidad al sobrepasarnos. El tono varía en función de la trayectoria seguida hasta llegar a nuestros oídos. Este desplazamiento de la frecuencia se llama efecto Doppler, muy utilizado en diversos campos, por ejemplo en los radares de la Guardia Civil, astronomía y medicina (ecografías abdominales, patologías del sistema circulatorio, patologías testiculares). Este efecto se debe al cambio de frecuencia de una onda, debido al movimiento de la fuente que emite las ondas, o al del observador que recibe la energía de la onda. Si se considera un coche desplazándose a la velocidad de 35 m/s, y cuyo conductor hace sonar el claxon cada segundo, al pitar por segunda vez, el pulso primero se ha desplazado 350 m (la velocidad del sonido), pero durante este tiempo el coche se ha desplazado 35 m desde el lugar de partida. Los dos pulsos mantendrán una distancia de 315 m entre sí. Un observador alejado recibirá más de un pulso por segundo. La distancia de cada pulso es 315 m y la velocidad en el aire es 350 m/s. El tiempo transcurrido desde que el observador escucha un pulso sonoro y el siguiente es 315/350 ó 0.9 s. Si el claxon continúa pitando se pueden llegar a oír diez pitidos en nueve segundos. En general se puede decir que: un observador situado frente a una fuente sonora en movimiento recibirá los pulsos sonoros con una frecuencia mayor que la emitida por la fuente. En caso de alejamiento la frecuencia será más baja. Si estamos al aire libre y alguien nos llama desde lejos, normalmente podemos 13 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
distinguir la dirección en que nos llega el sonido. Esto nos indica que se propaga en línea recta. Por otra parte, si alguien sale de la habitación en que nos encontramos y nos llama desde el pasillo, seguimos escuchando su voz. Entre ambos puede haber una pared que nos sirva de pantalla para las ondas sonoras. El sonido es capaz de encontrar un camino a través de la puerta abierta y alcanzar nuestros oídos; en este caso su trayectoria no es una línearecta. Esto indica que las ondas sonoras pueden bordear obstáculos. Se conoce como difracción el proceso mediante el cual las ondas vencen obstáculos. En cualquier caso la magnitud de la difracción depende de la relación existenteentre el tamaño de los obstáculos y la longitud de onda de la onda. Cuando las ondas encuentran en su camino obstáculos del mismo tamaño o más pequeños que su longitud de onda, tienden a bordear el obstáculo. Una onda electromagnética es un conjunto de voltajes en el espacio, que se mueve con el tiempo. La teoría básica de la electricidad y el magnetismo,(para quien no conozca los conceptos básicos de las magnitudes más habituales en electricidad se indican en el siguiente enlace) debida a James Clerk Maxwell, indica que para crear ondas electromagnéticas se han de acelerar cargas eléctricas. Una vez formadas, esta teoría también predice su comportamiento. Se propagan en el espacio libre con la velocidad de 300000 km/s, y en otros materiales a velocidades inferiores. Las ondas electromagnéticas se pueden detectar debido a la energía que transportan. Estos detectores pueden ser muy variados, como por ejemplo los electrones que se encuentran en la antena de un coche, o bien las cargas eléctricas que poseen los átomos de la retina de nuestros ojos. El espectro de ondas electromagnéticas es muy amplio, varía desde las ondas de radio, de muy baja frecuencia, hasta rayos gamma, cuya longitud de onda es más pequeña que el núcleo de un átomo. Una representación esquemática y animada muy buena del espectro electromagnético se encuentra en : Atlas of Electromagnetic space
14 de 32
18/04/2008 20:35
Apuntes Introduccion a la Inform谩tica. Capitulo 3, la Informaci贸n. 200...
15 de 32
http://www.um.es/docencia/barzana/II/Ii03.html
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
La longitud de onda es la característica fundamental de estas ondas. Un sistema eficaz para detectar o producir estas ondas debe ser un dispositivo del mismo tamaño que la longitud de onda delas ondas que se quieren producir o detectar. Por ejemplo, una antena de radio es demasiado grande para generar ondas de luz visible, los átomos de nuestros ojos son demasiado pequeños para detectar ondas de radio. Se ha de cosniderar que las radiaciones más energéticas son ionizantes y por lo tanto susceptibles de generar cáncer, dentro de este grupo se encuentran los Rayos, Rayos Gamma y parte del espectro de la radiación ultravioleta (UV). Contrariamente a las afirmaciones alarmistas e injustificadas de grupos "ecólatras", los teléfonos móviles y sistemas de internet medante Wifi no son perjudiciales para la salud, pues su rango de frecuencias cae dentro del grupo de las no ionizantes. El informe Moulder es muy completo y aclaratorio sobre el asunto. Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)
16 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Ondas de radio AM y FM. Una señal de radio que transmite siempre la misma onda no transporta mucha información. Pero al menos informa al receptor de que la estación que envía la señal está en funcionamiento. Para obtener más información, hay que variar y comprender la señal que se detecta. Es el proceso de la modulación. El tipo de modulación más simple consiste en variar la duración de los intervalos de tiempo entre señales. Puede transmitirse una secuencia de trenes de ondas más largos o más cortos mediante el código morse o algún otro conocido. A principios del siglo XX la primera utilidad de las señales electromagnéticas fue el envío de mensajes telegráficos a través del océano para grandes distancias. Es muy fácil variar gradualmente la intensidad de la señal desde su valor máximo al mínimo, a lo largo de muchos ciclos de la onda repetitiva elemental, este método se conoce como modulación de la amplitud (AM). Un parámetro importante es el porcentaje de modulación, que indica la amplitud mínima o nivel cero de la onda modulada. Una modulación al 100% indica que la amplitud mínima será cero. Se puede demostrar matemáticamente que la onda modulada final se puede descomponer en tres señales: una de frecuencia igual a la portadora y otras resultado de sumar y restar la frecuencia de la moduladora a la de la portadora. Es decir, si tuviéramos una portadora de 500 KHz y la onda moduladora posee una frecuencia máxima de 20 KHz (como las señales musicales) obtendremos tres ondas: una de 500 KHz y dos bandas laterales de 480 KHz y 520 KHz. Esto es importante para saber el ancho de banda que ocupa la transmisión (en este caso 20+20=40 KHz).
Con este sistema pueden aparecer algunos problemas, la intensidad de la señal puede variar por razones distintas a las de la modulación que provoca la emisora, las cargas de la atmósfera pueden crear efectos no deseados. Esto provoca distorsión y ruido en el receptor.
17 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Para evitar el problema previo, se utilizan ondas de frecuencia modulada (FM), muy popular en la actualidad. En este sistema la onda que transporta la información no posee una frecuencia única. Su frecuencia varía en función de la intensidad de la señal de modulación. Para descifrar estas señales hace falta un circuito más complicado que las de AM, pero la distorsión atmosférica afecta poco en la transmisión, por lo que la calidad de recepción es mucho mejor. Supongamos que tenemos una señal moduladora cuya máxima amplitud es de 1V (valor de pico) y una onda portadora de 1000 KHz. Si suponemos que para este valor de amplitud la frecuencia de la portadora se desvia 15 KHz (simétricamente, es decir +15 KHz y -15 KHz), conforme oscile la señal moduladora la frecuencia de la portadora oscilará entre 985 KHz y 1015 KHz, ocupando un ancho de banda de 30 KHz.
En este sistema de modulación también tenemos un problema práctico, y es que rara vez el ancho de banda de la transmisión es inferior a diez veces el de la señal moduladora. Internacionalmente se han dividido todo el espectro de frecuencia en las denominadas bandas de frecuencia. Esto se hace así para poder delimitar el acceso de los usuarios a estas bandas. Hay que mencionar que este clasificación no es global y que algunos paises difieren en su delimitación, pero en general podemos aceptarlas como generales. Denominación
Siglas Margen de frecuencias
Frecuencias muy bajas VLF
3 - 30 KHz
Frecuencias bajas
LF
30 - 300 KHz
Frecuencias medias
MF
300 - 3000 KHz
Frecuencias altas
HF
3 - 30 MHz
Frecuencias muy altas
VHF
30 - 300 MHz
Frecuencias ultra altas
UHF
300 - 3000 MHz
Frecuencias super altas SHF
3 - 30 GHz
Frecuencias extra altas EHF
30 - 300 GHz
Las bandas de frecuencia más baja se reservan para las emisoras que transmiten en AM, mientras que las de FM transmiten sobre los 100 MHz. La única banda que está libre para cualquier uso (como radiocontrol) y para cualquier persona es la banda de los 27 MHz, pero debido a esto está bastante saturada y sólo es conveniente utilizarla para practicar con montajes caseros y sistemas de poco alcance (no más de 100m).
3.3 La información como magnitud fundamental La información nos sale al paso en cualquier momento, ya sea en sistemas técnicos como en los naturales: en la elaboración de datos, en la tecnología de las comunicaciones y en la de regulación, en las lenguas naturales, en los sistemas de comunicación biológicos, incluso en la transmisión de informaciones en la célula viva. La información se ha convertido, pues, en la tercera magnitud básica universal. Debido al enorme desarrollo realizado por la tecnología de ordenadores, el sector de la informática ha alcanzado una 18 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
importancia que era escasamente predecible. Además la palabra información se ha convertido en una expresión aplicable a las más diversas disciplinas. Alcanzando al mismo tiempo una importancia esencial en los sectores más dispersos como por ejemplo, la técnica, la biología y la lingüística. Por lo tanto el concepto de información requiere un tratamiento profundo, especialmente en el sentido de precisar su significado, definir sus características más primordiales y formular teoremas. Algunos ejemplos de la vida real: Un organismo vivo recibe toda la información hereditaria de sus progenitores. El catálogo entero de detalles de una futura persona está "embalado" en un volumen increíblemente pequeño, en un óvulo, cuyo diámetro es tan sólo de una décima parte de milímetro. Todo lo vivo está compuesto de células, cuyo elemento básico es el núcleo, donde se encuentra la información hereditaria. Cualquier ser vivo nace como resultado de la reproducción de muchísimas copias de una célula inicial fecundada, proceso que se desarrolla a gran velocidad, se puede tener una idea considerando que a partir de la célula inicial se llegan a 26 1012 células en un recién nacido. Los núcleos de todas las células contienen los denominados cromosomas, en número constante para cada especie, el hombre 46, el mosquito zumbador 6, la carpa 104 y el chimpancé 48. En los cromosomas están las moléculas de ácido desoxirribonucleico (DNA o ADN), descubierto 1869 por un médico alemán llamado Friedrich Miescher (1844-1895), al que la evolución ha confiado la misión de ser el portador de la información genética puesto que tiene gran capacidad para duplicarse. El ADN está formado por los nucleótidos, y cada uno de ellos consta de moléculas de azúcar desoxirribosa (D), de un grupo fosfato (F) y de una de las cuatro bases nitrosas: adenina (A), timina (T), citosina(C) o guanina (G). Dos cadenas de ADN se unen en una espiral doble como si se enrollasen la una en la otra, las bases nitrosas se encuentran en el espacio interior entre las espiras y están unidas entre sí con enlaces de hidrógeno. La Adenina siempre hace pareja con la timina y la guanina con la citosina. El número de nucleótidos en la molécula de ADN es de muchos miles. El mecanismo de duplicación del ADN, se puede describir de la siguiente forma. Los enlaces de hidrógeno que unen las dos espirales de ADN se desgarran al dividirse las células. La espiral doble se desenrolla, y en cada espiral separada, inmediatamente se construye otra nueva, complementaria. En lugar de una se han formado dos nuevas espirales dobles de moléculas de ADN absolutamente idénticas a la inicial, y así sucesivamente. De esta forma se transmite la información. Las moléculas de ADN constituyen la mayor densidad de información conocida, El tamaño es de 2 nm de diámetro y 3.4 nm de altura por cada espira de la hélice. Lo cual implica un volumen de 10.68 10-21 cm3 por espira. En cada espira se encuentran 10 letras del alfabeto químico (nucleótidos) resultando una densidad de información de 0.94 1021 letras por cm3. No obstante en el alfabeto genético existen sólo cuatro bases nucleótidos: adenina, timina, guanidina y citosina. El contenido de información de una de estas letras es de 2 bit por nucleótido. La densidad de información es por lo tanto 1.88 1021 bit/cm3. Si se supone que el hombre tiene menos de cienmil genes (actualmente se estima en 30000) y se quisiera
19 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
codificar la información hereditaria en el sistema binario, se tendrían del orden de 2 107 bit. Si se grabala información en cinta magnética, la longitud sería de dos kilómetros, mientras que si se desenrolla la espiral hereditaria del ADN y se estira en línea recta, la longitud sería solamente de unos dos metros. Lo cual da idea de lo compacto que es el embalaje de la información hecho por la naturaleza.
Aovillando, que es ADN Preguntaba Rigel, hace algunas entradas, ¿Cómo se almacenan los kilómetros de escalera adenosa en sitio tan chiquitito como es una célula? Me gusta la pregunta. Me gusta porque me da pie a desvariar un poco sobre un par de cosas, y a asustaros con numeritos, que es algo que siempre alegra mi malvado y negro corazón. Procedamos al susto: La "escalera adenosa" de una célula no alcanza el kilometraje ni de lejos. Haciendo unos pocos cálculos, que os ahorro, se ve que si estiramos todo el genoma humano, contenido en el núcleo de una célula, tenemos un filamento de poco menos de unos dos metros de largo. -- Oiga, ¿y de gordo, cuánto? -- Dos nanómetros. O sea, dos milmillonésimas de metro. -- ¿Mande? -- Digámoslo así: ¿ve la división en milímetros de una regla? -- Bueno, con las gafas y tal... -- Pues imagine ese milímetro, dividido un millón de veces. ¿Puede? -- No. -- Ni yo. Así de chiquitito es un nanómetro. -- Caray. -- Y que lo diga. Sea como sea, dos metros de hilito no son cosa nimia que empaquetar. Si se limitaran a estar enrollados sobre sí mismos, sería un desastre. Hay que tener en cuenta una cosa importante: el genoma no es una cosa que simplemente "está ahí". Es una parte muy dinámica de la célula, que tiene que acceder continuamente a la información contenida en ella; ahora este gen, ahora el otro, ahora este trozo de aquí, ahora el de allá. La visión de los cromosomas como esas X gorditas que se ve en los libros sólo ocurre cuando la célula está ocupada en dividirse. El resto del tiempo, el ADN es un ovillo medio suelto de ADN y proteínas que se conoce como "cromatina" y cuya estructura es muy complicada y tiene varios niveles de empaquetamiento. Matemáticos, a mí: leí hace tiempo que el tipo de empaquetamiento que usa el ADN es el más eficiente que existe. No lo sé. Pero sé que a la célula le va muy bien. Paso a describirlo, poco a poco. La hebra de ADN desnudita se enrolla en torno a una especie de "carrete" proteico formado por cuatro proteínas llamadas histonas, cuya importancia es imposible exagerar. Esto es lo que se llama "estructura en collar de perlas", por razones obvias. Hay una quinta histona por ahí, enzarzada con el trozo de ADN que enlaza cada una de las "perlas", pero esto es hilar finito. El collar, como véis ahí en el dibujito, es de unos 11 nanómetros de grosor: ni siquiera el doble que el ADN desnudo.
20 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Sigo: el "collar de perlas" se enrosca sobre sí mismo en lo que se llama un "solenoide", de nuevo por razones obvias. La estructura tiene ahora 30 nanómetros de grosor, ¡la repera! El solenoide, a su vez, conserva la flexibilidad y características de un hilo (una fibra de cromatina), que a su vez se enrosca más sobre sí mismo, en plan cable de teléfono, hasta formar la hebra del cromosoma. En este punto la hebra tiene 700 nanómetros de grosor. El cromosoma completo, con sus dos cromátidas y tal, es de unos 1400 nanómetros de grosor. Tres órdenes de magnitud más que la hebra desnuda. ¿Esto es mucho, o poco? Extrapolemos: si partimos de un hilito de un milímetro de grosor (proporcionalmente tan largo como el ADN de un cromosoma), y lo empaquetamos como un cromosoma, el paquete resultante tendrá un metro y pico de grosor. No está mal. ¿Y qué tal en cuanto a la longitud? ¿Cuánto hemos conseguido acortar la hebra para que quepa en el núcleo? Vamos a verlo: este sistema de empaquetamiento consigue que la longitud de la hebra de ADN se reduzca cincuenta mil veces. Que se dice pronto. Si queréis os asusto con más numeritos: el cromosoma más largo del genoma humano mide 263 millones de pares de bases (todo el genoma son unos tres mil millones). Estiradito, eso son, a grosso modo, nueve centímetros. Tras el empaquetamiento, no llega a las veinte diezmilésimas de milímetro de largo. Así que, ¿cómo se almacena el ADN en la célula? Pues, la verdad... la mar de bien. Y como fin de fiesta, para aquellos a los que les dé pereza lo negro, todo lo anterior está perfectamente explicado en este bello dibujo, que además (astucia supina) es un enlace a una página anglosajona donde se explican más cosas aún. El que no sepa más de cromatina después de esto, es ya porque no quiere. De nada. La Biblioteca de Babel Toda la materia viva, desde el virus más primitivo hasta el hombre son cadenas transportadoras para transmitir la información hereditaria, son sistemas de comunicaciones perfectamente construidos, que tienen una asombrosa exactitud para transmisión de sus datos, con una gran defensa contra la acción de
21 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
diferentes interferencias, y realizados en unas dimensiones increíblemente pequeñas.
El ADN "cumple" 50 años La determinación de que el ADN transmite información genética de un individuo a su descendencia se concretó hace ahora 50 años. Durante este tiempo, el interés por esta sustancia química de la que están hechos nuestros genes y, p or tanto, el libro de instrucciones para fabricar a un ser vivo, no ha hecho más que aumentar, hasta el punto de que la estructura del ADN (de doble hélice) se ha convertido en un icono en el mundo científico. Redacción Ondasalud.com La determinación de la estructura en doble hélice del ADN se considera uno de los hitos científicos del siglo XX. James Watson y Francis Crick la publicaron por vez primera vez en la revista Nature y ahora, cincuenta años más tarde, este medio festeja el hallazgo que culminó con la concesión del Premio Nobel de 1962 en Medicina y Fisiología a la célebre pareja. ¿Por qué se celebra el quincuagésimo aniversario del descubrimiento de la estructura de doble hélice del ADN y no otros hallazgos científicos? Para Robert Olby, del Departamento de Historia y Filosofía de las Ciencias de la Universidad de Pittsburgh, en Estados Unidos, para entender la magnitud de este acontecimiento científicos "primero tenemos que situarnos en 1953, otro mundo, en el que la revista científica aún no utilizaba la abreviatura de ADN para el ácido desoxirribonucleico". Antecedentes A principios de la década de 1950 existía un programa científico de investigación del ADN. "Estos estudios incluían el análisis de las propiedades físicas del ADN y se analizaba si su composición era igual para todas las células del organismo. Y también se discutía sobre el daño de los rayos ultravioleta, entre otros factores, sobre este material génetica. La mayoría de los investigadores eran bioquímicos y químicos y estaban especialmente interesados en dos aspectos: las mutaciones genéticas y cómo las proteínas realizaban el proceso de la síntesis, un tema especialmente importante para el crecimiento, la nutrición y la investigación en cáncer. "La progresiva investigación condujo a que ya en 1952 se viera al ADN como material hereditario". Pero hacía falta mucha más información para convencer a toda la comunidad científica. ¿Cómo justificar desde un punto de vista químico el papel del ADN en la herencia?, se preguntaban. La respuesta la aportó el trabajo de James Watson y Francis Crick. Describieron los pares de bases, donde la adenina fabrica uniones de hidrógeno con timina, y la guanina con citosina (las famosas cuatro letras A, T, C y G que forman el gran libro del genoma). "Este emparejamiento sugería un posible mecanismo de copiado para el material genético", escribieron en su artículo y, dos meses después añadieron: "Hasta ahora no se había presentado ninguna evidencia que mostrara de qué forma puede consumarse el proceso esencial para el material genético, la duplicación exacta".
22 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
La constatación de que el descubrimiento de Watson y Crick era sumamente importante la suministraron Matthew Meselson y Franklin Stahl en 1958 al probar la naturaleza de la replicación del ADN. La investigación siguió su curso hasta llegar al punto y seguido de esta bonita historia que fue la concesión del Premio Nobel de Medicina en 1962 a Watson, Crick y Wilkins. Un retrato idealizado La estructura de doble hélice que se ha popularizado hasta superar el entorno científico es una representación muy estética del ADN. En realidad, el aspecto del ADN es bastante diferente. Sin destruir la visión idealizada del modelo icónico propuesto por Watson y Crick, un científico relata en Nature que "en honor a la verdad, debemos explicar que la mayoría del ADN celular está comprimido en paquetes enmarañados y apelmazados que de alguna manera lo exponen de forma meticulosa al control regulador genético". Según refleja este artículo, la doble hélice es una de las razones del éxito de los trabajos realizados sobre el ADN. "Ahora bien, no nos tenemos que dejar engañar por este retrato idealizado y debemos ser conscientes de la complejidad que posee la estructura de ADN y, por ello, reconocer el trabajo tan importante de sus descubridores". Ejemplos de la vida real Supongamos un ejemplo de la vida real, se va por una carretera y se llega a una bifurcación. Si se desea saber por ejemplo cual de las dos conduce a Murcia, lo lógico ería ver los rótulos indicativos que suelen existir en las carreteras, pero en este caso sólo hay grandes carteleras publicitarias (aunque están prohibidas, pero como el alcalde se preocupa de pocas cosas), por lo tanto la información recibida es nula, igual a cero. Si vemos a otro coche que se acerca, se puede preguntar al conductor sobre cual de las dos vías conduce a Murcia, respondiendo por ejemplo, la de la derecha. Esta información recibida permite hacer una elección entre dos posibilidades, es decir entre las dos posibles salidas. Se ha recibido un bit de información. Otros ejemplos habituales pueden ser: ¿Cuánta información obtenemos cuandonos dicen que cierta persona tiene el pelo oscuro, o que es una mujer? Parece de locos intentar cuantificar de forma precisa este concepto, pero lo vamos a hacer partiendo precisamente de su idea intuitiva. Lo primero que debe quedarnos claro es que el hecho de obtener información es equivalente al de disminuir la indeterminación con respecto a algo, de tal forma que se obtiene tanta más información cuanto más disminuya el grado de incertidumbre que tenemos de cierto fenómeno. Veamos esto con un ejemplo, si nos dicen las siguientes frases: - La persona que describo tiene el pelo oscuro. - La persona que describo es mujer. En la primera frase se nos da un dato de todos los posibles (claro, castaño, pelirrojo, rubio, canoso), al igual que en la segunda, (hombre, mujer, lesbiana, "gay", bisexual), por tanto la primera y la segunda nos dan igual información, sin embargo si en el segundo caso simplificamos y sólo consideramos dos posibilidades (hombre, mujer), obtenemos más información al disminuir mucho más la incertidumbre que teníamos con respecto a la persona.
23 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Otro ejemplo: El alfabeto español se compone de 27 letras. Si un ordenador genera letras al azar, la información que nos suministra el conocer que letra ha salido será mayor que en cualquiera de los casos anteriores porque el número de estados posibles es mayor (27). Conclusión: La cantidad de información que obtenemos con un mensaje es directamente proporcional al número de estados posibles de la cuestión planteada. Los matemáticos y los físicos se han puesto de acuerdo que es lógico y cómodo tomar por unidad de información una dosis de información tal que disminuye nuestra ignorancia en dos veces y permite hacer una elección entre dos posibilidades equitativas. Claro está que se ignora la importancia de esta elección. Un caso más complicado es la elección entre cuatro salidas posibles. Por ejemplo, si hace falta prever en qué trimestre se desean las vacaciones, se seguiría el proceso siguiente: - ¿En qué mitad del año? En la primera - ¿En que trimestre de la primera mitad del año? En el segundo Otro ejemplo es el esconder una moneda debajo de una de entre cuatro tazas. ¿Cómo encontrar la moneda con sólo dos preguntas a las que se contesta si o no? - ¿Se encuentra la moneda debajo de la primera o de la segunda taza? No - ¿Se encuentra la moneda debajo de la cuarta taza? No La moneda, necesariamente ha de estar debajo de la tercera taza. De los dos ejemplos previos, se deduce que al hacer una elección entre cuatro opciones posibles, hacen falta dos unidades de información y no una. Si se escondiera la moneda debajo de una de entre ocho tazas, para encontrarla harían falta tres unidades de información. Así de forma sucesiva, aunque al aumentar el número de tazas es más probable que rompamos alguna buscando la moneda. Se puede observar una dependencia entre la cantidad de variantes N, u orígenes, y la cantidad de unidades de información J, necesarias para tomar una decisión, N=2J y tomando logaritmos, se tiene J=log N Esta fórmula fue propuesta en 1928 por Hartley, y dice, la información necesaria para la elección entre N variantes equitativas es igual al logaritmo del número de variantes. La función logarítmica crece muy despacio al aumentar el número, esto implica que la cantidad necesaria de información crece muy despacio al aumentar el número de variantes. Por ejemplo, para tomar una decisión entre 512 variantes, sólo hacen falta 9 unidades de información, y si N es 4096, hacen falta 12. Un ejemplo real de esta dependencia logarítmica es cuando un juez de instrucción, recibiendo del acusado ávidas contestaciones sólo en forma de las unidades de información "si" o "no", rápidamente aclara un asunto. Sin duda, a él ayuda la dependencia logarítmica previamente deducida. Si en la fórmula ponemos N = 2 (log 2 = 1), se obtiene la dosis que tiene la unidad de información que ha recibido el nombre de bit. Claude E. Shannon fue el primero que formuló una definición matemática del concepto de información en su trabajo " A mathematical theory of communication" (1948). La medida que él utilizó, el bit (binary digit), brindó la ventaja de permitir la definición cuantitativa de causalidades
24 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
que hasta ahora no había sido posible expresar de una forma matemática exacta. La desventaja, no obstante, es evidente: la información según el concepto de Shannon, no implica su contenido intrínseco, sino que se limita a un aspecto especial, que es significativo sobre todo para su transmisión y registro desde el punto de vista técnico. En este caso, no se tiene en cuenta que un texto sea razonable, comprensible, correcto o incorrecto o simplemente no tenga significado alguno. Se desatienden aquí también cuestiones importantes como el saber de dónde procede la información (emisor) y a quien va destinada (receptor). Para la definición "información" de Shannon no tiene transcendencia alguna si una serie de letras representa un texto de alto contenido temático o si, por el contrario, constituye el resultado de un juego de dados. Efectivamente, y aun bajo el riesgo de parecer paradójico, puede afirmarse que una serie de letras generadas al azar ofrece, desde el punto de vista teórico informático, un contenido máximo de información, mientras que un texto cuyo lenguaje sea congruente, el valor correspondiente es menor. La definición informática de Shannon se limita a un aspecto de la información, esto es, el hecho de que a través de ella se exprese algo nuevo. Nuevo implica el mayor efecto de sorpresa que se obtiene al aparecer un signo menos usual. Información es, por lo tanto en este caso, la medida de improbabilidad de un acontecimiento. Por esta razón, a un signo con alto grado de improbabilidad se le concede un mayor contenido informativo. Antes de que un emisor de signos origine un signo, existe la duda de que signo especial va a emitirse de entre los signos disponibles. Esta inseguridad desaparece tras haber recibido la señal. Según la forma de discernir de Shannon se define lo siguiente: Información es la inseguridad que desaparece al recibirse la señal correspondiente. Teniendo en cuenta que Shannon sólo está interesado en determinar la probabilidad de aparición de los signos, automáticamente sólo registra el carácter estadístico de la información. Con ello, el concepto de la palabra información queda reducido a su aspecto carente de significado. Según Shannon el contenido de la información queda definido de forma que reúna las siguientes propiedades:
Condición de adición: El contenido de información de unos signos o series de signos independientes el uno del otro, debe sumarse. Esta condición concibe la información como algo cuantitativo. Condición de probabilidad: El contenido de información atribuido a un signo, o serie de signos debe aumentar con el aumento progresivo de la sorpresa. El efecto de la sorpresa para la letra w, con menor probabilidad de aparición, es mayor que el de la letra e, con mayor probabilidad de aparición. De ello se deduce, cuanto menos probable sea un signo, tanto mayor será su contenido de información.
3.4 Información y mensajes El interés más evidente de la medida de la cantidad de información aportada por el resultado de una experiencia, aparece cuando se trata de transmitir este resultado a distancia. A continuación se describe un ejemplo muy ilustrativo, supongamos que tu trabajas en una oficina en un pequeño grupo formado por cuatro empleados y el jefe. Este último por comodidad empleó para llamar a sus empleados un sistema de comunicación muy sencillo: un timbre suena y en un panel se enciende una de las cuatro lámparas en las que están escritas las primeras letras de los nombres de los empleados. Estas son A(Antonio), M(María), P(Procopio) y U(úrsula). Supón que tu código sea A. Los primeros meses se desarrollaba un proyecto conjunto con la participación por igual de los cuatro y por lo tanto las llamadas del jefe implicaban que las cuatro luces se encendieran con la misma frecuencia. (La información era el log 4, es decir 2 bit). La probabilidad de que aparezca la luz en tu lámpara o en cualquier otra, es .25
25 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
En un momento tu hiciste una proposición muy original al jefe, y desde entonces casi se encendía solamente la lámpara A. Esto hizo que en cuanto sonaba el timbre acudías a la llamada del jefe, sin ni siquiera mirar la lámpara que se encendía. Haciendo cálculos se llegó a que la probabilidad de que apareciera la A era .97, mientras que para cada uno de los otros tres empleados era .01, evidentemente la suma de las tres probabilidades es la unidad. Se aprecia fácilmente que cuantas más señales o códigos de igual probabilidad se emplean, tanto menor es la probabilidad de cada uno de ellos. Según Shannon, para las señales de igual y diferente probabilidad la cantidad de información en su envío o código se determina por la probabilidad de su aparición. Esta dependencia es también inversa: cuanto más frecuentemente aparece el código, tanto menos información lleva. Por eso tu no mirabas la lámpara al sonar el timbre, a pesar de que de cada 100 llamadas había tres que no eran tuyas. La aparición de la luz en la lámpara A era segura y la cantidad de información que llevaba esa luz disminuyó mucho, hasta log(1/.97), igual a 0.04 bit. Mientras que la información de las señales poco frecuentes aumentó considerablemente a log(1/0.01)=3.32 bit. La lotería puede ilustrar esto, supongamos un sorteo, el individuo mira la lista de los número premiados, después de estar un rato buscando ya ha perdido la esperanza y cada nueva búsqueda no le aporta ninguna información, de repente se pone radiante, ganó un millón de euros , si sólo hay un premio como este por cada millón, recibió de golpe una información de log(1/.000001) lo que equivale a 20 bit. Volvamos a la oficina, pasado cierto tiempo la situación cambió por completo, poco a poco la lámpara A dejó de encenderse. Entonces al comprobar que al sonar el timbre ya no aparecía la luz de la letra A, te tapaste los oídos con algodón. En esta situación el encenderse la luz de la A, supone una gran cantidad de información, lo que pasa es que no las notas al tener tapados los oídos, y son los compañeros quienes te lo indican. Fórmula de Shannon Shannon dio una receta generalizada: hay que calcular la información comunicada por cada código (en este caso cada lámpara) y mediarla por todos los códigos (por todas las lámparas). Pero no hay que mediarla del modo corriente, sino por las reglas de las magnitudes causales: la información comunicada por cada código se multiplica por la probabilidad de su aparición y se suman todos los productos recibidos. De esta forma se llega a la siguiente fórmula, H = p1*log(1/p1)+p2*log(1/p2)+ .. pm*log(1/pm) donde H es la entropía, las p son las probabilidades de que aparezcan los códigos y m el número total de códigos. En el caso de las luces, para la situación en la que el jefe llamaba continuamente, se tendría, H = .01*log(1/.01)+ .01*log(1/.01)+ .01*log(1/.01)+.97*log(1/.97) = 1.38 bit es evidente que para el período en que las cuatro luces se encendían con igual probabilidad, con esta expresión se llega a 2 bit, como se dedujo de la fórmula de R. Hartley. Así la diferente probabilidad de la aparición de luz en las lámparas llevó a la disminución de la información que comunica el tablero de señales, es decir a la disminución de la entropía. Información y significado
26 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Existe una clase muy amplia de fenómenos observables que se pueden asociar a cantidades numéricas, o a una sucesión de cantidades numéricas, distribuidas en el tiempo. Su estudio pertenece a la estadística. estas cantidades, o sus medidas estadísticas, dan información sobre los fenómenos observados. En una línea telefónica, o en un circuito de televisión, o en un radar, tenemos unas cantidades, las medidas de los voltajes de la corriente eléctrica que en un cierto momento fluyen por el lugar donde hacemos la medida, que varían muy rápidamente en el tiempo y que son susceptibles de ser estudiadas desde un punto de vista estadístico. Los receptores telefónicos, los filtros de onda, las redes de modulación de frecuencias, etc., han de poder procesar la información inherente a los cambios de voltaje a un ritmo tan rápido como la variación de éste. La información se ha de poder registrar, conservar, trasmitir y usar. Las ideas fundamentales sobre la cuestión de medir la información, pueden ser atribuidas a Claude E. Shannon, aunque hay otras personas que ayudaron a aclarar algunos conceptos fundamentales, como por ejemplo Norbert Wiener. Una teoría de la información es, de hecho, una teoría de la medida de la información como consecuencia de la idea de que ésta es medible. En 1922, R.A. Fisher proponía una definición cuantitativa de la cantidad de información contenida en datos experimentales susceptibles de tratamiento estadístico. Más tarde, el desarrollo de las telecomunicaciones impuso la necesidad de medir la información transmitida a través de un canal, en este caso el hilo metálico. La cronología del desarrollo del estudio de la teoría de la información podría resumirse del siguiente modo: 1928, R. Y. Hartley, en el congreso internacional de telefonía y telegrafía, propuso un método de comparación de los distintos sistemas transmisores de información. 1948, C.E. Shannon, partiendo del problema concreto de la transmisión por hilo, halla la medida de la cantidad de incertidumbre asociada a un campo de probabilidades finito, inspirada en el modelo de entropía termodinámica de Boltzmann (1894). Fue él mismo quien dio las nociones de fuente, canal, perturbación, etc., así como algunos de los teoremas fundamentales de la codificación que son la base de esta teoría de la información que nos disponemos a estudiar. 1953, B. McMillan reemprendió los trabajos de Shannon e introduce las definiciones matemáticas de fuente de información y canal de transmisión. Pasa de las fuentes de Markov a las fuentes ergodinámicas (existencia del vector de probabilidades de estado estacionarias). 1954, A. Feinstein dio la primera demostración completa del teorema de codificación, enunciado por Shannon para los canales sin memoria. 1956, A.L Khintchine elaboró el primer tratamiento matemático riguroso y completo de la teoría de la información para los canales estacionarios ergódicos y para los canales con memoria finita y sin anticipación. 1962, M.L. Minsky desarrolló las ideas de R.J.Solomonoff sobre la teoría algoítmico de la información basada en la complejidad asociada a la realización de un cierto algoritmo, por medio de una cierta máquina de Miring. Posterior-, mente, esta teoría se ha ido desarrollando por otros autores como A.N.KoImogorov, P.Martin-L5f y G.J.Chaitin. 1963, S. Winograd y J.D. Cowan publicaron un buen trabajo sobre la teoría de autómatas fiables, construidos a partir de partes no fiables, estableciendo una conexión entre la
27 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
teoría de la comunicación de Shannon y la de autómatas, desarrollada anteriormente por Von Neumann. Durante los años sesenta del siglo pasado se lleva a cabo una revisión de la teoría de la información de Shannon para contemplar aspectos semánticos de la información. Tales revisiones son los trabajos de Rényi, Forte, Kampé de Fériet, Aczel, etc..
Un equipo de científicos japoneses "escribió" y recuperó una fórmula física en el genoma de un tipo de bacteria. La técnica podría abrir el camino para usar el ADN de animales o plantas para almacenar mucha información en poco espacio. Según los investigadores, el ADN sería un material más resistente que los CD, DVD y los discos duros que suelen romperse fácilmente. (Agencia CyTA-Instituto Leloir. Por Bruno Geller) - Los CD, DVD y los discos duros son soportes físicos que pueden almacenar una gran cantidad de información, sin embargo, tienen la desventaja de que pueden romperse fácilmente. Por ese motivo, científicos de diversos países pretenden crear a partir de materia biológica dispositivos de almacenamiento de memoria más resistentes, que podrían durar miles de años. Esto quizás no sea importante para la finita vida de un individuo, pero tal vez sí podría serlo para la humanidad. Investigadores del Instituto para las Biociencias Avanzadas de la Universidad Keio, Japón, crearon un método para guardar información en el ADN de un organismo viviente que podría ser transmitida a la descendencia, según revela la revista científica The Journal of the American Chemical Society. Los creadores de la técnica, encabezados por el doctor Yoshiaki Ohashi, insertaron en el ADN de la bacteria Bacillus subtilis el mensaje "E=mc², 1905" que corresponde a la ecuación de la Teoría de la relatividad formulada por el físico Albert Einstein en el año 1905. El mensaje fue traducido al sistema binario que en matemática es un sistema de numeración en el que los números se representan utilizando las cifras cero y uno (0 y 1) de acuerdo con determinado orden y que es utilizado por las computadoras para realizar sus operaciones. Mediante la combinación de esos números, que también pueden representar letras, es posible crear el mensaje "E=mc², 1905", así como cualquier otro. El experimento Ohashi y sus colegas utilizaron la adenina (A), la guanina (G), la citosina (C) y la timina (T) -cuatro unidades básicas que conforman junto a otros elementos el ADN- para crear el mensaje. La unión de las bases representaban los números del sistema binario que a su vez representaban las letras y números del mensaje. Una vez creado el mensaje mediante la unión de las bases del ADN, fue insertado en el genoma de la bacteria Bacillus subtilis. Días después, los investigadores recuperaron el mensaje tras descifrar la región del genoma donde fue inscripta la información. Según Ohashi, la secuencia de nucleótidos ?compuestos por las bases de ADN- que puede ser artificialmente insertada en el ADN de organismos vivientes puede ser una alternativa viable para almacenar información por dos razones: el ADN es un material resistente y por otro lado la información podría ser transmitida por herencia a las sucesivas bacterias durante miles de años.
28 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática. Capitulo 3, la Información. 200...
http://www.um.es/docencia/barzana/II/Ii03.html
Sin embargo, quedan varias cuestiones por resolver. Si bien las bacterias heredan copias idénticas de genes de sus precursoras, como si fueran clones, el ADN de las bacterias puede experimentar mutaciones que podrían modificar la información guardada. En ese sentido, los autores del trabajo consideran necesario desarrollar técnicas que de forma simultánea descifren el mensaje e interpreten la lógica de las mutaciones. Si esa mutación no se produjera, una persona que no conoce la información "E=mc², 1905" inscrita en el genoma de la bacteria, sería capaz de descifrarlo simplemente comparando el genoma normal con el genoma de la bacteria genéticamente modificada: las diferencias revelarían el mensaje encriptado. Bibliotecas y computadoras del futuro Cabe preguntarse si en el futuro la humanidad dispondrá de bibliotecas vivientes compuestas de bacterias, insectos o plantas cuyos genomas modificados albergarán novelas, diccionarios o enciclopedias, entre otros datos. Con esas técnicas, más de una persona podría poner su biografía a salvo de la curiosidad ajena o bien enviar un mensaje de amor inscrito en el genoma de una rosa. ¿Cuándo llegara la era de las computadoras compuestas por millones de moléculas de ADN capaces de almacenar más información que un chip convencional, dotadas de neuronas artificiales que imiten o superen el funcionamiento del cerebro humano? ¿Habrá sistemas informáticos basados en una combinación de material biológico con circuitos electrónicos y silicio? Expertos en informática y de otras disciplinas están trabajando en esa dirección
Enlaces recomendados: Límites en la compresión de la información ¡Más barata! ¡Más barata! (1ª parte) Información a precio ~0: revolución social, peligros y soluciones
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en mis webs
29 de 32
18/04/2008 20:35
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 4. Historia de la Informática Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo
1 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Divulgación Informática Ciencia en general Biología Criminología Inicio Contacte
Antecedentes Cálculo matemático Las generaciones de ordenadores Historia de los ordenadores personales Historia de internet Selecciona un texto y pulsa aquí para oírlo
Las imágenes en miniatura se pueden ver en tamaño normal pulsando sobre ellas, para salir pulsar en la esquina inferior derecha
4.1 Antecedentes El ser humano siempre ha necesitado medios para hacer cálculos y procesar la información. La complejidad de estos se ha ido acrecentando con el tiempo, conforme surgían nuevas necesidades, y ha estado subordinada a los progresos de la tecnología. En cuanto al cálculo, primero surgieron los instrumentos aritméticos, como el ábaco, a partir de los que se ha llegado a las calculadoras y ordenadores actuales. El origen del procesamiento automático de la información, se remonta al año 1896 cuando Herman Hollerith (1860-1929) fundó una empresa que daría lugar a IBM. Actualmente casi todas las necesidades de cálculo, se han visto satisfechas con los ordenadores. Es difícil determinar el punto de inicio para una síntesis histórica de la informática, por cuanto son muchos los trabajos y descubrimientos que trajeron como consecuencia la construcción del primer ordenador. Desde tiempo inmemorial los hombres se han valido de instrumentos para realizar cálculos y para almacenar y procesar información. La primer herramienta que servía para contar y al mismo tiempo para representar las cantidades contadas fueron los dedos, dando origen al sistema decimal de numeración. El hombre primitivo usó piedrecillas para representar números y hacer sumas sencillas. 500 años a.n.e., surgió el ábaco inventado y reinventado por culturas distintas en el espacio y en el tiempo, como los aztecas y los sumerios. El ábaco ruso es decimal, dispone de diez anillos de madera en cada columna. En el chino el tablero está dividido en dos zonas, "cielo" y "tierra", con dos y cinco bolas respectivamente. El japonés consta de cuatro y una bola respectivamente. En Japón existe un Instituto de Investigación del ábaco y un Comité Central de Operadores de ábacos. El 12 de noviembre de 1946 compitieron, el soldado Wood del ejército de EE.UU., que era el operador de máquinas de calcular más experto, con una calculadora eléctrica de las de su época y Kiyoshi Matsuzaki del Departamento de Ahorros del Ministerio de Administración Postal, dotado de un ábaco. Se trataba de resolver cinco cálculos comprendiendo las cuatro operaciones elementales, la victoria fue para el japonés, por cuatro frente a uno.
2 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
En la página Molecular Expressions se muestra un ábaco en el que es posible simular operaciones reales.
EL ÁBACO Considerado como el instrumento más antiguo de cálculo, adaptado y apreciado en diversas culturas. El origen del ábaco esta literalmente perdido en el tiempo. En épocas muy tempranas el hombre primitivo encontró materiales para idear instrumentos de conteo. Es probable que su inicio f uera una superficie plana y piedras que se movían sobre líneas dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en China, donde el uso de este instrumento aun es notable al igual que en Japón. La palabra ábaco es latina y tiene sus orígenes del griego "abax" o "abakon", que significa "superficie plana" o "tabla", es posible que se ha originado de la palabra Semítica Abaq que significa "polvo". Otros nombres son: del ábaco Chino es "Suan Pan", el Japonés es "Soroban", en Corea "Tschu Pan", en Vietnam "Ban Tuan" o "Ban Tien", en Rusia "Schoty", Turquía "Coulba" y Armenia "Choreb". Debido a que gran parte de la aritmética se realizaba en el ábaco, el término ábaco ha pasado a ser sinónimo de aritmética, y encontramos tal denominación en Leonardo de Pisa Fibbonacci (1170-1250) en su libro "Liber Abaci" publicado en 1202, que trata del uso de los números indo-arábigos. Muchas culturas han usado el ábaco o el tablero de conteo, aunque en las culturas europeas desapareció al disponerse de otros métodos para hacer cálculos, hasta tal punto que fue imposible encontrar rastro de su técnica de uso. Las evidencias del uso del ábaco son comentarios de los antiguos escritores griegos. Por ejemplo, Demóstenes (384-322) escribió la necesidad del uso de piedras para realizar cálculos difíciles de realizar en la cabeza. Y los métodos de calculo encontrados en los comentarios de Herodoto (484-425), hablando de los egipcios decía: “Los Egipcios mueven su mano de derecha a izquierda en los cálculos, mientras los Griegos lo hacen de izquierda a derecha". Algunas de la evidencias físicas de la existencia del ábaco se encontraron en épocas antiguas de los Griegos por las excavaciones arqueológicas. En 1851, se encontró una gran ánfora de 120 cm. de alto, se la denominó como "Vaso de Darío" y entre los dibujos tiene una figura que representa un contador que realiza los cálculos. La segunda muestra arqueológica es un auténtico tablero de conteo encontrado en 1846 en la isla de Salamis, el tablero de Salamis probablemente usado en Babilonia 300 a.n.e., es una gran pieza de mármol de 149 cm. de largo por 75 cm. de ancho, con inscripciones que se refieren a ciertos tipos de monedas de la época, este tablero esta dividido en dos partes. Se sabe que los Romanos empleaban su ábaco con piedra caliza o mármol, para las cuentas a las que denominaron "calculi" esta palabra es la raíz de la palabra cálculo". En el siglo XIII se estandarizó una mesa de ábaco en Europa, consistiendo en una mesa cubierta de paño en la que se dibujaban unas líneas con tiza o tinta. Existieron dos intentos por reemplazar la mesa de ábaco por otros más modernos. El primero fue ideado por el filósofo romano Boethuis, quien escribió un libro sobre geometría dedicando un capítulo al uso del ábaco, describió como en lugar de emplear cuentas se podía representar el numero con sólo una cuenta que tuviese los dígitos del 1 al 9 marcados. El segundo intento fue realizado por el monje Gerbert de Avrillac (945-1003), quien fue papa con el nombre de Silvestre II. Tomó ideas del libro de Boethius, y describió el uso de una nueva forma de ábaco en el año 1000. Ninguno de estos dos ábacos fueron populares. La mesa de ábaco fue usada extensamente en Bretaña, al igual esta fue abandonada por la
3 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
mayoría de la gente. El libro "The Grounf of Artes" escrito por Robert Recorde (1510-1558) en 1542, claramente muestra el método de aritmética con la mesa de ábaco. Conforme los numerales indo-arábigos aparecieron en Europa el uso de la mesa de ábaco desapareció por completo, cuando los soldados de Napoleón invadieron Rusia en 1812, trajeron ábacos como trofeos o recuerdos del país. En otras partes del mundo, se encuentra en China la primera evidencia del inicio del ábaco chino que se descubrió, fueron cuentas de cerámica hechas en el occidente de la Dinastía Zhou1 con más de 3000 años. Respecto a los materiales históricos a mano, el libro que registra el comienzo del cálculo con un ábaco se llama Crónica Aritmética escrito por Xu Yue en el oriente de la Dinastía Han (206-220), hace 2000 años. Esto indica que el ábaco tenia una cuenta en la parte superior y cuatro en la inferior. Los ábacos modernos existieron en la Dinastía Song (960-1279) lo que puede ser verificado por alguna evidencia, por ejemplo, en una pintura de Wang Xhenpeng's, muestra el uso extenso entre la gente del sur de la Dinastía Song. Durante la Dinastía (mongol) Yuan (1279-1368)los ábacos tuvieron una etapa donde se fueron popularizando paulatinamente en todo el país, posteriormente entró en la etapa en la que su uso ya era algo común a mediados de la Dinastía Ming (1368-1644) y la técnica de uso paso a ser un sistema algorítmico completo. Un libro escrito por Wu Ching-Hsin-Min en 1450, tiene descripciones acerca de el ábaco, así como una gran numero de libros publicados a finales de la Dinastía Ming, que aseguran el hecho que el ábaco entró en el uso popular. Existen dos trabajos representativos en el cálculo del ábaco en la Dinastia Ming. Uno fue Wang Wensu's Principios matemáticos 1524, y el otro es Cheng Dawei's reglas generales del método de conteo 1592, los cuales plantearon un mayor papel en extender el uso del ábaco. Durante el período de la Dinastía Ming, el ábaco chino se propagó hacia Corea en el 1400 y en Japón en el 1600, así como al sureste de Asia. Durante la Dinastia Ming había un solo tipo de ábaco en China, con una cuenta en la parte superior y cinco en la parte inferior, fue encontrado en la tumba de Lu Weizhen (1543-1610). Después de la Dinastía Qing (1644-1912), el ábaco contó con dos cuentas en la parte superior y cinco en la parte inferior, fue extensamente usado como actualmente ha sido, mientras que el ábaco japonés se diseñó empleando una cuenta en la parte superior (cielo) y cuatro en la inferior (tierra). A finales de la edad media los mongoles propagaron el uso del ábaco en Rusia, que provenía de los chinos y los tártaros. Un hecho muy importante del uso y la potencia del ábaco fue que el 12 de Noviembre de 1946, una competencia, entre el japonés Kiyoshi Matsuzaki del Ministerio Japonés de comunicaciones utilizando un ábaco japonés y el americano Thomas Nathan Wood de la armada de ocupación de los EE.UU. con una calculadora electromecánica, fue llevada a cabo en Tokyo, bajo patrocinio del periódico del ejército americano (U.S. Army), Stars and Stripes. Matsuzaki utilizando el ábaco japonés resultó vencedor en cuatro de las cinco pruebas, perdiendo en la prueba con operaciones de multiplicación. El 13 de Noviembre de 1996, los científicos Maria Teresa Cuberes, James K. Gimzewski, y Reto R. Schlittler del laboratorio de IBM de Suiza de la división de investigación, construyeron un ábaco que utiliza como cuentas moléculas cuyo tamaño es inferior a la millonésima parte del milímetro. El "dedo" que mueve las cuentas moleculares es similar a una aguja cónica que en su extremo más puntiagudo alberga un átomo.
4 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
1) Las fechas de inicio de la dinastía Zhou son dudosas, y varían entre los años 1122, 1050 y 1027 a.n.e., cuando al parecer expulsaron a la débil dinastía Shang. En cuanto a la fecha de su fin, casi todo el mundo coincide en señalar el año 221 a.n.e. Artículo escrito por Manuel Bernal
Antes de aparecer las calculadoras surgieron otros dispositivos de entre los que cabe comentar dos, en los que el matemático escocés John Neper (1550-1617) tuvo un papel destacado. Es conocido por la invención de los logaritmos en 1614, que dieron origen a la regla de cálculo, cuya paternidad es tema de controversia, no obstante el primero en usarla, en 1621, fue el sacerdote inglés William Oughtred (1575-1660). En 1617 Neper dio a conocer un instrumento sencillo para realizar multiplicaciones basándose en sumas, llamado rodillos de Neper, idea que aparecía varios siglos antes en libros árabes. La necesidad de calcular sin errores dio lugar a la calculadora, la mecánica es una especie de ábaco, pero con ruedas dentadas en lugar de varillas y bolas, dotada de un mecanismo para el transporte de las unidades que se lleven, de una posición digital a la siguiente más significativa. Hasta hace pocas décadas se creía que el filósofo francés Blas Pascal (1623-1662) había sido el creador de la calculadora. Pascal diseñó su "machina arithmetica", posteriormente denominada Pascalina, a la edad de 19 años, para que su padre que era recaudador de impuestos tuviera tiempo libre para jugar con él a la paume. Leonardo Da Vinci (1452-1519) diseñó una sumadora que fue reconstruida en 1967 a partir de uno de sus códices. En 1935 el historiador Franz Hammer, revisando la correspondencia del astrónomo Johannes Kepler descubrió que el alemán Whilem Schickard (1592-1635) había inventado una calculadora que era una combinación de los rodillos de Neper con una sumadora-restadora similar a la de Pascal, obviamente no sólo era superior a la pascalina, sino que se construyó el año en que nació Pascal. El primero en construir una calculadora, en 1671, fue el filósofo y matemático alemán Gottfried Leibniz (1646-1716),inventor junto con Isaac Newton del cálculo infinitesimal, aunque de forma independiente. Fue denominada calculadora universal, su elemento característico era un tambor cilíndrico con nueve dientes de longitud variable, llamado rueda escalonada, que se encuentra en prácticamente todas las calculadoras mecánicas posteriores, incluso las del siglo XX. Las técnicas de producción tan poco eficientes de aquella época, impidieron que el invento de Leibniz se fabricara masivamente. Se llegaron a construir 1500 unidades, pero hubo que esperar hasta 1820 para que Carlos Thomas, director de una aseguradora diseñara un modelo capaz de ser producido a bajo coste y a escala industrial. En 1872 el estadounidense Frank Baldwin construyó una calculadora a la que años más tarde le añadió la denominada rueda Odhner. Esta fue la antecesora de la clásica calculadora de sobremesa, con manecilla lateral, difundida universalmente desde 1910 y que todavía se encuentra en rastros. De ella deriva la popular caja registradora inventada en 1879 por James Ritty, comercializada bajo la marca National y una sumadora provista de impresora inventada por William Borroughs (1855-1898) en 1884, fundador de la empresa que llevó su apellido. En 1878 el periodista y escritor gallego, afincado en EE.UU., Ramón Verea García (1833-1899) patentó en Nueva York una calculadora por la que se le otorgó la medalla de oro de la exposición de Matanzas (Cuba). Aseguraba que no había fabricado la máquina para patentarla y venderla, sino para demostrar que era posible que un español pudiera inventar tan bien como un norteamericano. A partir de entonces sólo
5 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
se dedicó al periodismo, combatiendo la política de colonialismo de EE.UU., por lo que tuvo que exiliarse en Guatemala y posteriormente en Argentina.
4.2 Cálculo matemático Una calculadora no es un dispositivo automático, lo cual implica que requiere la acción constante de un operador, que es un obstáculo para la velocidad y fiabilidad de los resultados. En 1812 el matemático inglés Charles Babbage (1792-1871), habiendo constatado que las tablas trigonométricas estaban plagadas de errores al haber sido calculadas a mano, concibió la denominada máquina de diferencias, un instrumento mecánico para calcular e imprimir tablas de funciones. En realidad se trataba de una máquina que calculaba el valor numérico de una función polinómica sobre una progresión aritmética, pues las funciones se pueden aproximar por polinomios. Tras una serie de fracasos, en 1832 Babbage desarrolló el proyecto de la máquina analítica. Se trataba de un ordenador mecánico de propósito general, preparado para realizar cualquier tipo de cálculo mediante un programa adecuado. Sus elementos fundamentales serían: una memoria para 1000 números de 50 cifras, una unidad aritmético lógica para los cálculos, una unidad de control para que las operaciones se realizasen en el orden correcto, lectoras de fichas perforadas (que ya se usaban desde hace un siglo en los telares) para la entrada de datos y una impresora para la salida de resultados. Una amiga y colaboradora, la señorita Ada Augusta Byron (1815-1852), condesa de Lovelace, publicó una serie de programas para resolver ecuaciones trascendentes e integrales definidas, con la máquina analítica. En dichos programas se hacía uso de bifurcaciones, hacia delante y atrás y de bucles. Fue la primera programadora de la historia, por eso el departamento de Defensa de EE.UU. denominó ADA al lenguaje de programación oficial en sus dependencias. Es sorprendente que a alguien se le ocurriera diseñar un ordenador hace más de un siglo y medio. Aunque nunca se llegó a construir esta máquina por falta de precisión en algunas piezas. Babbage tenía manía a los organilleros, y al morir los periódicos londinenses destacaron ese detalle. Entre sus sucesores destaca el ingeniero santanderino Leonardo Torres Quevedo (1852-1936). Logró renombre universal gracias a sus inventos. Construyó transbordadores (uno en las cataratas del Niágara), un aparato teledirigido por ondas de radio, un globo dirigido y semirrígido, usado por franceses e ingleses durante la Primera Guerra Mundial y un sinfín de máquinas para cálculo científico. De estos destacan los aritmómetros en los que introdujo la aritmética de punto flotante, eran máquinas de cálculo matemático sobre la base de relés, y dotadas de memoria, que se gobernaban a distancia mediante una máquina de escribir, la cual servía para entrar operandos, operaciones y para obtener los resultados. Asimismo realizó estudios sobre los hoy denominados robots, y sus aplicaciones en la industria, por lo cual no sólo es considerado un precursor de la informática sino también de la cibernética; como ejemplo práctico construyó una máquina de jugar al ajedrez, un autómata capaz de dar mate de rey y torre contra rey y que reaccionaba ante las jugadas irreglamentarias del contrario. En los años 1920 tuvo en sus manos de dar a España la primacía en la informática, si no sucedió fue porque en aquella época no hacía falta. La necesidad de un ordenador surgió con la Segunda Guerra Mundial, por lo que se construyeron los primeros ordenadores basándose en los trabajos de Babbage y de Torres Quevedo.
4.3 Las generaciones de ordenadores
6 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Informática se puede considerar como "Tratamiento automático de la información" la primera persona que construyó una máquina (que todavía no era un ordenador) fue el americano Herman Hollerit (1860-1929). En 1886, cuando trabajaba para la oficina del censo en EE.UU. se percató de que el procesamiento de los datos del censo del año 1880, no se había terminado en el momento de hacer el de 1890. Para resolver el problema diseñó una tarjeta que se debía perforar con los datos de cada uno de los encuestados. Estas fichas se introducían en una lectora que detectaba las perforaciones mediante un baño de mercurio (Hg), que al introducirse por los agujeros provocaba contactos eléctricos. Finalmente los datos se registraban en una tabuladora. Con ello se multiplicó por 100 la velocidad de proceso, 200 fichas por minuto. Hollerit fundó su propia empresa, la Tabuling Machine Co. (1896),posteriormente convertida en la Computing Tabulating Recording (1911), tras pasar a manos de Thomas Watson se denominó en 1924 International Bussiness Machines (IBM). Otra gran empresa, Unisys, tiene su remoto origen en esta época. Al dejar Hollerit la Oficina del Censo, lo sustituyó James Powers, quien fundó en 1911 la Powers Accounting Machine Co., que pasó a formar parte en 1927 de la Remington-Rand Corporation. Esta empresa años más tarde construyó los primeros ordenadores Univac. Hasta 1950 las empresas fundadas por Hollerit y Powers se dedicaron a la fabricación de tabuladoras para la gestión de grandes empresas y organismos oficiales. La primera tabuladora llegó a España en 1925 y se instaló en la entonces denominada Compañía Telefónica Nacional de España (actualmente Telefónica de España S.A.). En 1926 se instaló otra en el ayuntamiento de Barcelona. A finales de los años 1950 había unas 70 en toda España. Ordenadores de Primera Generación Los primeros ordenadores fueron electromecánicos (en base a relés). Aunque Jorge Stibz construyó en 1949 en los laboratorios Bell una máquina programable que trabajaba con números complejos, el Complex Calculator, se considera que el primer ordenador fue desarrollado en 1941, el Z3 del alemán Konrad Zuse (1910-1995), cuya empresa fue adquirida por Siemens. Le siguió en 1944 el Mark I de Howard Aiken (1900-1973) y Grace Hopper (1906-1992), construido en la Universidad de Hardward con la colaboración de IBM. Pesaba cinco toneladas y tenía más de 750000 piezas y 800 km de cable. Durante la década de 1950 Aiken trabajó activamente con investigadores españoles del Instituto de Electricidad y Automática del CSIC, fundado por Torres Quevedo. La sustitución de los relés por tubos de vacío dio lugar a la Primera Generación de ordenadores electrónicos. El primero fue fabricado en 1945,el ENIAC (Electronic Numerical Integrator and Calculator) de los estadounidenses John Eckert (1919-1995) y John Mauchly (1907-1980) que se usó en el cálculo de trayectorias de proyectiles. Acabada la guerra se utilizó para calcular el número pi con unos 2000 decimales, y para hacer los primeros diseños de la bomba de hidrógeno. Tenía 18000 tubos y pesaba 30000 kg. Era 300 veces más rápido que el Mark I y costaba 400000 dólares frente a los cinco millones del Mark I. Sin embargo sólo tenía 20 registros de memoria, de 10 dígitos; estaba pues muy lejos de cualquier ordenador personal. En un test de prueba en febrero de 1946 el Eniac resolvió en dos horas un problema de física nuclear que previamente habría requerido 100 años de trabajo humano. Lo que lo caracterizaba como a los ordenadores modernos no era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitía realizar tareas que previamente eran imposibles. 7 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Antes del ENIAC, en 1940 se crearon otras máquinas electrónicas, un pequeño calculador del físico John Atanasoff (1903-1995) que no era automático ni programable y varias máquinas británicas para descifrar los mensajes del ejército alemán, por ejemplo, en 1943 el Colossus. La batalla legal por la palabra "Computer" la ganó en el año 1973 póstumamente Atanasoff. Echerk y Mauchly crearon la Electronic Control Co, que en 1950 fue adquirida por la Remington-Rand, allí diseñaron el primer ordenador electrónico de gestión, el UNIVAC (UNIversal Automatic Computer). El aparato tuvo gran éxito y copó el mercado, que hasta entonces había sido feudo de IBM. En respuesta IBM creó una serie de ordenadores excelentes, como el IBM 705, en 1952, desbancando a Univac, mediante una publicidad agresiva. El UNIVAC II no salió hasta 1958, cuando IBM ya había recobrado el liderato. De poco les había servido una fusión con Sperry Giroscope Co (1955) para crear la Sperry Rand Corporation. En 1945 mientras se construía el ENIAC, se incorporó al equipo el prestigioso matemático húngaro Johannes Von Neumann (1903-1957), quien propuso que los programas se almacenasen en la memoria como si fuesen datos, y no en una memoria especial, como se hacía desde el diseño de Babbage, equipo que se iba a llamar EDVAC. Los informes fueron tan precisos que otros se adelantaron y así el primer ordenador tipo Von Neumann fue el EDSAC (Electronic Delay Storage Automatic Calculator) construido el año 1949 por Maurice Wilkes (1913-) en la Universidad de Cambridge. De esta generación sólo llegó uno a España, un IBM 650, contratado por RENFE en 1958. Ordenadores de segunda generación Se considera el inicio en 1958 con la sustitución de los tubos de vacío por los transistores. Los primeros ordenadores transistorizados fueron dos pequeños modelos de NCR y RCA. Los primeros de IBM y Sperry Rand fueron el IBM 7070 (1960) y el UNIVAC 1107 (1962), respectivamente. Bull comercializó los Gamma 30 y 60. Durante esta época se introdujeron las unidades de cinta y discos magnéticos, y las lectoras de tarjetas perforadas e impresoras de alta velocidad. Así mismo aparecieron algunos lenguajes de programación, COBOL (1959), Algol (1960), el LISP(1962) y FORTRAN que fue creado en 1954 para IBM, por John Backus (1924-2007). El segundo ordenador instalado en España, y primero de la segunda generación llegó en 1959, era un UNIVAC UCT, contratado por la antigua Junta de Energía Nuclear, actualmente CIEMAT. La era de la informática llegó realmente a nuestro país en 1961, en la Feria de Muestras de Barcelona, se presentó un IBM 1401. Los primeros se instalaron en 1962, Sevillana de Electricidad (empresa del grupo ENDESA), Galerías Preciados (Actualmente propiedad de El Corte Inglés S.A.) y Ministerio de Hacienda. En 1967 IBM donó a la Universidad Complutense de Madrid un ordenador científico, modelo 7094. Ordenadores de tercera generación
8 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
La principal característica de esta generación fue el uso del circuito integrado, que se incorporó a mediados de los años 1960. Destaca la familia IBM 360 en cuyo desarrollo invirtió 5000 millones de dólares de aquella época (1964) y sobre todo la IBM 370 (1970), el producto más famoso de esta generación. Sperry Rand, en 1965 introdujo la famosa serie 1100. Durante esta época surgieron la multiprogramación y el tiempo compartido. También tuvo lugar la denominada "crisis del software" Se intentó la creación de lenguajes universales, el PL/1 (1964) y se estandarizaron los lenguajes más utilizados: Fortran (1966), Algol (1968) y el COBOL (1970). También datan de esta generación el BASIC (1964) y el Pascal (1971). En España durante el trienio 1964-67 las tabuladoras fueron sustituidas masivamente por ordenadores, y prácticamente desaparecieron al entrar en la década de los 70. En 1970 el parque de ordenadores e distribuía así: Madrid 50%, Barcelona 34% y el resto lo tenían los grandes bancos del norte y algunas cajas de ahorros. Los miniordenadores surgieron a finales de los 60, como elemento de transición entre las generaciones tercera y cuarta, con los circuitos integrados de media escala (MSI). Sus destinatarios fueron grandes y medianas empresas. Disponían de varias terminales y se organizaban en redes. Destaca la familia PDP 11 de la desparecida Digital Equipment Corporation. Ordenadores de cuarta generación El elemento que provocó el nacimiento de esta generación se considera habitualmente, aunque con cierta controversia, el microprocesador Intel 4004, desarrollado por Intel en 1971. El primer ordenador personal en EE.UU. fue el Altair 8800 (1974) de la desaparecida empresa MITS. Microsoft tuvo el acierto de construir un intérprete BASIC para él, MITS sobrevivió un par de años, pero Microsoft inició un despegue imparable, dando un gran salto al facilitar a IBM el sistema operativo MS-DOS para el PC, que a su vez lo adquirió a otra empresa. Las imágenes siguientes muestran microprocesadores bajo distintas escalas de ampliación.
9 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
En 1971 apareció el PET 2001 de Commodore, empresa absorbida por la holandesa Tulip, el TRS 80 de Radio Shack y el Apple II, fabricado en un garaje por dos jóvenes norteamericanos: Steven Jobs (1955-) y Stephen Wozniak (1950-). A partir de 1980 se produce una eclosión de marcas. Destaca el Sinclair ZX80, precedente del ZX81 y del Spectrum, fabricante absorbido por Amstrad, que consiguió gran éxito vendiendo productos de muy baja calidad fabricados en Corea. Amstrad, como es lógico, abandonó la informática, aunque sigue con equipos musicales y antenas de televisión, de muy baja calidad. En Agosto de 1981 se presentó el IBM PC, que dio lugar a la difusión masiva de la informática personal. Sin embargo la microinformática, contrariamente a lo que se cree, no comenzó en EE.UU, pues en el año 1973 se creó en España, con la invención del primer ordenador personal, el Kentelek 8, a cargo de la empresa Distesa (de la editorial Anaya), el creador fue Manuel Puigbó Rocafort. Jordi Ustrell diseño posteriormente otro ordenador personal par la empresa catalana EINA. Por esta época también surgieron en Francia los microordenadores Micral Como se ha visto, desde el ábaco hasta las primeras calculadoras mecánicas pasaron 12 siglos, desde estas últimas al primer ordenador transcurrieron dos siglos y desde el Mark I al primer microordenador pasaron 28 años. Desde entonces la velocidad de desarrollo es difícil de imaginar. Ordenadores de quinta generación En octubre de 1981 el mundo de los ordenadores se vio sacudido por el anuncio hecho en Japón, de una iniciativa de investigación y desarrollo orientada a producir una nueva generación de ordenadores en la primera década de los años de los 90, a los que se les dio el nombre de ordenadores de quinta generación. Los ordenadores de esta generación deberían de ser capaces de resolver problemas muy complicados, algunos de los cuales requieren toda la experiencia, capacidad de razonamiento e inteligencia de las personas para ser resueltos. Deberían de ser capaces de trabajar con grandes subconjuntos de los lenguajes naturales y estar asentados en grandes bases de conocimientos. A pesar de su complejidad los ordenadores de esta generación se están diseñando para ser manejados por personas no expertas en informática. Para conseguir estos fines tan ambiciosos estos equipos no tendrán un único procesador, sino un gran número agrupado en tres subsistemas fundamentales: un sistema inteligente, un mecanismo de inferencia y una interfaz de usuario inteligente. Los avances se sitúan en materia de teleinformática, y una progresiva disminución de tamaño y coste del equipo, así como de técnicas de programación y desarrollo de inteligencia artificial, y de control de procesos (robotización). A los 10 años, se vio el fracaso del proyecto, actualmente no están desarrollados estos ordenadores, aunque se trabajó en distintos países, cuyos programas de investigación más importantes fueron: EE.UU.: Proyectos DARPA y MCC Unión Europea: Proyecto Sprit Reino Unido: Proyecto Alvey Japón: Proyecto ICOT
4.4 Historia de los ordenadores personales Diseño del primer PC de IBM El IBM PC, presentado en agosto de 1981, fue un equipo cuyo objetivo era el mercado doméstico, con lo cual se comprenderán fácilmente las limitaciones existentes en la primera generación. 10 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Externamente estaba integrado por tres piezas, la unidad central, de sobremesa y de gran tamaño, la pantalla, monocroma y de modo texto y un teclado. A esto se podía añadir una impresora de nueve agujas, con la marca IBM pero fabricada por la japonesa Epson.
Por lo que respecta al microprocesador se trataba del Intel 8088, una versión, con el bus recortado a la mitad de ancho, del 8086. Esta CPU suponía un avance respecto a los microordenadores comercializados en esa época, pues todos eran de 8 bit, a excepción del Olivetti M20, que incluía una CPU Zilog 8000 de 16 bit, aunque el 8088 no era un auténtico 16 bit. El usar la CPU Intel 8088, con bus externo de 8 bit, tenía una explicación, poder emplear todos los "chips" de acompañamiento (que en aquella época eran bastantes) existentes en el mercado, a precio barato, de 8 bit. Si se hubiera empleado la CPU Intel 8086, como hicieron de inmediato otras empresas como Olivetti en su M24 y la desaparecida Victor, todos estos chips habrían de ser de 16 bit, con un precio muy elevado en aquella época. Así se concluye que IBM, buscó el fabricar un equipo novedoso en su CPU, aunque limitando al máximo el precio de sus componentes, para mantener un producto de calidad alta, prestaciones superiores frente a los productos domésticos de la competencia, y a un precio que le permitiera mantener los grandes márgenes comerciales. El siguiente vídeo muestra uno de los primeros PCs de IBM, el 5150 mostrando la ejecución de un programa escrito en ensambaldor para el Intel 8088.
La configuración básica estaba integrada por: CPU Intel 8088 a 4.77 MHz 64 kO RAM
11 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Controladora de vídeo modo texto Controladora de impresora (Centronics) Monitor exclusivamente de modo texto Cinta de casette para almacenar datos y programas Lenguaje BASIC en ROM Teclado, de 84 teclas Sin embargo esta versión no se llegó a comercializar pues se sustituyó la unidad de casette por una de disco flexible de 160 kOctetos de capacidad, y como es lógico con su controladora. A su vez se introdujo el sistema operativo PC-DOS 1.0, proporcionado, aunque no creado, por Microsoft (en aquella época sólo era conocida por su lenguaje BASIC) a IBM. La gran ventaja de este equipo era su facilidad de ampliación debido a los "slots" o zócalos de que disponía, lo cual dio origen a que un gran número de empresas independientes crearan tarjetas electrónicas adaptables, que realizaban funciones no disponibles en el PC o que mejoraban las existentes. Estos zócalos constituyen el tan conocido BUS de expansión del PC, que dio lugar al BUS AT, un estándar a nivel microinformático, conocido como Bus ISA. Se define como ancho de banda del bus, la cantidad de bits que puede transportar por unidad de tiempo, siendo inferior a 4 MO/s. El éxito de este equipo fue superior al previsto por IBM, prueba de ello es que no estuvo disponible en Europa hasta casi dos años después de su lanzamiento en EE.UU., momento en que se empezó a fabricar en Escocia (R.U.). Este éxito se debió a la gran fama de IBM, pués en esa época había equipos muy superiores, como los antes citado de Olivetti y Victor, y a precios más asequibles. Dado que las especificaciones técnicas fueron hechas públicas por IBM, esto dio origen, como se ha comentado previamente, al nacimiento de gran cantidad de empresas que crearon tarjetas adaptables al bus. Entre ellas se pueden citar, por ejemplo, tarjetas con un reloj con batería, pues el PC perdía la hora al apagarlo, tajetas de vídeo con posibilidades gráficas y que por lo tanto soportaban un monitor gráfico y a veces en colores, tarjetas de comunicaciones como por ejemplo tipo modem o telex, y otras muchas posibilidades. IBM reaccionó con alguna lentitud, presentando algunas mejoras en su PC, conocido como IBM PC XT, en el que incorporó un disco duro de 20 MO con interface MFM (actualmente desaparecida), con su controladora, y una tarjeta de vídeo que soportaba monitores en color y gráficos, pero con una resolución baja (640*200 puntos), que para lo único que servían era para destrozar la vista de los usuarios. A su vez incluyó disqueteras para soportes con capacidad de 360 kO. Simultáneamente aparecieron los primeros microordenadores clónicos y compatibles. Por ejemplo, en EE.UU. Olivetti Docutel presentó el Olivetti PC, una copia casi idéntica del IBM PC XT, aunque con mejores prestaciones y precio más bajo; en Europa apareció el Olivetti M24, con CPU Intel 8086, y buses de 16 bit, lo cual lo hizo muy superior al XT de IBM, siendo un gran éxito a nivel mundial (se comercializó con otras marcas: AT&T, Toshiba, Logabax, Xerox, Hermes ...). A su vez la francesa Bull presentó un clónico del IBM PC XT, copia exacta, aunque lo raro es que tenía prestaciones inferiores al de IBM; cosa incomprensible. De esta forma fueron apareciendo equipos que intentaban superar a los de IBM, pero aun no había dado comienzo la época de los clónicos a bajo precio y montados en base a piezas fabricadas en Formosa y otros países asiáticos. La gran difusión de estos equipos, hizo que aparecieran gran cantidad de programas, lo cual reforzó el liderazgo de los PC's de IBM. También surgió un equipo de IBM conocido como portable (no portátil), que además de ser bastante voluminoso, no tenía autonomía eléctrica, es decir había que enchufarlo a la red. Otro inconveniente fue que la pantalla era de tubo de rayos catódicos, como los ordenadores de sobremesa, aunque de pequeñas dimensiones, pero con toda la problemática que conllevan para su transporte. Este equipo no era muy
12 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
asequible ni en precio ni en portabilidad, por lo que otras empresas intentaron mejorarlo, así surgió, con este propósito, Compaq, empresa comprada por Hewlett Packard. El PC AT de IBM Al descubrir IBM, que su equipo se estaba usando a nivel profesional, y poco a nivel doméstico, y que por otra parte la competencia ofrecía equipos con más prestaciones más baratos y totalmente compatibles, decidió sacar una versión mejorada de sus PC's, que denominó AT (Tecnología Avanzada). Este incluía una CPU de 16 bit, superior a la 8086, era la 80286 de Intel, cuya principal diferencia repecto a la 8086 era el bus de direcciones de 20 bit, en vez de 16, por lo que podía direccionar mucha más memoria, aunque en aquella época no era una gran necesidad. Otra diferencia fundamental, era que los "slots" de expansión constituían un bus de 16 bit, lo cual permitía utilizar las tarjetas de los XT, a 8 bit, y las nuevas que se crearan para él. Este bus AT se ha convertido en un estándar (Bus ISA) ampliamente usado hasta hace poco tiempo. A su vez la frecuencia de reloj pasó a ser de 6 u 8 MHz, frente a los 4.77 del PC original. Dado que Intel dió licencias para que sus CPU's fueran fabricadas por otras empresas (Fujitsu, Siemens, AMD, Harris, ...), se abarataron los costes de tal forma, que apareció el fenómeno de los clónicos tal como lo conocemos actualmente, lo cual perjudicó mucho a IBM, pués el mercado no sólo se distribuía entre IBM y las marcas de prestigio que comercializaban compatibles (Olivetti, Bull, Compaq, Xerox, AT&T, Philips, NCR y algunas otras), sino que empresas con pocos medios y con gastos nulos de investigación, pues gran parte del producto lo copiaban ilegalmente, podían ofrecer equipos clónicos a precios imbatibles, aunque la mayoría de las veces con una calidad y seguridad para el usuario ínfimas. La arquitectura de un AT estaba compuesta por: Fuente de alimentación conmutada Placa base o placa madre, que incorpora: CPU Intel 80286 con frecuencia de reloj desde 6 hasta 20 MHz Memoria RAM de 1 MO. ampliable Conjunto de chips (ChipSet), que gestionan el sistema Tarjeta controladora de vídeo, gráfico y color (640*200) Tarjeta comunicaciones RS 232C Tarjeta controladora impresora (Centronics) Tarjeta controladora de dos discos duros MFM y dos disqueteras Tarjeta para ampliación de memoria Bus con los "slots" de expansión Bus Local PC Reloj en tiempo real, con batería Teclado mejorado de 104 teclas Parte o en algunos casos todas, las tarjetas indicadas hubo fabricantes que las incluyeron el la placa base, dejando así más zócals libres en le BUS AT, para posteriores ampliaciones. Los IBM PS/2 Ante la situación de competencia en la que se vió inmersa IBM, actuó de dos formas, la primera fue exigir a todos los fabricantes que le habían copiado sus productos el pago de los "royalties" corrspondientes, a lo cual, dado el inmenso poder de IBM, no se negaron, y por otra parte diseñar una nueva línea de equipos, legalmente muy difíciles de copiar por su gran detalle de patentes. De esta forma nacieron los IBM PS/2. Una de las innovaciones de estos equipos era el bus a 32 bit, podían incluir CPU Intel 386, muy mejorado, en el que se introducian las tarjetas de expansión, pues IBM lo cambió por completo, llamándole "Microchannel", lo cual dió lugar a los equipos con arquitectura MCA (Arquitectura Microcanal). Otra
13 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
innovación fue el cambio de tipo de monitores, y por lo tanto de controladora, se introdujeron los monitores analógicos, con una resolución superior a los previamente empleados (digitales) y con una variedad de colores muy superior. Estas dos innovaciones supusieron que no valía nada de lo anterior y que además los clónicos, en principio se verían desplazados del mercado. A su vez se introdujeron nuevas CPU´s de Intel, las 386 y 386SX, con mejoras significativas frente a sus predecesoras. La arquitectura MCA fue comercializada por algunos fabricantes aparte de IBM, como por ejemplo Olivetti, pero con muy poco éxito. Además dado que estos equipos, incluso los de IBM se difundieron poco todas las tarjetas de ampliación diseñadas para ellos eran caras, lo cual hacía de esta arquitectura un producto poco atractivo. Simultáneamente a la aparición de estos equipos se comercializó un nuevo sistema operativo denominado OS/2, desarrollado entre IBM y Microsoft, aunque las versiones posteriores fueron creadas por IBM; actualmente ya no se comercializa. A su vez Compaq creó un bus específico para sus equipos de gama alta, el denominado Triflex, que comprende tres buses interconectados, uno de 128 bit para la memoria, otro de 64 bit para uno o dos microprocesadores 486 (a 267 MO/s) y un bus EISA (que se describirá en el apartado siguiente). El reconocimiento del fracaso de la arquitectura MCA, por parte de IBM, está claro, pués una nueva generación de equipos que comercializó posteriormente, para uso doméstico, los PS/1, no utilizaban arquitectura MCA. A su vez como no logró frenar el avance de los clónicos, IBM decidió comercializar clónicos de países asiáticos, con la marca Ambra, lo cual acabó en fracaso al poco tiempo. Actualmente IBM ha vendido la división de PC's a la empresa china Lenovo, debido a los bajos márgenes de beneficios. EL BUS EISA Dado que la arquitectura MCA era muy cerrada, un grupo de fabricantes de microordenadores, AST Research, Compaq Computer, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, WYSE y Zenith Data Systems, decidieron crear un bus con prestaciones superiores al ISA, pero que a su vez fuera compatible con él, esto dio origen al bus EISA (Extendido ISA). Sus características eran: 32 bit, ancho de banda de 33 MO/s y frecuencia de reloj 8 MHz. EISA sólo se ha usado en los microordenadores de gama alta y ha tenido poca difusión, a pesar de sus ventajas sobre ISA y a valer las tarjetas de expansión existentes, lo cual repercutió en que no se abarataran los precios. De forma que en el año 1992 la situación era la siguiente: Bus ISA, un auténtico cuello de botella Bus MCA, muy restringido y sin difusión al gran público Bus EISA, sólo usado en equipos de gama alta Bus Local PC existiendo demanda para un ancho de banda aún mayor, lo cual daría origen a otros buses. Bus Local VESA Es una extensión de la arquitectura tradicional del PC, dado que el bus ISA era cuello de botella, la solución es conectar algunos dispositivos directamente a la CPU, mediante un bus conocido como bus local. Este ha de tener el mismo ancho que el microprocesador (16 bit en un 286 o 386SX y 32 bit en un
14 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
386DX o 486), por lo que eran realidad las velocidades elevadas. Lo ideal es conectar a este bus las controladoras de vídeo y de disco duro, mientras que otras tarjetas que no requieren grandes velocidades se mantienen en el bus ISA. Surgieron algunos problemas, pues la CPU no puede soportar la conexión directa de más de dos o tres tarjetas, además el diseño de la placa base ha de hecerse de forma que las distancias sean mínimas para evitar retrasos. También es conveniente usar memorias caché. Su principal ventaja es que cuadruplican el ancho de banda, llegando a 133 MO/s. VESA es el acrónimo de la Asociación de Fabricantes de Controladoras de Vídeo (Video Electronics Standars Association), que agrupa a más de 120 fabricantes, y fueron los que lo propusieron, disponible desde finales de 1992 y desde 1996 fuera de uso. Este bus va a la misma velocidad que el procesador, siendo una solución sencilla, que no incluye soporte de DMA ni de interrupciones, lo que obliga a la mayoría de las tarjetas a estar conectadas a los dos buses, el ISA y el VESA, para aprovechar del primero las caracteristicas de E/S y del segundo el ancho de banda.
Al salir al mercado las placas madre con bus VESA, su precio era algo superior al de las con bus ISA, hubo una época en que dominaron el mercado, pero han desaparecido del mercado, frente al bus PCI. Para equipos Pentium sólo se llegaron a fabricar algunas placas VESA. Bus Local PCI Introducción PCI es abreviatura de "Peripheral Component Interface", diseñado por Intel. En 1992 Intel y otras compañías formaron el PCI Special Interest Group para promocionar, supervisar y mejorar el desarrollo de PCI como estándar de bus local abierto y no propietario. Este grupo cuenta con más de 160 fabricantes. Es una solución completa, dado que a diferencia del VESA incluye ventajas como el soporte de interrupciones y DMA. Lo cual implicaba que necesita tres chips específicos, y por lo tanto un coste superior. Las especificaciones del bus local PCI ofrecen un número de beneficios clave: Altas prestaciones Compatibilidad Independencia del procesador. Flexibilidad de plataforma Bus Local PC rentabilidad Soporte futuro Altas prestaciones Al contrario del bus local VESA que sólo está pensado para acelerar las aplicaciones gráficas, PCI es una solución de sistema global. Proporciona mayores prestaciones para los adaptadores de redes, unidades de disco duro, vídeo animado, gráficos y otros periféricos que requieren gran velocidad. Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de datos de 32 bit y ancho de banda de 132 MO/s, frente a 5 MO/s del bus ISA. Otras características para permitir operaciones simultáneas, mantener el bus lleno de datos y minimizar los estados de espera de la CPU, son:
15 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Ráfagas Lineales. Es un método de transferencia de datos que asegura que el bus siempre tenga datos. Estas ráfagas permiten utilizar más ancho de banda para enviar datos en vez de direcciones. Además PCI es único, pues soporta tanto lecturas como escrituras en ráfaga, muy importante con aceleradores gráficos, cuando más del 90% de los accesos de datos de la CPU, son escrituras a la memoria de vídeo desde la memoria principal. Aunque en los nuevos diseños se está dando otro tratamiento más eficaz a los sistemas gráficos. Baja latencia de acceso Los dispositivos diseñados para soportar PCI tienen una baja latencia de acceso, lo que reduce en más de un orden de magnitud el tiempo requerido para que un periférico obtenga el control del bus después de requerir el acceso. Por ejemplo una tarjeta de red Ethernet, puede tener grandes ficheros de datos llegando a su tampón. Esperando acceder al bus, la tarjeta no puede transferir los datos de los ficheros a la CPU lo bastante rápido para evitar una sobrecarga del tampón, lo que obliga a almacenar en una RAM adicional los contenidos de los ficheros. Como los dispositivos PCI soportan tiempos de acceso, la tarjeta de red puede envBus Local PCiar datos más rapidamente a la CPU, redundando en un precio inferior al no necesitarse RAM adicional. Concurrencia y Maestros de Bus Las mejoras de prestaciones también se logran mediante la posibilidad de PCI de ser maestro de bus y permitir la concurrencia. En la mayoría de los buses existe el dominio de bus, que permite a cualquiera de un número de periféricos inteligentes tomar l control del bus para acelerar las tareas de proceso intensivo de alta prioridad. La posibilidad de concurrencia, única de PCI, asegura que el microprocesador opera simultáneamente con estos maestros, en vez de esperarlos. Compatibilidad Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA, y a veces también se encuentran placas que incluyen el VESA. A su vez cualquier tarjeta PCI funcionará con cualquier sistema compatible PCI, sin que importe el tipo de bus de expansión o Bus Local PCde CPU en uso. Independencia del procesador La arquitectura independiente del procesador de PCI dispone de un diseño único de tampón intermediario entre el subsistema de la CPU y los periféricos. Lo normal es que si se añaden a la CPU más dispositivos, se degradan las prestaciones y baja la fiabilidad. El uso del tampón permite a los usuarios ampliar su sistema al añadir múltiples dispositivos periféricos e introducir variaciones de prestaciones a diferentes velocidades de reloj. El diseño independiente del microprocesador aseguran que los diseños de las placas no se quedarán obsoletos. Soporte de plataforma flexible PCI proporciona una solución de bus local económica para cualquier tipo de equipo, no sólo los normales, sino para los servidores y los portátiles Rentabilidad PCI se diseñó con un objetivo de bajar los costes globales de los desarrollos. Utiliza "chips", ya sean fabricados por Intel o por otras empresas como VIA y Opti, altamente integrados, para incorporar funciones de sistema como controladores de DRAM y caché, eliminando costes y espacio asociados con la circuitería de soporte, Frente a los chips VESA con 80 patillas, los PCI son más pequeños, pues multiplexan los buses de datos y direcciones.
16 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Desarrollos posteriores del bus PCI Dado que la arquitectura de este bus es muy flexible, se efectuó un desarrollo específico para equipos de aplicaciones industriales. Empresas de dicho entorno crearon unas especificaciones dando lugar al denominado Compact PCI, que ofrece la posibilidad de diseñar ordenadores con dimensiones reducidas, (placas de 160 * 100 mm) soportando ambientes agresivos. Otra de las ventajas es que se pueden crear puentes con otros buses estándares en la industria, como VME y STD. La versión 2.2 de las especificaciones, ofrece como novedad más importante, que los nuevos equipos de acuerdo con esta versióm, permiten el intercambio de placas en el bus, sin necesidad de apagar el ordenador. La última versión está operativa desde junio de 2004 y se denomina PCI Express, siendo muy superior en prestaciones respecto al bus AGP, que se creó para mejorar la velocidad de acceso de los controladores gráficos al micrprocesador del ordenador.
Comparación entre buses Bus 1394 FireWire En 1995 el "Institute of Electrical and Electronics Engineers (IEEE)" estableció las bases de un nuevo estándar, el bus serie de elevadas pretaciones IEEE1394. Desde 1986 se ha tendido a unificar los diferentes buses en serie, la aparición de nuevos dispositivos grandes consumidores de un gran ancho de banda, como los DVD, ha dado lugar al nacimiento de las especificaciones del bus Firewire. Esta norma se puede resumir en los siguientes puntos:
Nombre
Nº V. bit MHz
Ancho MO/s
ISA
16
8
<4
MCA
32
10
33
VESA
64
=CPU 133
PCI
32
33
Transferencia de datos en tiempo real para aplicaciones PCI-E 32 >33 multimedia. Flujos de transferencia de hasta 200 MO/s, ampliable en el futuro hasta 800 MO/s. Conexión en caliente (sin desconectar la alimentación eléctrica), sin pérdida de datos. Topología de red flexible, incluyendo al de bus y en grafo. Sin necesidad de terminadores en los extremos. Conectores comunes para todos los componentes Posibilidad de conectar entre sí hasta 63 dispositivos
133 8 GO/s
Presenta ventajas frente al resto de buses, incluso frente al USB, aunque no puede competir en precio. Frente al bus PCI, de momento es más lento. Los productos más usuales con este bus son, cámaras digitales, cámaras de vídeo, discos, sistemas de captura, cintas DAT (Digital Audio Tape), CD's, ZIP's, sistemas de almacenamiento magnetoópticos e impresoras. Tutoriales y recursos sobre IEEE1394 Fundamentos de Firewire. Proporcionados por Embedded Systems Programming. Ofrece una visión de esta tecnología. IEEE 1394-1995 Sumario del estándar. Autor Michael D. Johas Teener of Zayante (formato PDF). P1394a & P1394b Sumario. IEEE 1394 visión técnica. Proporcionada por Texas Instruments. 1394 Open Host Controller Interface. Visión de FireWire/1394 . Proporcionada porAdaptec. USB - Universal Serial Bus
17 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Este bus serie, creado por un amplio consorcio de empresas, permite conectar más que ordenadores y periféricos. Puede conectarse con hasta 127 dispositivos como fotografía digital, monitores, teclados, ratones impresoras y escáneres. Está reemplazando rapidamente a otras interfaces como la centronics y la serie RS 32C. El estándar más reciente es el 2.0, que permite una velocidad de transmisión desde 12 Mb/s hasta 480 MB/s y es compatible con la versión previa. La conexión se transmite mediante un par de cables, de hasta cinco metros de longitud, mientras que por otro par circula la información de retorno.
4.5 Historia de Internet La agencia ARPA y su misión En 1958 se organizó en los EE.UU. la agencia gubernamental de investigación, ARPA (Advanced Research Projects Agency) creada en respuesta a los desafíos tecnológicos y militares de la U.R.S.S. de la cual surgirán una década mas tarde los fundamentos de la futura red Internet. La agencia, bajo control del Departamento de Defensa se organizó en forma independiente de la comunidad de investigación y desarrollo militar. Su misión durante las próximas décadas la llevará a desarrollar y proveer aplicaciones tecnológicas no convencionales para la defensa de EE.UU. ampliando la frontera tecnológica a favor de una organización reducida en número, pero flexible, libre de condicionamientos y dotada de científicos de elite. ARPA será la responsable de una gran parte de la investigación en ordenadores y comunicaciones de carácter innovador en EE.UU. durante los próximos años. Inicio. Los grandes ordenadores Como se ha visto, hacia la década de 1960, los ordenadores eran máquinas grandes e inmóbiles, no podían comunicarse entre ellas y la transmisión entre usuarios tampoco era posible. Para usar un ordenador diferente del propio, el usuario debía trasladarse físicamente al otro o usar soportes de almacenamiento con los programas y datos a usar. Científicos de diferentes universidades estaban frustrados, compartir información con sus colegas era una labor muy ardua y compleja. Los investigadores más afortunados eran capaces de comunicarse mediante terminales que usaban modems. Pero el uso de teléfono era costoso, y los científicos trataron de encontrar mecanismos más eficientes de usar las líneas telefónicas para transmitir datos. Un sistema, llamado multiplexor permitía a cada uno tener una fracción de tiempo en la línea telefónica. 1962 Se pueden enviar mensajes. Hacia finales de la década de 1960, durante la Guerra Fría, Paul Baran y sus colaboradores en Rand Corporation mantenían sus mentes fijas en un problema: Si las redes de ordenadores fueran dañados por una guerra nuclear, ¿cómo podría el ejército estadounidense continuar comunicándose? Una de las respuestas fue mediante una nueva forma de multiplexor que debería descomponer cada comunicación en pequeños segmentos llamados "mensajes". Una red - consistente en ordenadores conectados por líneas telefónicas - debería enviar esos mensaje rápidamente. Cada mensaje debería contener información de la ruta a seguir, de modo que cada máquina del sistema debería saber a donde enviar cada mensaje. Esta combinación de mensajes titulados más componentes de red pequeños permitiría que la información siempre estaría disponible y que la red siempre se mantendría funcionando. El Sistema de Baran no fue del todo intuitivo, ingeniosamente descartó la noción de que el camino más corto entre dos puntos es la línea recta, en cambio, estuvo diseñado para el mejor servicio posible, lo más
18 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
duradero posible, para el mayor número de usuarios posible y bajo las peores condiciones imaginables. Esta técnica se denominó "conmutación de paquetes". Los primeros nodos de conmutación fueron creados bajo la dirección de Donald Davies en el Laboratorio Nacional de Física, Inglaterra. Los laboratorios de red en 1960 eran locales, operaban solamente en un edificio. Grandes aplicaciones empezaron a aparecer con el nuevo invento. 1963 La Red Intergaláctica de ordenadores. JCR Licklider, pionero de la computación, tuvo por primera vez una visión de algo parecido a un sistema Internet. El líder de la Oficina de tecnología de procesamiento de Información de la Agencia Americana de Proyectos de Investigación Avanzados (ARPA) envió un memorando premonitorio a los "Miembros y afiliados de la Red Intergaláctica de Computadoras" En esta comunicación Licklider sostenía que los ordenadores podrían ayudar a los investigadores a compartir información. También predijo un día en el que comunidades de personas con intereses comunes podrían comunicarse con otros - Presentaba una visión nueva. En el laboratorio de Lincoln en Massachussets el experto en ordenadores Larry Roberts tuvo una visión similar. Roberts vislumbró los beneficios potenciales de las redes de ordenadores trabajando juntos; como Licklider, él creía que el trabajo de red debería constituir una comunidad de uso de sistemas informáticos. Trabajando con Thomas Marill, Roberts usó una línea telefónica dedicada para conectar su computador TX-2 al ordenador de Systems Development Corporation en Santa Mónica. Mientras este enlace rudimentario permitió a su ordenador ingresar en el otro y ejecutar programas en este, se hizo, pero con costos prohibitivos y no prácticos. Pero era sólo el inicio. 1969 Cuestiones clave En 1966 la oficina de Tecnología de procesamiento de Información de ARPA proporcionó facilidades a 17 centros en todo EEUU. Para una afortunada minoría ARPA cubría los costos de líneas telefónicas a larga distancia para que los investigadores clave puedan usar recursos de ordenadores directamente desde sus oficinas. Bob Taylor uno de aquellos pocos afortunados. Un Psicólogo que trabajaba con J.C.R. Licklider en IPTO, Taylor, tenía tres terminales en su oficina. Cada con una línea telefónica separada que conectaba a un ordenador distante. Las tres terminales de Taylor lo conectaban con: MIT, Berkeley y la Corporación de Desarrollo de Sistemas en Santa Mónica, respectivamente. Pero Taylor no estaba conforme. Un día, sentado frente a sus tres ordenadores, se preguntó ¿Por qué necesitaba él todo aquello? Por qué no se hacía que un terminal pudiera conversar a todos los ordenadores a través del país o una red que conecte a ellos. ¿Porqué un terminal no podría hacer todo esto? Las bases de Internet fueron planteadas. 1969 - Nacimiento de ARPANET ARPA dio la respuesta a las preguntas clave de Bob Taylor, encargó la construcción de una red de ordenadores experimental. Basados en la tecnología de intercambio de paquetes de Paul Baran, esta Red de la Agencia de Projectos de Investigación Avanzada (Advanced Research Projects Agency Network) o ARPANET, ayudaría a los investigadores a trabajar más eficazmente y explorar rumbos para las redes de computadoras. 19 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Una compañía de Cambridge, Mass., llamada Bolt, Beranek and Newman ganó el contrato para construir los conmutadores de paquetes, o Interface Message Processors (IMPs), que serían usados como nodos de ordenadores para esta nueva RED. En Setiembre de 1969, el primer IMP llegó a la UCLA, un centro de investigación fundado por ARPA. Los científicos de Computadoras Len Kleinrock y los estudiantes graduados Vinton Cerf llamaron a la matriz de UCLA; su curiosidad sobre la arquitectura de la red los llevó a la creación del Centro de Medición de Red de ARPA. EL equipo haría el seguimiento de todo lo que podría hacer la comunidad ARPA Pocas semanas después los IMPs fueron cambiados al Instituto de Investigación Stanford en Menlo Park, California. El cual proveía el nuevo Centro de Información de Red; la Universidad de California en Santa Bárbara la cual alojó el sistema Interactivo en l ínea UCSB; y la Universidad de Utah en Salt Lake City, donde ordenadores para gráficos estaban en su inicio. Una vez que ellas hubieron conectado por medio de líneas telefónicas, los IMPs en estos cuatro sitio empezaron a intercambiar paquetes a larga distancia y nació ARPANET Las cosas ya no volverían a ser las mismas 1972 Comienza la fiesta de Arpanet La Red ARPANET inicialmente brindó tres servicios: Acceso a ordenadoras remotos y otros dispositivos como un terminal de usuario remoto (actualmente denominado Telnet), compartir información a través de la transferencia de archivos, e impresión remota o salida a impresoras en otras ubicaciones. Sorprendentemente, el e-mail entre ordenadores conectados no estuvo entre la oferta inicial. "No sabíamos que e-mail era importante" confesó después Vint Cerf de UCLA "No estábamos seguros de qué es lo que ocurriría con el tiempo", no fue sino hasta años después que primer mensaje de e-mail de ARPANET fue enviado. A medida que ARPANET crecía, hacia 1971, fue expandida hasta 15 nodos y en 1972 incluía 37, los miembros no estaban satisfechos. ARPANET tuvo su presentación en octubre del año siguiente, cuando ARPANET IMP y un terminal multiplexor fueron configurados en la Conferencia Internacional en Comunicaciones de Computadora. En Washington DC. "Esta fue la primera demostración en público de los que podía hacer la conmutación de paquetes, y esto haría que la gente tome esta tecnología seriamente", dijo Bolt, Beranek and Newman's Alex McKenzie. El evento fue un éxito, los expertos dijeron que el potencial de la Red estaba en crecimiento. En la década siguiente en un ordenador se conectaba a la red cada 20 días con la posibilidad de que cientos o miles de personas compartieran una de cualquiera de esos equipos. La comunidad informática se empezó a hablar abiertamente de una red global. 1981 El clan del ARPANET Las dos redes más importantes formadas para centros de educación y enseñanza fueron CSNET (Computer Science NETwork; posteriormente the Computer+ Science Network), and BITNET ("Because It's Time" or "Because It's There" NETwork). Muchas otras redes para propósitos especiales se desarrollaron en todo el mundo como la red de paquetes por satélite, paquetes para la comunicación de la voz y las paquetes de radio.
20 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Por enlazar usuarios con intereses comunes, ARPANET y sus redes compañeras tuvieron un importante impacto técnico y social. Quienes compartían entusiasmos extracurriculares formaron la "comunidad virtual de interés", usuarios con una curiosidad común dentro de Internet misma que formaron los "net communities" para explorar todo desde algoritmos de rutas hasta la demografia de la red. Los científicos empezaron a comunicarse colectivamente por medio de las listas de correo electrónico rápidamente desarrolladas. Miles de discusiones florecieron sobre todos los tópicos inimaginables. A nadie sorprendió que uno de los primeros y mejor enterados grupos de discusión fue los "sf-lovers" conformado por los admiradores de la red de ciencia ficción. 1983 TCP/IP: el Esperanto de la computación. El desarrollo de redes fuera de ARPANET creó nuevos competidores. Tenían dificultades en interconectarse, debido no precisamente al hardware (diferentes ordenadores podían utilizar ARPANET) sino más bien a la incompatibilidad en los protocolos de comunicación. Aun el satélite del propio ARPA y las redes de paquetes de radio no podían conectarse a ARPANET Ante esto ARPA auspició el desarrollo de un nuevo estándar de comunicación llamado Transmission Control Protocol/ Protocol Internetwork (TCP/IP), que fue un conjunto de protocolos que permitían la conexión de las redes, ordenadores de diferentes redes podrían ahora comunicarse una con otra. Cada red utilizó IP para comunicarse con las otras. Debido a que los científicos se referían a la "red de redes" como "Internet" este nuevo grupo de redes que utilizaban TCP/IP empezó a ser conocido como Internet. El Nacimiento de "Internet A finales de la década de 1970 muchas redes de investigación, del gobierno y educativas utilizaban TCP/IP. Pero el ARPANET y la red de información de defensa no realizaron el cambio oficialmente sino hasta el uno de enero de 1983. Fecha del nacimiento oficial de Internet Tanto ARPANET como Internet continuaron su desarrollo en tamaño e importancia. Proporcionaron medios para la comunicación y cierta forma de convivencia entre los científicos de todo el mundo, permitiéndoles trabajar juntos, compartir información y la utilización de fuentes distantes. 1988 Intrusos en Internet. A pesar de su gran crecimiento, Internet permaneció siendo desconocida para el publico hasta Octubre de 1988 cuando un programa intruso o "worm" origino algo devastador. Internet worm empezó su vida como un simple programa lanzado por el estudiente Robert Morris Jr. Más destructivo que un virus de computadora el "worm" activaba el envío de copias de si mismo por Internet a otros ordenadores donde a su vez cada copia se multiplicaba. Antes que el "worm" fuera exterminado miles de ordenadores habían sido sobrecargadas o fueron deliberadamente desactivadas por cuestiones de seguridad. Por primera vez, pero difícilmente la ultima, Internet apareció en las noticias. Desde ese entonces programadores y expertos en seguridad crean nuevas herramientas para combatir cualquier escalada de guerra tecnológica y en búsqueda de informes y problemas de abuso de la red. 1990 Archie aparece en escena Como es de suponer el crecimiento del número de usuarios y el volumen de información disponible había originado una especie de jungla de información, en la que no existía mapa o referencia alguna. A finales de los 80 y principios de los 90 desconcertados usuarios idearon herramientas para localizar y ordenar la 21 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
información. Estos lineamientos ayudaron a su vez a otros usuarios a encontrar el camino y transformaron a Internet en un mundo amigable para el usuario. "Archie fue el primero de estos programas que permitía a los usuarios obtener una lista de direcciones de Internet "FPT holdings" con una simple consulta. 1990 FIN DE ARPANET El uno de junio de 1990 ARPANET fue desinstalado. Los lugares donde ARPANET había sido originalmente conectado fueron reemplazados por otras redes nuevas en Internet. 1991 El más popular "Gopher" "Archie" fue seguido por Gopher quien se convirtió en el "Navegador en Internet" más popular. Les permitía a los propietarios de la información organizar sus datos en menús. Los usuarios podían entonces ver, desplazarse y hacer selecciones desde ese menú El éxito de Gopher fue tremendo, en dos años miles de servidores Gopher se unieron a la red en todo el mundo, cada uno con su colección de directorios, archivos y punteros a información en otros Gophers. Pero su éxito creaba un problema obvio: ¿Cómo encontrar algo en el "gopherespacio" ya que el plan original no contemplaba un índice? La solución fue una solución similar al Archie, llamado Verónica (Very Easy Rodent Oriented Net-wide Index to Computarized Archieves) desarrollado por dos estudiantes, la base de datos Verónica tenía hacia 1993 más de un millón de entradas desde el menú Gopher. 1992 Tejiendo la Red Mientras tanto, en Suiza, Tim Berners-lee ideó una manera de organizar la información basada en Internet y los recursos que él necesitaba para sus investigaciones . Llamó a su sistema el World Wide Web, conocida también como WWW o W3. Para conectar piezas individuales de información, Berners-Lee usó hipertextos, que contienen punteros y direcciones a otros temas. Señalando un hipertexto el usuario le dice a su ordenador "toma la dirección asociada y vamos para allá") Las direcciones en un documento Web, llamados URL (Universal Resource Locator) apuntan a enlaces en cualquier lugar de Internet. Berners-Lee diseñó la Web para investigadores en alta energía. El WWW también empezó a ser usado para navegar y ver su propia información en Línea. 1993 Mosaic Marc Andersen, del National Center for Supercomputing Applications (NCSA) diseñó MOSAIC, un navegador por el Web que hizo más accesible y amigable. MOSAIC permite a los usuarios recuperar elementos multimedia con una simple pulsación de ratón y no necesitan elaborar documentos complicados para publicar gráficos, imágenes, etc. La combinación de Web y Mosaic y programas similares como Netscape Internet Navigator y Opera han transformado la apariencia de la red, formando una red mundial de texto y recursos, la red empezó a 22 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
incorporar multimedia e información a color. Desde 1997. La red hoy A lo largo de su historia, Internet se ha transformado a sí mismo no sólo para las necesidades y deseos de sus usuarios, sino la visión de sus pioneros como Paul baran, J.C.R. Licklider y (más recientemente) Tim Berners-Lee y Marc Andersen. Su trabajo ha permitido a la gente a través del mundo formar parte de esta comunidad Global. Durante los últimos años, Internet se ha ido haciendo virtualmente accesible para cualquier persona. Más del 80% de los estadounidenses puede tener acceso a internet por 20 US$ mensuales, este uso está incrementándose exponencialmente. Se han creado abundantes empresas proveedoras de acceso a Internet, quienes ofrecen el acceso con tarifa plana. En España ha disminuido de forma considerable el precio de las conexiones teléfonicas a Internet y se ha mejorado la calidad con la implantación de operadoras de cable por televisión. Internet se ha convertido en una oportunidad de negocio. Las empresas están tratando de determinar cuál será el modo en que este mundo virtual recibirá los productos y usuarios mañana. A su vez se ha convertido en un intercambio anárquico de información, es un fenómeno cultural vertiginoso del cambio del mismo mundo. Unos 446 millones de personas usaban internet a fines de 2001 a nivel mundial y cerca de la cuarta parte estaba en Estados Unidos mientras que sólo el 4% en América Latina. Existen 133.4 millones de internautas en América del Norte (30% del total), 139.3 millones en Europa (31%), 145.9 millones en Asia Pacífico (32%), 22 millones en América Latina (4%) y 5.3 millones en Africa (1.2%), según el estudio de la empresa eMarketer. Cerca de 119 millones de ellos (26%) están en EE.UU. Las estadísticas actualizadas de toda América se encuentran en el enlace: Éxito exportador. En España, la Asociación de Usuarios de Internet , mantiene datos actualizados sobre uso en España. Lo más reciente En enero de 2003, la empresa aérea Lufthansa probó el acceso a internet en el trayecto a Washington, gracias a la incorporación de servicios inalámbricos de banda ancha en los aviones. No pasó de ser algo experimental. En abril de 2008 la aerolínea francesa Air France ha incorporado en algunas rutas estas prestaciones para los usuarios en general. Actualmente se empieza a difundir un nuevo concepto de internet, la web 2.0, se refiere a la transición desde las webs tradicionales a aplicaciones web residentes en sevidores y destinadas a usuarios. Los propulsores de este pensamiento esperan que los servicios de la Web 2.0 sustituyan a las aplicaciones de escritorio en muchos usos. Actualmente ya se están dando los primeros pasos para la implantación de la web semántica, que se concoe como Web 3.0
Enlaces recomendados: - Web 2.0 Enlaces de interés - Las 20 herramientas Web imprescindibles
Primer apretón de manos a través de 23 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Internet Por Glenys Álvarez El mundo virtual se anota un rotundo éxito con el primer experimento sobre tecnología háptica. Esta nueva ciencia se encarga del estudio del tacto y su manipulación a través de aparatos electromecánicos. Uno de los primeros laboratorios hcpticos se originó en el Instituto de Tecnología de Massachussets (MIT) y fue fundado por Mandayam Srinivansan, quien lo bautizó como el Laboratorio del Tacto. Srinivansan ha estado trabajando con unos nuevos aparatos llamados "fantasmas", creados por la compañía Sensable Technologies. Los fantasmas tienen como misión transmitir seccales táctiles entre personas que comparten el mismo espacio virtual. Estos robots logran semejante hazaña transmitiendo impulsos pequeños en frecuencias sumamente altas a través de la red. En mayo pasado, el doctor Srinivansan, junto a un equipo de la Universidad de Londres dirigido por el profesor Mel Slater, consiguió darse el primer apretón de manos en el mundo virtual. Un evento bastante precoz dado el corto tiempo que tenemos utilizando el Internet. Sin embargo, a veces parece que los científicos trabajan con resultados que se parecen más al mundo del futuro que a la realidad actual. Este novedoso ensayo es el comienzo triunfante de una nueva era en Internet que aún nos parece rústica, como las pantallas verdes de los primeros ordenadores. A pesar de que este nuevo avance tecnológico fue un éxito contundente, los investigadores aseguran que aún es muy temprano para comercializarlo ya que se necesitan elementos que aún no están disponibles para el público en general. Entre estos obstáculos se encuentran las limitaciones en la velocidad, en la anchura de la banda y en el tipo de fibra óptica que se utilizó para este peculiar ensayo. No obstante, una vez se sobrepasen todos estos obstáculos, las personas del futuro serán capaces de sentir y tocar a través del Internet. Mientras tanto, la nueva tecnología aún está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente ancha. Pero lo más importante era la velocidad, la rapidez con que pudiesen ser enviados los datos a través de estas fibras. Los científicos necesitaban un retraso de nO más de 130 milisegundos para que ambos participantes pudiesen sentir los impulsos enviados por el otro. Los equipos utilizaron una computadora y un aparato que se asemeja a un brazo robótico y que sustituyó al ratón clásico de ordenador. Este brazo tiene al final una pieza que se asemeja a un lapicero o lápiz que el usuario tiene que agarrar para sentir lo que está pasando en el mundo virtual. El robot lo que hace es enviar impulsos de tacto que recoge la fuerza precisa de los dedos de la persona que lo sostiene. Estos impulsos son enviados lo más rápido posible hasta el otro lado, en datos que el fantasma del usuario receptor puede leer e interpretar. "La persona no sólo es capaz de sentir el toque del otro sino que además podrá destacar ciertas cualidades del objeto que está tocando. Sabrá si su textura es suave o dura, si usted está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente de madera el objeto o si es carnoso", explicó para la BBC el profesor británico, Mel Slater. Durante el experimento, el objetivo no sólo fue un apretón de manos virtual sino que también se llevó a cabo una actividad cibernética a través del tacto. Los investigadores crearon una habitación virtual que iban a compartir los científicos en Londres y en Boston. Dentro de esta "ciberhabitación" se encontraba un cubo negro enorme que los investigadores tencan que levantar y mover utilizando el brazo robótico.
24 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
"La persona del otro lado siente si estoy halando o empujando el cubo y el secreto principal de todo esto es la velocidad. Si los datos no son enviados de forma continua, el robot no entenderá los impulsos como son lute;n está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente eídos por el fantasma que los envía. Es interesante lo que hemos logrado ya que el sentido del tacto ha sido el más difícil de reproducir en el Internet. Se ha conseguido utilizando una velocidad de más de 1000 Hertz. Así, de la misma forma en que el cerebro interpreta imágenes fijas como si estuvieran en una película en movimiento, similarmente los fantasmas integran los impulsos recibidos para producir una sensación continua de tacto", explicó Slater. A pesar de que el experimento se llevó a cabo por primera vez el pasado mayo, fue sólo en esta semana que los científicos lo hicieron úblico durante una conferencia. La reunión se lleva a cabo en Estados Unidos, específicamente en la Universidad del Sur de California y está dirigida por el proyecto Internet2. Internet2 es un esfuerzo tecnológico de 200 universidades para mejorar la tecnología, está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente gía virtual, el mundo tridimensional cibernético y la interacción entre hombre y máquina a través de la red. Actualmente, el proyecto está poniendo mucho énfasis en el desarrollo de técnicas para la manipulación háptica a través de sistemas computacionales.
El cubo negro y la habitación cibernética Para probar sus brazos robóticos, los equipos crearon un cuarto virtual donde ambos usuarios realizarían el experimento. Dentro del cuarto, los investigadores crearon un cubo negro y grande que los sujetos tenían que levantar y mover. El truco estaba en que los movimientos iban a ser originados por lo que la otra persona sentía que el compañero estaba haciendo. Los usuarios entraron al cuarto virtual y, cada uno desde su escritorio, agarró el brazo robótico o fantasma, por la parte posterior donde tiene el pequeño lapicero, y comenzón está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente te; a trabajar. En seguida, la otra persona sentía si su compañero de juego estaba empujando el cubo o si lo jalaba, de esta forma, éste está en pañales, pero en paños que han funcionado muy bien hasta el momento. Lo primero que necesitaron los equipos para funcionar fue una fibra óptica diferente con banda extremadamente l podría coordinar sus movimientos de acuerdo con lo que el otro hacía. Así, ambos equipos consiguieron manipular el enorme cubo a través de sensaciones táctiles que llegaban desde casi cinco mil kilómetros de distancia. Los investigadores también se saludaron utilizando el tacto que leían sus fantasmas. Mel Slater, director del equipo londinense aseguró que no sólo es posible sentir el toque de la persona desde el otro ordenador, sino que también es posible diferenciar cualidades de los objetos. "Puedes sentir si la cosa es de madera o si es de carne, si es suave o dura, si empuja o no. Ha sido una experiencia extraordinaria", concluyó Slater. Sindioses.org Se permite la reproducción de este ensayo para fines educacionales y/o científicos siempre y cuando se mencione claramente nuestro sitio web, así como el nombre del(a) autor(a) del mismo. Se prohibe su reproducción con fines comerciales. /font>
25 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Internet multiplica por 3500 veces la velocidad de transmisión de datos Por primera vez en la historia se ha conseguido enviar mediante fibra óptica 6.7 gigas de información, que es el equivalente a dos películas de DVD, un total de cuatro horas de visionado, a través de 11000 kilómetros en menos de un minuto. Según relata la revista Wired, la información fue enviada sin comprimir a 923 megabits por segundo durante 58 segundos desde California hasta Holanda, lo que supone una velocidad 3500 veces superior a la conexión doméstica de banda ancha. Aunque desde 1984 se duplica cada año la velocidad de transmisión de datos a través de Internet, en esta ocasión se ha producido un salto sin precedentes que centuplica las posibilidades operacionales de la red de redes. Para los científicos del Centro de Acelerador Lineal de Stanford, artífices de la proeza, en el futuro las aplicaciones de este sustancial aumento de la velocidad de transmisión tendrá múltiples aplicaciones prácticas. Colectivos beneficiados Entre ellas destacan la posibilidad de que un equipo de médicos pueda discutir en tiempo real, a través de Internet, el diagnóstico de un paciente en situación de riesgo e incluso analizar sus radiografías. También tendrá aplicaciones en el campo de la física de partículas, toda vez que diferentes grupos de investigación podrán colaborar entre ellos sin necesidad de realizar viaje alguno, utilizando esta velocidad de transmisión para la transferencia de datos. Otros campos que se beneficiarán directamente de esta tecnología son las investigaciones que se desarrollan en el marco del Genoma Humano, así como en astronomía. El Proyecto Genoma Humano podría transferir sus enormes bases de datos más rápidamente sobre Internet. De la misma forma, los astrónomos podrán compartir datos de telescopios localizados en diferentes partes del mundo y los físicos de partículas intercambiar en tiempo real datos de laboratorios muy distantes entre sí. Impacto generalizado El impacto también puede ser generalizado, ya que la demanda de banda ancha en Internet tiene grandes expectativas a las que el experimento de Stanford podría dar satisfacción. Un estudio de IDC revela al respecto que el crecimiento de las conexiones de banda ancha podría duplicarse en los próximos cinco años, lo que supondría pasar de los 180 petabits actuales a los 5200 petabits en 2007. Para hacernos una idea de lo que esto significa, IDC desvela que en la actualidad la Biblioteca del Congreso de Estados Unidos, accesible desde Internet, representa una capacidad de memoria de 10 Terabytes y que, si sus previsiones se cumplen, en 2007 el tráfico diario de Internet será 64000 veces mayor que el peso que representa hoy la Biblioteca del Congreso. Dado que la carga necesaria para soportar este tráfico será colosal, han surgido dudas sobre la capacidad de Internet para aceptarla, por lo que el experimento de Stanford puede venir en ayuda de esta hipótesis de desarrollo de la red de redes.
26 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Premiados los creadores de internet Internet ha revolucionado completamente los procesos de transmisión de la información, permitiendo que ésta fluya sin restricción por todo el mundo. Este trascendental proceso de investigación y desarrollo ha sido liderado por diferentes personas y equipos que, con una gran visión de futuro, han diseñado y establecido los protocolos, la tecnología de interconexión y los servicios de accesibilidad que han hecho posible lo que hace sólo unos años era una utopía. Los trabajos de Lawrence Roberts, Robert Kahn, Vinton Cerf y Tim Berners-Lee constituyen, en este sentido, un definitivo avance al servicio de la humanidad. El jurado del Premio Príncipe de Asturias de Investigación Científica y Técnica 2002, reunido en Oviedo, concedió dicho premio a los creadores de internet. Vinton Cerf (1943-) Fue el creador, junto con Robert Khan, del protocolo TCP/IP, usado actualmente para la conexión de ordenadores en internet, sin el cual no habrían alcanzado el desarrollo actual las redes de ordenadores. Vinton diseñó entre 1982 y 1986 el primer servicio de correo electrónico de internet, denominado MCI MAIL, precursor de los sistemas actuales. Actualmente colabora con la NASA (EE.UU.) en el diseño de una ampliación de internet a nivel interplanetario. Lawrence Roberts (1937-) Fue el responsable de la sistematización de las fórmulas que permiten el enrutamiento y localización de los servidores en las redes. Trabajó en una de las primeras empresas que usaron la conmutación de paquetes, desarrollando el protocolo X25. Actualmente dirige la empresa Caspian Networks, dedicada a la investigación sobre redes. Sus proyectos están dirigidos a la optimización y mejora de internet. Robert Khan (1938-) Fue coinventor de los protocolos TCP/IP que simplificaron la conexión de ordenadores de muy distintas características. Fue el responsable de la puesta en marcha de la Agencia de Proyectos Avanzados para la Defensa de EE.UU: (DARPA). Organizó la primera demostración pública de Arpanet, en Octubre de 1972, en Washington D.C, Este mismo año pasó a ser director del IPTO, dependiente de DARPA; desde este lugar inició el programa multimillonario del gobierno norteamericano: Strategic Computing Program, lo que supondrá el mayor paso dado hasta aquel entonces en la investigación informática. Actualmente trabaja en la tecnología IP, en su nuevo formato IPv6, que permite un rango muy superior, frente a la actual, de direcciones. Tim Berners-Lee (1955-) Físico del Reino Unido, cuando trabajaba en el CERN en Ginebra (Suiza), en un laboratorio de partículas elementales, se le ocurrió en 1990 aplicar las ideas del hipertexto a las redes de ordenadores, dando lugar a "World Wide Web", dando lugar a la gran difusión que ha logrado
27 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
internet. Desde 1994 trabaja en la organización W3C (World Wide Web Consortium) que dicta estándares sobre la red.
Enlaces de interés dentro de esta web: Historia de los primeros lenguajes de programación La prehistoria de la informática Los primeros ordenadores Historia de la Informática. La era electrónica Historia de los miniordenadores Historia de la microinformática La informática en un garage Historia de la microinformática 1981-1983 El nacimiento de la informática en Gran Bretaña Lenguaje FORTRAN
Enlaces de interés: Asociación Técnicos de Informática. Una breve historia de internet Arroyo Galán, Luis. Hitos, museos y referencias. AúnMás.com. Enciclopedia Latinoamericana. Bernal, Manuel. Encicloperdia personal de computación Brian RANDELL. Le projet COLOSSUS et la Seconde Guerre mondiale Ciberhábitat. Ciudad de la informática. México Creadores de los lenguajes de programación Lurueña Jiménez, Sonia. Historia de la informática
28 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática (GAP). Capitulo 4, historia de la...
http://www.um.es/docencia/barzana/II/Ii04.html
Marco Such, Manuel. Historia de la informática y metodología de la ciencia. Universidad de Alicante Portilla, Jorge. Informática empresarial * Red Iris. Universidades españolas Serrano Cinca, Carlos. Universidad de Zaragoza Wikipedia. Enciclopedia libre Yo NO odio a Bill Gates (I) (Kriptópolis) Yo NO odio a Bill Gates (II) (Kriptópolis)
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en todas mis páginas Imprimir
Aquí puedes cambiar el tamaño y color del texto
Página Rafael Barzanallana Actualización en Fisica Biografía de Edward Lorenz
Actualización en Avisos. II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software. Tutorial sobre la nueva versión de Google Docs
Actualización en Software. Tutorial sobre el programa HTTrackl
Actualización en Avisos. II, Sobre GoogleDocs; enlace recomendado http://www.escepticismo.es/menu-enlaces-escepticismo.html XML
Powered by FeedSweep
Biografías de informáticos Von Neumann
29 de 31
18/04/2008 20:25
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 5. Sistemas de numeración Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Ciencia en general Biología Criminología Inicio Contacte
Introducción Códigos de entrada/salida Sistemas de numeración más usuales Representación interna de la información Detección de errores en la información codificada
5.1 Introducción Como se ha visto, un ordenador es una máquina que procesa información. La ejecución de un programa implica la realización de unos tratamientos, según especifica un conjunto ordenado de instrucciones (es decir, un programa) sobre unos datos. Para que el ordenador ejecute un programa es necesario darle información de dos tipos: Instrucciones que forman el programa Los datos con los que debe operar ese programa Uno de los aspectos más importantes relacionado con la información, es cómo representarla. Normalmente se le da al ordenador en la forma usual escrita que utilizan los humanos, es decir, con ayuda de un alfabeto o conjunto de símbolos, los caracteres. Los caracteres que se utilizan para la representación externa son: Numéricos: Constituidos por las diez dígitos en el sistema decimal Alfabéticos: Letras mayúsculas y minúsculas Especiales: Son símbolos no incluidos en los grupos anteriores, como: ), (, *, /, +, -, [, ]... Al conjunto de los dos primeros grupos se le denominan caracteres alfanuméricos. Veremos cómo estos caracteres usados en la representación externa son representables en los ordenadores. Este paso de una representación a otra se denomina codificación y el proceso inverso decodificación. Por lo tanto hay dos niveles en la representación de la información Nivel de representación externa: Usada por las personas e inadecuada para el ordenador Nivel de representación interna: Adecuada al ordenador y no inteligible directamente por el ser humano. Las informaciones más complejas se reducirán a un conjunto de informaciones elementales por técnicas de codificación. Los elementos básicos que constituyen un ordenador son de naturaleza binaria, ya que sólo pueden adoptar dos valores, 0 y 1 (corresponden a dos niveles de tensión, dos valores de corriente, dos situaciones
2 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
de una lámpara... ). Al tener que traducir toda la información suministrada a ceros y unos es necesario establecer una correspondencia entre el conjunto de todos los caracteres: {A, B, C, D,...Z, a, b, c,...z, 0, 1,...9, /, +,...} y el conjunto binario: {0, 1}n de forma que a cada elemento del primero le corresponda un elemento distinto del segundo. Estos códigos de transformación se denominan códigos E/S (entrada/salida) o externos y se pueden definir de forma arbitraria. Las operaciones aritméticas con datos numéricos se suelen realizar en una representación más adecuada para este objetivo que la del código de E/S. Por ello en el propio ordenador se efectúa una transformación entre códigos binarios, obteniéndose una representación fundamentada en el sistema de numeración en base dos, que al ser una representación numérica posicional es muy apta para realizar operaciones aritméticas.
5.2 Códigos de entrada/salida. Los códigos de E/S o externos son códigos que asocian a cada carácter una combinación de bit. En otras palabras, un código de E/S es una correspondencia entre los conjuntos: A = {0, 1,...9, A, B,...Z, a, b,...z, *, +, /...} y B = {0, 1}n Si se usa un número fijo, n, de bit para codificar los símbolos de A, el valor mínimo de n dependerá del número m de elementos de A. Así: Con 2 bit (n=2) podemos hacer 4 combinaciones distintas y se pueden codificar hasta 4 símbolos (m=4) distintos Con 3 bit (n=3) podemos hacer 8 combinaciones distintas y se pueden codificar hasta 8 símbolos (m=8) distintos Con 4 bit (n=4) podemos realizar 16 combinaciones distintas y se pueden codificar hasta 16 símbolos (m=16) distintos .... Con n bit pueden codificarse m = 2n símbolos distintos. Así se verifica que para codificar m símbolos distintos necesitamos n bit, siendo, n = log2 m = 3.32 * log m Es decir, n debe ser el menor entero que verifique la relación anterior. Ejemplo: Para codificar las 10 cifras decimales (0, 1,...,9) se necesitarán: n = 3.32 * log (m) = 3.32 * log (10) = 3.32 bit es decir 4 bit(ya que con 3 sólo podremos codificar 8 símbolos). Dos codificaciones posibles son las siguientes:
3 de 34
Símbolos
Código 1
Código 2
0
0000
0000
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
1
1000
0001
2
0100
1001
3
1100
1000
4
0010
0101
5
1010
0100
6
0110
1100
7
1110
1101
8
0001
0011
9
1001
0010
Pueden hacerse codificaciones con más bit de los necesarios; es decir, podríamos establecer códigos de E/S de forma totalmente aleatoria. Obviamente existen códigos normalizados que suelen ser utilizados por los constructores de ordenadores. Estos códigos son conocidos como: BCD de intercambio normalizado. EBCDIC ASCII BCD DE INTERCAMBIO NORMALIZADO Usualmente este código utiliza 6 bit, con lo que se pueden representar, m = 26 = 64 caracteres. A veces se añade a su izquierda un bit adicional para verificar posibles errores en la transmisión del código (que veremos más adelante) de forma que el carácter queda representado por n = 7 bit. bit de verificación 6
5
4
3
2
1
0
Los bit 4, 5 son conocidos como bit de zona. Los bit de zona indican el tipo de carácter representado. Ejemplo: 00 para los numéricos. Los bit 0, 1, 2, 3 son conocidos como bit de posición, que coinciden para los caracteres numéricos con la representación en binario natural y para el 0 con la representación del 10. CODIGO EBCDIC (Extended Binary Coded Decimal Interchange). Utiliza n = 8 para representar cada carácter, pudiendo codificar hasta m = 28 = 256 símbolos distintos. CODIGO ASCII (American Standard Code for Information Interchange) Utiliza 7 bit y es de los más utilizados. Normalmente se incluye un octavo bit para detectar posibles errores de transmisión o grabación. Si el octavo bit se emplea para representar más caracteres como letras griegas y símbolos semigráficos, se tiene el denominado ASCII extendido, usado en el PC de IBM y compatibles.
5.3 Sistemas de numeración más usuales Los ordenadores suelen efectuar las operaciones aritméticas utilizando una representación para los datos numéricos basada en el sistema de numeración en base 2 (binario natural). También se utilizan los
4 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
sistemas de numeración octal y hexadecimal, para obtener códigos intermedios. Un número expresado en uno de estos códigos puede transformarse a binario y viceversa.
LOS SISTEMAS DE NUMERACION A LO LARGO DE LA HISTORIA Seguidamente se comentan los sistemas de numeración que distintas culturas han usado a lo largo de la Historia · Introducción. El Concepto de Base · Sistemas de Numeracion Aditivos o Egipcio o Griego · Sistemas de Numeración Híbridos o Chino · Sistemas de Numeración Posicionales o Babilónico o Maya
Enlace recomendado: Sistema de numeración romano Introducción. El concepto de base Cuando los hombres empezaron a contar usaron los dedos, guigarros, marcas en bastones, nudos en una cuerda y algunas otras formas para ir pasando de un número al siguiente. A medida que la cantidad crece se hace necesario un sistema de representación más práctico. En diferentes partes del mundo y en distintas épocas se llegó a la misma solución, cuando se alcanza un determinado número se hace una marca distinta que los representa a todos ellos. Este número es la base. Se sigue añadiendo unidades hasta que se vuelve a alcanzar por segunda vez el número anterior y se añade otra marca de la segunda clase. Cuando se alcanza un número determinado (que puede ser diferente del anterior constituyendo la base auxiliar) de estas unidades de segundo orden, las decenas en caso de base 10, se añade una de tercer orden y así sucesivamente. La base que más se ha utilizado a lo largo de la historia es 10 según todas las apariencias por ser ese el número de dedos con los que contamos. Hay alguna excepción notable como son las numeración babilónica que usaba 10 y 60 como bases y la numeración maya que usaba 20 y 5 aunque con alguna irregularidad. Desde hace 5000 años la gran mayoría de las civilizaciones han contado en unidades, decenas, centenas, millares etc. es decir de la misma forma que seguimos haciéndolo hoy. Sin embargo la forma de escribir los números ha sido muy diversa y muchos pueblos han visto impedido su avance científico por no disponer de un sistema eficaz que permitiese el cálculo. Casi todos los sistemas utilizados representan con exactitud los números enteros, aunque
5 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
en algunos pueden confundirse unos números con otros, pero muchos de ellos no son capaces de representar grandes cantidades, y otros requieren tal cantidad de símbolos que los hace poco prácticos. Pero sobre todo no permiten en general efectuar operaciones tan sencillas como la multiplicación, requiriendo procedimientos muy complicados que sólo estaban al alcance de unos pocos iniciados. De hecho cuando se empezó a utilizar en Europa el sistema de numeración actual, los abaquistas, los profesionales del cálculo se opusieron con las más peregrinas razones, entre ellas la de que siendo el cálculo algo complicado en sí mismo, tendría que ser un metodo diabólico aquel que permitiese efectuar las operaciones de forma tan sencilla. El sistema actual fue inventado por los hindús y transmitido a Europa por los árabes. Del origen hindú del sistema hay pruebas documentales más que suficientes, entre ellas la opinión de Leonardo de Pisa (Fibonacci) que fue uno de los indroductores del nuevo sistema en la Europa de 1200. El gran mérito fue la introducción del concepto y símbolo del cero, lo que permite un sistema en el que sólo diez simbolos puedan representar cualquier número por grande que sea y simplificar la forma de efectuar las operaciones. Sistemas de numeracion aditivos Para ver cómo es la forma de representación aditiva consideremos el sistema geroglífico egipcio. Por cada unidad se escribe un trazo vertical, por cada decena un símbolo en forma de arco y por cada centena, millar, decena y centena de millar y millón un geroglífico específico. Así para escribir 754 usaban siete geroglíficos de centenas cinco de decenas y 4 trazos. De alguna forma todas las unidades están fisicamente presentes. Los sistemas aditivos son aquellos que acumulan los simbolos de todas las unidades, decenas... como sean necesarios hasta completar el número. Una de sus características es por tanto que se pueden poner los símbolos en cualquier orden, aunque en general se ha preferido una determinada disposición. Han sido de este tipo las numeraciones egipcia, sumeria (de base 60), hitita, cretense, azteca (de base 20), romana y las alfabéticas de los griegos, armenios, judios y árabes. El sistema de numeración egipcio Desde el tercer milenio a.n.e. los egipcios usaron un sistema deescribir los números en base diez utilizando los geroglíficos para representar los distintos órdenes de unidades. Se usaban tantos de cada uno cómo fuera necesario y se podian escribir indistintamente de izquierda a derecha, al revés o de arriba abajo, cambiando la orientación de las figuras según el caso. Al ser indiferente el orden se escribían a veces según criterios estéticos, y solían ir acompañados de los geroglíficos correspondientes al tipo de objeto (animales, prisioneros, vasijas etc.) cuyo número indicaban. Estos signos fueron utilizados hasta la incorporación de Egipto al imperio romano. Pero su uso quedó reservado a las inscripciones monumentales, en el uso diario fue sustituido por la escritura hierática y demótica, formas más simples que permitian mayor rapidez y comodidad a los escribas En estos sistemas de escritura los grupos de signos adquirieron una forma propia, y asi se introdujeron símbolos particulares para 20, 30....90....200, 300.....900, 2000, 3000...... con lo que disminuye el número de signos necesarios para escribir una cifra. El sistema de numeración griego El primer sitema de numeración griego se desarrolló hacia el 600 a.n.e. Era un sistema de base decimal que usaba unos símbolos para representar esas cantidades. Se utilizaban
6 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
tantas de ellas como fuera necesario según el principio de las numeraciones aditivas. Para representar la unidad y los números hasta el cuatro se usaban trazos verticales. Para el cinco, 10 y 100 las letras correspondientes a la inicial de la palabra cinco (pente), diez (deka) y mil (khiloi). Por este motivo se llama a este sistema acrofónico. Los símbolos de 50, 500 y 5000 se obtienen añadiendo el signo de 10, 100 y 1000 al de cinco, usando un principio multiplicativo. Progresivamente este sistema ático fue reemplazado por el jónico, que empleaba las 24 letras del alfabeto griego junto con algunos otros símbolos. De esta forma los números parecen palabras, ya que están compuestos por letras, y a su vez las palabras tienen un valor numérico, basta sumar las cifras que corresponden a las letras que las componen. Esta circunstancia hizo aparecer una nueva suerte de disciplina mágica que estudiaba la relación entre los números y las palabras. En algunas sociedades como la judía y la árabe, que utilizaban un sistema similar, el estudio de esta relación ha tenido una gran importancia y ha constituido una disciplina aparte: la kábala, que persigue fines místicos y adivinatorios. Sistemas de numeración híbridos En estos sistemas se combina el principio aditivo con el multiplicativo. Si para representar 500 los sistemas aditivos recurren a cinco representaciones de 100, los híbridos utilizan la combinación del 5 y el 100. Pero siguen acumulando estas combinaciones de signos para los números más complejos. Por lo tanto sigue siendo innecesario un símbolo para el 0. Para representar el 703 se usa la combinacion del 7 y el 100 seguida del 3. El orden en la escritura de las cifras es ahora fundamental para evitar confusiones, se dan así los pasos para llegar al sistema posicional, ya que si los signos del 10, 100 etc se repiten siempre en los mismos lugares, pronto alguien piensa en suprimirlos, dándolos por supuestos y se escriben sólo las cifras correspondientes a las decenas, centenas etc. .Pero para ello es necesario un cero, algo que indique que algún orden de magnitud está vacío y no se confundan el 307 con 370, 3070 ... Además del chino clásico han sido sistemas de este tipo el asirio, arameo, etíope y algunos del subcontinente hindú cómo el tamil, el malayalam y el cingalés. El sistema de numeración chino La forma clásica de escritura de los números en China se empezó a usar desde el 1500 A.N.E. aproximadamente. Es un sistema decimal estricto que usa las unidades y los distintas potencias de 10. Utiliza ideogramas y usa la combinación de los números hasta el diez con la decena, centena, millar y decena de millar para según el principio multiplicativo representar 50, 700 ó 3000. El orden de escritura se hace fundamental,ya que 5 10 7 igual podría representar 57 que 75. Tradicionalmente se ha escrito de arriba abajo aunque también se hace de izquierda a derecha. No es necesario un símbolo para el cero siempre y cuando se pongan todos los ideogramas, pero aún así a veces se suprimían los correspondientes a las potencias de 10. Aparte de esta forma que podríamos llamar canónica se usaron otras. Para los documento importantes se usaba una grafía más complicada con objeto de evitar falsificaciones y errores. En los sellos se escribía de forma más estilizada y lineal y aún se usaban hasta dos grafías diferentes en usos domésticos y comerciales, aparte de las variantes regionales. Los eruditos chinos por su parte desarrollaron un sistema posicional muy parecido al actual que desde que incorporó el cero por influencia india en siglo VIII en
7 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
nada se diferencia de este. Sistemas de numeración posicionales Mucho más efectivos que los sitemas anteriores son los posicionales. En ellos la posición de una cifra nos dice si son decenas, centenas ... o en general la potencia de la base correspondiente. Sólo tres culturas además de la india lograron desarrollar un sistema de este tipo. Babilonios, chinos y mayas en distintas épocas llegaron al mismo principio. La ausencia del cero impidió a los chinos un desarrollo completo hasta la intraducción del mismo. Los sistemas babilónico y maya no eran prácticos para operar porque no disponían de simbolos particulares para los dígitos, usando para representarlos una acumulación del signo de la unidad y la decena. El hecho que sus bases fuese 60 y 20 respectivamente no hubiese representado en principio nigún obstáculo. Los mayas por su parte cometían una irregularidad a partir de las unidades de tercer orden, ya que detrás de las veintenas no usaban 20x20=400 sino 20x18=360 para adecuar los números al calendario, una de sus mayores preocupaciones culturales. Fueron los hindúes antes del siglo VII los que idearon el sistema tal y como hoy lo conocemos, sin mas que un cambio en la forma en la que escribimos los nueve dígitos y el cero. Aunque con frecuencia nos referimos a nuestro sistema de numeración cómo árabe, las pruebas arqueológicas y documentales demuestran el uso del cero tanto en posiciones intermedias como finales se originó en India. Los árabes transmitieron esta forma de representar los números y sobre todo el cálculo asociado a ellas, aunque tardaron siglos en ser usadas y aceptadas. Una vez más se produjo una gran resistencia a algo por el mero hecho de ser nuevo o ajeno, aunque sus ventajas eran evidentes. Sin esta forma eficaz de numerar y efectuar cálculos dificilmente la ciencia hubiese podido avanzar. El sistema de numeración Babilónico Entre la muchas civilizaciones que florecieron en la antigua Mesopotamia se desarrollaron distintos sistemas de numeración. Inventaron un sistema de base 10, aditivo hasta el 60 y posicional para números superiores. Para la unidad se usaba la marca vertical que se hacía con el punzón en forma de cuña. Se ponían tantos como fuera preciso hasta llegar a 10, que tenía su propio signo. De este se usaban los que fuera necesario completando con las unidades hasta llegar a 60. A partir de ahí se usaba un sistema posicional en el que los grupos de signos iban representando sucesivamente el número de unidades, 60, 60x60, 60x60x60 y asi sucesivamente como en los ejemplos que se acompañan. El sistema de numeración Maya Los mayas idearon un sistema de base 20 con el 5 cómo base auxiliar. La unidad se representaba por un punto. Dos, tres, y cuatro puntos servían para 2, 3 y 4. El 5 era una raya horizontal, a la que seañadían los puntos necesarios para representar 6, 7, 8 y 9. Para el 10 se usaban dos rayas, y de la misma forma se continúa hasta el 20, con cuatro rayas. Hasta aquí parece ser un sistema de base 5 aditivo, pero en realidad, considerados cada uno un solo signo, estos símbolos constituyen las cífras de un sistema de base 20, en el que hay que multiplicar el valor de cada cifra por 1, 20, 20x20, 20x20x20 ... según el lugar que ocupe, y sumar el resultado. Es por tanto un sistema posicional que se escribe a arriba abajo, empezando por el orden de magnitud mayor. Al tener cada cifra un valor relativo según el lugar que ocupa, la presencia de un signo
8 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
para el cero, con el que indicar la ausencia de unidades de algún orden, se hace imprescindible y los mayas lo usaron, aunque no parece haberles interesado el concepto de cantidad nula. Cómo los babilonios lo usaron simplemente para indicar la ausencia de otro número. Pero los científicos mayas eran a la vez sacerdotes ocupados en la observación astronómica y para expresar los número correspondientes a las fechas usaron unas unidades de tercer orden irregulares para la base 20. Así la cifra que ocupaba el tercer lugar desde abajo se multiplicaba por 20x18=360 para completar una cifra muy próxima a la duración de un año. El año lo consideraban dividido en 18 uinal que constaba cada uno de 20 días. Se añadían algunos festivos (uayeb) y de esta forma se conseguía que durara justo lo que una de las unidades de tercer orden del sistema numérico. Además de éste calendario solar, usaron otro de carater religioso en el que el año se divide en 20 ciclos de 13 días. Al romperse la unidad del sistema éste se hace poco práctico para el cálculo y aunque los conocimiento astronómicos y de otro tipo fueron notables los mayas no desarrollaron una matemática más allá del calendario
5.3.1 Representación posicional de los números Se define un sistema de numeración: como el conjunto de símbolos y reglas que se utilizan para la representación de cantidades. En ellos existe un elemento característico que define el sistema y se denomina base, siendo ésta el número de símbolos que se utilizan para la representación. Un sistema de numeración en base "b" utiliza para representar los números un alfabeto compuesto por b símbolos o cifras. Así todo número se expresa por un conjunto de cifras, teniendo cada una de ellas dentro del número un valor que depende: De la cifra en sí De la posición que ocupe dentro del número En el sistema de numeración decimal (base 10), que habitualmente se utiliza, b = 10 y el alfabeto por tanto, está constituido por 10 símbolos: {0, 1, 2..., 9}
Por ejemplo, el número 3278.52 puede obtenerse como suma de: 3000 200 70 8 0.5 0.02 3278.52
por tanto se verifica que: 3278.52 = 3 * 103 + 2 * 102 + 7 * 101 + 8 * 100 + 5 * 10-1 + 2 * 10-2
9 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Cada posición, por tanto, tiene un peso: Posición 0 Peso b0 Posición 1 Peso b1 Posición 2 Peso b2 Posición 3 Peso b3 .... Posición -1 Peso b-1 Posición -2 Peso b-2 .....
Generalizando se tiene que la representación de un número en una base b : N = ...n4 n3 n2 n1 n0 n-1 n-2 ... es una forma abreviada de expresar su valor, que es: N = n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2
Ejemplo en base 8:
b = 8. Los símbolos que se usan son: {0, 1, 2, 3, 4, 5, 6, 7} El valor decimal del número octal 175.378 será: 175.378)8 = 1*82 + 7*81 + 5*80 + 3*8-1 + 7*8-2 + 8*8-3 = 125.4882812)10
5.3.2 Sistema de numeración en base dos. El sistema de numeración en base dos, fue introducido por Gottfried Wilhelm Leibniz (1646-1716) en el siglo XVII, siendo el más adecuado para usar en las máquinas electrónicas, debido a que utilizan esencialmente sistemas de dos estados, encendido y apagado. En el sistema binario los datos se representan en un sistema que sólo admite dos estados, 0 y 1. Las operaciones aritméticas se suelen realizar usando una representación de datos y resultados en binario natural. A) Definición del sistema binario.
10 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
En el sistema de numeración binario b=2 y el conjunto de símbolos usados es: {0, 1} Una muestra de los números enteros binarios que se pueden formar con 3 bit y que corresponden a las cifras decimales {0, ...,7} es: Binario
Decimal
000
0
001
1
010
2
011
3
100
4
101
5
111
6
111
7
B) Transformaciones entre bases binaria y decimal. Se puede transformar un número binario a decimal sin más que usar la expresión vista anteriormente: .n4 n3 n2 n1 n0 n-1 n-2...)2 = ...n4 24 + n3 23 + n2 22 + n1 21 + n0 20+ n-1 2-1 + = N)10 Ejemplo: Transformar a decimal los siguientes números binarios: 110100)2 = 1*25 + 1*24 + 0*23 + 1*22 + 0*21 + 0*20 = 25 + 24 + 22 = 52)10 0.10100)2 = 0*20 + 1*2-1 + 0*2-2 + 1*2-3 + 0*2-4 + 0*2-5 = 2-1 + 2-3 = 0.625)10 10100.001)2 = 1*24 + 1*22 + 1*2-3 = 20.125)10
Para transformar un número decimal a binario: a) La parte entera del nuevo número (binario) se obtiene efectuando divisiones enteras (sin obtener decimales) por dos, de la parte entera del número decimal de partida y de los cocientes que sucesivamente se vayan obteniendo. Los restos de estas divisiones y el último cociente (que serán siempre ceros y unos) son las cifras binarias. El último cociente será el bit más significativo y el primer resto el bit menos significativo (más a la derecha). Ejemplo: 26)10 es en binario: 26 | 2_ 0 13 | 2_ 1 6 | 2_ 0 3 |2_ 1 1
11 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
26)10 = 11010)2
b) La parte fraccionaria del número binario se obtiene multiplicando por 2 sucesivamente la parte fraccionaria del número decimal de partida y las partes fraccionarias que se van obteniendo en los productos sucesivos. El número binario se forma con las partes enteras (que serán ceros y unos) de los productos obtenidos. Ejemplo:
Transformar a binario natural el número decimal 0.1875 0.1875 *2 --------0.3750
0.3750 *2 ---------0.7500
0.7500 0.5000 *2 *2 ---------- ---------1.5000 1.0000
0.1875)10 = 0.0011)2
Ejemplo:
Transformar a binario el número decimal 74.423 a) Parte entera: 74 | 2_ 0 37 | 2__ 1 18 | 2__ 0 9 | 2_ 1 4 | 2__ 0 2 | 2__ 0 1
b) Parte fraccionaria: 0.423 *2 -------0.846
0.846 0.692 0.384 0.768 *2 *2 *2 *2 --------- --------- --------- --------1.692 1.384 0.768 1.536
Es decir: 74.423)10 = 1001010.01101...)2
12 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Ejemplo, programa en C, para convertir de base 10 a base 2 1) Se divide el numero entre la base y se va guardando el residuo, el resultado de la división se vuelve a dividir entre la base y se guarda el residuo; esto se efectúa tantas veces hasta que el resultado de la división sea cero. Ejemplo: convertir 14 en base 10 a base 2 14/ 7 / 3 / 1 /
2= 7 2= 3 2= 1 2 =0
sobran sobran sobran sobran
0 1 1 1
Ahora lo vamos a poner en una tabla con subindices c0 b c0 r0 14 2 7 0 c0 b c1 r1 7 2 3 1 c1 b c2 r2 3 2 1 1 c2 b c3 r3 1 2 0 1 ¿Qué observamos? Es posible utilizar un arreglo de vectores de: c0,c1,c2,c3 r0,r1,r2,r3 b se mantiene constante. En la primera columna se observa que en el tercer renglón se repite un valor de c0 porque es el resultado de la división, que luego se debe utilizar, nuevamente para hacer la siguiente división. ¿Hasta donde dejar de hacer divisiones? Hasta que c[i] se haga cero, en este caso c3=0. Y por lo tanto ya terminamos. ¿Ahora como hacemos para que vayan cambiando los subíndices? primera iteración c0 b c0 r0 Haríamos un "for del índice de 0 a 3" segunda iteración c0 b c1 r1 Sin embargo los que estan obscuros perjudican tercera iteración c1 b c2 r2 nuestro for, lo que podemos mejorarlo de este tercera iteración c2 b c3 r3 modo: c[0]= c[1]- 1. Y con esto quedaria asi: co b co ro c1-1 b c1 r1
13 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
c2-1 b c2 r2 c3-1 b c3 r3 si hago el numero= c0; Que así con un solo for (i=0;i<=3;i++){ c[i]=c[i-1]/b; r[i]=fmod(c[i-1],b) El fmod saca el residuo de la division(a,b) a/b= residuo. .requiere #include <math.h> } ¿Cómo lo mandamos a imprimir el resultado?: r4r3r2r1= 1110 base2 = 14 base10 hacemos otro for para el subindice de r[i] desde i=4 hasta i=0 for (i=4; i<=0;i--){ printf("%d", r[i]); }
#include <stdio.h> #include <conio.h> #include <math.h> int c[50], r[50]; /* es mejor poner más de lo necesario */ int i,b; main() { clrscr(); /* Datos */ b=2; c[0]= 14; i=1; /* conversion */ for(;;) { c[i]= c[i-1]/b; r[i]= fmod(c[i-1],b); if (c[i]==0) break; i=i+1; } for(;;) /* impresión de resultado de atrás para adelante */
14 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
{ if (i==0) break; printf(" %d",r[i]); i=i-1; } }
C) Operaciones aritméticas y lógicas con variables binarias Una variable binaria puede representar, una cifra de un número en el sistema de numeración en base dos. Las operaciones aritméticas básicas con variables binarias naturales son la suma, resta, multiplicación y división. Estas operaciones son análogas a las realizadas en decimal pero usando ceros y unos. Tabla de operaciones aritméticas: Suma aritmética A
B
A+B
0
0
0
0
1
1
1
0
1
1
1
0 y llevo 1
Producto aritmético A A*B
Resta aritmética A B A-B
0
0
0
0
0
0
0
1
0
0
1
1 y debo 1
1
0
0
1
0
1
1
1
1
1
1
0
División aritmética A B A/B 0
0
-
0
1
0
1
0
-
1 1
1
Ejemplo:
1110101 1110110 ------------11101011
1101010 - 1010111 ------------0010011
1101010 * 11 -----------1101010 + 1101010 --------------100111110
Las operaciones lógicas o booleanas con variables binarias son la suma lógica (+), llamada también 15 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
función OR, el producto lógico (llamado también AND y la complementación (-) o negación o NOT. Un tutorial sobre lógica se puede ver en el siguiente vídeo:
Online Videos by Veoh.com Las tablas son las siguientes: Suma lógica (OR) A B A+B
Producto lógico (AND) A B A*B
0
0
0
0
0
0
0
1
1
0
1
0
1
0
1
1
0
0
1
1
1
1
1
1
Complementación (NOT) A -A 0
1
1
0
Es frecuente también la utilización de las operaciones combinadas como NAND (AND y NOT) y NOR (OR y NOT). Las tablas son las siguientes:
A B
16 de 34
NAND A * B
-(A*B)
NOR A
B
A+B
- (A + B)
0 0
0
1
0
0
0
1
0
1
0
1
0
1
1
0
1
0
0
1
1
0
1
0
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
1
1
1
0
http://www.um.es/docencia/barzana/II/Ii05.html
1
1
1
0
Veamos ahora por qué resulta más sencillo operar con el sistema binario que con el decimal. Se ha visto la simplicidad de las operaciones aritméticas en binario. Los ordenadores funcionan con circuitos que pueden representar los dos estados del sistema binario (0 y 1) abriéndose o cerrándose el circuito.
Al conectar dos circuitos según el esquema, y hacer pasar una corriente eléctrica por A se puede conseguir que el estado del conductor C represente el resultado de la operación AND lógica. 1 1 ---------------*------------------ C toma el valor 1 A B 0 1 ---/ /---------*------------------ C toma el valor 0 A B 1 ---------------*-------/ A
0
0 /------ C toma el valor 0 B
0
--/
/---------*-------/ A
/------- C toma el valor 0 B
De forma parecida se construye la función OR lógica: A = 1 ------------------|------------------- C=1 ------------------B = 1
17 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
A = 1 ------------------|------------------- C=1 ----/ B = 0
A = 0 ----/
/----------
/---------|------------------- C=1
------------------B = 1
A = 0 -----/ ----/ B = 0
/---------|------------------- C=0 /----------
Estos ejemplos ilustran cómo basándose en circuitos e impulsos eléctricos un ordenador puede realizar operaciones aritméticas y lógicas. El motivo por el que los ordenadores electrónicos trabajan en el sistema binario se puede deducir de los ejemplos vistos. Queda imaginar la complejidad que supondría trabajar en el sistema decimal (con circuitos 10 veces más complejos para representar operaciones de 2 dígitos). Una puerta es un circuíto electrónico que produce una señal de salida que es una operación booleana sencilla de las señales de entrada. Las puertas básicas usadas en lógica digital son AND, OR, NOT, XOR, NAND y NOR. cada puerta se define de tres formas: símbolo gráfico, notación algebraica y tabla de verdad, como se muestra seguidamente:
18 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
D) Representación en complementos Para representar un número negativo se puede utilizar el complemento de ese número a la base. De esta forma las sumas y restas quedan reducidas a sumas. Este sistema de representación es de sumo interés en el caso de los ordenadores ya que al usarlo se reduce la complejidad de los circuitos. El complemento a la base de un número, es el número que resulta de restar a cada una de las cifras del número N a la base menos uno del sistema que se esté utilizando y posteriormente sumar uno a la diferencia obtenida. Ejemplo:
En base 10: Base menos uno del sistema: 9 Representar el número 63 en complemento a la base. N = 63
99 -63 -----36
36 +1 -----37
Es decir, el complemento a 10 (base)del número 63 es 37.
En base 2: Base menos uno: 1
19 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Complemento a 2 del número 10010 es 01110 11111 01101 - 10010 + 1 ------------- ------------01101 01110 Complemento a 2 del número 101010 es 010110 111111 101010 ----------010101
010101 + 1 -----------010110
Observamos que para transformar un número binario N a complemento a 2 basta con cambiar los 0 por 1 y los 1 por 0 de N y sumar 1 al resultado. Veremos ahora que la utilidad de esta representación es para convertir la realización de las restas a sumas, lo cual simplifica el diseño del procesador. Ejemplo: Base 10
Supongamos que se ha de realizar la siguiente operación: 77 - 63 Se puede hacer de dos formas diferentes: a) Directamente: 77 - 63 = 14 b) Utilizando el complemento a 10 del substraendo: Complemento a 10 del substraendo 63 es 37 99 36 -63 +1 ---- ----36 37 77 +37 ----114 - (No se considera) El resultado es 14
Es decir, para restar basta con sumar el minuendo con el complemento a la base del substraendo y sin considerar el acarreo. Ejemplo: Base 2
20 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Supongamos se ha de efectuar la siguiente resta: 11001 - 10010 Se puede hacer de dos formas: a) Directamente: 11001 -10010 -------00111 b) Usando el complemento a 2 del substraendo: El substraendo es 10010. Su complemento a 2 se obtiene cambiando 0 por 1 y 1 por 0. 01101 y sumándole 1 01101 + 1 -------01110 Ahora sumamos al minuendo el complemento a 2 del substraendo : 11001 +01110 --------100111 - (No se considera)
E) Códigos intermedios Los códigos intermedios se basan en la facilidad de transformar un número en base 2 a otra base que sea potencia de 2 y viceversa. Usualmente se usan como códigos intermedios los sistemas de numeración en base 8 y en base 16 (conocidos como octal y hexadecimal). a) OCTAL. En la base octal, b = 8 y el conjunto de símbolos utilizados es: {0, 1,..., 7} Para convertir un número octal a binario sólo debemos sustituir cada dígito octal por su equivalente binario. Equivalencias
21 de 34
OCTAL
BINARIO
0
000
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
1
001
2
010
3
011
4
100
5
101
6
110
7
111
Ejemplo: 6 se sustituye por 110 2 se sustituye por 010 537.24)8 = 101 011 111 . 010 100)2
que equivale según la tabla, a: 5 3 7 . 2 4 La conversión de binario a octal se realiza juntando en grupos de tres dígitos binarios, comenzando por la izquierda desde el punto decimal y sustituyendo cada grupo por el correspondiente dígito octal. Ejemplo: El número binario 10001101100.11010)2 es en octal 10 001 101 100 . 110 10 = 2154.64)8 Para pasar un número de octal a decimal aplicamos la expresión: N)8 =...n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2...)10
con b = 8. Ejemplo: Para pasar el número octal 1367.25)8 a decimal: 1367.25 = 1*83 + 3*82 + 6*81 + 7*80 + 2*8-1 + 5*8-2 = 759.328125)10
Para pasar un número entero decimal a octal se hacen sucesivas divisiones enteras del número y los subsiguientes cocientes por 8 (al igual que en binario). Para transformar la parte fraccionaria de un número decimal a octal se hacen sucesivas multiplicaciones por 8 (de la misma forma que en binario). Ejemplo: Para pasar el número decimal 760.33)10 a octal: 760 | 8__ 40 0 95 | 8__ 15 7 11 | 8__ 3 1
22 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
0.33 0.64 0.12 *8 *8 *8 ------ ------- ------2.64 5.12 0.96
http://www.um.es/docencia/barzana/II/Ii05.html
0.96 *8 ------7.68
El número en octal es 1370.2507
b) HEXADECIMAL Para representar un número en base hexadecimal (b = 16) es necesario disponer de un conjunto o alfabeto de 16 símbolos. Se suele usar el conjunto: {0, 1, 2,..., 9, A, B, C, D, E, F}
Podemos hacer las conversiones de binario a hexadecimal y viceversa en forma análoga al sistema octal. Ahora bien, aquí utilizaremos grupos de 4 bit en lugar de grupos de 3 bit. Equivalencias HEX BINARIO DECIMAL 0
0000
0
1
0001
1
2
0010
2
3
0110
3
4
0100
4
5
0101
5
6
0110
6
7
0111
7
8
1000
8
9
1001
9
A
1010
10
B
1011
11
C
1100
12
D
1101
13
E
1110
14
F
1111
15
Ejemplo: Pasar el número binario 010010111011111.1011101)2 a hexadecimal. 010 0101 1101 1111 . 1011 101)2 = 25DF.BA)16
Ejemplo: Pasar el número 1ABC701.C4)16 a binario: 0001 1010 1011 1100 0111 0000 0001 . 1100 0100 2 1 A B C 7 0 1 C 4
23 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
El número binario resultante es: 0001101010111100011100000001.11000100)2
Para transformar un número hexadecimal a decimal aplicamos la expresión siguiente con b=16. N)16 =...n4 b4 + n3 b3 + .... + n-1 b-1 + n-2 b-2...)10
Ejemplo:
Pasar el número hexadecimal A798C.1E)16 a decimal. 10*164 + 7*163 + 9*162 + 8*161 + 12*160 + 1*16-1 + 14*16-2 = = 686476.1171)10
Para pasar un número de decimal a hexadecimal se hace de forma análoga a los casos binario y octal: la parte entera se divide por 16, así como los cocientes enteros sucesivos, y la parte fraccionaria se multiplica por 16, así como las partes fraccionarias de los productos sucesivos. Ejemplo: El número 4573.79)10 se corresponde en hexadecimal: 4573 |16 137 093 285 |16 13 125 13 17 |16 1 1 0.79 0.64 0.24 * 16 * 16 * 16 ------ ----- - ----474 384 144 +79 +64 +24 ----- -------12.64 10.24 3.84 C A 3 El número en hexadecimal es 11DD.CA3)16
5.4 Representación interna de la información. En la memoria y el procesador central la información se transmite y procesa en unidades denominadas palabras. La organización de las palabras depende del ordenador, siendo usuales las longitudes: 8, 16, 32, 36, 60 y 64 bit, aunque hay hasta de 512 bit.
24 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
La memoria principal se encuentra organizada en palabras, cada una de las cuales tiene asignada una dirección. Los intercambios de información entre el procesador y la memoria se hacen en unidades denominadas palabras y no en caracteres (octetos) o en bit. Normalmente para aprovechar la memoria, la longitud de la palabra debe ser un múltiplo entero del número de bit usados para representar un carácter. Los datos se introducen inicialmente en el ordenador según un código de entrada/salida (que ya hemos visto), tanto si éstos son de tipo alfabético como de tipo numérico. Los datos de tipo numérico se utilizan normalmente para operar aritméticamente con ellos, y la representación simbólica obtenida con el código de E/S no resulta adecuada para realizar este tipo de operaciones. Resulta más adecuado operar en un sistema de numeración que en un código de E/S. Por los motivos anteriores, y teniendo en cuenta que la ALU opera con palabras, se realiza una conversión de notaciones pasando de la representación simbólica de E/S a otra notación que denominamos representación interna. TIPOS DE INFORMACION. En un sistema de procesamiento de la información es necesaria la codificación de tres clases de información: 1 Información numérica: Enteros Reales Complejos Lógicos 2 Información no numérica (o alfanumérica): Caracteres 3 Instrucciones del programa A) Datos de tipo complejo Los datos de tipo complejo se representan por parejas de números reales almacenados en posiciones consecutivas de memoria. Es decir, pueden considerarse como un caso particular de números reales. B) Datos de tipo lógico Representan un valor del Algebra de Boole binaria, es decir, 0 (falso) ó 1 (verdad). C) Representación en punto fijo El nombre de esta representación surge al considerar el punto fraccional, situado en una posición fija. El punto fijo es utilizado para la representación de números enteros, suponiéndose el punto fraccional ubicado a la derecha de los bit. Cualquiera de los sistemas de representación de enteros es una representación de punto fijo. Tambien, se puede utilizar la representación en punto fijo para representar fracciones binarias escalando los números, de modo que el punto fraccional quede ubicado implícitamente en otra posición entre los bit, y en el caso límite a la izquierda de todos ellos describiendo un número fraccional binario puro (menor a 1).
25 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
a) El signo se representa en el bit situado más a la izquierda de la palabra. Este bit es 0 si el número es positivo ó 1 si el número es negativo. b) El valor absoluto: b1) Números positivos: Se almacenan directamente el número en binario natural. b2) Números negativos: Dependiendo del ordenador se almacena el complemento a 2 del número binario natural o la magnitud del número en binario natural. Ejemplo de representación interna de datos de tipo entero en un ordenador de palabras de 4 bit: DECIMAL
SIGNO MAGNITUD
Y COMPLEMENTO A 2
7
0111
0111
6
0110
0110
5
0101
0101
4
0100
0100
3
0011
0011
2
0010
0010
1
0001
0001
+0
0000
0000
-0
1000
----
-1
1001
1111
-2
1010
1110
-3
1011
1101
-4
1100
1100
-5
1101
1011
-6
1110
1010
-7
1111
1001
-8
-----
1000
D) Representación en punto flotante El punto flotante surge de la necesidad de representar números reales y enteros con un rango de representación mayor que el que ofrece la representación en punto fijo y posibilitar al ordenador el tratamiento de números muy grandes y muy pequeños. Estas ventajas que ofrece el punto flotante traen como contraprestación una disminución en la precisión de los números representados. En su representación se utiliza la notación científica o exponencial matemática en la que una cantidad se representa de la siguiente forma: n° = mantisa * base de exponenciación exponente Un número en esta notación tiene infinitas representaciones, de las que se toma como estándar la denominada normalizada, que consiste en que la mantisa no tiene parte entera y el primer dígito o cifra a la derecha del punto decimal es significativo (distinto de 0), salvo en la representación del número 0.
26 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Ejemplo 835.4 = 8354*10^-1 = 835.4 * 10^0 = 83.54 * 10^1 = 8.354 * 10^2 = .8354 * 10^3 Representación del número decimal 835.4 con base de exponenciación 10. siendo está última expresión la que corresponde al número normalizado. En este sistema de codificación, se dividen los bit disponibles en la palabra o doble palabra del ordenador entre la mantisa y el exponente, teniendo una base de exponenciación determinada (2 o potencia de 2). Normalmente la definición de la coma flotante sigue las siguientes reglas: El exponente se representa en uno de los siguientes sistemas de codificación: módulo y signo o exceso a 2 n-1, siendo siempre un número entero. En este sistema de codificación el exponente también recibe el nombre de característica. La mantisa es un número real con el punto decimal implícito a la izquierda de sus bit, representada normalmente en uno de los siguientes sistemas de codificación: módulo y signo, complemento a 1 o complemento a 2. La base de exponenciación es una potencia de 2 determinada por el fabricante del equipo (2, 8 o 16). Existen muchas formas de representación en punto flotante, variando la longitud de la palabra del ordenador, la base de la exponenciación, el número de bit reservados para la mantisa y para el exponente, el sistema utilizado para representar la mantisa y el exponente, etc.. El punto flotante se define particularmente en cada caso. Las definiciones más comunes son las siguientes: a) para simple precisión (32 bit) signo exponente mantisa 31 30 23 22 0 b) para doble precisión (64 bit) signo exponente mantisa 63 62 52 51 0 El rango de representación en la coma flotante debe ser analizado teniendo en cuenta los máximos y mínimos valores representables tanto con signo positivo como negativo: mínimo número negativo = -(mantisa máxima) * basemáximo exponente máximo número negativo = -(mantisa mínima) * base-maximo exponente mínimo número positivo = mantisa mínima * base-máximo exponente máximo número positivo = mantisa máxima * basemáximo exponente Conviene observar que existen cuatro zonas de números que no pueden ser representados mediante un determinado formato de coma flotante. Estas zonas están ubicadas cercanas al 0, tanto para valores positivos como negativos (subdesbordamiento positivo o negativo), como para valores grandes (positivos) o pequeños(negativos) que exceden el rango de representación.
27 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Ejemplo Un ordenador utiliza el siguiente formato para registrar números en punto flotante: los bit del 23 al 30 se utilizan para representar el exponente en exceso a 128 (27) los bit del 0 al 22 se utilizan para representar la mantisa normalizada para el sistema Módulo y signo el bit 31 se utiliza para representar el signo de la mantisa (0 para el +) la base de exponenciación es 2 el 0 se representa con todos los bit en 0. Representar en este formato el número 12: 12 en notación normalizada de base 2 es 0.75 * 24 el exponente de valor 4 en exceso a 128 es: 10000100 la mantisa 0.75 en binario es 0.11 de donde la representación del número 12 quedará como: 0 10000100 11000000000000000000000 signo (+) exponente 4 mantisa 0.75 Representar en el formato definido el 12. En este caso la notación normalizada solo sufre cambio en el signo de la mantisa (-0.75 * 24), la expresión quedará ntonces: 1 10000100 11000000000000000000000 signo (-) exponente 4 mantisa 0.75 El rango de representación de este formato en coma flotante será: mínimo negativo = -(1 - 223)*2127 = -2127 = 1.701411834605 * 1038 máximo negativo = -0.5 * 2-128 = -2-129 = -1.469367938528 * 10 -39 mínimo positivo = 0.5 * 2-128 = 2-129 = 1.469367938528 * 10-39 máximo positivo = (1 - 223)*2127 = 2127 = 1.701411834605 * 1038 E) Datos de tipo carácter Los datos de tipo carácter, representan sencillamente cadenas de caracteres representados según el código de E/S.
28 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
A las representaciones de los caracteres se les imponen las siguientes condiciones: Deben englobar las 26 letras del alfabeto latino, los 10 dígitos y un cierto número de caracteres gráficos (operadores) y signos de puntuación. Deben permitir añadir nuevos caracteres específicos. Deben incluir un sistema de redundancia que permita la detección de errores en el curso de la transmisión. Los subconjuntos de letras y números deben estar ordenados y ser coherentes. Estarán en dos grupos diferentes y ordenados. F) Codificación de instrucciones Las instrucciones llevan cierto número de informaciones: Código de operación. Dirección de operandos/resultados. Condiciones de direccionamiento, etc. A cada una de estas informaciones se le asocia una zona formada por un número de bit suficientes para codificar los diferentes estados posibles de la instrucción. Así una zona de código de operación de 6 bit permite codificar 26 = 64 operaciones diferentes, y si una zona de direcciones es de 16 bit permitirá direccionar una memoria de 216 direcciones.
5.5 Detección de errores en la información codificada Hemos visto anteriormente que si representamos cada carácter por un número fijo de bit, para representar m símbolos distintos necesitamos al menos n bit, siendo n el menor número entero que verifica la relación n = log2 m = 3.32 * log m
También hemos observado que a veces no es necesario utilizar todas las combinaciones posibles de los n bit. Cuantas menos combinaciones se desperdicien decimos que el código es más eficiente. Un código que es poco eficiente se dice que es redundante. La eficiencia de un código se expresa como el cociente entre el número de símbolos que representa y el número total posible, Eficiencia = m/m´= m/2n
así se tiene para el ASCII una eficiencia de 95/27, que es 0.742, con R=25.8% y para el ASCII extendido la eficiencia es 95/28, que es 0.371, con R=62.9%, donde R es la redundancia, que se calcula, R=(1-þ)*100% A veces las redundancias se introducen deliberadamente para poder detectar posibles errores en la transmisión o grabación de información. Así por ejemplo, si necesitamos transmitir 8 símbolos (A, B, C,...,H) y si se hace con un código sin redundancias, necesitamos n = 3 bit, y un código posible puede ser: ALFABETO
29 de 34
CÓDIGO
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
A
000
B
001
C
010
D
011
E
100
F
101
G
110
H
111
En el caso de que por algún error uno de los bit varíe obtenemos otro símbolo del alfabeto, que considerado aisladamente no puede ser detectado como erróneo. Si se usase un código redundante, tal como el siguiente: ALFABETO CÓDIGO A
0000
B
0001
C
0010
D
0011
E
0100
F
0101
G
0110
H
0111
existirían algunas posibilidades de detectar errores. Así por ejemplo, si se transmite el símbolo H, esto es 0111, y por un error la transmisión cambiara el primer bit, esto es se recibiese 1111, podría detectarse el error ya que 1111 no corresponde a ninguno de los símbolos posibles. Usualmente las redundancias se introducen deliberadamente y de acuerdo con algún algoritmo predeterminado. Uno de estos algoritmos añade al código inicial da cada carácter un nuevo bit denominado bit de paridad. Existen dos criterios para introducir este bit: Bit de paridad, criterio par: se añade un bit (0 ó 1) de forma tal que el número total de unos del código que resulte sea par. Bit de paridad, criterio impar: Se añade un bit (0 ó 1) de forma tal que el número total de unos del código que resulte sea impar. Ejemplo: Código inicial
Código con bit de paridad par
100 0001
0100 0001 1101 1011 0101 0000 -
101 1011 101 0000
30 de 34
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
110 1000
http://www.um.es/docencia/barzana/II/Ii05.html
1110 1000
- Código con bit de paridad impar 100 0001
1100 0001 -
110 0101
1110 0101 -
010 0000
0010 0000 -
000 0000
1000 0000 -
El bit de paridad se introduce antes de transmitir o grabar la información. Por ruido o interferencias en la transmisión o defecto del soporte de la información puede eventualmente cambiar un bit (de 1 a 0 ó de 0 a 1). Si en el receptor o al leer la información se comprueba la paridad, se detectaría el error, ya que el número de unos dejaría de ser par (en el criterio par) o impar (en el criterio impar). En el caso de transmisión de datos, automáticamente se podría provocar una nueva transmisión del carácter erróneo. Obviamente si se produjese el cambio simultáneo de dos bit distintos no se detectaría el error de paridad, ahora bien, esta eventualidad es mucho menos probable que la de que cambie un sólo bit. Códigos de barras Otro caso habitual donde aparece información redundante con la finalidad de verificar errores, es en los códigos de baras, habituales en cualquier producto que se comercialice masivamente. En 1974 los 12 países que entonces formaban la Unión Europea decidieron adoptar un sistema de codificación para los productos, similar al sistema UPC de Estados Unidos de Norteamérica. Así surgió el código EAN (European Article Numbering), sistema que han adoptado más de 100 países y cerca de un millón de empresas. El más usual es EAN 13, formado por 13 dígitos agrupados en cuatro partes: prefijo, código empresa, código producto y dígito de control. El prefijo asignado por EAN internacional a AECOC es el 84, de modo que la mayoría de las empresas que forman parte del sistema EAN a través de AECOC utilizan este número. El código de empresa (fabricante o cadena de distribución) está formado por un número de entre 5 y 8 dígitos. El código del producto completa los primeros 12 dígitos y el último dígito es de control. Por ejemplo, un tarro con garbanzos cocidos marca Eroski, lleva el siguiente código 8480010021967, donde 84 significa España, 80010 es el número que tiene asignado la cooperativa Eroski, 02196 corresponde a ese tipo de garbanzos, siendo una clasificación interna del distribuidor y 7 es el código de control. En el momento de la venta, el terminal punto de venta (TPV), realiza las siguientes operaciones: 1. Suma los dígitos de las posiciones pares: 4+0+1+0+1+6 = 12 2. Multiplica el resultado por 3: 12x3= 36 3. Le añade los dígitos de las posiciones impares: 36+8+8+2+9=63 4. Resta la suma obtenida del siguiente múltiplo de 10: 70-63=7 Si el resultado coincide con el dígito de control, como es el caso, el ordenador enviará el precio al TPV.
fresqui
31 de 34
del.icio.us
meneame
18/04/2008 20:21
Apuntes Introduccion a la Informática. Capitulo 5, sistemas de numera...
http://www.um.es/docencia/barzana/II/Ii05.html
Buscar en la web
Imprimir
Aquí puedes cambiar el tamaño y color del texto
Página Rafael Barzanallana Actualización en Fisica Biografía de Edward Lorenz
Actualización en Avisos. II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software. Tutorial sobre la nueva versión de Google Docs
Actualización en Software. Tutorial sobre el programa HTTrackl
Actualización en Avisos. II, Sobre GoogleDocs; enlace recomendado http://www.escepticismo.es/menu-enlaces-escepticismo.html XML
Powered by FeedSweep
Enlaces de interés
Skip Navigation Inicio Divulgación Física Religiones Fraudes médicos Fraudes nutrición Fraudes psicología Informática
Fraudes en psicología
Los psicólogos de lo paranormal (abduciones) L.A. Gámez Teoría de recuperación de recuerdos y síndrome de falso recuerdo. John Hochman La psicología científica y las pseudopsicologías. Carlos Álvarez González Psicología para escépticos La psicología científica y los cuestionamientos al psicoanálisis
32 de 34
18/04/2008 20:21
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 6. Periféricos de un ordenador Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Ciencia en general
1 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Biología Criminología Inicio Contacte
Introducción Dispositivos de entrada Dispositivos de salida Dispositivos de memoria secundaria Calidad en ordenadores personales Selecciona un texto y pulsa aquí para oírlo
6.1 Introducción Se denominan periféricos tanto a los dispositivos a través de los cuales el ordenador se comunica con el mundo exterior, como a los sistemas que almacenan la información, sirviendo de memoria auxiliar de la memoria principal, independientemente de que se encuentre en el exterior o interior de la carcasa. La memoria masiva o auxiliar trata de suplir las deficiencias de la memoria central (RAM): baja capacidad y que la información almacenada se pierde al desconectar la alimentación eléctrica. En efecto, los dispositivos de memoria masiva auxiliar (actualmente discos magnéticos y ópticos) tienen mucha más capacidad que la memoria principal, y en ellos se puede grabar la información durante mucho tiempo. Según la definición de periférico dada anteriormente, éstos están constituidos por unidades de entrada, unidades de salida y unidades de memoria masiva auxiliar. Estas últimas también pueden considerarse como de E/S, ya que el ordenador central puede escribir (dar salida) sobre ellas, y la información escrita puede ser leída, es decir, ser dada como entrada. Ahora bien, la información grabadas en estos soportes no es directamente inteligible para el usuario, esto es, no puede haber una intercomunicación directa usuario-ordenador como la que hay a través de un teclado/pantalla. El ordenador es una máquina que no tendría sentido si no se comunicase con el exterior, es decir, si careciese de periféricos. Por lo que debe disponer de: Unidad(es) de entrada, a través de la(s) cual(es) introducirle los programas que queramos que ejecute y los datos correspondientes. Unidad(es) de salida, con la(s) que la ordenador da los resultados de los programas. Memoria masiva o auxiliar, que facilite su funcionamiento y utilización. Los dispositivos de entrada/salida (E/S) transforman la información externa en señales codificadas, permitiendo su transmisión, detección, interpretación, procesamiento y almacenamiento de forma automática. Los dispositivos de entrada transforman la información externa (instrucciones o datos tecleados) según alguno de los códigos de entrada/salida (E/S). Así el ordenador recibe dicha información adecuadamente preparada (en binario). En un dispositivo de salida se efectúa el proceso inverso, la información binaria que llega del ordenador se transforma de acuerdo con el código de E/S en caracteres escritos inteligibles por el usuario. Hay que distinguir claramente entre periféricos de un ordenador y máquinas auxiliares de un determinado
2 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
servicio informático, las máquinas auxiliares no están físicamente conectadas al ordenador (su funcionamiento es autónomo) y sirven para preparar o ayudar en la confección o utilización de la información que se da a, o produce, el ordenador. Por ejemplo, hace algunos años existian máquinas autónomas para perforar tarjetas, para grabar cintas magnéticas manualmente a través de un teclado, para separar el papel continuo producido por un programa a través de la impresora, etc. Tampoco hay que confundir periférico con soporte de información. Por soporte de información se entiende aquellos medios físicos sobre los que va la información. Por unidades o dispositivos periféricos se entiende aquellos elementos encargados de transcribir la información al correspondiente soporte. Ejemplos: - Los disquetes son soporte de información, mientras que la unidad lectora o disquetera, es unidad periférica. - El papel impresora es soporte de información y la impresora unidad periférica. Conexión de periféricos al ordenador Las unidades funcionales del ordenador, así como éstas con los periféricos se comunican por grupos de pistas denominados buses. Hay de dos tipos, serie y paralelo. Los periféricos se interconectan al bus del sistema directamente o bien a través de unos circuitos denominados interfaces. Hay una gran diversidad de periféricos con distintas características eléctricas y velocidades de funcionamiento. Las interfaces son para adaptar las características de los periféricos a las del bus del sistema. Características generales de los periféricos Cada periférico suele estar formado por dos partes diferenciadas en cuanto a su misión y funcionamiento: una parte mecánica y otra electrónica. La parte mecánica está formada básicamente por dispositivos electromecánicos (conmutadores manuales, motores, electroimanes, etc.) controlados por los elementos electrónicos. Esta parte determina la velocidad de funcionamiento. La parte electrónica gestiona el funcionamiento de los procesos. Desde el ordenador se actúa sobre los periféricos a iniciativa de las instrucciones de los programas. Para poder utilizar eficazmente una ordenador, su sistema operativo contiene rutinas específicas para la gestión de los periféricos. Sin estas rutinas sería extremadamente complejo utilizar un periférico desde un lenguaje de alto nivel. Algunos periféricos tienen la posibilidad de hacer autónomamente determinadas operaciones. Estas operaciones pueden ser desde autocomprobar su funcionamiento físico, hasta funciones más complejas como rebobinar una cinta magnética, dibujar en un registrador gráfico la información contenida en una cinta magnética o imprimir una imagen desde la tarjeta de la máquina de fotografíar digital. Clasificación de los periféricos Los periféricos se dividen en tres categorías, ya conocidas:
3 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Unidades de entrada. Unidades de salida. Unidades de memoria masiva auxiliar. No necesariamente las distintas unidades están físicamente individualizadas en módulos independientes, pudiendo, por ejemplo, estar montadas una unidad de entrada y una unidad de salida conjuntamente. Así un terminal interactivo suele estar constituido por un teclado (unidad de entrada) y una pantalla (unidad de salida). A veces se dice que estas unidades son de tipo mixto. Incluso hay dispositivos de entrada que únicamente tienen sentido actuando conjuntamente con un dispositivo de salida (Ej.: lápiz óptico). Las unidades de memoria masiva pueden considerarse como unidades de E/S mixtas. Así una unidad de cinta magnética, cuando lee información de una cinta, actúa como dispositivo de entrada; cuando escribe o graba información procedente de la ordenador central, actúa como unidad de salida.
6.2 Dispositivos de entrada Los periféricos más usuales son los siguientes: Teclado Ratón (mouse) "Joystick " o palanca manual de control Lápiz óptico Lector óptico Lector de caracteres imanables Lector de bandas magnéticas Lector de tarjetas "Chip" o inteligentes ("Smart Card") Lector de marcas Lector de caracteres manuscritos Lector de códigos de barras Reconocedores de voz Sistemas biométricos Digitalizador o tableta gráfica Pantalla sensible al tacto Scanner o rastreador Sistemas de radiofrecuencia (RFID)
TECLADO Es un dispositivo análogo al de una máquina de escribir, correspondiendo cada tecla a uno o varios caracteres, funciones u órdenes. Para seleccionar uno de los caracteres de una tecla puede ser necesario pulsar simultáneamente dos o más teclas. Al pulsar una tecla se cierra un conmutador que hay en el interior del teclado, esto hace que unos circuitos codificadores generen el código de E/S correspondiente al carácter seleccionado, apareciendo éste en la pantalla si no es un carácter de control. Los teclados contienen los siguientes tipos de teclas: Teclado principal: Contiene los caracteres alfabéticos, numéricos y especiales, como en una máquina de escribir convencional con alguno adicional. Hay teclados que también incluyen aquí
4 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
caracteres gráficos. Teclas de desplazamiento del cursor: Permiten mover el cursor en los cuatro sentidos, borrar un carácter o parte de una línea. Teclado numérico: Es habitual en los teclados de ordenador que las teclas correspondientes a los caracteres numéricos (cifras decimales), signos de operaciones básicas (+, -, ...) y punto decimal estén repetidas para facilitar al usuario la introducción de datos numéricos. Teclas de funciones: Son teclas cuyas funciones son definibles por el usuario o por un programa. Teclas de funciones locales: Controlan funciones propias del terminal, como impresión del contenido de imagen cuando el ordenador está conectada a una impresora. En algunos teclados la transmisión no se efectúa pulsación a pulsación sino que se dispone de un almacén de reserva o buffer (tampón) y el envío se efectúa a la vez para todo un conjunto de mensajes completos cuando el usuario pulsa una tecla especial destinada a activar dicha transmisión. Esta tecla recibe distintos nombres como Return, Enter, Transmit, Intro, Retorno de carro. Entre las posibles características técnicas a contemplar al evaluar la mejor o peor adaptabilidad de un teclado a nuestras necesidades, podemos citar el número de caracteres y símbolos básicos, sensibilidad a la pulsación, tipo de contactos de las teclas (membrana o mecánico), peso, tamaño, transportabilidad. Actualmente se comercializan teclados ergonómicos, con una disposición algo original, aunque se han difundido poco, y hay discusiones sobre si es cierta la ergonomía que propugnan. Se pueden encontar teclados con funcionalidades extras, ya sean individualmente o en conjunto, como lector de banda magnética, lector/grabador de tarjeta inteligente, conexión para escaner, detector biométrico, con iluminación, entre otras posibilidades. Para aplicaciones industriales y militares existen teclados totalmente sellados que soportan ambientes agresivos, como por ejemplo aire, agua y atmósferas de vapores. Cumplen con la normativa IP65.
Entre los tipos de teclados más novedosos se encuentran los que son totalmente flexibles y los denominados virtuales, que generan una simulación mediante un láser.
RATÓN El ratón es un pequeño periférico que está constituido por una esfera que puede girar libremente, se acciona haciéndola rodar sobre una superficie plana. Los modernos se basan en
5 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
un sistema óptico de diodo o láser de infrarrojo en lugar de la bola. En el momento de activar el ratón, se asocia su posición con la del cursor en la pantalla y si lo desplazamos sobre una superficie, el cursor seguirá dichos movimientos. Actualmente es imprescindible en los entornos gráficos, como KDE-Linux y Windows. Una variación del ratón es la conocida como "trackball" que consiste en una bola fija que se hace girar con los dedos. Presenta algunas ventajas sobre los ratones tradicionales. La interface de conexión con el ordenador, tanto del teclado como del ratón es a través de la interface USB con cable o mediante sistemas inalámbricos infrarrojos o de radiofrecuencias, aunque hasta hace poco tiempo era mediante interfaces específicas. Dado que bajo los entornos de usuario gráficos actuales se emplea constantemente el ratón, se ha de seleccionar uno de muy buena calidad, pues sino duran sólo unos pocos meses. La tecnología más moderna respecto a los ratones es la basada en un láser VCSEL (vertical-cavity surface-emitting laser), alcanzándose resoluciones de hasta 2000 puntos por pulgada (una pulgada son 2.54 cm). Estos láseres VCSEL también son de utilidad para una nueva generación de ordenadores y sistemas de comunicación fotónicos entre tarjetas y entre "chip" con velocidades de hasta 2.5 Gb/s.
LÁPIZ OPTICO Físicamente tiene la forma de una pluma o lápiz grueso, de uno de cuyos extremos sale un cable para unirlo al monitor. Contiene un pulsador, transmitiéndose información hacia el monitor sólo en el caso de estar presionado. Al activar el lápiz óptico frente a un punto de la pantalla se obtienen las coordenadas del sitio donde apuntaba el lápiz.
JOYSTICK. (Palanca manual de control) La palanca manual de control (en inglés "joystick") está constituida por un dispositivo con una palanca o mando móvil. El usuario puede actuar sobre el extremo de la palanca , y a cada posición de ella le corresponde sobre la pantalla un punto. Dispone de un pulsador que debe ser presionado para que exista una interacción entre el programa y la posición de la palanca. La información que transmite es analógica. Su uso ha sido popularizado por los video-juegos y aplicaciones gráficas.
LECTOR DE MARCAS Hay ciertos documentos o productos que se utilizan en la vida ordinaria en gran cantidad y que pueden ser controlados por ordenador, introduciendo con gran rapidez y sin error sus características sin necesidad de teclear el código o información que los identifica. Esto es así porque en su superficie llevan impresos caracteres, barras o marcas predefinidas, que pueden ser detectados por dispositivos especiales. Ejemplos de estos productos y documentos: cheques bancarios, productos farmacéuticos, artículos de supermercados, quinielas, exámenes de respuesta múltiple, etc. En la mayoría de los sistemas existe un conjunto de caracteres o patrones predefinidos.
6 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Las lectoras, analizan los datos carácter a carácter y detectan si cada zona de identificación está impresa o no. A cada carácter, se le hace corresponder una secuencia ordenada de ceros y unos. El dispositivo de entrada compara esta secuencia con la de los patrones que tiene almacenados. Los lectores ópticos suelen contener una fuente de luz que ilumina intensamente el dato a leer, un sistema óptico de ampliación de imagen y los elementos necesarios para identificar el carácter.
LECTOR DE CARACTERES MAGNÉTICOS Los caracteres magnéticos se utilizan en cheques bancarios, y en las etiquetas de algunos medicamentos en algunos países, pues en España se usa el código EAN. En estos documentos se imprimen, de acuerdo con unos patrones, los caracteres que identifican el talón. La tinta utilizada es imanable (contiene óxido de hierro) y además es legible directamente. La impresión se hace con una máquina auxiliar denominada inscriptora electrónica. Este dispositivo ofrece una serie de ventajas como: Permitir la captación directa de datos. Los documentos no necesitan cuidados especiales, se pueden doblar, escribir encima con tinta no magnética. Se consiguen velocidades de lectura muy apreciables. Los caracteres usados son legibles. Los inconvenientes que presentan son: Alto costo. Impresión cara y específica.
DETECTOR DE BANDAS MAGNÉTICAS Utiliza señales electromagnéticas para registrar y codificar información en una banda imanada que puede ser leída por una máquina, para identificación instantánea. La aplicación más difundida quizás es la de las tarjetas de crédito y débito. Las instituciones financieras han preferido hasta hace poco tiempo esta tecnología pues la reproducción era difícil de lograr, aunque la tendencia es a sustituirlas por tarjetas con "chip" que son mucho más seguras. Se dice que las bandas magnéticas se utilizan para la identificación de personas, mientras que los códigos de barras se aplican en la identificación de productos. Las bandas magnéticas tienen excelentes posibilidades en aplicaciones de corta duración tales como en pasajes de avión, donde la vida esperada del pasaje es del orden de las 24 horas. En los Estados Unidos se pueden encontrar licencias de conducir con bandas magnéticas. Asimismo documentos de identidad de instituciones educativas. Algunas tarjetas "prepagadas" para hacer llamadas telefónicas son otro ejemplo de la aplicación de las bandas magnéticas. La codificación de bandas magnéticas, de acuerdo a las normas ISO BCD, se hace en hasta tres localizaciones, pistas o "tracks" contenidos en la banda magnética. Dependiendo del "track" leido, se puede almacenar desde 79 caracteres alfanuméricos (Pista 1), a 40 caracteres numéricos (Pista 2), hasta 107 caracteres numéricos (Pista 3). Las normas ISO generalmente se aplican a tarjetas de crédito y débito.
Las bandas magnéticas se leen mediante dispositivos de lectura manuales, similares a un lápiz, o por detectores situados en los dispositivos en los que se introducen las tarjetas, incluso disponibles en algunos teclados. La ventaja de este método es que la información es difícil de alterar una vez que se ha grabado
7 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
en la banda, salvo que se le aplique un campo magnético de intensidad adecuada. Esto proporciona un cierto grado de seguridad frente a los sistemas convencionales.
LECTOR DE TARJETAS "CHIP" O INTELIGENTES Son tarjetas análogas en dimensiones a las de crédito, pero que incorporan un circuito electrónico y una pequeña memoria. Se comercializan de dos tipos, por lo que respecta a la comunicación, mediante contactos o inalámbricos, como por ejemplo las tarjetas bonobus del transporte público en Murcia. Las más modernas pueden incluir un sistema operativo, y lenguaje de programación como por ejemplo Java. Un ejemplo de aplicación novedosa de este sistema, el el proceso de votaciones en Lisboa, usando una tarjeta tipo "chip card" en lugar de las papeletas tradicionales. El prototipo de este Sistema de Voto Electrónico (SVE) ha sido desarrollado por Omron Electronics. Cada elector dispone de una tarjeta inteligente, que introduce en el dispositivo de lectura, apareciendo en una pantalla táctil la relación de candidatos, procediendo el votante a efectuar la selección. Seguidamente dispone de 5 segundos por si desea cambiar o anular su voto. El elector saca su tarjeta con la información de a quien ha votado, y seguidamente la inserta en un sistema electrónico que efectúa la lectura.
LECTOR OPTICO En este apartado únicamente se hace referencia a los detectores de marcas, detectores de barras y detectores de caracteres manuscritos e impresos. LECTOR DE MARCAS Los lectores ópticos de marcas son sistemas que aceptan información escrita a mano y la transforman en datos binarios inteligibles por el ordenador. El usuario se limita a marcar con su lápiz ciertas áreas preestablecidas del documento que representan posibles opciones. Estos documentos pueden ser leídos posteriormente, a gran velocidad, por un ordenador con un lector óptico de marcas, que detecta las zonas preestablecidas que están marcadas. Esta forma de introducir dstos es útil, por ejemplo, para corregir exámenes de tipo test, escrutar quinielas, valorar encuestas, etc. Una variante sencilla de este sistema la constituye el método de reconocimiento de marcas. En este caso el dispositivo de lectura puede reconocer cuándo ciertas áreas se han ennegrecido con un lápiz u otro instrumento de escritura. Entre los documentos sometidos a esta forma de lectura se encuentran los cupones de las quinielas, los formularios para la lectura de los contadores de gas y luz, y los cuestionarios con respuesta de elección múltiple. Los métodos de OCR y de reconocimiento de marcas tienen la ventaja de que se pueden emplear para leer los datos directamente de los documentos originales, pero son lentos y sensibles a los errores, en comparación con otros métodos. Una aplicación nueva es el sistema implantado por la Seguridad Social. Los médicos disponen de una terminal portátil PDT 3100 de Symbol Tecnologies, lector de banda magnética e impresora térmica para etiquetas. El médico genera una etiqueta para la receta, con su identidad, detalles del paciente. En la farmacia se añade a la receta el código de barras del medicamento. Posteriormente toda esta información se procesa, y ayuda a evitar el abundante fraude que se da en la medicina . DETECTOR DE CARACTERES MANUSCRITOS E IMPRESOS Los lectores ópticos de caracteres pueden detectar caracteres (alfabéticos y/o numéricos), o bien impresos o mecanografiados, o bien manuscritos.
8 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Los lectores de caracteres impresos suelen utilizar patrones normalizados. Los lectores de caracteres manuales son mucho más complejos, sirviendo frecuentemente sólo para detectar unos pocos caracteres. Usualmente en el manual del dispositivo se indica la caligrafía "preferida" por el dispositivo. El reconocimiento óptico de caracteres (OCR) está basado en el uso de un dispositivo de exploración óptica que puede reconocer la letra impresa. Muchos documentos comerciales, como las facturas de gas, luz o teléfono, disponen de una banda que figura en la parte inferior que se puede leer mediante un dispositivo de OCR. Los nuevos pasaportes de la Comunidad Europea disponen de una página de texto OCR en la que se incluyen todos los detalles del titular del pasaporte. Se emplea un tipo de impresión especial para facilitar su lectura (algunos dispositivos de OCR pueden leer tipos de imprenta comunes, y otros, como los empleados por las administraciones postales para los procesos de clasificación, pueden reconocer la letra manuscrita siempre que ésta sea suficientemente clara). DETECTOR DE BARRAS En la actualidad han adquirido un gran desarrollo los lectores de códigos de barras. Estos se usan en centros comerciales. En el momento de fabricar un producto se imprime en su envoltorio una etiqueta con información sobre según un código formado por un conjunto de barras separadas por zonas en blanco. La forma de codificar cada dígito decimal consiste en variar el grosor relativo de las barras negras y blancas adyacentes. Con estas marcas se puede controlar fácilmente por ordenador las existencias y ventas de una determinada empresa, e incluso gestionar los pedidos a los suministradores de forma totalmente automática, lo cual genera un ahorro de costes considerable. El cajero o cliente pasa un lector óptica por la etiqueta, introduciéndose así, sin necesidad de teclear, y con rapidez, la identificación del artículo. El ordenador contabiliza el producto como vendido y lo da de baja en la base de datos de existencias. El lector óptico suele formar parte de una caja registradora que en realidad es un terminal interactivo denominado terminal punto de venta (TPV). Los códigos de barras se han transformado en la forma estándar de representar la información en los productos de mercado en un formato accesible para las máquinas. Un código de barras consiste en un conjunto de barras verticales pintadas en negro (o en un color oscuro) sobre un fondo claro. Los caracteres se codifican empleando combinaciones de barras anchas y estrechas y siempre se incluyen caracteres de comprobación. Un lector de código de barras interpreta la secuencia de barras y produce el conjunto de caracteres equivalente. Los lectores de códigos de barras tiene la forma de un lápiz, que se pasa sobre el código o bien son dispositivos mayores de carácter fijo, que disponen de una ventana sobre la que se pasa el producto cuyo código se quiere leer. En este último tipo la lectura se realiza mediante un haz láser. Los lectores de códigos de barras se incorporan generalmente a algún tipo de terminal, como en el caso de los más recientes tipos de cajas registradoras para supermercados (TPV). Las experiencias hasta la fecha indican que los códigos de barras constituyen un método de codificación bastante rápido y fiable a un precio asequible.
9 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
RECONOCEDORES DE VOZ Uno de los campos de investigación actual relevantes relacionados con la informática es el reconocimiento de la voz. Se pretende una comunicación directa del hombre con el ordenador, sin necesidad de transcribir la información a través de un teclado u otros soportes intermedios. Usualmente los dispositivos de reconocimiento de la voz o de la palabra tratan de identificar fonemas o palabras dentro de un repertorio o vocabulario muy limitado. Un fonema es un sonido simple o unidad del lenguaje hablado. Un sistema capaz de reconocer, supongamos, siete palabras, lo que hace al detectar un sonido es extraer características o parámetros físicos inherentes a dicho sonido, y compararlos con los parámetros (previamente memorizados) de las siete palabras que es capaz de reconocer. Si, como resultado de la comparación, se identifica como correspondiente a una de las siete palabras, se transmite a la memoria intermedia del dispositivo el código binario identificador de la palabra. Si el sonido no se identifica, se indica esta circunstancia al usuario (iluminándose una luz, por ejemplo) para que el usuario vuelva a emitir el sonido. Existen dos tipos de unidades de reconocimiento de voz: Dependientes del usuario: En estos sistemas es necesario someter al dispositivo a un período de aprendizaje o programación, al cabo del cual puede reconocer palabras del usuario. En el período de aprendizaje el sistema retiene o memoriza las características o peculiaridades de los sonidos emitidos por el locutor, y que luego tendrá que identificar. Independientes del usuario: Estos sistemas están más difundidos, pero el vocabulario que reconocen suele ser muy limitado. Los parámetros de las palabras que identifican vienen ya memorizados al adquirir la unidad. Son utilizados, por ejemplo, para definir el movimiento de cierto tipo de robots. En este caso el operador da verbalmente órdenes elegidas de un repertorio muy limitado, como puede ser: para, anda, arriba, abajo,... La unidad cuando capta un sonido comprueba si corresponde a uno de los del repertorio. En caso de identificación se transmite a la ordenador central la información necesaria para la ejecución del programa que pone en marcha y controla la acción requerida.
SISTEMAS BIOMÉTRICOS No se debe confundir con la biometría, que es una técnica estadística empleada por biólogos. Las tecnologías de identificación biométricas no son nuevas (se puede mencionar como ejemplo a la identificación de huellas dactilares) pero en cuanto a sofisticación tecnológica es un campo muy amplio para explorar. Estas tecnologías se utilizan generalmente para aplicaciones de control de acceso y seguridad. Información sobre alguna característica fisiológica es digitalizada y almacenada en el ordenador, esta información se emplea como un medio de identificación personal. Algunas de las técnicas biométricas son: Reconocimiento de iris: Aparentemente dos personas no pueden tienen el mismo patrón de formación del iris. La "morfogenesis caotica" del iris es un proceso de cambio del patrón del iris durante le primer año de crecimiento del ser humano. Reflexión retinal Geometría de la mano Geometría facial Termografía facial: Un termograma facial es la representación gráfica de las emanaciones de calor del rostro. Ante fluctuaciones de temperaturas el patrón calorífico del rostro se
10 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
mantiene invariable. Huellas dactilares Patrón de voz Una técnica novedosa es el uso de las uñas de las manos como sistema biométrico y también como memoria óptica y otra técnica futura es basándose en la fotónica.
PANTALLA SENSIBLE AL TACTO Son pantallas que pueden detectar las coordenadas (x,y) de la zona de la propia pantalla donde se acerca un puntero. Este es un sistema muy sencillo para dar entradas o elegir opciones sin utilizar el teclado. Antes de la introducción del PC de IBM, los equipos Hewlett Packard bajo MS-DOS, venían con una pantalla de este tipo, aunque dejaron de comercializarse al poco tiempo debido a su precio abusivo. Se utiliza para la selección de opciones dentro del menú o como ayuda en el uso de editores gráficos. Con frecuencia se ve en los denominados kioskos informativos, cada vez más difundido en grandes empresas, bancos y en puntos de información urbana. Existen pantallas con toda su superficie sensible, y otras en las que sólo una parte de ella lo es.
DIGITALIZADOR Los digitalizadores o tabletas digitalizadoras o tabletas gráficas son unidades de entrada que permiten transferir directamente al ordenador gráficos, figuras, planos, mapas, o dibujos en general. Esto se hace pasando manualmente una pieza móvil por encima de la línea a digitalizar y automáticamente se transfieren las coordenadas (x,y) de los distintos puntos que forman la imagen. Es decir, con el digitalizador, partiendo de un dibujo se obtiene una representación digital de él, en el interior del ordenador. Un digitalizador consta de tres elementos: Tabla: Donde se ubica el dibujo a digitalizar (puede ser opaca o transparente). Mando: Con el que el usuario debe recorrer el dibujo. Suele tener forma de lápiz o cursor, y está unido al resto del sistema por un cable flexible. En el último caso el cursor tiene una ventana cerrada con una lupa, en cuyo interior se encuentra embebida una retícula en forma de cruz para señalar o apuntar con precisión el punto a digitalizar. El mando puede disponer de uno o varios pulsadores para controlar la modalidad de funcionamiento, forma de transmisión y selección de opciones del programa que gestiona la digitalización. Circuitos eléctrónicos: Controlan el funcionamiento de la unidad.
ESCANER Es un dispositivo parecido a una fotocopiadora digital, se emplea para introducir imagenes en un ordenador. Las imagenes que se desee capturar deben estar correctamente iluminadas para evitar brillo y tonos no deseados. Son dispositivos de entrada de datos de propósito especial que se emplean conjuntamente con programas para gráficos o de OCR y pantallas de alta resolución. La mayor parte capturan imagenes en color.
11 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Los programas que controlan el escaner suelen presentar la imagen capturada en la pantalla. Los colores no tienen porqué ser necesariamente los originales, es posible capturar las imagenes en blanco y negro o transformar los colores mediante algún algoritmo interno o modificar y mejorar la imagen. Sin embargo, y en general, los colores que produce un scanner suelen ser los correctos.
SISTEMAS DE RADIOFRECUENCIA (RFID) La tecnología de identificación por radio frecuencia (RFID) es un método electrónico de asignar un código de información a un producto, proceso o persona y usar estos datos para identificar o acceder a información adicional al respecto. Los sistemas de identificación por radio frecuencia consisten generalmente de dos componentes: El "transponder" que esta de alguna manera unido al elemento a ser identificado. El lector que detecta la identidad del "transponder". En algunos casos los transponders pueden ser programados para retransmitir un dato que representa su identidad. En otros casos tiene un funcionamiento discreto (ON/OFF) como los antirrobo que se ponen en las prendas de vestir de los comercios. El funcionamiento de los dispositivos de RF/ID se realiza a frecuencias entre los 50 KHz y 2.5 GHz y a baja potencia. Las unidades que funcionan a bajas frecuencias (50 KHz-14 MHz) son de bajo costo, corto alcance, y resistentes al "ruido" entre otras características. No se requiere de licencia para operar a este rango de frecuencia. Las unidades que operan a frecuencias mas altas (14 MHz-2.5 GHz), son el otro lado de la medalla. La tecnología del transponder se basa en la aplicación de un transmisor/receptor encapsulado en un "tag". El receptor se activa por medio de una señal enviada por el lector (sistema pasivo). El lector genera un campo magnético cuya señal de RF es captada por el receptor del "tag". Este a su vez activará al transmisor el cual enviará un mensaje codificado único, que es decodificado por el lector y almacenado en el ordenador. Esta tecnología encuentra aplicación en identificación de especies animales, vehículos en movimiento, bonos de transporte público, contenedores de basura, parihuelas (pallets), paquetes, control de máquinas herramientas, identificación de líneas de tuberías, control de inventario de balones (botellas) de gas, control de activos, identificación de animales, identificación de personas, identificación de vehículos robados, monitoreo de líneas de producción. control de acceso (por ej., en Murcia, en zonas peatonales, coches de
12 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
residentes), producción de carrocerías, identificación de partes, análisis de aguas, monitoreo de estacionamiento de vehículos, identificación de antiguedades, control de inventario, control de desechos tóxicos (y desechos en general), identificación de análisis de sangre.
Enlace recomendado: Telepeaje en las autopistas españolas La siguiente es una lista de algunos intentos de normalizar la tecnologia RF/ID en la industria: US Military X3T6 Committee American Railroad Asociation Automatic Identification Manufacturers (AIM), Small Animal Task Force International Airline Transport Association (IATA), Identificacion de equipaje ISO: RF/ID para animales ISO 11784: 1996 Code Structure ISO 11785: 1996 Technical Concept Una aplicación que se está desarrollando de forma experimental, es para la gestión de equipajes en aeropuertos. Se están usando "tags" de bajo costo, integrados en las etiquetas con códigos de barras que se adhieren a los equipajes. En un futuro próximo pueden reemplazar a los códigos de barras disponibles en los productos de consumo habitual, incluos puedne venir impresos en telas. Otra aplicación útil, es el sumnistro de combustible a vehículos en estaciones de servicio. Texas Instruments ha puesto he marcha unos "tags" con un código de identificación del cliente, enlazado con una tarjeta de pago. Milisegundos después de llegar al suministrador, el código se captura y autentifica, se activa el dispensador de combustible y se realiza la compra electrónicamente, sin necesidad de efectivo, cheques o tarjetas. En Murcia se utilizan para gestión de accesos, por parte de residentes, a calles peatonales y en los bonos de transporte en los autobuses urbanos. Todavía no hay un concenso en cuanto a la estandarización de la tecnología RFID. Cuando eso suceda se logrará un tag genérico y un lector que en circunstancias ideales podría adquirirse de distintos proveedores.
6.3 Dispositivos de salida
SINTETIZADOR DE VOZ Las unidades sintetizadoras de voz son dispositivos que dan los resultados de un programa emitiendo sonidos (fonemas o palabras) similares al habla humana. Estos periféricos suelen incluir un microprocesador, memoria con programas y datos, un conversor D/A (digital-analógico), un amplificador de audiofrecuencia y altavoz. La mayor parte de los sintetizadores de voz tienen memorizados digitalmente cada uno de los fonemas o palabras que son capaces de emitir. Los datos que recibe un sintetizador procedentes del ordenador corresponden a la identificación de los fonemas o palabras a emitir. Una vez que se analiza el dato, se activa una rutina encargada de generar el sonido correspondiente. Los sonidos resultan "metálicos". Por lo general, estos sistemas incluyen programas que enriquecen las posibilidades de los mismos, como generar frases o combinaciones de palabras, incluso hay sistemas que traducen cantidades.
13 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
VISUALIZADORES ("DISPLAYS") Los visualizadores son pequeñas unidades de salida que permiten al usuario leer una instrucción, un dato o un mensaje. Los caracteres se forman partiendo de estructuras en módulos, cada uno de los cuales sirve para visualizar un carácter. Cada módulo contiene una serie de segmentos, siendo los más habituales de siete. Un carácter concreto se visualiza activando determinados segmentos, dependiendo de la forma del símbolo. El visualizador es el elemento de salida típico de las calculadoras de bolsillo y de los relojes digitales.
TRAZADOR DE GRAFICOS Los trazadores de gráficos ("plotters") son dispositivos de salida que realizan dibujos sobre papel. Tienen gran importancia ya que con ellos se obtienen directamente del ordenador planos, mapas, dibujos, gráficos, esquemas e imagenes en general.
El funcionamiento de un plotter se controla desde programa. El usuario puede incluir en su programa instrucciones para realizar las representaciones que desee con sus datos. Los registradores gráficos se fundamentan en el desplazamiento relativo de un cabezal con el elemento de escritura, con respecto al papel. Dependiendo del tipo de gráfico se moverá sólo la cabeza, o la cabeza y el papel. Según la forma en que se realiza el dibujo, los registradores se pueden clasificar en tres tipos: De pluma. Electrostáticos. De inyección En los registradores de pluma el dibujo se realiza mediante un cabezal en el que se insertan los elementos de escritura: plumas, bolígrafos o rotuladores. Cada elemento de escritura puede subirse o bajarse hasta entrar en contacto con el papel, todo ello controlado por programa.
14 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Los registradores electrostáticos son impresoras electrostáticas. El sistema de tracción de papel es similar al de una impresora convencional. El dibujo se realiza línea a línea. El elemento de escritura está constituido por una serie de agujas cuya densidad puede variar. Por lo que respecta a los de inyección, trabajan de forma análoga a una impresora de tinta, que se describen en el apartado correspondiente.
MONITORES Hasta hace poco tiempo el tipo más habitual de pantalla era la que vemos en los ordenadores de sobremesa, la de tubo de rayos catódicos (TRC), aunque cada vez se difunden más las de cristal líquido, habituales en los equipos portátiles. La imagen de una pantalla TRC se forma al incidir un haz de electrones sobre la superficie interna de la pantalla que está recubierta de un material fosforescente, analogamente a como se forman las imagenes en un televisor. Un campo electromagnético desplaza el haz de electrones de izquierda a derecha y de arriba a abajo y, dependiendo de la intensidad con la que inciden los electrones en la pantalla así de brillante será cada punto generado. La imagen, para ser visualizada durante un determinado tiempo debe ser repetida o refrescada periódicamente (al menos 25 veces por segundo). Estas pantallas se denominan pantallas de barrido. Una imagen de pantalla no es continua sino que se forma por multitud de puntos de imagen ("pixel"). La pantalla está dividida en celdas (mediante una rejilla metálica o si es tecnología Trinitron mediante unos alambres), en cada una de las cuales puede ir un carácter. La celda está constituida por una matriz regular de puntos de imagen. Las pantallas se clasifican, según la capacidad o no de mostrar colores, en: Monocroma: Los colores usuales en una monocromática son el blanco, ámbar o verde. Color: El color de cada punto se obtiene con mezcla (RGB) de los colores rojo, verde y azul, pudiéndose programar la intensidad de cada color básico. Según su capacidad de representación se pueden clasificar en: De caracteres: Sólo admiten caracteres. Gráficas: Permiten trazados de líneas y curvas continuas. En las pantallas de caracteres, la memoria de imagen (que es específica o una parte de la memoria RAM) almacena la información correspondiente a cada celda (códigos de caracteres y sus atributos). En la memoria ROM están los patrones de los caracteres, representados como una matriz de puntos. Se denomina generador de caracteres a esta memoria de sólo lectura. En las pantallas gráficas el usuario tiene acceso al punto de imagen, pudiendo representar en ellas imagenes configuradas no sólo con las formas de caracteres incluidos en la ROM. En este caso, la memoria de imagen contiene la información correspondiente a cada punto de imagen (intensidad, color y otros posibles atributos), en vez de la correspondiente a cada celda. Los dibujos, a pesar de estar formados por puntos de imagen presentan una apariencia de líneas continuas. La calidad de la pantalla gráfica depende de la densidad de puntos de imagen. Los principales parámetros que caracterizan a una pantalla son: Tamaño: Se da en función de la longitud de la diagonal principal, y se tiene la mala costumbre de darla en pulgadas, que no es una unidad del Sistema Internacional de Unidades (SI). Las más
15 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
habituales son las de 431.8 mm (17"), aunque en muchos países se están utilizando superiores. Número de celdas o caracteres: Lo usual es una representación de 24 filas por 80 columnas de caracteres. Resolución: Es el número de puntos de imagen en pantalla. No depende del tamaño de la pantalla. Usualmente se consideran básicamente tres tipos de resolución (hay resoluciones superiores): CGA 640*200 puntos VGA 640*480 puntos SVGA 1024*768 puntos
En las pantallas de TRC se han de considerar unas normas de seguridad, dado que estos dispositivos emiten radiaciones de diversos tipos. La radiación más conocida (por sus efectos perjudiciales para la salud) es la de rayos X, problema que está solucionado, pues todos los monitores llevan cantidad suficiente de plomo en el cristal, como para reternerla en su mayor parte. Otro tipo de radiación es la producida por campos eléctromagnéticos a muy bajas frecuencias y a extremadamente bajas frecuencias (ELF y VLF), según algunas investigaciones (no hay evidencias claras), susceptibles de producir cáncer. Para evitar este tipo de radiaciones los monitores han de ser homologados MPR, normativa sueca muy restrictiva, hay otra aún más restrictiva, propuesta por los sindicatos suecos, es la conocida como TCO, (disponible, por ejemplo en Philips). En resumen, cuando se adquiera un monitor se ha de considerar que como mínimo lleve la homologación alemana (TÜV) o sus equivalentes en EE.UU. (UL) o para Canadá (CSA), aparte si se quiere de baja radiación ha de llevar la MPR II o la TCO. Cualquier monitor que no esté homologado es un peligro para el usuario. Desde el uno de enero de 1996, es obligatoria en los países de la Unión Europea, la certificación CE, que implica unos mínimos de seguridad, aunque no es una marca de calidad, ni implica la homologación MPR II. Una solución es poner filtros para la pantalla, pero si se quiere uno realmente bueno y que ofrezca la misma seguridad que un monitor de baja radiación su precio es tan elevado, que merece la pena cambiar de monitor. Las pantallas de otras tecnologías como plasma, cristal líquido y cristal líquido orgánico, son mucho más seguras pues la radiación que emiten es mínima. La tecnología de plasma fue introducida a principio de los años 1960 por la empresa japonesa Fujitsu, aunque hasta hace muy poco tiempo no se han logrado con tecnologías asequibles de fabricar y de bajo consumo. Una pantalla de plasma tiene un fundamento análogo a los tubos fluorescentes, es una pantalla plana con muchos alvéolos (uno por pixel) cubierto por un elemento químico del grupo de las tierras raras, para que la luz emitida por el plasma, que es en el rango ultravioleta se reemita en el espectro visible. En base a alvéolos de los tres colores fundamentales (rojo, verde y azul) y mediante la variación rápida del tiempo de iluminación, se logra crear tonos intermedios, de forma análoga al cine digital- Aunque se anucia muchos en televisores, esta tecnología noe s rentable, son de precio elevado, consumen mucha electricidad y la vida es limitada, pueden deteriorarse alguno alvéolos y por lo tanto perdiendo calidad de imagen Una nueva tecnología que puede reemplazar a los monitores TRC es la denominada "Flat Panel Display" (FPD). Esencialmente estas pantallas son híbridas entre las convencionales de rayos catódicos y las pantallas FED ("Field Emission Display"). Usan películas de diamante/carbono, resultando unas pantallas planas de alta calidad (más brillo y resoluciones que las actuales) y que se pueden fabricar en las mismas
16 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
plantas que actualmente producen TRC. Lo más novedoso son las pantallas de ordenador táctiles para ciegos, desarrolladas en la universidad de Málaga. Una nueva tecnología ha dado lugar a pantallas flexibles, usan tecnología OLED, qu epodría competir con las de LCD en el negocio multimillonario de los monitores planos. La tecnología OLED no necesita ser retroiluminada, así que que consumen menos y son más delgados que los LCDs.Sin embargo, los analistas estiman que pasarán 10 años antes de que las pantallas OLED tengan tamaño como para competir con LCDs. Ahora mismo, las pantallas OLED se utilizan en teléfonos móviles y en maquinillas de afeitar eléctricas.
Las pantallas flexibles OLED están atrayendo la atención por la posibilidad de ser enrrolladas y transportadas. En un nivel más práctico, también son interesantes para las empresas porque la aplicación de la tecnología OLED a un fondo plástico es un sistema de producción más barato. La empresa holandesa Philips ha presentado pantallas planas enrrolables, con muchas posibles aplicaciones, como mapas electrónicos y periódicos electrónicos. Constan de dos partes, el frontal visual, un biestable electroforético, fabricado por E ink en Inglaterra y la base electrónica de polímero desarrollada por Philips. Sus dimensiones son, 100 micrometros de espesor y un radio de enrollamiento de 7.5 mm, pudiendo enrollarse hasta 10000 veces. El principal problema en los dispositivos portátiles es la alimentación eléctrica, NEC Corporation (Japón) ha presentado baterías flexibles ultradelgadas, recargables en tan sólo 30 segundos. Están fabricadas con un cátodo de plástico, llamado "organic radical polymer (ORB)"
Enlaces recomendados: Nuevas tecnologías de televisión, plasma frente LCD Monitores TFT, puntos que marcan la diferencia
MICROFILM La salida de datos en microfilm es una técnica de representar los datos de salida. Las técnicas COM se usan en los bancos para llevar los registros de los balances diarios de cuentas. Esto supone un gran ahorro de papel, al evitar las salidas por impresora, al tiempo que reduce problemas de almacenamiento. Cada "página" se representa en una pantalla y se fotografía mediante una cámara especial. La imagen de la página mide alrededor de 1.5 cm2. La película se corta en microfichas del tamaño de una postal conteniendo cada una cien páginas. Se emplea un lector de microfichas para proyectar la imagen aumentada de una página cuando es necesario leerla.
IMPRESORAS Las impresoras son periféricos que escriben la información de salida sobre papel. Su comportamiento inicialmente era muy similar al de las máquinas de escribir, pero hoy día son mucho más sofisticadas, incluso algunas son fotocopiadoras o fax, conectadas con el ordenador. Junto a las pantallas, los dispositivos más utilizados para poder ver en forma inteligible los resultados de un programa de 17 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
ordenador. Las impresoras tienen dos partes diferenciadas: la parte mecánica (alimentación y arrastre) y la parte electrónica. Las impresoras tradicionalmente utilizaban papel continuo, en cuyos márgenes existen unos taladros. En este caso, el arrastre se efectúa por un tractor que dispone de unos dientes metálicos que encajan en los taladros laterales del papel. Actualmente la mayoría no necesitan papel continuo, efectuándose el arrastre por fricción o presión, como en el caso de las máquinas de escribir o en las fotocopiadoras convencionales. Clasificación y tipos de impresoras Existen diversos criterios para clasificar las impresoras. Calidad de impresión: Considera la calidad de presentación y de contraste de los caracteres impresos. Las impresoras se clasifican en : Normales: Como las impresoras de línea, de rueda y térmicas. Semicalidad. Como algunas impresoras matriciales. Calidad: Como las de margarita (obsoletas), tinta y láser. Fundamento del sistema de impresión Hay impresoras que realizan la impresión por impacto de martillos o piezas móviles mecánicas, y otras sin impacto mecánico. El fundamento de las impresoras por impacto es similar al de las máquinas de escribir. Sobre la superficie de la línea a imprimir en el papel se desliza una cinta entintada, y delante de ésta pasa una pieza metálica donde está moldeado el juego de tipos de impresión. Cuando pasa el tipo a grabar sobre su posición en el papel, se dispara un martillo que golpea la cinta contra el papel, quedando impreso en tinta sobre el papel el carácter en cuestión. En otras impresoras de impacto cada carácter se crea por el disparo de ciertas agujas metálicas que conforman el carácter con un conjunto de puntos. Las impresoras de impacto son muy ruidosas y tradicionalmente han sido las más utilizadas. Entre ellas se encuentran las impresoras de rueda, bola, margarita, matriciales, cilindro y cadena. Las impresoras sin impacto forman los caracteres sin necesidad de golpes y utilizan otros principios físicos para transferir las imagenes al papel. Son impresoras sin impacto las térmicas, de inyección de tinta y las láser. Forma de imprimir los caracteres En cuanto a este aspecto, las impresoras se pueden clasificar en: De caracteres De líneas De páginas Impresoras de caracteres Realizan la impresión por medio de un cabezal que va escribiendo la línea carácter a carácter. El cabezal se desplaza a lo largo de la línea que se está imprimiendo, sólo de izquierda a derecha
18 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
(impresoras unidireccionales) o bien, para conseguir mayor velocidad, de izquierda a derecha y de derecha a izquierda sucesivamente (impresoras bidireccionales). Impresoras de líneas En estas impresoras se imprimen simultáneamente todos o varios de los caracteres correspondientes a una línea de impresión. Impresoras de página Aquí se incluyen un grupo de impresoras que actúan de forma muy similar a las máquinas fotocopiadoras. Se caracterizan por contener un tambor rotativo donde se forma con un polvillo especial (tóner) la imagen de la página a imprimir. Esta imagen, por contacto y un proceso de fijación se transfiere al papel. Descripción de distintos tipos de impresoras Impresoras de rueda Son impresoras de impacto y de caracteres. El cabezal de impresión está constituido por una rueda metálica que contiene en su parte exterior los moldes de los distintos tipos. La rueda se desplaza perpendicularmente al papel a lo largo de un eje o varilla metálica paralela al rodillo donde se asienta el papel. La rueda está continuamente girando y cuando el tipo a escribir pasa delante de la cinta entintada se dispara, por la parte posterior al papel, un martillo que hace que el carácter se imprima en tinta sobre el papel. Una vez escrito el carácter, la rueda se desplaza a lo largo de la varilla, hacia su derecha, o pasa a la línea siguiente. Estas impresoras están en desuso. Impresoras de margarita (ya no se fabrican) Fueron impresoras de buena calidad de impresión, sin embargo eran lentas. Los caracteres se encuentran modelados en la parte más ancha de los sectores (pétalos) de una rueda en forma de margarita. La margarita forma parte del cabezal de impresión. Un motor posiciona la hoja de margarita del carácter a imprimir frente a la cinta entintada, golpeando un martillo al pétalo contra la cinta, escribiéndose el carácter. El juego de caracteres se puede cambiar sin más que sustituir la margarita. Eran análogas a las máquinas de escribir. Impresoras matriciales o de agujas También denominadas de matriz de puntos. Los caracteres se forman por medio de una matriz de agujas que golpea la cinta entintada, trasfiriéndose al papel los puntos correspondientes a las agujas disparadas. Los caracteres son punteados, siendo su calidad muy inferior a los continuos producidos por una impresora láser. No obstante, algunos modelos de impresoras matriciales, tienen la posibilidad de realizar escritos en calidad de impresión, para ello, los caracteres se reescriben con los puntos ligeramente desplazados, solapándose los de la segunda impresión con los de la primera, dando una mayor apariencia de continuidad. Impresoras de tambor (ya no se fabrican) De estas impresoras existieron dos dos tipos, de tambor compacto y de ruedas. Ambos tipos son impresoras de líneas y de impacto. La impresora de tambor compacto contiene una pieza metálica
19 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
cilíndrica cuya longitud coincide con el ancho del papel. En la superficie externa del cilindro o tambor se encuentran modelados en circunferencias los juegos de caracteres, estando éstos repetidos tantas veces como posiciones de impresión de una línea. El tambor está constantemente girando, y cuando se posiciona una generatriz correspondiente a una determinada letra, la "A" por ejemplo, se imprimen simultáneamente todas las "A" de la línea. Las impresoras de tambor de ruedas son similares, sólo que cada circunferencia puede girar independientemente. Todos los caracteres de la línea de impresión se escriben a la vez, posicionándose previamente cada tipo en su posición correcta. En lugar de una cinta entintada, estas impresoras suelen llevar una pieza de tela entintada del ancho del papel. Impresoras de barras Los caracteres se encuentran moldeados sobre una barra de acero que se desplaza de izquierda a derecha a gran velocidad, oscilando delante de la línea a escribir. El juego de caracteres está repetido varias veces. Cuando los moldes de los caracteres a imprimir se posicionan delante de las posiciones en que han de quedar en el papel se disparan por detrás de éste unos martillos, imprimiéndose de esta forma la línea. El número de martillos coincide con el número de caracteres por línea. Impresoras de cadena El fundamento es exactamente igual al de las impresoras de barra. Ahora los caracteres se encuentran grabados en los eslabones de una cadena. La cadena se encuentra cerrada y girando constantemente a gran velocidad frente a la cinta entintada. Impresoras térmicas Son similares a las impresoras de agujas. El calor se transfiere desde el cabezal por una matriz de resistencias en las que al pasar una corriente eléctrica se calientan, formándose los puntos en el papel. Son habituales en lso acjeros bancarios y tikets de compra. Estas impresoras pueden ser: De caracteres: Las líneas se imprimen con un cabezal móvil. De líneas: Contienen tantas cabezas como caracteres a imprimir por línea. Son más rápidos. Impresoras de inyección de tinta El descubrimiento de esta tecnología fue fruto del azar. Al acercar accidentalmente el soldador, por parte de un técnico, a un minúsculo cilindro lleno de tinta, salió una gota de tinta proyectada, naciendo la inyección de tinta por proceso térmico. La primera patente referente a este tipo de impresión data del año 1951, aunque hasta el año 1983, en el que Epson lanzó la SQ2000, no fueron lo suficientemente fiables y baratas para el gran público. Actualmente hay varias tecnologías, aunque son muy pocos los fabricantes a nivel mundial que las producen.
El fundamento físico consiste en emitir un chorro de gotas de tinta ionizadas que en su recorrido es desviado por unos electrodos según la carga eléctrica de las gotas. El carácter se forma con la tinta que incide en el papel. Cuando no se debe escribir, las gotas de tinta se desvían hacia un depósito de retorno, si es de flujo contínuo, mientras que las que son bajo demanda, todas las usadas con los PC`s, la tinta sólo circula cuando se necesita. Los caracteres se forman según una matriz de puntos. Estas impresoras son bidireccionales y hay modelos que imprimen en distintos colores.
20 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Un ejemplo de aplicación de la impresión con tinta es el marcado de lote y fecha de caducidad en botellas de productos alimenticios. Este proceso se efectúa con el sistema de impresión mediante circulación contínua Los equipo de marcado de botellas sufren una degradación progresiva en la tinta que contienen, debida al proceso tecnológico de funcionamiento. el sistema de circulación contínua de tinta provoca que una partícula de tinta pase por el cabezal impresor gran cantidad de veces antes de ser proyectada. La tinta al sufrir presión, entrar en contacto con el aire y sufrir la carga de las placas electrostáticas pierde propiedades eléctricas, se evapora parte del disolvente y sufre contaminación debida al polvo y humedad del aire. Este sistema incorpora un viscosímetro que controla la cantidad de disolvente que la tinta pierde al entrar en contacto con el aire y la compensa añadiendo aditivo, que además de disolvente añade sales y otros elementos para recuperar la tinta. La contaminación que la tinta sufre con el contacto del aire, provoca peor calidad de impresión, llegando un momento en el que hay que cambiar la tinta. El equipo incorpora un depósito central de cambio fácil e instantáneo que avisa con 24 horas de antelación al momento de sustitución. El depósito central incorpora el filtro principal de tinta, con lo que se cambia sin intervención cada vez que se repone el depósito. Impresoras electrostáticas Las impresoras electrostáticas utilizan un papel especial eléctricamente conductor (de color gris metálico). La forma de los caracteres se produce por medio de cargas eléctricas que se fijan en el papel por medio de una hilera de plumillas que abarcan el ancho del papel. Posteriormente a estar formada eléctricamente la línea, se la hace pasar, avanzando el papel, por un depósito donde se la pulveriza con un líquido que contiene suspendidas partículas de tóner (polvo de carbón). Las partículas son atraídas en los puntos que conforman el carácter. Estas impresoras de línea son muy rápidas. Impresoras láser Estas impresoras tienen una gran importancia por su elevada velocidad, calidad de impresión, relativo bajo precio y poder utilizar papel normal. Su fundamento es muy parecido al de las máquinas de fotocopiar. La página a imprimir se transfiere al papel por contacto, desde un tambor que contiene la imagen impregnada en tóner.
21 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
La impresión se realiza mediante radiación láser, dirigida sobre el tambor cuya superficie tiene propiedades electrostáticas (se trata de un material fotoconductor, tal que si la luz incide sobre su superficie la carga eléctrica de esa superficie cambia). Si es en colores, suelen llevar tres tóneres y tres tambores.
Impresoras LED Son análogas a las laser, con la única diferencia que la imagen se genera desde una hilera de diodos, en vez de un laser. Al ser un dispositivo fijo, son más compactas y baratas, aunque la calidad es peor. Algunas de las que se anuncian como laser a precio barato, son de esta tecnología, por ejemplo Fujitsu y OKI. Enlace recomendado: Tecnologías de impresión en color
PARAMETROS QUE CARACTERIZAN A UNA IMPRESORA Velocidad de escritura Normalmente la velocidad de impresión se da en las siguientes unidades: Impresoras de caracteres: Caracteres por segundo (cps). Impresoras de líneas: Líneas por minuto (lpm). Impresoras de páginas: Páginas por minuto (ppm). Caracteres por línea Es el número máximo de caracteres que se pueden escribir en una línea. Ancho del papel o longitud del carro Se suele dar en pulgadas. Densidad de líneas Se expresa normalmente en líneas por pulgada e indica el espaciado entre líneas. Tipos de letras Una misma impresora puede escribir con distintos tipos de letras. Las de agujas usualmente pueden escribir en tamaño normal, comprimido y elongado. El cambio del tipo de letra se realiza por
22 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
programa. Color Es la posibilidad de imprimir en colores. Usualmente los colores se forman a partir de tres básicos (como en los monitores en color), pero a partir del cian, magenta y amarillo. Resolución Una gran parte de impresoras forman los caracteres por unión de puntos. La resolución se suele dar en número de puntos por unidad de superficie.
6.4 Dispositivos de memoria secundaria Una característica que distingue un soporte de almacenamiento de los de entrada o de salida (aparte de la posibilidad de realizar operaciones de entrada/salida indistintamente) es que en el soporte de almacenamiento los datos son legibles sólo por la máquina y no lo son directamente por el hombre. Mientras los dispositivos de memoria permiten un acceso inmediato del programa a la información que contienen, los de almacenamiento guardan la información en un soporte que no permite el acceso inmediato desde el programa y se requiere un paso previo de lectura (o entrada) que recupera dicha información desde el almacenamiento y lo lleva a la memoria. Si la memoria de los ordenadores tuviera gran capacidad y no fuera volátil no serían precisos sistemas de almacenamientos externos. Si se han inventado distintos tipos de dispositivos de almacenamiento de los datos es por la imposibilidad de disponer de memoria con capacidad suficiente. Sacrificando la inmediatez del acceso se obtienen capacidades muchísimo mayores a precios muy inferiores y con tiempos de respuesta aceptables para cada tipo de aplicación. Los soportes magnéticos son el medio más usual de almacenar la información. Entre la variedad existente, destacan: cinta, disco y disquete. Las principales características de estos soportes son: Reutilizabilidad (salvo en los primitivos). Elevada capacidad de almacenamiento. No volátiles. Más económicos que la memoria central (RAM). Dentro de los dispositivos de almacenamiento secundario hay que tener en cuenta en el momento de su elección las siguientes características: Tiempo de acceso a los datos. Velocidad de transferencia de los datos. Capacidad total de almacenamiento. Tipo de acceso del dispositivo (secuencial o directo). Costo/bit del dispositivo. Densidad de almacenamiento. Recientemente se han desarrollado soportes de almacenamiento de tecnología óptica que tienen mayores densidades de grabación que las magnéticas convencionales.
23 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Se distinguen los siguientes tipos de dispositivos de almacenamiento: DISCOS MAGNETICOS Los discos magnéticos son los sistemas de almacenamiento que en la actualidad tienen más importancia, ya que constituyen el principal soporte utilizado como memoria masiva. A pesar de que son más costosos que las cintas, son de acceso directo, y con ellos se consiguen tiempos medios de acceso mucho menores que con las cintas. Un disco está constituido por una superficie metálica o plástica recubierta por una capa de una sustancia magnética. Los datos se almacenan mediante pequeños cambios en la imanación, en uno u otro sentido. El plato o disco puede ser de plástico flexible o rígido, en el primer caso tenemos disquetes o discos flexibles (en inglés floppy disk o diskettes) y en el segundo caso discos rígidos o duros. Tanto en los discos rígidos como en los flexibles la información se graba en circunferencias concéntricas, no percibiéndose visualmente. Cada una de estas circunferencias constituye una pista. Así mismo el disco se considera dividido en arcos iguales denominados sectores, de esta forma cada pista está compuesta de sectores. Los sectores de las pistas más exteriores son de mayor longitud que las interiores, ahora bien el número de bits grabados en cada sector es siempre el mismo, con lo que la densidad de grabación será mayor en las pistas interiores que en las exteriores. Los sectores comienzan con una cabecera de identificación, indicando su dirección completa. Un cilindro es un conjunto de pistas, una en cada disco, que son accesibles simultáneamente por el conjunto de cabezas. La lectura y escritura en la superficie del disco se hace mediante una cabeza. Esta suele ser de tipo cerámico, aunque inicialmente eran metálicas. La cabeza, en las unidades de cabezas móviles, está insertada en un extremo de un brazo mecánico, que se desplaza hacia el centro o hacia la parte externa del disco, bajo el control de los circuitos electrónicos del periférico. El direccionamiento para leer o grabar un sector del disco se efectúa dando al periférico: número de unidad número de superficie número de pista número del sector El brazo sitúa rápidamente la cabeza encima de la pista correspondiente y espera a que el sector en cuestión se posicione bajo la cabeza. En el acceso, por tanto, hay que considerar dos tiempos: Tiempo de búsqueda de la pista (tb) Tiempo de espera al sector (te)
24 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Luego el tiempo de acceso será ta = tb + te. En las unidades de cabezas fijas, hay una cabeza por pista y por tanto ta = te. La unidad de transferencia de datos desde y hacia el disco es el sector. Los disquetes suelen tener una o varias referencias físicas (orificios y muescas) para poder identificar los sectores y pistas. Esto se denomina sectorización hardware o física. En los disquetes de 133 mm sólo existe un orificio de alineamiento y referencia. Este orificio, cuando el disco gira, es detectado por un conjunto fotodiodo/fototransistor utilizándose como punto de referencia para el acceso a las distintas pistas y sectores. Las unidades de discos rígidos suelen tener unas muescas que identifican los límites de cada sector y el primer sector de la pista. Antes de utilizar un disco es necesario efectuar en él unas grabaciones denominadas "dar formato" al disco. Al formatear un disco se definen por software las pistas y sectores, además se inicializa un directorio para la información sobre el contenido del disco (es como un índice). El formateo efectúa una sectorización que detecta y elimina para posteriores grabaciones, las zonas del disco deterioradas. El formateo incluye tablas con los nombres de los ficheros grabados en él, fecha y hora en que se crearon o actualizaron por última vez, espacio que ocupan y direcciones físicas donde se encuentran. Clasificación y tipos de discos Básicamente existen cinco tipos de unidades de discos: Discos de cabezas fijas Paquetes de discos Discos cartucho Discos Winchester (disco duro) Disquetes y extraibles A continuación se describen brevemente cada uno de ellos: Discos de cabezas fijas Son discos que tienen una cabeza individual de lectura/escritura para cada pista, con ello se consigue un tiempo de acceso relativamente bajo, ya que este tiempo viene fijado únicamente por la velocidad de giro del disco. Existen unidades con un sólo plato o con varios. Paquetes de discos Son unidades compuestas por varios platos que giran solidariamente alrededor de un eje común. Las cabezas le lectura/escritura son móviles, existiendo una por superficie. Estas se desplazan simultáneamente a gran velocidad radialmente buscando la pista en que se encuentra el sector que se debe escribir o leer. Todas las cabezas se mueven al unísono, y cada cabeza lee/graba en el sector correspondiente a su superficie, trasfiriéndose la información en paralelo. En un instante dado, por tanto, se leen/graban las mismas pistas de las distintas superficies. Cada grupo de estas pistas se denomina cilindro de pistas, existiendo tantos cilindros como pistas. Usualmente las superficies externas no se utilizan para grabar, así una unidad con seis platos puede utilizar sólo 10 superficies. Existen unidades de paquetes de discos en que éstos son intercambiables.
25 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Discos-cartuchos Consiste en único plato con dos superficies de grabación. Usualmente estas unidades son duales, es decir, contienen dos subsistemas, uno de ellos con un plato fijo (donde se graba, por ejemplo, el sistema operativo) y el otro con un plato intercambiable. Para desmontar el disco intercambiable es necesario esperar a que las cabezas se retraigan y el disco se pare. Discos Winchester (disco duro) Es un desarrollo más reciente. Es un disco pequeño pero de elevada precisión y con gran capacidad de almacenamiento. Está permanentemente montado en su unidad. Los platos de estas unidades están herméticamente cerrados y son fijos. El hecho de que estén cerrados es por reducir los efectos de la suciedad ambiental. No es necesario el retraimiento de las cabezas en reposo, existiendo una pista específica de "aterrizaje". Las cabezas van más próximas a la superficie que en las anteriores unidades, lográndose grandes densidades de grabación. Por tanto, en pequeñas superficies se pueden almacenar mucha información. Son los habituales en los ordenadores personales. El vídeo mostrado a continuación visualiza un disco duro destapado trabajando.
Actualmente hay varios tipos de sistemas de almacenamiento orientado hacia las empresas con grandes volúmenes de información, principalmente debido a las redes de ordenadores, SAN (storage area network), DAS (disk attached storage) y NAS (network attached storage) son las tres tecnologías que se están implantando, estando su precio al alcance de las pequeñas y medianas empresas (PYMES).
Nueva tecnología de cabezas HAMR Actualmente el disco duro de menor capacidad que se puede conseguir para un ordenador personal es de 100 GO, esta gran mejora de capacidad se debe al gran desarrollo de las tenologías en las cabezas lectoras/grabadoras. Recientemente, Seagate una empresa muy conocida en el campo de los discos
26 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
duros, ha presentado una nueva tecnología para grabación de datos en soportes magnéticos, "grabación magnética asistida por el calor", cuya sigla en inglés es HAMR, que posibilitará densidades del orden de decenas de terabit por centímetro cuadrado. Por ejemplo, en el disco duro de un ordenador portátil cabrá todo el contenido de la biblioteca del Congreso de EE.UU. Con las tecnologías actuales se ha alcanzado el límite físico y pronto el tamaño del bit almacenado en la superficie magnética será tan pequeño que se hará inestable debido al fenómeno físico del superparamagnetismo. Los soportes magnéticos más estables (en base a hierro y platino autoordenado) no son aptos para las actuales cabezas, por lo que esta nueva tecnología, en base a un láser, calienta la zona donde se va a grabar un bit de información, al enfriarse posteriormente la información permanece grabada, siendo legible por las cabezas actuales.
Disquettes Los disquetes son pequeños discos intercambiables, cuyos platos son flexibles, ya que están onstituidos por un material plástico. Los de 133 mm son también denominados minidisquetes, actualmente los más empleados son los de 90 mm, denominados microdisquetes. La superficie se encuentra protegida por una funda recubierta internamente de un material que facilita el deslizamiento rotacional del plato. En la funda hay una abertura radial que abarca a todas las pistas; a través de esta ventana las cabezas de la unidad de disquetes acceden a la información. La grabación, dependiendo del tipo de unidad, puede efectuarse en una única superficie, es decir, en una sola de la caras, o en doble cara. También se puede efectuar en densidad normal (simple densidad) o doble densidad. Los disquetes hasta hace muy poco tiempo eran un elemento excelente para actuar como memoria masiva auxiliar de microordenadors personales.
PARAMETROS QUE CARACTERIZAN EL COMPORTAMIENTO DE UN DISCO
Los principales parámetros que caracterizan el funcionamiento de un disco son: Tipo de disco: Indica la tecnología y estructura física del mismo. Los tipos básicos son: discos de cabezas fijas, paquetes de discos, cartuchos de discos, discos Winchester y disquetes. Capacidad: Indica el contenido en octetos que es capaz de almacenar. La capacidad de almacenamiento depende del tamaño de la superficie de grabación, número de superficies y tipo de grabación (simple o doble densidad). Tamaño: Indica el diámetro del plato donde se encuentran las superficies imanables. Tiempo medio de acceso: Es el tiempo medio que la cabeza lectora/grabadora tarda en acceder a un sector determinado. Velocidad de transferencia: Indica el número de octetos que se transfieren por unidad de tiempo,
27 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
entre la ordenador central y el dispositivo o viceversa. Velocidad de rotación: Es el número de revoluciones por minuto a que gira el plato que contiene la superficie imanable. Número de superficies: Es el número de superficies grabables. Número de cabezas: Es el número de cabezas lectoras/grabadoras de que consta la unidad. Número de pistas: Es el número de circunferencias grabables. Se suele indicar el número de pistas por superficie. Número de sectores por pistas: Es el número de bloques o registros físicos que hay en una pista. Número de palabras por sector: Es el número de palabras que pueden grabarse en un sector. Bits por palabra: Indica el número de bits que utilizan las palabras grabadas. Densidad máxima: Indica la máxima densidad de grabación en las pistas, es decir, la densidad de grabación en la pista más interiores. Este parámetro se indica en bits/pulgada o bits/cm. Código de grabación: Es el código usado para la grabación magnética de la información. Desde el punto de vista práctico interesa conocer si la grabación se efectúa en simple o doble densidad.
CINTAS MAGNETICAS Es el medio más barato para almacenar grandes cantidades de datos. Las cintas están formadas por una sustancia plástica recubierta de material imanable, por su aspecto, recuerdan a las empleadas para la reproducción del sonido. Las cintas magnéticas se basan en los mismos principios que los discos magnéticos. La lectura y grabación se efectúa haciendo pasar la cinta por unas cabezas lectoras/grabadoras. Usualmente se lee simultáneamente el contenido de varias pistas requiriéndose un elemento lector/grabador por pista. Por lo general el conjunto de bits que se leen simultáneamente corresponde a un carácter con un bit adicional de paridad. La grabación de una cinta se hace por bloques de caracteres de una longitud preestablecida. En el caso de las cintas, debido a la inercia, entre dos bloques consecutivos se desperdicia un determinado espacio que se denomina interbloque. Cada bloque contiene, además de los datos del usuario, líneas adicionales redundantes para poder detectar automáticamente posibles errores de grabación y secuencias de caracteres y espacios identificadores de los límites del bloque. Los extremos inicial y final de la cinta contienen unas marcas metálicas pegadas denominadas BOT (comienzo de la cinta) y EOT (fin de la cinta) para detección automática del inicio y fin de la cinta. La capacidad de una cinta depende fundamentalmente de su longitud, densidad de grabación, longitud de bloque y formato de grabación. Las cintas magnéticas son un soporte de información barato y de gran capacidad, pero son muy lentas (acceso secuencial). CD-ROM La información se almacena en un disco compacto o "compact disc" (CD) en forma digital, de modo semejante a los de audio. Sobre una capa de plástico se graban, con un haz de láser, los agujeros o marcas que posteriormente detectará la unidad lectora (los CD creados de forma masiva se hacen a partir de un molde con los datos de un disco maestro). La lectura se produce, y en su caso grabación, mediante técnicas ópticas, con un láser de baja potencia, que garantiza que no va a sufrir ningún daño. Gracias a la
28 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
precisión de esta técnica, es posible disponer grandes cantidades de información en un espacio muy reducido. Cada bit en estos discos de llama pit. Un inconveniente es que los primeros de estos dispositivos, una vez grabados no podían ser reutilizados para escribir. Por lo que respecta a los CD-R, así denominados los grabables, se comercializan con precios muy asequibles, existiendo también regrabables, CD-RW. El fundamento de estos soportes es una sustancia que cambia de fase al ser irradiada con un laser más potente que el de los lectores de CD normales, apareciendo entonces para la lectura como si hubiera pits análogamente a los CD generados a partir de un master. Actualmente en España estos soportes han de incluir un canon para la SGAE, que incluso en algunos casos supera al valor del soporte en sí. Existe otro tipo de discos ópticos grabables por el usuario, son los conocidos como WORM, se graban una vez pero se pueden leer múltiples veces. Una evolución de estos son los conocidos como discos magnetoóptcos, compatibles con los anteriores pero que admiten borrar la información lo cual permite la reescritura. Las capacidades son del orden de gigaoctetos. La gran ventaja de los discos ópticos es la permanencia de la información durante tiempos muy superiores a la grabada en soportes magnéticos, sin embargo son más lentos, lo cual los hace poco adecuados bajo determinadas circunstancias. Como ejemplo de la complejidad que suponen desde el punto de vista matemático estos sistemas ópticos, se muestra el sistema de corrección/detección de errores/borrones en un CD. El sistema de almacenamiento y reproducción del CD fue diseñado, por Philips en junio de 1980. La señal analógica que transmite el sonido es muestreada 44100 veces por segundo, y a cada muestra, se le asigna un valor numérico (amplitud de la señal) entre 0 y 216 - 1. Este valor da un vector binario de 16 componentes, que se escribe como dos elementos de GF(28). Teniendo en cuenta que transmitiremos señal estéreo, cada muestra estará formada por cuatro elementos de GF(28), dos para el canal derecho y dos para el canal izquierdo. La información es grabada después de haberla codificado concatenando dos códigos RS.sobre GF(28), con intercalado. La longitud de estos códigos es n =28 - 1 = 255, su dimensión es k = n - d + 1 = 251 y su distancia mínima es d = 5. En el canal interno de la concatenación no se usa el código RS(255, d = 5), sino el código recortado hasta una longitud de n = 28. Por abuso de lenguaje diremos que utilizamos un código RS(28,d = 5), sobre GF(28). En el canal externo de la concatenación se usa el mismo código RS, recortado hasta longitud n = 32; hablaremos del código RS(32, d = 5). En el esquema de la figura se recogen los rasgos más característicos del proceso de concatenación. La grabación en disco se hace en una pista espiral-marcando, físicamente, áreas; planas y áreas hundidas. Cada vez que ocurre una transición de una área plana a una área hundida, o viceversa, se lee un "1" y en caso contrario se leen "0", según la longitud de la zona recorrida sin cambiar de área. Por ejemplo, en la figura observamos la secuencia 00 1000 1000000 100 10000 1000, grabada en el disco.
29 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
La transición entre áreas viene dada por los cambios de intensidad de la luz reflejada por el disco, proveniente de una fuente láser. Por razones técnicas, en cada área debe haber un mínimo de dos ceros y un máximo de diez. En principio, los bits que salen de la última matriz de intercalado del diagrama anterior no cumplen esta propiedad y, por tanto, antes de proceder a la grabación definitiva hay que arreglar la situación. Esto se consigue con la técnica EFM, que transforma cada símbolo de GF(28) en una secuencia de 17 bits con las propiedades requeridas. Además, a cada trama de 544 bits se le añaden 27 bits de sincronización y de direccionamiento, que permitirán la búsqueda rápida de la información. En total, cada seis muestras iniciales (24 elementos de GF(28) = 192 bits) se transforman en 571 bits grabados en el CD. La tasa de transmisión de la información es de 192/571 aproximada a 1/3. (La tasa de transmisión de la información, considerando únicamente los códigos, vendría dada por k = (28/32) (24/28) = 3/4). Cada segundo de música necesita 44100 muestras, y cada una 571/6 bits. En definitiva, 4.2 Mb/s. Cada disco tiene una capacidad de unos 20000 Mb que, traducido a tiempo, representa unos 80 minutos de audición. Funcionamiento de los dos códigos concatenados. Proceso CIRC (Cross Interleaved Reed-Solomon Code). El código RS(32,28) tiene una distancia mínima d = 5, puede corregir 2 errores o bien se puede utilizar para corregir 1 error y detectar 3. En nuestro caso lo utilizaremos para corregir un único error. Si en el decodificador encontramos un error, lo corregimos. En caso contrario, damos como borrones los 28 símbolos que salen del decodificador y entran en el canal externo. El decodificador externo RS(28,24) tiene distancia mínima d = 5 y lo utilizaremos para corregir 4 borrones. Tal como está montada la matriz de intercalación, es posible que este código corrija hasta un máximo de 112 x 4 = 448 borrones de GF(28), es decir 3584 bits de datos, que quedan en 3072 bits de información real, equivalentes a unos 3 mm en una pista del CD. Además, en el caso de que un vector a decodificar en el código externo tenga más borrones que los que se pueden corregir, se daría como nulo y, en su lugar, se haría la interpolación de las palabras anterior y posterior.
VIDEO DISCO VERSATIL (DVD) Es un sistema semajante a los CD-ROM, pero usando láser de distinta fecuencia, lo cual da lugar a densidades de grabación más elevadas (técnicamente es posible alcanzar los 50 GO), e incluso por una misma cara se pueden tener tres capas de grabación. Actualmente hay varias tecnologías de grabación, que como se puede ver en la siguiente tabla son incompatibles entre sí, siendo un periférico habitual en los ordenadores personales. Características DVD
DVD-RAM
DVD-R
DVD-RW
DVD+R
DVD+RW
Capacidad una cara
2.6-4.7
3.95-4.7
4.7
4.7
4.7
Longitud onda láser
660-685
635-650
650
650
650
Distancia entre pistas (mm)
1.15-0.65
.74
.74
.74
.74
Quemado
Cambio de fase
Tipo de soporte
Cambio de fase Quemado Cambio de fase
Modo de escritura
Z-CLV
CLV
CLV
CLV y CAV
CLV y CAV
Máxima velocidad escritura
1x
2x
1x
2.4x
2.4x
Número escrituras
100000
1
1000
1
1000
1x=1.385 MOctetos/s Tecnologías de giro: CAV=velocidad angular constante, CLV=velocidad lineal constante
30 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
El año 2006 vio la llegada al mercado de dos tecnologías basadas en el láser violeta de GAn/InGaN, "Blue-Ray Disc" (BRD) de Sony e "Hight Definition DVD" (HD-DVD) de Toshiba y NEC. Ambos sistemas de almacenamiento compiten por el mercado de los DVD, que se piensa que en una década ya no exista, y también se pensaba que competirían entre sí al no ser compatibles, sin embargo en febrero de 2008 Toshiba ha anunciado que deja de fabricar HD-DVD. Hay otra tecnología revolucionaria, la empresa InPhase Technologies ha comercializado el primer sistema de almacenamiento "Holographic-ROM" (H-ROM), que funciona con un láser rojo (como los DVD) o con un láser azul. Se logran capacidades de 300 Goctetos (en el futuro 1.6 Teraoctetos) en un disco de 130 mm y con velocidad de transferencia de 20 Moctetos/s. Por lo que respecta a futuros sistemas, es de destacar el desarrollo de científicos de Israel que usa óptica de dos fotones y como soporte una variación del polimetilmetacrilato, denominada ePMMA. El sistema se fundamenta en 200 capas separdas 5 micrometros (micras) creadas mediante un láser rojo, y en lugar de los pits de los CD y DVD actuales, implementa un proceso de absorción no lineal de dos fotones. Cuando el láser se focaliza sobre una pequeña zona del disco los fotones excitan los cromóforos en las moléculas de ePMMA, conmutando entre dos estados, la lectura es análoga pero con luz que hace fluorescentes los cromóforos, siendo la cnatidad de fluorescencia dependiente de si está marcado el punto como "escrito" o "no escrito". Se espera que se comercialice el año 2010 Una nueva tecnología de almacenamiento, descubierta por investigadores de la universidad japonesa Shizuoka, se basa en esferas de poliestireno, dopadas con sustancias fluorescentes como rodamina, de 500 nm de diámetro colocadas sobre una rejilla, dando lugar a una densidad de grabación doble respecto a la de los DVD y en un futuro se espera que llegue a ser 10 veces superior, reduciendo el diámetro de las esferas y apilándolas. Los datos se graban mediante luz verde y se leen mediante el análisis de luz roja reflejada. Hay investigaciones con bacterias, la proteína bacteriorodopsina (bR) encontrada en la membrana superficial de halobacterium halobium, y que suele habitar en ambientes salinos, absorbe la luz en un proceso análogo a la fotosíntesis. bR existe en dos estados intercambiables, que absorbe luz azul y verde respectivamente, lo cual permite almacenar información en un código binario. Disponiendo este producto en forma de cubo, y teniendo un laser para acceder a cambiar entre los dos estados, se pueden obtener "discos" con capacidades de muchos Gigaoctetos, por el precio de los de 1 Giga. El principal problema es que no aguantan temperaturas superiores a 83 C, otro inconveniente es que no son muy rápidas. En los seres vivos su función es el bombeo de iones de hidrógeno al exterior de las células. Lo cual puede dar origen al desarrollo de productos que ayuden a mejorar la salud de las personas. Hay quienes se muestran pesimistas sobre la posible pérdida de información, por una parte debida a la baja duración de lso sistemas actuales de almacenamiento y por otra al cambio de stándares y falta futura de dispositivos de lectura para formatos binarios y soportes de almacenamiento que sean obsoletos. Un vídeo muestra, de forma pesimista, este posible problema futuro, el documental se denomina La oscura era digital.
6.5 Calidad en ordenadores pesonales Dícese de la totalidad de los rasgos y características de un producto o servicio que se sustenta en su habilidad para satisfacer las necesidades establecidas implícitas. En la informática personal hay una gran oferta y a precios muy dispares, esto se explica por las diferentes calidades. Las marcas más famosas, por ejemplo, Siemens y Toshiba suelen ser las que ofrecen productos más costosos, sin embargo si se valora su calidad y seguridad, la relación calidad-precio es muy buena. Mientras que la mayoría de los denominados clónicos, suelen ser baratos, pero aunque con prestaciones iguales o superiores a los de las marcas más famosas, el cociente relación-precio es pésimo. 31 de 35
18/04/2008 20:14
Apuntes Periféricos de un ordenador. Capítulo 6. Introducción Informá...
http://www.um.es/docencia/barzana/II/Ii06.html
Al adquirir un ordenador personal se ha de considerar la calidad de todos sus componentes, esto se verifica observando las diversas homologaciones que llevan impresas, por ejemplo TÜV, RL, CSA, CE, ... En los países de la Unión Europea, como mínimo han de incluir la homologación CE, que aunque no es esencialmente una indicación de calidad en el sentido amplio de la palabra, si lo es de seguridad en el campo de la compatibilidad electromagnética, es decir que el ordenador no interfiere ni se ve afectado en su funcionamiento, por los campos electromagnéticos procedentes de otros aparatos, como por ejemplo los teléfonos móviles celulares. Enlaces recomendados: Las fuentes de alimentación y las directivas comunitarias La industria de las TIC genera el 2% de las emisiones de CO2 A nivel internacional existen unas normas de homologación de los procesos de fabricación y ensamblaje, las conocidas normas ISO (de la Organización Internacional de Estándares), las más habituales son las ISO 9001, ISO 9002 e ISO 14001. El que los ordenadores se fabriquen o ensamblen en instalaciones que cuenten con algunas de estas homologaciones significan una mayor fiabilidad en los equipos.
Enlaces de interés: Canadian Centre for Occupational. Canadá CUErgo. Universidad de Cornell. EE.UU. Ergonomía en Español. Chile Ergoprojects. Ergonomía en tú idioma Nielsen Norman Group Typing Injury FAQ
fresqui
del.icio.us
meneame
Buscar en la web Búsqueda escéptica Búsqueda en mis webs
Imprimir
Aquí puedes cambiar el tamaño y color del texto
32 de 35
18/04/2008 20:14
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 7. Lenguajes de programación Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
Ciencia en general Biología Criminología Inicio Contacte
Conceptos generales Metodologías de programación Tipos de lenguajes Anexo, lenguaje Pascal Selecciona un texto y pulsa aquí para oírlo
7.1 Conceptos generales Un ordenador consta de dos partes, una es la parte física, conocida como "hardware" y otra, la lógica denominada "software". Ambas son imprescindibles para tener un ordenador en funcionamiento. Respecto a la parte física dentro de esta web está disponible un esquema de sus componentes, en este capítulo se estudiarán los integrantes del "Software". Así como la parte física es totalmente visible, la parte lógica es intangible, aunque imprescindible para que un ordenador sea operativo. El software se divide en dos grandes grupos, uno es el conocido como sistema operativo o sistema de explotación y otra parte son los denominados lenguajes de programación. Aparte existen infinidad de aplicaciones de "software" pero ya para casos concretos, como por ejemplo laplicaciones contables, aplicaciones ofimáticas, paquetes estadísticos o los programas científicos. Lenguajes de programación hay en gran cantidad, algunos han evolucionado a lo largo del tiempo y son usados en el transcurso de muchos años, mientras que otros han sido operativos durante un período más o menos largo y actualmente no se usan. Dada esta gran variedad de lenguajes, aquí no se pretende dar una visión completa, sino una clasificación en diversos tipos y concretar alguno. Respecto al más recomendado para el aprendizaje, el Pascal, se le dedica un apartado para quienes estén interesados en aprender a programar en un lenguaje asequible. En general un lenguaje es un método conveniente y sencillo de describir las estructuras de información y las secuencias de acciones necesarias para ejecutar una tarea concreta. Pero este proceso se puede realizar de muchas maneras distintas, por lo que habrá que disponer de clasificaciones. Una muy importante es hacer dos grupos en base a su funcionamiento, esto es considerarlos como intérpretes y compiladores, según se describe seguidamente. Un lenguaje se dice que es un intérprete, por ejemplo los BASIC primitivos, cuando para ejecutar un programa el lenguaje ha de leer y traducir al lenguaje específico de la máquina las instrucciones una por una. Como es lógico el proceso se enlentece, por ejemplo si una operación está dentro de la estructura conocida como ciclo y este se repite 100 veces, el lenguaje tiene que traducirlo 100 veces al código de la máquina. No todo son desventajas, pues la parte buena de este tipo de lenguajes es que los errores se pueden corregir al momento y seguir facilmente la ejecución del programa, por lo cual son idóneos para aprender a programar, proceso en el que da lo mismo la lentitud.
2 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
Por contra un lenguaje se dice que es compilado cuando el programa entero se traduce mediante el compilador de dicho lenguaje al lenguaje máquina correspondiente y el resultado se almacena de manera permanente en un archivo. De esta forma el programa se ejecutará de forma mucho más rápida que con un intérprete, sobre todo si hay estructuras que se repiten, caso de los ciclos. La principal desventaja es cuando se produce un error, que muchas veces se detecta en el momento de la ejecución, y la corrección no se puede hacer de inmediato sino que hay que realizar todo el proceso de compilado desde el principio. Un ejemplo típico de lenguaje de este tipo el C ++, ampliamente usado en el desarrollo de programas.
Hay un lenguaje difundido en el ámbito de la enseñanza, es el TurboPascal, cuya ventaja es que aunque se trata de un compilador tiene un entorno de trabajo como si fuera un intérprete y cualquier error se puede corregir al momento, reanudándose la ejecución del programa de inmediato. Un ejemplo en la vida real que visualiza la diferencia entre un intérprete y un compilador es el siguiente, supongamos que tenemos un libro escrito en una lengua distinta al castellano, son posibles dos procesos de acceder a su contenido cuando se necesite su lectura, una es traducir en el momento de su empleo la parte del libro que se necesite, pero sin pasarla a papel, sino simplemente mediante lectura traduciendo, esto sería el proceso de interpretado, mientras que la otra opción sería traducir el libro entero al castellano y dejar dicha versión escrita sobre papel, esto sería equivalente al compilado.
3 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
El proceso de compilado no es tan inmediato como parece, se describe seguidamente de forma muy esquematizada: 1. Se escribe el programa (conocido como programa fuente) mediante un editor de textos y se almacena en un fichero. 2. Este programa fuente es invocado por la primera etapa del compilador, que efectúa un análisis léxico, se puede considerar como una interpretación del programa fuente preparándolo para un tratamiento posterior con detalle. En esta etapa se ejecutan los tres procesos indicados seguidamente: Adaptar el código fuente a un formato independiente de la forma en que se haya introducido en el sistema Eliminación de información redundante como espacios y comentarios Tratar las palabras clave y los símbolos para su paso a símbolos clave, conocido como "tokens" Por ejemplo, considerando un fragmento de código en BASIC (también existe compilador de BASIC), se tendría, 200 FOR I=1 TO N STEP 1 210 LET A(I)=0: REM Inicializa la matríz 220 NEXT I
lo pasaría a: [L45] [T16] I=1 [T17] N [T18] 1 \ [L46] [T09] X(I)=0 \ [L47] [T19] I \
3. Análisis sintáctico es el paso siguiente, el compilador determina la estructura, y de alguna forma el significado del programa fuente. El conjunto del programa se analiza en bloques, que se descomponen en instrucciones y se procede a identificar los elementos individuales. Como la sintaxis está expresada mediante un conjunto de reglas, cada una indica como se construye una estructura del programa a partir de otras estructuras de menor entidad. El proceso mediante el cual el compilador aplica estas reglas es conocido como "parsing". Seguidamente se cita un ejemplo: En notación BNF una regla sintáctica se puede escribir como, <Línea programa::=<Número de línea <Palabra clave <Resto de la sentencia
y aplicándola a la línea 100 del ejemplo BASIC anterior, se tendría, <Número de línea 100 <Palabra clave LET <Resto de sentencia X=0
y por tanto: <Línea de programa 100 LET X=0
Durante la compilación se genera gran cantidad de información, que se almacena en una estructura
4 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
de datos conocida como diccionario o tabla de símbolos, en algún momento del proceso se necesitará la información guardada previamente. La mayor parte es información sobre variables, por ejemplo para X en el programa anterior, se tendría en el diccionario, Nombre de la variable Tipo Dirección X N 3A2F
4. El paso siguiente es la generación de código, conocido como objeto Para ello se recorre el código intermedio generado y se busca cada uno de los "tokens" en el diccionario, lo que permite insertar las direcciones en el código máquina que se está generando. En el ejemplo que se está estudiando se tendría: Línea 200 LOA X N+1 Emplea el registro ínidice como contador SIG CMP X N Compara con N BGT FIN Al terminar vete a FIN Línea 205 CLR A Pone a cero el acumulador STD A D Y Copia el contenido del acumulador en Y+índice Línea 210 INC X Incrementa el índice BRN SIG Continúa el bucle FIN
5. El proceso siguiente es la optimización de código objeto generado, con lo que se obtiene un programa más eficiente. Generalmente donde se consiguen los mejores resultados es en los bucles, cuyo objetivo es reducir al máximo el número de operaciones que se ejecutan en él. 6. Normalmente hay una etapa posterior conocida como "linkado " en la que el o los módulos objetos generados previamente se unen entre sí y/o con otros módulos disponibles en librerías, para formar un fichero que contiene un programa ejecutable directamente desde el sistema operativo, sin necesidad de disponer del compilador correspondiente. Incluso se pueden unir programas escritos en lenguajes distintos si los módulos objeto creado se han estructurado de forma adecuada. En cualquier fase del proceso pueden detectarse errores que se podrán de manifiesto, implicando el volver hasta el programa fuente, efectuar las correcciones pertinentes y repetir todo el proceso, lo cual suele ser algo laborioso.
Primeras programadoras profesionales (foto ejército de EE.UU.)
7.2 Metodologías de programación Actualmente se están produciendo cambios de gran alcance en la forma en que se desarrolla el "software" para los equipos informáticos. Entre las causas de estos cambios se incluyen las siguientes:
5 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
El coste creciente de los desarrollos La insatisfacción de los usuarios con la adecuación y calidad La complejidad y tamaño creciente de los programas La creciente dependencia de muchas organizaciones de sus sistemas informáticos, sin posibilidad de abandonarlos El avance hacia ordenadores con características "software" muy diferentes de los actuales. Estas y otras presiones están provocando una reorganización de los métodos empleados en el desarrollo de los programas para los ordenadores. Lo que se necesita son técnicas para la elaboración de productos software muy largos y complejos, que satisfagan estándares muy estrictos de calidad y prestaciones, de acuerdo con una planificación, control y presupuestos adecuados. Los métodos de trabajo que se han desarrollado para responder a estas necesidades constituyen lo que se ha dado en llamar "Ingeniería del Software". La Ingeniería del Software es una tarea de equipo, al comenzar un proyecto de desarrollo, se constituyen una serie de equipos con una estructura paralela a la del programa en sí. Se establece un calendario para el proyecto y se asignan costes a cada una de las partes y etapas del proyecto. Cada equipo tiene un responsable, cuya tarea es la de comprobar que la programación desarrollada por el equipo sea correcta, está estructurado con propiedad, dispone de las interfaces para conectar con los programas desarrolladas por otros equipos y se desarrolla de acuerdo a las previsiones de tiempo y coste. La Ingeniería del Software se ocupa del ciclo de vida completo de un producto software, diseño, desarrollo, uso y mantenimiento. El trabajo se hace buscando el mayor grado posible de estandarización y los menores costes durante la totalidad del ciclo de vida de los programas. La Ingeniería del Software implica que un programa bien estructurado satisfaga las siguientes condiciones: El programa ha de tener una estructura general en forma de módulos, que a su vez estarán formados por procedimientos o segmentos. Debe existir un interfaz claramente definido entre los diversos módulos Cada módulo debe de ser una combinación sencilla de construcciones elementales de un lenguaje de programación Debe existir una fuerte correspondencia entre la estructura de los módulos y la de los datos sobre los que operan Cada módulo debe dejar las estructuras de datos sobre las que opera en un estado consistente con su definición Un módulo no debe tener efectos secundarios Por lo que respecta a las técnicas de diseño de programas, el método más simple y uno de los más populares es el conocido como de "Refinamiento Progresivo". Se fundamenta en el uso de algoritmos que se escriben en un lenguaje intermedio entre el castellano y un lenguaje de programación como el Pascal, este lenguaje se denomina seudocódigo. El proceso se puede describir en términos de un lenguaje de esta naturaleza: Establecer todos los pasos del programa en un algoritmo breve de alto nivel Repetir: Expandir cada sentencia del algoritmo en detalle, especificando los pasos necesarios Hasta que las tareas hayan sido especificadas con el detalle suficiente como para que pueda generarse el código del programa. Existen otras metodologías más depuradas como por ejemplo la conocida como "Descomposición Funcional". A diferencia de la anterior en cada etapa se especifican las propiedades esenciales de las estructuras de datos, y cada algoritmo se expresa como una función matemática que transforma esta estructura de datos.
6 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
Una vez desarrollado un programa como es lógico se ha de comprobar su buen funcionamiento. Actualmente en la mayoría de los casos se prueban con cualquier tipo de datos que pueden presentarse en la realidad. Sin embargo este proceso nunca puede establecer si un programa es o no correcto, sin importar cuantos conjuntos de datos de usen. Si un programa es de importancia crítica, como ocurre en el presente con muchas aplicaciones comerciales, industriales o militares, es necesario tomar todas las precauciones posibles para asegurar que están libres de errores. Se están empezando a utilizar técnicas para asegurar que los módulos (y los algoritmos) son correctos, que los consideran como teoremas matemáticos y entonces se emplean los mismos métodos que se utilizan para demostrar los teoremas. Esta tarea es muy compleja y no siempre aplicable.
7.3 Tipos de lenguajes Aparte de la clasificación vista previamente en compiladores e intérpretes, los lenguajes de programación se clasifican en base a otros aspectos, de manera general en dos grandes grupos, Lenguajes de Alto Nivel y Lenguajes de Bajo Nivel. El grupo de los de Bajo Nivel, como su nombre indica incluye los relacionados íntimamente con la arquitectura de la máquina, por lo que generalmente son específicos de una unidad central de procesamiento (CPU) y no son válidos para otra diferente. Dentro de los de estos grupos está el lenguaje máquina, que es programar en el ámbito de la CPU, por lo tanto usando ceros y unos, lenguaje muy dificil y propenso a errores. El otro más conocido dentro de esta categoría es el Ensamblador, que utiliza mnemónicos a escala sencilla, y por lo tanto evita las secuencias de ceros y unos. Aún así es bastante complicado y no es recomendable para usuarios sin amplios conocimientos. En conclusión, un lenguaje de bajo nivel está orientado hacia la resolución de una determinada máquina o clases de máquinas. A diferencia de los del grupo anterior, un lenguaje de alto nivel es independiente del microprocesador del ordenador que lo soporta, así por ejemplo un programa escrito en lenguaje C, se puede compilar sin modificar para cualquier máquina, y en principio funcionará sin ningún problema. Esto implica dos ventajas principales, una es que la persona que desarrolla los programas no ha de saber nada acerca del ordenador en que se ejecutará el programa, la otra es que los programas son portables, es decir el mismo programa (en teoría) ha de funcionar sobre distintos tipos de ordenadores. El desarrollo de los lenguajes de alto nivel comenzó a mediados de los años cincuenta del siglo pasado, en esta época se crearon los lenguajes COBOL, FORTRAN Y ALGOL60. Posteriormente se han ido originándose otros muchos, de hecho varios miles, aunque sobreviven muy pocos. Entre los lenguajes de alto nivel cabe destacar los siguientes: JAVA BASIC FORTRAN MODULA 2 Pascal ADA C C ++ LOGO LISP PROLOG Smalltalk
7 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
En conclusión un lenguaje de alto nivel está orientado hacia la resolución de una determinada clase de problemas. Otra forma de clasificar los lenguajes es en dos grandes grupos, declarativos e imperativos. Los imperativos establecen cómo debe ejecutarse una tarea partiéndola en procedimientos que especifican cada una de las tareas. Por el contrario los declarativos establecen estructuras de datos y las relaciones entre ellos que son significativas para ejecutar una tarea determinada, al tiempo que indican cual es el objetivo de dicha tarea. Un lenguaje típico de este grupo es el Prolog.
Anexo - Ejemplo de un lenguaje: Pascal El Pascal recibe su nombre en honor del matemático y filósofo francés Blas Pascal (1623-1662). Se desarrolló entre los años 1968 y 1971. En contraste con FORTRAN, COBOL O ALGOL 60, el Pascal es resultado del trabajo de una sola persona, Niklaus Wirth (1934-), profesor universitario (actualmente jubilado) de Zurich (Suiza). A partir del Algol60 diseñó un lenguaje adecuado para enseñar computación a los estudiantes universitarios. Según su creador su desarrollo se debe a dos motivos principales. El primero es el de proporcionar un lenguaje adecuado para enseñar a programar de forma sistemática, a partir de unos cuantos conceptos fundamentales que se reflejen de forma clara y natural en el lenguaje. El segundo es desarrollar implementaciones de este lenguaje que funcionen de forma fiable y eficiente sobre los ordenadores disponibles actualmente. Enlace recomendado: Curso de Pascal. Centro de Cálculo, Universidad de Zaragoza (PDF)
Partes de un programa en Pascal Un programa se subdivide en varias partes: - La cabecera, suele ser opcional, en ella se indica el nombre del programa - Definiciones y declaraciones, son opcionales y pueden categorizarse como: -
Definiciones de tipos Definiciones de constantes Declaraciones de variables Declaraciones de etiquetas Definiciones de subprogramas
La cabecera Independientemente de lo largo o pequeño que sea, todo programa
8 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
debe comenzar con una cabecera de programa. Esta cabecera es la primera línea, comienza con la palabra clave Program seguida del nombre y terminada por ;.
Definiciones y declaraciones Lo normal es que un programa necesite datos. Un dato es cualquier información que sea manipulada por un programa y necesite un espacio de almacenamiento en el ordenador al ejecutarse el programa. Los datos que no cambian nunca se denominan constantes, mientras que los que cambian se conocen como variables. Para reservar espacio en la memoria se han de declarar mediante una declaración de variables. Los identificadores deben comenzar con un carácter alfabético o el símbolo de subrayado. El primer carácter puede estar seguido de hasta 126 adicionales, alfabéticos, numéricos o de subrayado.
Tipos En Pascal además de dar identificadores para las variables se debe de indicar el tipo de los datos que se usará para esa variable. El tipo de un dato tiene dos propósitos, una asignar cuánta memoria se va a asignar a un dato de tipo particular. El otro es prevenir un mal emparejamiento de tipos. En Pascal, los tipos pueden categorizarse en predefinidos y definidos por el usuario. Los tipos predefinidos son: Boolean, admite los valores FALSE y TRUE Char, son caracteres del conjunto de códigos ASCII Integer, son números en el rango -32768 a 32767 Byte, es un subrango del tipo Integer, de 0 a 255 Real, son números reales en el rango 1E-38 a 1E+38
Constantes Se usan para asociar un valor fijo a un identificador. Este puede estar definido por el usuario o puede ser literal que describe un valor. Por otra parte las constantes definidas por el usuario, llamadas constantes con nombre deben definirse en la parte de definición de constante, como por ejemplo, const PUERTO = 98. Cons es la palabra reservada correspondiente. A su vez la constante se puede definir con tipo, como por ejemplo, Const PUERTO: Integer 98;
Variables Cuando se declara una variable, se le asigna memoria, suministrándole un lugar para poner un tipo de dato. Una declaración también suministra un nombre para ese lugar. La palabra clave es Var, pudiendo aparecer a continuación uno o más identificadores de
9 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
variables, separados por comas y los tipos se separan con dos puntos (:), a continuación se muestran ejemplos, Var tipo_interes cant_nominal principal : Real; año : Integer; mes : Byte; inchr : Char; salida : Boolean; Var tipo_interes, cant_nomina, principal: Real;
Constantes con tipo Pueden usarse para ahorrar memoria y como variables inicializadas. A continuación se da un ejemplo: Const TEXTO="T"; MAYUSCULA="U"; peso : Byte = 80; tipo_entrada : Char = MAYUSCULA;
Operadores Gran parte de la manipulación de datos en un programa se ejecuta mediante operadores. Los operadores se clasifican en tres categorías, aritméticos, lógicos y relacionales. El término expresión se refiere a una combinación de una o más constantes literales o con nombre o identificadores de variables, con uno o más operadores. Cuando aparece más de un operador hay un orden de precedencia, y si es al mismo nivel la evaluación se efectúa de izquierda a derecha. Las precedencias son: 1 2 3 4 5
- (menos unario) not *, /,div,mod,and,shl,shr *,-,or,xor =,<,<,,<=,=,in
Sentencias La parte de sentencias es en donde se define la lógica de un programa, es donde se manipulan los datos para obtener el resultado deseado por el usuario del programa. Las sentencias se pueden clasificar en los tipos: Sentencias de asignación Sentencias compuestas Sentencias de control de la lógica
10 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
Una sentencia de asignación consta de un identificador de variable (o función) seguido del operador de la asignación (:=) seguido de una expresión. A continuación se indican ejemplos, salida:=FALSE interes:=10 pago:=principal/periodo
Una sentencia compuesta se ha de identificar en el principio con Begin y al final con end;. Una sentencia de este tipo puede estar formada por todos los tipos de sentencias incluyendo otras sentencias compuestas. Sentencias de control de lógica - Bucle while. Ejecuta una sentencia repetidamente hasta que la condición del bucle da FALSE. La forma es, While condicion Do sentencia While condicion Do Begin sentencia 1 sentencia 2 ...... End;
- Bucle Repeat-Until. Se usa cuando es necesario que el bucle se ejecute al menos una vez. En este caso la verificaciónde la condición ofrece esa posibilidad. La forma del bucle es, Repeat sentencia 1 sentencia 2 ...... Until condicion
- Bucle For-Do. Es ideal para los casos en que está predeterminado el número de veces que se ejecutará una sentencia. La forma es, For contador:= exp1 To exp2 Do sentencia For contador:=exp1 To exp2 do Begin sentencia1 sentencia2 ....... End;
- If-Then-Else. Esta sentencia ejecuta una, muchas o ninguna sentencia dependiendo de la evaluación de la condición establecida. La forma general es, If condicion Then sentencia1 [Else sentencia2]
11 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
- Sentencia Case. La forma de esta sentencia es, Case selector Of Constante1 : sentencia1; Constante2 : sentencia2; Constanten : sentencian; Else sentencia;
Cuando se ejecuta una sentencia Case, el valor del selector, que es una variable y puede ser cualquier tipo escalar excepto Real, se usa para determinar cuál, si la hubiera de las, sentencias del Case se ejcuta. Las constantes asociadas con la sentencia deben de ser del mismo tipo que la variable selector
Subprogramas en Pascal Los subprogramas son como pequeños programas dentro de un programa, incluso se parecen a los programas por comenzar con una cabecera, ir seguida de las declaraciones y una parte de sentencias. Los subprogramas se encuentran en la parte de declaración del programa, sin embargo operan en su propio entorno, separados pero no siempre aislados del programa principal. Un subprograma puede declarar variables que son sólo accesibles desde el subprograma, puede usar variables del programa principal y puede usar una mezcla de los dos. Los subprogramas son de dos tipos: procedimientos y funciones.
Procedimientos Los procedimientos comienzan por la palabra reservada Procedure seguida de un identificador y un punto y coma. Después de la cabecera viene la parte de declaración. Al ejecutar un procedimiento se crean en memoria las constantes y variables de la parte de declaración, pero después de que se haya terminado el procedimiento desaparecen, lo cual supone un ahorro de memoria. A continuación de la declaración están las sentencias, entre las palabras clave Begin y End y un punto y coma. Los procedimientos se activan en el programa principal dando su nombre como una sentencia simple. Con frecuencia los procedimientos necesitan que se les dé uno o más valores, que se conocen como parámetros. Estos se incluyen en la cabecera, dentro de los paréntesis que siguen al identificador. Las declaraciones de parámetros son como las declaraciones de variables en la forma y propósito. Cada identificador se separa por punto y coma, cada uno se ha de definir como un tipo con nombre. A continuación se muestra un procedimiento que repite un carácter en pantalla, el número de veces que se desee, Procedure Repite(caracter; Car, conta: Integer);
12 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
Var i:Integer; Begin For i:=1 to conta Do Write(caracter); End;
y así para invocar que aparezca la letra A 80 veces seguida en pantalla, Repite ("A",80)
donde se han pasado dos parámetros. Estos parámetros pueden ser de otro tipo, como variables, expresiones, como por ejemplo, caracter:="A"; conta:=80; Repite(LowerCase(caracter),conta);
donde LowerCase es una función que saca la letra minúscula de la indicada. A su vez los parámetros se pueden pasar por valor o referencia. Si se pasa por valor, se transfiere una copia del valor del parámetro actual al procedimiento, el procedimiento no accede a la variable real y por lo tanto no puede modificarla. Un procedimiento puede cambiar el valor de un parámetro por valor, pero a la vuelta al programa queda sin modificar el valor actual del parámetro original. Si se desea pasar un parámetro por referencia, el parámetro actual debe ser una variable o una constante con tipo. Delante de la declaración del parámetro formal hay que poner la palabra clave Var. Seguidamente se da un ejemplo para cada una de las dos formas de paso de parámetros, a) Por valor Procedure incrementa(mas_uno:Integer) Begin mas_uno:=mas_uno+1; WriteLn(mas_uno); End;
y al ejecutar las instrucciones siguientes, avance:=1; incrementa(avance); WriteLn(avance)
la salida sería de 2 y 1.
13 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
b) Por referencia Procedure incrementa(Var mas_uno:Integer) Begin mas_uno:=mas_uno+1; WriteLn(mas_uno); End;
y al ejecutar las instrucciones siguientes, avance:=1; incrementa(avance); WriteLn(avance)
la salida sería de 2 y 2.
Funciones La diferencia entre un procedimiento y una función es que el identificador de una función asume un valor cuando la función ha terminado y devuelve este valor a la rutina que la llamó en sustitución del nombre de la función. En un sentido amplio el nombre de la función es también una variable. Todo lo indicado previamente respecto a la definición de los procedimientos se aplica a las funciones. La palabra clave es Function. A continuación se indica un ejemplo de función que convierte un parámetro de tipo Char a letra minúscula, si dicho parámetro está en el rango de la A a la Z., Function miniscula(caracter:Char);Char Begin If caracter in "A".."Z" Then minuscula:=Char(Ord(caracter)+32) Else minuscula:=caracter; End;
Otras posibilidades El Pascal ofrece muchas más posibilidades, como por ejemplo la definición de tipos por el usuario, o el tipo Set (conjunto), de gran interés dado que no aparecen en la mayoría de los lenguajes. Otro tipo a destacar es el denominado puntero. La recursividad es una característica de mucha utilidad, es decir que cierta instrucción se puede llamar a si misma. Aquí no se tratan estas posibilidades aunque se usan ampliamente en la programación a escala avanzada en Pascal.
Bibliografía (Disponible en la Biblioteca Universitaria): - Appleby, Doris, Lenguajes de programación : paradigma y práctica / Doris
14 de 18
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 7, 2007/08. Universid...
http://www.um.es/docencia/barzana/II/Ii07.html
Appleby, Julius J. Vandekopple 1998 - Berger, Marc. Graficación por computador con Pascal / Marc Berger. -Argentina, etc. : Addison-Wesley Iberoamericana, cop. 1991 - Biondi, Joëlle, Algorítmica y lenguajes / Joëlle Biondi, Gilles Clavel 1985 - Burns, Alan Sistemas de tiempo real y lenguajes de programación -- Madrid : Addison-Wesley, cop. 2003 - Cueva Lovelle, Juan Manuel...[et al.]. Introducción a la programación estructurada y orientada a objetos con Pascal -- Oviedo : Departamento de Matemáticas - Cuevas Agustín, Gonzalo. Teoría de la información, codificación y lenguajes Córdoba, Argentina : SEPA, Sociedad para Estudios Pedagogicos Argentinos , cop. 1985 - Lenguajes HTML, JAVA Y CGI : el diseño de páginas web para internet a su alcance. -- Madrid : Abeto, 1996 - Findlay, W. Pascal : programación metódica W. Findlay, D. A. Watt. -- [2ª ed.]. -- Madrid : Rueda, 1984 - Grogono, Peter, Programación en PASCAL. -- Ed. revisada. -- Argentina, etc. : Addison-Wesley, cop. 1986 - Sánchez Dueñas, G. Compiladores e intérpretes.Un enfoque pragmático 2ª ed. Díaz de Santos, Madrid 1989 - Algunos programas de uso común en Pascal. -- Madrid : McGraw-Hill, D.L. 1982 - Lenguajes HTML, JAVA Y CGI : el diseño de páginas web para internet a su alcance. -- Madrid : Abeto, 1996 - TRUCS et astuces pour turbo Pascal. -- Paris : Micro-Application, 1986
Enlaces relacionados con la temática del capítulo: - Artículos y tutoriales. Lenguaje Pascal - Bjarne Stroustrup's homepage! - El Máquinas - Hello World. ACM - Metodología y Tecnología de la Programación. Fac. Informática. Univ. Murcia - Raúl Monge Anwandter. Univ. F. Sanat María. Chile - Metodologías de Desarrollo de Software. Fac. Informática. Univ. Murcia - Metodología y Tecnología de la Programación I. Vicente López. ETSI. U A. Madrid - The Computer Language Benchmarks Game - The Languaje Guide - Vilecha.com. Tú albergue en la red
fresqui
15 de 18
del.icio.us
meneame
18/04/2008 20:06
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Introducción a la Informática. Estudios GAP, facultad Derecho Capítulo 8. Sistemas operativos Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Ciencia en general Biología Criminología Inicio Contacte
Historia de los sistemas operativos Clasificación Sistemas operativos habituales Selecciona un texto y pulsa aquí para oírlo
8.1 Historia de los sistemas operativos En este capítulo se describe aquella parte del "software" de un ordenador que transforma el "hardware" en algo útil: el sistema operativo. Para los fines de este capítulo es importante considerar un ordenador como un conjunto de recursos, de tipo físico, lógico o una mezcla de ambos. Tomados como un todo estos recursos proporcionan facilidades para el tratamiento y la entrada/salida de datos, así como para otros aspectos del funcionamiento de un ordenador. Para comprender qué es un sistema operativo, es necesario entender cómo han sido desarrollados, en este apartado se esboza el desarrollo de los sistemas operativos desde los primeros hasta los actuales multiprogramados y de tiempo compartido. A medida que nos adentremos en las distintas etapas, veremos que los componentes de los sistemas operativos evolucionaron como soluciones naturales a los problemas de los primeros sistemas informáticos. LOS PRIMEROS SISTEMAS Inicialmente lo único que existía era el "hardware" del ordenador. Los primeros ordenadores eran máquinas muy grandes que ejecutaban su trabajo desde lo programado en una consola. El usuario escribía el programa y lo ejecutaba directamente desde la consola del operador, se debía de cargar manualmente en la memoria, bien fuera desde los conmutadores del panel frontal, desde cinta de papel o mediante tarjetas perforadas. Seguidamente se pulsaban los interruptores adecuados para cargar la dirección de inicio y para comenzar la ejecución del programa. Se supervisaba la ejecución por medio de los indicadores luminosos de la consola, si aparecía algún error se podía detener la ejecución, examinar el contenido de la memoria y de los registros y depurar el programa desde la consola. La salida generada se imprimía, o bien se almacenaba en cinta de papel o tarjetas perforadas para su procesado posterior. Con el tiempo se perfeccionaron tanto el "hardware" como el "software", aparecieron los lectores de tarjeta muy rápidos, impresoras de línea de elevadas prestaciones en cuanto a velocidad y cintas magnéticas. Se diseñaron programas ensambladores, cargadores y enlazadores para facilitar la tarea de programación. Más tarde aparecieron compiladores para los lenguajes FORTRAN y COBOL, haciendo más sencillo el manejo del ordenador por parte del usuario, pero más compleja su forma de operar. Por ejemplo para trabajar con un programa en FORTRAN, el programador había de cargar primero en la máquina el compilador FORTRAN, que estaba normalmente en una cinta magnética que se tenía que montar en un lector de cinta. El programa se leía a partir de tarjetas perforadas. A continuación de la compilación se
2 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
generaba una salida en ensamblador que para ensamblarse requería la carga desde otra cinta del lenguaje ensamblador. A su vez el código generado era frecuente que se tuviera que enlazar con otro existente en librerías. Finalmente el programa en binario, quedaba listo para su ejecución y podía cargarse en memoria y si fuera necesario proceder a su depuración. Como se puede deducir, la ejecución de un programa podía implicar previamente un tiempo de preparación considerable. Además si se producía un error en cualquier paso lo más probable era que habría que comenzar desde el principio. MONITOR SIMPLE Durante el tiempo de montaje de las cintas o mientras se operaba en la consola, la CPU del ordenador permanecía inactiva. Además los ordenadores eran muy caros, como ejemplo si se considera un IBM 7094, que costaba dos millones de dólares y su esperanza de vida era de cinco años, el coste del inmovilizado era de 45.66 dólares por hora, trabajando 24 horas al día y 365 días al año. Además se han de considerar los costes de funcionamiento por energía, refrigeración, papel, programadores, etc. Todo ello en una época en la que el salario mínimo era de un dólar por hora. Está claro que el tiempo de ordenador era muy valioso, y los propietarios deseaban sacarle el máximo rendimiento. Para rentabilizar su inversión debían maximizar la cuota de uso. La solución fue doble, en primer lugar se contrataron operadores de ordenador profesionales, el programador entonces ya no tenía que tocar la máquina. Tan pronto como se terminaba un trabajo el operador ponía en marcha el siguiente y se eliminaban los tiempos de inactividad basándose en el sistema de reservas. Además al tener los operadores más experiencia en los procesos implicados, como por ejemplo el montaje de cintas, los tiempos se redujeron. Por supuesto que los operadores no podían depurar los problemas que surgieran en los programas, por lo que en caso necesario se volcaban a un sistema de almacenamiento y se entregaban al programador. El segundo ahorro de tiempo fue debido a la reducción del tiempo de preparación. Los trabajos con necesidades similares se incluyeron en lotes y se ejecutaban en le ordenador como un grupo. Por ejemplo si se recibían programas en diversos lenguajes como FORTRAN y COBOL, no se ejecutaban en el orden de recepción, sino que se procesaban primeramente todos los de un lenguaje y a continuación todos los del otro, con el consiguiente ahorro al cargar una sola vez cada compilador. Pero aún había problemas, por ejemplo si un trabajo se detenía, los operadores tenían que darse cuenta observando la consola, determinar por qué se había detenido la ejecución y obrar en consecuencia según el problema planteado. Durante este proceso la CPU volvía a estar inactiva. Para solventar esta inactividad se introdujo el secuenciamiento automático de trabajos y con él se crearon los primeros y rudimentarios sistemas operativos. Fueron los programas residentes denominados monitores residentes, que secuenciaban automáticamente todos los programas que se ejecutaban en el ordenador. Para facilitar la secuenciación sin necesidad de la intervención de un operador se introdujeron las tarjetas de control, cuya idea es muy simple, además del programa o datos de un trabajo, se incluyen tarjetas especiales que son directivas para el monitor residente, indicándole qué programa tiene que ejecutar. Por ejemplo para indicar que un programa está en FORTRAN, se acostumbraba a poner una tarjeta de control con el texto $FTN, y para terminar un trabajo se pondría otra con $END. Los sistemas así configurados son conocidos como batch o procesos por lotes. PRESTACIONES Los ordenadores, en especial los grandes, han sido máquinas muy caras, por lo que es lógico obtener las máximas prestaciones posibles. Los procesos por lotes mejoraron las prestaciones, sin embargo aunque el trabajo realizado por los operadores se redujo, había una parte del proceso que era muy lenta en comparación con la velocidad de la CPU, este problema era originado por los sistemas de entradas y salidas, siendo el caso más representativo el acceso a las cintas magnéticas, pues al ser dispositivos mecánicos la velocidad es muy baja comparada con los procesos electrónicos. Por ejemplo al trabajar para la ejecución de un programa, que como es lógico se cargaba desde cinta, se tenía la CPU inactiva el 93% del tiempo que duraba todo el proceso. 3 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
OPERACIONES "OFF-LINE" Con el tiempo se crearon dispositivos de entrada/salida más rápidos, pero las velocidades de las CPU's crecieron aún a un ritmo mayor, por lo que el problema aumentó. Una solución fue la de reemplazar las lentas lectoras de tarjetas e impresoras de líneas, por unidades de cinta magnética. La mayoría de los sistemas de los años 1950 y 1960 trabajaban por lotes, que leían de tarjetas y escribían en impresoras. Sin embargo en lugar de hacer que la CPU leyera directamente tarjetas, estas se copiaban previamente en una cinta magnética, y cuando estaba llena se llevaba al ordenador. Si un programa necesitaba una entrada de una tarjeta, se leía de la cinta, análogamente las salidas se llevaban a cintas y se imprimían posteriormente. Se desarrollaron dispositivos especializados con salida o entrada directa a cinta magnética. Incluso se llegaron a crear pequeños ordenadores para realizar dichas funciones, que eran satélites del equipo principal. Otra solución a la lentitud de los procesos de entrada/salida fue el denominado "buffering". Este sistema trata de mantener continuamente ocupados tanto a la CPU como a los dispositivos de E/S. La idea es muy sencilla, una vez que se han leído los datos y que la CPU va a operar con ellos, el dispositivo de entrada ejecuta inmediatamente la siguiente lectura. La CPU y el dispositivo de entrada permanece ocupado. Con suerte, cuando la CPU esté libre para el siguiente grupo de datos, el dispositivo de entrada habrá acabado de leerlos. La CPU podrá iniciar el proceso de los últimos datos leídos, mientras que el dispositivo de entrada iniciará la lectura de los datos que siguen. Para la salida se puede realizar un proceso análogo. (La palabra buffer, en castellano se puede traducir como tampón). Al introducirse como sistemas de almacenamiento los basados en disco, el sistema off-line se fue eliminando progresivamente, y se introdujo el sistema conocido como "spooling" (Simultaneous Operation On-Line), que consiste en usar el disco como tampón, cuya principal ventaja es que solapa la entrada/salida de un proceso con la computación de otros. MULTIPROGRAMACIÓN El aspecto más importante de la planificación de trabajo es la capacidad de multiprogramación. Las operaciones descritas previamente para procesos de E/S tienen sus limitaciones, un usuario, no puede en general mantener la CPU o los dispositivos de E/S ocupados todo el tiempo. La multiprogramación es un método para incrementar el empleo de CPU, disponiendo en todo momento de algo que la CPU pueda ejecutar. La idea ea la siguiente, el sistema operativo toma uno de los trabajos de un grupo de ellos y empieza a ejecutarlo, eventualmente el trabajo tendrá que esperar por algún motivo, como por ejemplo para montar una cinta, en un sistema sin multiprogramación la CPU quedaría inactiva. Esta idea es bastante frecuente en otras situaciones, un abogado no tiene un solo cliente en un cierto momento, por el contrario, varios clientes pueden estar en situación de recibir atención al mismo tiempo. Mientras un caso espera para ir a juicio, el abogado puede trabajar en otro caso. Con un número suficiente de clientes un abogado nunca estará ocioso (Los abogados ociosos tienden a convertirse en políticos del PP, por lo que hay interés social en mantenerlos ocupados).
4 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Los sistemas operativos multiprogramados son bastante sofisticados. Tener varios trabajos dispuestos para su ejecución, supone mantenerlos simultáneamente en memoria, y tener varios programas en memoria al mismo tiempo requiere una gestión de la memoria. Además, si hay varios trabajos dispuestos para ejecución, hay que tomar alguna decisión para elegir entre ellos, mediante una planificación adecuada de la CPU. La multiprogramación es el tema central de los sistemas operativos modernos. Los aspectos fundamentales a considerar son: Gestión de la memoria La memoria total del ordenador se ha de compartir de forma adecuada entre todos los programas y datos que en cierto momento tenga cada usuario del equipo. Planificación de la CPU Entre todas las tareas demandadas por los usuarios es posible establecer preferencias, lo cual implica que la CPU se planifique dando más tiempo a algunos trabajos o a los usuarios en función de unos niveles de privilegios establecidos. Control de concurrencia. El sistema operativo ha de gestionar adecuadamente todos los recursos del ordenador y ordenar la concurrencia de demandas de una forma adecuada. Por ejemplo si varios usuarios solicitan al mismo tiempo el acceso a un disco, se habrá de gestionar de forma correcta esta concurrencia para evitar bloqueos o situaciones impredecibles. Protección En un sistema donde acceden muchos usuarios es lógico que exista un sistema de protección que permita asegurar que a los trabajos de uno no pueden acceder los otros usuarios, ya sea por motivos de seguridad (por ejemplo para evitar pérdidas de información) o de confidencialidad. Abrazo mortal Es un problema que no se plantea solamente en un entorno de sistemas operativos, sino que puede aparecer en la vida real. Por ejemplo si dos personas han de cruzar un río, saltando entre piedras puestas en él, y con la condición de apoyar un solo pie, se llega al abrazo mortal cuando dos personas empiezan a cruzar desde orillas opuestas y se encuentran en el medio, llega este momento cuando los dos intentan pisar la misma piedra. En general esta situación se produce cuando un sistema consta de un número finito de recursos para distribuir entre un número dado de procesos en competencia. TIEMPO COMPARTIDO
5 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Cuando se desarrollaron los sistemas por lotes estos se definían por la agrupación de trabajos similares, que sólo permitían el acceso secuencial a la información. Al disponerse de discos, se hizo posible el acceso inmediato a todas las aplicaciones. Un sistema por lotes tiene algunos inconvenientes, para el usuario, el principal es que los usuarios no pueden interactuar con sus trabajos mientras se están ejecutando, lo cual crea problemas caso de necesitar depurar un programa. Como consecuencia posteriormente a estos sistemas aparecieron los conocidos como interactivos o "hands-on", en los que el usuario da y recibe las instrucciones de forma inmediata. En consecuencia se puede experimentar fácilmente con cualquier programa.
Un sistema operativo de tiempo compartido utiliza la planificación de la CPU y la multiprogramación para dotar a cada usuario de una pequeña parte del ordenador compartido. Permite que muchos usuarios compartan el ordenador. Como cada acción o comando suele ser breve, basta con un tiempo de CPU corto para cada usuario. Dado que el sistema cambia rápidamente entre usuarios, estos tienen la impresión de que cada uno de ellos dispone de su propio ordenador, cuando realmente un solo ordenador es compartido entre muchos usuarios. Esta idea fue expuesta en 1960, pero al ser difíciles de construir estos sistemas, no se difundieron hasta principios de los 70. TIEMPO REAL Otro tipo de sistemas son los conocidos como en tiempo real, que se utilizan frecuentemente como dispositivos de control en aplicaciones especializadas. Por ejemplo unos sensores proporcionan datos al ordenador, que los analiza y en consecuencia ajusta unos controles para modificar las entradas al sensor. Casos de este tipo se dan en aplicaciones científicas, médicas e industriales. Un caso típico de equipo que funciona bajo tiempo real, es un "controlador miniatura", que consiste en un pequeño ordenador, diseñado en una placa de circuito impreso, que se embebe en una máquina o cualquier otro dispositivo, con finalidad de control. Estos dispositivos se usan en maquinaria de fabricación, comprobación de equipamientos, telecomunicaciones, sistemas de control y seguridad, ventilación y aire acondicionado, monitorización del medio ambiente e investigación científica. Algunos ejemplos reales se citan seguidamente: Hornos Control de señales de tráfico Control de satélites Equipos musicales Verificación de componentes de automoción Control de riego agrícola Comparado con un PC, un ordenador de este tipo es menor, gasta menos energía y disipa menos calor. La
6 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
propiedad más importante es que pueden trabajar en ambientes hostiles.
8.2 Clasificación El sistema operativo es parte fundamental de cualquier ordenador. A grandes rasgos un sistema informático se puede dividir en: Hardware Sistema operativo o de explotación Programas de aplicación Usuarios El hardware facilita los recursos básicos de computación, mientras que los programas de aplicación definen cómo hay que utilizar estos recursos para resolver los problemas de los usuarios. Puede haber muchos usuarios diferentes tratando de resolver problemas distintos. Consecuentemente es habitual la existencia de distintos programas de aplicación. El sistema operativo controla y coordina el uso del hardware por parte de los distintos programas de aplicación de los diversos usuarios.
Un sistema operativo es similar a un gobierno. Los recursos básicos de un sistema informáticos son el hardware, el software, los datos y por supuesto los usuarios. El sistema operativo facilita los medios para el uso adecuado de estos recursos durante la operación del sistema informático, al igual que un gobierno, el sistema operativo no realiza por sí mismo una función útil, simplemente crea el entorno en el que otros programas puedan hacer un trabajo. También se puede considerar un sistema operativo como un asignador de recursos. Un sistema informático tiene muchos recursos susceptibles de ser requeridos para resolver problemas. El sistema operativo actúa como gestor asignando los recursos a programas y usuarios específicos, según las necesidades, para que realicen sus tareas. Otra concepción ligeramente diferente de un sistema operativo se basa en la necesidad de controlar distintos dispositivos de entrada/salida y los programas de usuario. Un sistema operativo es un programa de control.
7 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
En general no existe una definición completamente adecuada de un sistema operativo. Existen por que son una vía razonable para resolver el problema de crear un sistema informático manejable. En general es más fácil definir los sistemas operativos por lo que hacen mas que por lo que son. Los sistemas operativos se pueden clasificar en cuatro grupos: Por lotes (batch) Son los primitivos, de la época en que se manejaban tarjetas perforadas. Interactivos monousuarios Permiten que el usuario del equipo pueda interaccionar en cualquier momento con el proceso que esté ejecutando. Sólo permiten que trabaje un usuario en un momento dado. Tiempo compartido Permiten el acceso al ordenador a un número variable de usuarios de forma concurrente, y dada la gran velocidad del ordenador, es como si estuviera trabajando simultáneamente para todos ellos. Tiempo real Se utilizan ampliamente en aplicaciones industriales y de control. El sistema responde de forma inmediata a entradas del exterior.
8.3 Sistemas operativos habituales En el inicio de la informática cada fabricante tenía sus propios sistemas operativos que no eran compatibles con los de otros, incluso dentro de un mismo fabricante podían coexistir varios, caso típico de IBM. Estos se conocen como sistemas propietarios. La tendencia actual es hacia los llamados sistemas abiertos, lo cual indica que estos sistemas operativos trabajan sobre una gran variedad de máquinas con independencia del fabricante del equipo. La gran ventaja es el ahorro a todos los niveles, pues por ejemplo una empresa con ordenadores de distintos fabricantes puede tener totalmente uniformado todo su software. A continuación se comentan los sistemas operativos más difundidose en los últimos 25 años. MS-DOS Fue un sistema operativo adaptado por Microsoft para IBM (PC-DOS), y en concreto para el modelo PC, aunque se popularizó rápidamente siendo el más usado a nivel personal. Fue desarrollado en el año 1979 por Tim Paterson que trabajaba en Seatle Computer Products, y adquirido por Microsoft Corporation. En la bitácora Pmurillo se puede ver la historia de la elección de IBM para su nuevo ordenador personal. El espíritu del MS-DOS fue el de proporcionar una base flexible para el software de un microordenador. Tiene un núcleo con un conjunto de comandos residentes y una capa con comandos transitorios que se cargan en memoria cuando se necesita su ejecución para a continuación abandonarla. Dado que el entorno es poco amigable se crearon añadidos que proporcionan un ambiente de trabajo más fácil, el que ha tenido más éxito es WINDOWS (no estrictamente por razones de calidad), que ofrece un entorno gráfico de ventanas y sencillez de manejo mediante un ratón, basado en desarrollos de la empresa XEROX. La principal desventaja de MS-DOS es que es monousuario y monotarea, es decir que sólo puede trabajar 8 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
un usuario (no admite terminales) y que a su vez este sólo puede ejecutar un programa al mismo tiempo, aunque este último problema se resuelve con el entorno Windows. Actualmente ha quedado obsoleto, aunque se comercializa en algunos países de Asia, pues a partir del Windows XP ya son en sí sistemas operativos completos (aunque siguen siendo muy deficientes) y no necesitan para funcionar el MS-DOS. UNIX UNIX fue diseñado en los laboratorios Bell de la empresa AT&T, para su empleo en ordenadores marca Digital. Dadas sus características pronto se difundió ampliamente en ambientes universitarios, por lo que en el prrincipio se consideró como un sistema operativo orientado hacia ambientes de investigación y no en aplicaciones de gestión. Actualmente está muy difundido en todo tipo de equipos aunque se ha perdido la estandarización habiendo muchas versiones diferentes poco compatibles entre si. Otra versión es el Solaris de la empresa SUN. Una ventaja sobre otros sistemas operativos es que este sistema es multiusuario, por lo que un equipo admite gran cantidad de terminales trabajando simultáneamente, además de la robustez y seguridad. LINUX Linux es básicamente un sistema operativo compatible con UNIX, que opera bajo equipos compatibles con el estándar del mercado y grandes sistemas informáticos. Su ventaja principal es que su costo es prácticamente nulo, y es "software" libre, que significa que lo podemos dsitribuir y modificar libremente, según la licencia GNU. EL núcleo fue escrito por Linus Torvalds (1969-), como un sistema operativo abierto y estandar, siendo desarrollado y ampliado posteriormente por muchos programadores, de forma independiente. El código fuente, gestores de dispositivos y utilidades están disponibles gratuitamente. Actualmente supone una gran competencia para Windows, más que para UNIX, de hecho en el futuro puede desbancarlo, no sólo por ser gratis y disponer de los fuentes, sino por superioridad y más seguridad. Diversas administraciones públicas, como por ejemplo la Junta de Andalucía y la de Extremadura, en España, y otras a nivel mundial lo están considerando como estándar, lo cual implicará una amplia utilización en el futuro. Un grupo de profesores de la Universidad de Murcia, está desarrollando una versión para la enseñanza, denominada CALDUM. Como ejemplo de la gran difusión del Linux, se tiene el caso de IBM que junto con Citizen han creado un reloj con este sistema operativo y masa inferior a 250 gramos. Comercialmente se conoce como WatchPad, e incluye tecnología de voz y conectividad por infrarrojos. Para interactuar con él es mediante una pantalla táctil de cristal líquido QVGA. También se ha incorporado a los teléfonos móviles como por ejemplo el proyecto Android de Google, para dotar a los móviles celulares de un sistema operativo libre y gratuito, a direnecia de otros que se usan actualmente como Symbian y Windows Mobile. Como ejemplo de la difusión que está tomando Linux, en la siguiente tabla se muestran los sistemas operativos que gestionan las 500 computadoras más potentes a nivel mundial (datos año 2007)l.
9 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Extracto del TOP 500 Nro. Fabricante Ordenador
Procesadores SO
1
IBM
eServer Blue Gene
131072
CNK/Linux
2
IBM
eServer Blue Gene
40960
CNK/Linux
3
IBM
eServer pSeries p5 575 1.9 GHz
12208
AIX
4
SGI
SGI Altix 1.5 GHz
10160
Linux
5
Bull
NovaScale 5160, Itanium2 1.6 GHz 8704
Linux
6
Dell
PowerEdge 1850, 3.6 GHz
Linux
7
NEC/Sun
Sun Fire X4600 Cluster, Opteron 10368 2.4/2.6 GHz
Linux
8
IBM
eServer Blue Gene
16384
CNK/Linux
9
Cray
Red Storm Cray XT3, 2.0 GHz
10880
UNICOS/Linux
10
NEC
Earth-Simulator
5120
Super-UX
11
IBM
JS20 Cluster, PPC 970, 2.2 GHz
4800
Linux
12
IBM
eServer Blue Gene
12288
CNK/Linux
13
Cray
Cray XT3, 2.4 GHz
5200
UNICOS
14
CDC
Intel Itanium2 Tiger4 1.4GHz
4096
Linux
15
IBM
eServer Blue Gene
8192
CNK/Linux
16
IBM
eServer Blue Gene
8192
CNK/Linux
17
IBM
eServer Blue Gene
8192
CNK/Linux
18
IBM
eServer Blue Gene
8192
CNK/Linux
19
IBM
eServer Blue Gene
8192
CNK/Linux
20
Cray
Cray XT3, 2.6 GHz
4096
UNICOS
PowerEdge 1855, 3.2 GHz
900
Windows Compute Server 2003
130 Dell
9024
Cluster
En la tabla (fuente: blog de Javier Smaldone, bajo licencia Creative Commons) podemos ver las 20 primeras entradas de la lista, con el añadido del primer sistema no-Unix, que aparece en la posición 130 (es un sistema Windows). Podemos ver que 16 de las primeras 20 computadoras corren Linux, lo que representa un 80%.
LINUX, UNA REVOLUCIÓN IMPREVISTA Este sistema operativo, que nació en 1991, se enfrenta a Windows con una filosofía de código abierto y uso libre Cuando Linus Torvalds, el estudiante finlandés que creó Linux publicó su autobiografía la tituló Just for fun. Algo así como Sólo como diversión. Y el subtítulo todavía era más claro: La historia de un revolucionario accidental. Es decir, la contundente emergencia de Linux en el mercado de los sistemas operativos, con una filosofía que contradice a la de Microsoft y le planta cara, no estaba en los planes de aquel chico que lanzó en 1991 lo que sería Linux, un sistema operativo de código abierto, que permite conocer sus tripas técnicas y modificarlo.
10 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
..... Doce años más tarde, sin embargo, grandes empresas como IBM, HP o Oracle anuncian productos con Linux y el diario Wall Street Journal lo incluye como una de las diez tecnologías que "usted debe conocer". Como teorizan en el diario, "Linux podía haberse quedado como una herramienta para rebeldes del software", pero es una "revolución del código abierto que sacude el mercado". En 1991, Torvalds; empieza en los foros de Internet a dar noticias sobre lo que está haciendo y pide ayuda-"Hola ( ... ). Estoy trabajando en un libre sistema operativo (un hobby, que no será grande y profesional como gnu)". Miles de programadores participaron y participan sin cobrar en el desarrollo de este programa. Unix reinaba en la informática corporativa. Apple tenía una robusta herramienta, pero sólo trabajaba sobre máquinas de su marea. Las escuelas de negocios todavía discuten hoy el impacto que tuvo para Apple retener su sistema operativo vinculándolo a su máquina en un binomio cerrado. Apple se ha quedado con una modesta cuota de mercado de usuarios, eso sí, entusiastas. IBM abrió su arquitectura a otros fabricantes de ordenadores y desató su propia competencia. Mientras, Bill Gates había comprado por 50.000 dóla-res el esqueleto de un sistema operativo, DOS, y reinaba en el universo del PC personal. Menos amiga-ble que el sistema operativo de Apple, tenía la ventaja de que funcionaba sobre ordenadores compatibles con el diseño de IBM. Luego vendría Windows. Cuando Torvalds escribe que está trabajando sobre un sistema operativo libre (free) se está apuntando a un movimiento lanzado en 1983 por Richard Stallman conocido como Proyecto GNU. La idea era que el software debia ser abierto y gratuito licencia GPL). Esta licencia permite usar el programa sin restricciones, redistribuirlo sin limitaciones, modificarlo y distribuir las modificaciones. Con Microsoft o cualquier programa bajo licencia propietaria, los clientes adquieren la licencia al usar un programa, pero tienen vetado escudriñar su panza, la arquitectura de su código, y, obviamente su redistribución. Linux sigue bajo la licencia GPL con que nació. No obstante, sí se pueden añadir ejecutables propietarios, con código cerrado, que no supongan cambiar Linux sino trabajar sobre él. Es decir, cuando una empresa como Oracle ofrece sus productos que trabajan sobre Linux Oracle sigue siendo propietaria de estos productos porque no alteran Linux sino que lo usan de plataforma. En 1995 se fundan compañías, como Red Hat, que comercian con Linux. La pregunta irremediable es: ¿cómo alguien piensa hacer negocio con un programa con licencia gratuita? Estas empresas pueden comercializar la edición de] programa en un CD con manual de instrucciones o la instalación y mantenimiento del mismo a un cliente. Red Hat, por ejemplo, obtiene ingresos también con cursos de Linux que certifican al alumno como conocedor del sistema. Cada vez más empresas desarrollan sobre Linux ejecutables de los que son propietarios. Ahora, Linux es una palabra que preocupa a Microsoft porque gana adeptos más allá de comunidades ilustradas. Sus mejores propagandistas son las corporaciones que lo adoptan y las empresas informáticas que lo ofertan. Tras abrirse a Linux el mundo empresarial, ahora empieza su penetración en el mundo doméstico, temeroso de su esoterismo. Un obstáculo era su fama de antipático en el manejo. ¿Un juguete para chicos listos? Linux inicialmente obligaba a dar órdenes escritas a la máquina. Posteriormente aparecieron interfaces más convivenciales para usuarios acostumbrados a la rutina de las ventanas (windows).
11 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Otro factor que ayuda a esta popularización son las políticas de algunas administraciones en favor del software libre. Desde Brasil a Alemania, pasando por el Gobierno extremeño o el PP valenciano, se han pronunciado en favor del software libre. Argumentos: las administraciones no tienen por qué pagar para conseguir algo que es gratuito y, no es lógico usar una herramienta tan crítica cuvo secreto está en otras manos. Microsoft, que había desdeñado la emergencia de Linux reacciona. En un informe a la autoridad bursátil norteamericana de diciembre de 2002, la propia compañía escribe: la popularización del movimiento del código abierto supone "una significativa amenaza al modelo de negocio de la compañía, incluyen~ do los esfuerzos de sus defensores para convencer a los gobiernos que opten por el código abierto". Microsoft advierte que si esta opción gana adeptos, Ias ventas de la compañía pueden bajar, tendrá que reducir los precios que carga sobre sus productos y, los ingresos y márgenes pueden declinar". Microsoft ha replicado con su política de código compartido por la que, a las agencias de seguridad de determinados países y tras suscribir un acuerdo bilateral, les abre el código de Windows. Microsoft predica que los gobiernos han de ser neutrales frente al dilema de licencia propietaria o libre y tomar sus decisiones sólo en función del rendimiento de los programas. Microsoft se apoya en una consultoría externa para argumentar que Linux es gratis, de entrada, pero resulta más caro a la larga por costes de mantenimiento e ineficiencias. Lo cierto es que aquella inocente diversión de un estudiante preocupa a una compañía que ha instalado Windows en el 95% de los PC. Todo el artículo en El País - Negocios...
Software libre La industria Linux responde a Microsoft Marimar Jiménez y Javier F. Magariño (Cinco Dias, 17 mayo 2003) Medio centenar de empresas españolas viven del software libre, con unas ventas medias de 450000 euros, no somos un puñado de voluntarios sin sueldo. Y si no que se lo pregunten a las personas que trabajan desarrollando software libre en HP, IBM, Sun Microsystems, Wall Street o en universidades de prestigio de todo el mundo. Todos están pagados, espeta Juan Tomás García, presidente de la asociación española de usuarios y desarrolladores de software libre Hispalinux. Esta declaración defensiva se produce unos días después de que Steve Ballmer, presidente de Microsoft, visitara España con motivo del lanzamiento en nuestro país de Windows Server 2003. La mano derecha de Bill Gates advirtió ante un foro repleto de directivos del error que supone introducir aplicaciones de código abierto en las empresas: 'Al ser un grupo de desarrolladores que trabaja gratis, su actividad se convierte en algo muy impredecible'. Y añadió que el avance de Linux 'no genera ni puestos de trabajo ni inversiones en I+D'. Estas duras críticas chocan, en cambio, con la preocupación que parece vivirse en el seno de la compañía de Redmond. Hace tres días, el diario International Herald Tribune publicaba el contenido de un correo interno del director ejecutivo de ventas de Microsoft, Orlando Ayala, en el que apostaba por una guerra de precios, al autorizar a sus directivos
12 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
a hacer fuertes recortes en los mismos: 'Bajo ninguna circunstancia debemos perder frente a Linux', arengaba en el e-mail Tras la conocida decisión de divulgar el código fuente de Windows y donar importantes sumas de dinero a la comunidad educativa, la nueva política de Microsoft parece incluir importantes descuentos, que estarían respaldados por un fondo especial de nueva creación. 'Los nervios de Ballmer no son para nosotros sino la mejor de las señales, la que nos indica que vamos por el buen camino, que estamos consiguiendo resultados, que estamos venciendo', asegura Javier Cuchí, representante de Hispalinux. Cuando este experto habla en plural se refiere a todo un colectivo de desarrolladores y de empresas cuyo negocio gira en parte o totalmente alrededor del software libre. 'No es cierto que estas herramientas no generen una industria. Otra cosa es que aún sea incipiente', dice Jesús González Barahona, profesor del área de telemática de la Universidad Juan Carlos I. Y es que no es lo mismo software libre que gratuito. En España se calcula que hay en torno a medio centenar de empresas ligadas al desarrollo, implantación y mantenimiento del software libre. Generalmente son pequeñas: sus plantillas van de los 4 a los 50 empleados y sus ventas oscilan entre los 300000 y 600000 euros, aunque hay alguna excepción. La compañía Ándago, fundada en enero de 1996 y con 45 trabajadores, tuvo unos ingresos cercanos a los tres millones de euros en 2002. 'Aún no hemos alcanzado los beneficios, pero la previsión es lograrlos a lo largo de este ejercicio', cuenta su presidente, José María Olmo. El pasado año, Ándago sufrió la crisis económica, ya que sus principales clientes eran operadores de telecomunicaciones que frenaron en seco sus inversiones tecnológicas. Hoy dirige sus servicios y consultoría hacia otros sectores como la banca y la administración. El empuje de pymes como Ándago, Disoft, Igalia, Internet Web Serveis o Yaco Ingeniería, por citar algunos ejemplos, empieza a consolidar una red de entidades que fomenta el software no propietario en España. De hecho, a la vuelta de un mes, una veintena de ellas presentará la Asociación de Empresas de Software Libre (Aesli). 'El objetivo es fomentar la idea de que detrás de Linux hay iniciativas empresariales', comenta una de las promotoras, Alicia Zurita. Ella, junto a David Aycart, fundó Esware en 1999. La compañía, con 24 empleados, enfoca su actividad hacia la venta de software, formación y consultoría. 'La situación que describe Ballmer es de hace seis años. Resulta absurdo que desprecie así una tecnología aceptada por toda la industria', defiende Aycart. En España, algunas Administraciones públicas como la extremeña, la andaluza, la de Valencia o Aragón han apostado abiertamente por esta corriente, con el convencimiento de que les permitirá crear una industria local de aplicaciones informáticas. ¿Ocurrirá realmente? 'Lo cierto es que, de otra forma, no se generaría', apunta Barahona.
Roberto Di Cosmo es un investigador italiano en ciencias de la computación, que se encuentra radicado en Francia y es docente de la Universidad Paris 7. Además de su extensa labor científica, es un entusiasta promotor del Software Libre y luchador en contra de las patentes de software (y como si esto fuera poco, ¡es un tipo muy divertido también !). Su artículo "Trampa en el Cyberespacio" es un pequeño ensayo en donde analiza la situación actual de la informática en lo que se refiere al software propietario. Es un excelente documento (muy legible, además) para entender los peligros que entrañan los manejos de algunas empresas de software (con Microsoft como el caso más notable).
13 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Roberto tiene gran cantidad de material en su sitio web (http://www.dicosmo.org) y además lidera un proyecto de desarrollo de DemoLinux, una distribución de Linux que solo requiere de un CD booteable para funcionar (http://www.demolinux.org). Para quienes lean inglés, recomiendo ampliamente su libro "Hijacking the World. The Dark Side of Microsof". En su sitio hay un enlace para comprarlo (cuesta unos 9 dólares en versión electrónica). Quienes no lean inglés (o tengan problemas para comprar un libro a 9 dólares a través de Interne), pueden disfrutar de la traducción al castellano del primer capítulo (publicada por el semanario uruguayo Brecha en un artículo titulado "La democracia en peligro". Trampa en el Cyberespacio Versión HTML(online). Tamaño: 72k
Bibliografía (disponible en la Biblioteca Universitaria): - Lucas, H y otros. Sistema operativo UNIX. Paraninfo S.A. Madrid 1986 - Milenkovic, Mila. Sistemas Operativos. Concepto y diseño. Mc Graw Hill. Madrid 1998 - Stallinger, William. Sistemas operativos 4ª ed. Prentice Hall, Madrid 2001 - Tanembaun Andrew S. Sistemas operativos modernos. Prentice Hall, México 1992 - Programación en Linux con ejemplos. Prentice Hall. Buenos Aires 2000
Enlaces de interés en internet: Can We Make Operating Systems Reliable and Secure? Debian. Linux Fundación Vía Libre. Argentina Sourceforge.net Univ. Pontificia de Salamanca. Sistemas operativos
fresqui
del.icio.us
meneame
Buscar en la web
Búsqueda escéptica
14 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Búsqueda en mis webs
ABC - El (c)olor del colonialismo
con la tecnología de
Loading...
Imprimir
Aquí puedes cambiar el tamaño y color del texto
Página Rafael Barzanallana Actualización en Fisica Biografía de Edward Lorenz
Actualización en Avisos. II, trabajos capítulos 2 y 3 de la asignatura
Actualización en Software. Tutorial sobre la nueva versión de Google Docs
Actualización en Software. Tutorial sobre el programa HTTrackl
Actualización en Avisos. II, Sobre GoogleDocs; enlace recomendado http://www.escepticismo.es/menu-enlaces-escepticismo.html XML
Powered by FeedSweep
Enlaces de interés
Skip Navigation Inicio Divulgación Física Religiones Fraudes médicos Fraudes nutrición Fraudes psicología Informática
Fraudes en psicología
Los psicólogos de lo paranormal (abduciones) L.A. Gámez Teoría de recuperación de recuerdos y síndrome de falso recuerdo. John Hochman La psicología científica y las pseudopsicologías. Carlos Álvarez González Psicología para escépticos La psicología científica y los cuestionamientos al psicoanálisis Enciclopedia de las alegaciones, fraudes y engaños de lo oculto y lo sobrenatural El ruido electromagnético y los lugares embrujados Laberinto postmoderno
15 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Capitulo 8, 2006/07. Universid...
http://www.um.es/docencia/barzana/II/Ii08.html
Escepticismo en España
ARP-SAPC Círculo escéptico Magonia
Escepticismo en América
Pensar. Argentina Escépticos. Colombia Arev. Venezuela James Randi. EE.UU. CSI. EE.UU.
Sugerencias y consultas
Nombre: Tel (opcional):
eMail:
Consulta o sugerencia: Protección de datos: los datos proporcionados sólo se utilizan para responder. No se almacena ninguna información
Enviar consulta
Rafael Menéndez-Barzanallana Asensio Departamento Informática y Sistemas. Universidad de Murcia Bajo Licencia Creative Commons Actualizado 2008/03/18
16 de 17
18/04/2008 20:01
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Introducción a la Informática. Estudios GAP facultad Derecho Capítulo 9. Redes y comunicacaciones Asignaturas Introducción a la Informática Introducción Ofimática La información Historia de la Informática Representación de la información Periféricos de un ordenador Lenguajes de programación Sistemas operativos Redes y comunicaciones Informática Aplicada a la Gestión Pública Introducción a la ingeniería del software Metodologías de desarrollo Metodologías habituales Bases de datos. Introducción Bases de datos. Organización ficheros Bases de datos relacionales Bases de datos comerciales Introducción a internet Intercambio electrónico de datos (EDI) Comercio electrónico Teletrabajo Calidad Informática Aplicada al Trabajo Social Fundamentos de los ordenadores Los ordenadores en la actualidad Introducción al hardware Fundamentos del software Aplicaciones software Diversos usos de los ordenadores Comercio electrónico Inteligencia artificial Prácticas Visión general de la informática Internet Editores de textos Hojas de cálculo Bases de datos Lenguaje Pascal Avisos Escepticismo Divulgación Informática
1 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Ciencia en general Biología Criminología Inicio Contacte
Introducción Redes de ordenadores y sus tipos Telefonía Sistema de posicionamiento global Presentación de resumen Selecciona un texto y pulsa aquí para oírlo
Importante: las imágenes miniatura se amplían pulsando sobre ellas.
9.1 Introducción Este capítulo está orientado a usuarios de ordenadores sin conocimientos previos en redes y comunicaciones. No ofrece un tratamiento exhaustivo de las redes de ordenadores, sin embargo aporta una base suficiente sobre los conceptos generales y tecnologías comunes. Durante el siglo pasado se desarrollaron una gran variedad de redes de comunicaciones, hasta alcanzar la situación actual, en la que rodean la Tierra y se extienden por el espacio. La radio, la televisión, el teléfono e internet, permiten que millones de personas estén en contacto, a menudo salvando grandes distancias. Enlaces recomendados: Televisión Digital Terrestre (TDT) 11 mitos de la televisón en alta definición desmentidos Aunque los primeros sistemas de comunicación, como el telégrafo , utilizaban un código digital (código Morse) para transmitir la información, el mayor peso de los desarrollos necesarios para dar lugar a estas redes de comunicación ha ido dirigido hacia la transmisión de voz e imagen, de forma analógica. Con la llegada de los ordenadores, la situación ha cambiado de nuevo, la información se envía en forma digital. La combinación de ordenadores y redes de comunicaciones es una de las principales áreas de desarrollo en la actualidad, teniendo un impacto tan profundo en el estilo de vida de millones de personas como lo tuvieron la radio y el teléfono en su momento. Un proceso cualquiera de comunicación está constituido por un EMISOR que envía INFORMACIÓN a través de un CANAL de transmisión, que es recibida por un RECEPTOR. Podemos por tanto, hablar de comunicación oral, escrita, etc., donde el canal será respectivamente el aire, el papel, etc. La información no es transmitida tal como la emitimos, sino que se utilizan unos CÓDIGOS comprensibles por el emisor y el receptor, y que se comunica mediante SEÑALES físicas. Los códigos
2 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
serán el lenguaje utilizado y las señales las ondas sonoras, luminosas, etc. En muchos casos, la utilización de códigos y señales exigirá que la información sea CODIFICADA en la transmisión y DECODIFICADA en la recepción. Es decir, pueden ser codificadores/decodificadores los sentidos, los traductores, etc. El objetivo de un proceso de comunicación es que la información que se desea transmitir sea idéntica a la que se recibe. Si falla cualquiera de los elementos que intervienen (transmisor, canal de transmisión o receptor), se producen pérdidas de información; para intentar evitarlo, se repiten los mensajes en su totalidad o en parte (redundancia), o se acompañan de códigos especiales (de control) que permitan reconstruirla. La comunicación suele ser en ambas direcciones alternativa o simultáneamente, convirtiéndose en este caso el transmisor en receptor y viceversa. Lo dicho de una forma general se puede extrapolar a la informática con la intervención de diferentes máquinas que comunicarán las informaciones a diversos tipos de receptores. Las principales razones de ser de las comunicaciones informáticas son: Necesidad de enviar y recibir datos Compartir recursos. No todos los usuarios de un sistema informático van a poder disponer de un sistema adecuado a sus necesidades, por lo que es útil compartir tanto los equipos como los programas Compartir carga. Consiste en distribuir el trabajo que supone el proceso de datos entre varios ordenadores (caso de un banco en hora punta, el ordenador central se puede pedir a otro que le ayude, distribuyendo así la carga de trabajo). Estas necesidades han conducido al gran desarrollo de las redes de comunicaciones. Veremos cómo es posible conectar ordenadores y terminales. Un terminal puede ser "tonto" o inteligente, el primero consiste en un monitor y un teclado, y el segundo es un ordenador completo, es decir, se diferencian en que el terminal inteligente posee capacidad de proceso de información de forma autónoma. Las redes se distinguen primeramente por la distancia existente entre sus terminales, clasificándose en: WAN: Redes de Area Remota que interconexionan sistemas geográficamente dispersos. LAN: Redes de Area Local que conectan sistemas próximos. PAN: Redes de Area Personal, que conectan sistemas muy próximos. Como medio físico o canal de comunicación se usan el aire o cables (par trenzado, coaxial y fibra óptica). No se puede hablar de uno mejor que otro, sino de cuál es el más adecuado a cada necesidad y dependerá de las prestaciones, coste, fiabilidad de instalación y capacidad de integración con otros sistemas. Se diferencian también por la velocidad de transmisión. Esta se mide en bits por segundo frecuentemente confundida con baudios. El baudio es una unidad de velocidad de señalización, o de modulación, igual al número de condiciones discretas o símbolos que se suceden en la línea, por segundo. La velocidad de transmisión en baudios coincide con la velocidad de transmisión en bit/s, sólo si cada símbolo representa un bit. Un baudio es el inverso del intervalo del pulso más corto de señalización medido en segundos. Un modem a una velocidad de 2400 bit/s, mediante un sistema de modulación cuaternario por modulación de fase, transmite 1200 símbolos por segundo, y por lo tanto la velocidad de modulación es de 1200 baudios. Un sistema que no emplee bit de parada ni de arranque tiene una velocidad de transmisión en bit/s igual a la velocidad de modulación en baudios. Un sistema de transmisión de 5 bit, con un pulso de arranque de 13.5 ms y un pulso de parada de 19 ms, con una duración total par el carácter de 100 ms, tiene una velocidad de señalización o modulación de: 1/(13.5*10-3) = 74 baudios y una velocidad de transmisión de:
3 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
5/(100*10-3) = 50 bit/s Las líneas pueden ser de los tipos siguientes: Líneas de banda estrecha (banda baja), Líneas de banda de voz (banda media), Líneas de banda ancha (banda alta). El intercambio de información entre los distintos dispositivos tiene que estar regido por unos PROTOCOLOS, o lenguajes de diálogo que lo regulen. Consisten en un conjunto de normas comunes para establecer la comunicación tanto para el receptor como para el emisor. En el inicio de la industria informática, cada fabricante intentaba idear una serie de procedimientos, con los cuales podía controlar la información y así monopolizar el mercado de las ventas de los distintos elementos que componen la informática. Con el paso del tiempo esta industria se ha extendido tanto, que surgió la necesidad de compatibilizar los procedimientos de la información. Actualmente existen asociaciones de fabricantes de ordenadores, y organizaciones internacionales como por ejemplo ISO, que establecen unas recomendaciones sobre los procedimientos normalizados de comunicación, que van a gobernar ese intercambio de información. Un protocolo es pues, un conjunto de procedimientos normalizados o estandarizados que gobiernan el intercambio de comunicaciones, acuerdos o convenios que se adoptan para poder establecer una comunicación correcta; afectan a las frecuencias de las señales, reconocimiento de la conexión, código de recepción y emisión, control de errores, control de la sincronía, inicio de las operaciones, establecimiento de los caminos por lo que irán los mensajes, asegurar que los datos han sido recibidos, etc.
9.2 Redes de ordenadores y sus tipos Una red de ordenadores es un conjunto de equipos que pueden almacenar y procesar datos electrónicos, interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con los demás. Las máquinas conectadas pueden ser, microordenadores, miniordenadores, grandes ordenadores, terminales, impresoras, dispositivos de almacenamiento, cámaras, entre otros. En una red de ordenadores se puede almacenar cualquier información, incluyendo textos, imágenes, mensajes de voz e imágenes visuales como por ejemplo fotos y vídeos. Como se ha visto las redes aportan beneficios, los más habituales son: A) Compartir información de forma flexible Una red de ordenadores permite a los usuarios compartir casi instantáneamente y sin esfuerzo la información. Por ejemplo, un editor de libros, escritores, asociaciones de editores y artistas pueden necesitar trabajar conjuntamente en una publicación. Mediante una red pueden compartir los mismos archivos electrónicos, cada uno desde su ordenador y transferir y copiar archivos. Estos pueden añadir material simultáneamente a los ficheros, o eliminar partes, sin interrumpir el trabajo de los demás. Las ventajas son evidentes, como por ejemplo con el programa Google docs. B) Libertad para elegir la herramienta adecuada Si se opta por un entorno de red abierto, esto añade otra dimensión a las capacidades de compartir información inherente a la red. Esto permite trabajar con el equipamiento que más satisfaga a las necesidades del usuario. Por ejemplo en una red abierta a los estándares internacionales, pueden estar trabajando unos usuarios bajo Windows, mientras que otros lo pueden estar haciendo 4 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
simultáneamente bajo Linux, en estaciones de trabajo o desde otros PCs. C) Reducción de costos al compartir equipamiento Una razón muy importante para disponer de una red de área local es el compartir equipamiento, lo cual implica grandes beneficios. Por ejemplo, en una red de veinte microordenadores, se puede disponer de una impresora laser en color, para todo el conjunto, por lo que el ahorro sería considerable frente a la opción de que los veinte equipos no estuvieran conectados en red, e incluso dado el coste de este tipo de impresoras sería económicamente inviable el que cada usuario tuviera una de estas impresoras. Lo mismo que se ha visto en el caso previo, de la impresora de alta calidad, se puede concluir de otros dispositivos, como por ejemplo un grabador holográfico, un escaner de alta velocidad o un sistema de fax. En una situación de red se puede compartir cada uno de estos equipos, mientras que aisladamente sería improbable el que dispusiera cada usuario de ellos. D) Uso flexible de la potencia de computación Una de las ventajas más claras de una red, es la posibilidad de usar la potencia de un equipo de la red, distinto al que estamos trabajando. Por ejemplo si se han de realizar cálculos matemáticos o de ingeniería complicados, se podrá acceder desde un punto de red, al equipo de dicho entorno que tenga potencia y rapidez suficiente para realizarlos en un tiempo razonable. Otra alternativa es el procesamiento paralelo, es decir resolver el problema de cálculo mediante el trabajo simultáneo de varios equipos de la red. Algunos programas son demasiado complicados para poder ejecutarse en microordenadores individuales, o tardarían mucho tiempo, pero mediante el procesamiento paralelo entre los diversos equipos de la red se aceleraría mucho el cálculo. Un ejemplo es el proyecto BOINC, para compartir ordenadores de forma desinterasada, y otro reciente es el buscador Wikia. E) Comunicación efectiva y fácil con todo el mundo Mediante las redes de área geográficas, se pueden interconectar redes de área local a escala mundial. De esta forma se puede transferir información, prácticamente de forma instantánea, a cualquier lugar, como por ejemplo los correos electrónicos. Topología de red y tipos de redes Datos frente a Información, rutinariamente se intercambian ambos términos, técnicamente no son lo mismo. Datos son entidades con un significado dado, son la forma de representar la información, pero no la información en sí misma. Para propósitos habituales la información son datos decodificados en forma legible. Por ejemplo, los datos de un fichero se pueden decodificar y mostrar en una pantalla de ordenador o trasladarlos a una impresora. ¿Cómo se transfieren los datos en una red?, para transferir señales entre ordenadores se necesitan: un medio de transmisión para portar las señales y dispositivos para enviar y recibir las señales. A) Medios de transmisión de la red Las señales eléctricas se generan como ondas electromagnéticas (señales analógicas) o como una secuencia de pulsos de voltajes (señales digitales). Para propagarse, una señal debe viajar a través de un medio físico, el llamado medio de transmisión. Hay dos tipos de medios de transmisión, guiados y no guiados.
5 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Los medios guiados se fabrican de forma que las señales se confinan a un canal de transmisión estrecho y en el que se puede predecir su comportamiento. Son habituales, los cables de par trenzado (como los telefónicos), cables coaxiales (como los de las antenas de televisión) y cables de fibra óptica. Los medios no guiados son partes del entorno natural, a través de los que se transmiten las señales bajo forma de ondas. Las frecuencias habituales se corresponden con el espectro de radioondas (VHF y microondas) u ondas de luz (infrarrojo o visible). Para planificar una red de ordenadores, se exige un medio de transmisión, o combinación de ellos, basándose en las circunstancias físicas, la construcción de la red y las prestaciones que se requieren de ella. Un objetivo habitual es guardar el coste al mínimo, sobre la base de las necesidades planteadas. B) Dispositivos de transmisión y recepción Una vez que se tiene un medio de transmisión, se necesitan los dispositivos que propaguen y reciban las señales a través del medio elegido. Estos pueden ser, adaptadores de red, repetidores, concentradores, transmisores diversos y receptores. Adaptadores de red Se fabrican de diversas formas, la más habitual es una placa de circuito impreso que se instala directamente en un zócalo de expansión, otros están diseñados para microordenadores portátiles, por lo que consisten en un dispositivo pequeño, que se conecta a la salida de impresora o a una ranura PCMCIA, sin embargo los nuevos ordenadores lo llevan incluido en la placa base. Estos adaptadores se fabrican en diversas versiones, de forma que se puedan conectar a cualquier tipo de medio guiado. También se pueden conectar a dispositivos que puedan transmitir mediante medios no guiados. Repetidores y Hubs Se usan para incrementar las distancias a las que se puede propagar una señal de red. Cuando una señal viaja a través de un medio encuentra resistencia y gradualmente se hace más débil y distorsionada. Técnicamente este proceso se denomina atenuación. Puentes (Bridges) Permiten conectar una LAN a otra red con diferentes protocolos en los niveles físico y de enlace, pero siempre que en los niveles superiores usen los mismos protocolos. Pasarelas (Gateways) Se usan para conectar una LAN a otra red que utilice otros protocolos. Se emplean para conexión entre diferentes redes locales, o entre locales y ampliadas (WAN). Concentradores Se usan en redes para proporcionar un punto común de conexión para dispositivos. Todos los concentradores tienen repetidores Transmisores de microondas
6 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Los transmisores y receptores de microondas, especialmente satélites, se usan para transmitir señales a grandes distancias a través de la atmósfera. En EE.UU. las principales bandas de microondas autorizadas para telecomunicaciones fijas están en el rango de frecuencias de dos a 40 GHz. Las licencias están concedidas para subrangos inferiores, por ejemplo el Gobierno Federal tiene una en el rango de 7.125 a 8.40 GHz, mientras que el rango de 10.550 a 10.680 está adjudicado a usuarios privados. A continuación se muestra un esquema del espectro electromagnético completo:
La siguiente figura muestra el proceso de
transmisión que sufren las microondas en la atmósfera:
Transmisores infrarrojos y láser Son análogos a los de microondas. También usan la atmósfera como medio, sin embargo sólo son válidos para distancias cortas, ya que la humedad, niebla, obstáculos y otros fenómenos ambientales pueden causar problemas de transmisión. Conectividad en distancias cortas Las redes de área personal (PAN) como tecnología de tercera generación, significan un impulso al proceso de convergencia entre las industrias informática y de comunicaciones. Desde el momento en que los teléfonos móviles se empiecen a utilizar masivamente como ordenadores (como ejemplo el Nokia N96) se producirá una reestructuración del mercado. Los sectores de GPS, telefonía móvil, ordenadores y en general procesadores, dejarán de ser independientes. Estas redes trabajan en una banda de frecuencias de microondas, que no precisa licencia, 2.4 GHz. Las interferencias constituyen un problema en la tecnología radio en general, que se manifiesta
7 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
activamente en VLAN y también en distancias cortas o PAN por cuanto trabaja en la banda sin licencia IMS de 2.4 GHz, como los hornos de microondas tanto domésticos como industriales. En particular, es de gran relevancia la problemática ligada al efecto de las interferencias en sistemas de radio producidas por los hornos de microondas. El dispositivo fundamental de un horno de microondas es, en lo que respecta a interferencias, el magnetrón de cavidades resonantes, es un tubo empleado típicamente como oscilador de potencia en el transmisor de los sistemas de radar. En este tubo, el flujo de electrones desde el cátodo al ánodo se controla por medio de un campo magnético creado por un sistema de bobinas o bien un imán permanente ubicado en el magnetrón. El comportamiento de un magnetrón se puede analizar con relativa facilidad mediante procedimientos gráficos que, en esencia, se reducen a dos tipos: diagrama que relaciona mutuamente la intensidad de campo magnético, la corriente en el magnetrón, la variación de frecuencia, y la tensión entre ánodo y cátodo, así como el rendimiento; y diagrama de Rieke, que proporciona la relación existente entre la impedancia de carga y la frecuencia, por un lado, y el rendimiento, por otro Estos magnetrones de hornos de microondas son equipos de pequeña potencia en comparación con los magnetrones utilizados en radar. Tipicamente, la potencia de salida de un magnetrón de horno de microondas está comprendida aproximadamente entre 650 y 3000 watios. Los hornos de microondas pueden emitir legalmente niveles significativos de fugas en las bandas ISM dentro de los límites establecidos por las normas de seguridad internacionales. Cualquier utilización de sistemas de radio en estas bandas se debe basar, por tanto, en acuerdos adhoc con la industria de las comunicaciones. Un aspecto clave del tema de las interferencias en este contexto viene dado por el hecho de que magnetrones y hornos de microondas se diseñan para que funcionen en la región del diagrama de Rieke, donde tiene lugar la intersección de todas las lineas de frecuencia. Un ejemplo es el consorcio Bluetooth, que es un grupo de interés especial y promotor que agrupa a fabricantes en estos campos. Bluetooth es una tecnología desarrollada por Ericsson, que se aplica a todos los dispositivos que conforman el escenario inalámbrico, para usuarios: ordenadores portátiles, teléfonos y dispositivos de mano, como por ejemplo PDA (asistentes digitales personales). El usuario, en el futuro, ya no utilizará un teléfono, un ordenador portátil o alguno de los dispositivos presentes en el mercado, sino un equipo comunicador, como por ejemplo el nuevo Nokia 96, que incluye hasta un sistema GPS.
BLUETOOTH La tecnología Bluetooth se elabora en un chip que se integra en los diferentes equipos que conforman el entorno inalámbrico actual, como ordenadores portátiles, periféricos (ratón, impresoras...), PDA (Personal Digital Assistants) o teléfonos móviles, así como el futuro, en el que se contemplan, además de estos equipos clásicos del ámbito de la comunicación y la informática, otros del ámbito de la domótica. Se tiene así lo que se conoce como productos Bluetooth. El punto clave del chip es el transceptor, que ha de ser de muy pequeño tamaño (para no aumentar las dimensiones del chip y poder integrarlo con facilidad en los productos) y de muy baja potencia. Otra parte del chip es el circuito integrado de radiofrecuencia. Este circuito integrado tiene capacidad de autorregulación, lo que confiere un factor de ahorro de potencia, característica que es consustancial a las tecnologías inalámbricas en distancias cortas. En concreto, en el chip Bluetooth el consumo es menor del 3% de la potencia que consume un teléfono móvil.
8 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
El mecanismo de autorregulación funciona de la siguiente forma: cuando se detecta un receptor a una distancia corta el transmisor del circuito integrado es capaz de alterar la potencia de su propia señal para adaptarla al nivel adecuado; cuando se interrumpe la transmisión o disminuye el tráfico el sistema pasa a un estado de baja potencia. En este estado la verificación de conexión se realiza mediante una serie de señales cortas, es decir, se detectan, de forma periódica, los mensajes de búsqueda. Bluetooth utiliza "spread spectrum", en concreto frequency hopping (salto de frecuencia). Estos sistemas de salto de frecuencia dividen la banda de frecuencia en varios canales de salto (hopping). En el transcurso de una conexión se produce una transición brusca o salto de los transceptores de radio de un canal a otro de modo pseudoaleatorio. En sistemas FH, el ancho de banda instantáneo es relativamente reducido, si bien, hablando en términos generales, la dispersión o spread se obtiene a lo largo de la banda de frecuencias completa. Esto da lugar a transceptores de banda estrecha y de coste reducido que se pueden considerar óptimos en ley relativo a inmunidad frente a perturbaciones. Para soslayar este factor se dispone de programas de corrección de errores cuya misión es el restablecimiento de los bits de error. Los enlaces en la capa de banda base de la pila de protocolos en Bluetooth, es decir, los posibles enlaces físicos son SC ("Synchronous Connection Oriented") para voz y ACL ("Asynchronous Connectionless Link") para paquetes de datos. Los paquetes ACL se utilizan únicamente para información en forma de datos, mientras que SCO utiliza paquetes que contiene solamente audio o bien una combinación de audio y datos. Los paquetes en Bluetooth son de formato fijo: contienen un campo de código de acceso con el que se identifica el paquete, una cabecera dedicada a información de control y un campo de carga alternativo. La codificación de voz se realiza mediante la técnica de modulación CVSD (Continuoslv Variable Slope Delta) o modulación continua de inclinación delta, con lo que se consigue un buen nivel de inmunidad a errores de hit, que aparecen como un ruido de fondo. Los mecanismos de seguridad consisten en esquemas de autenticación (el proceso de probar la identidad de un cliente/usuario) basados en un mecanismo de exigencia-respuesta y de encriptación hasacla en cifrado el nivel básico. Bluetooth funciona en una topología de varias picorredes (redes de corto alcance) con las que se pueden obtener conexiones punto a punto y punto a multipunto. De momento, se ha conseguido crear y enlazar de forma ad-hoc hasta 10 picorredes, donde todos los equipos que se encuentran en una misma picorred aparecen sincronizados. El concepto de picorred es clave en Bluetooth: se define como la red formada por dos o más unidades o equipos que compraten un canal. Una unidad controla el tráfico y las otras funcionan como elementos subordinados. Las picorredes pueden, a su vez, enlazarse siguiendo una arquitectura tipica del escenario inalámbrico que se utiliza habitualmente para generar flujos de comunicación mutua entre equipos inalámbricos y que normalmente se crea de forma espontánea sin necesitar un punto de acceso como parte integrante de la red. Un grupo de picorredes enlazadas constituye una red de dispersión. El ancho de banda asociado a Bluetooth, que es de un Mbps, puede llegar a extenderse hasta incluso más de seis Mbps con una topología de 10 picorredes enlazadas. El enlace de radio físico entre las diferentes unidades que forman una picorred se realiza mediante los protocolos que conforman las capas de banda base y de enlace.
Modems
9 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Un modem convierte señales digitales a analógicas (audio) y viceversa, mediante la modulación y demodulación de una frecuencia portadora. Se usan para transmitir las señales a través de líneas telefónicas. Las prestaciones de velocidad se han ido mejorando paulatinamente, hasta los actuales 56 kbaudios. Una tecnología que soporta velocidades superiores y gran calidad es la denominada ISDN o RDSI (Red Digital de Servicios Integrados), que como su nombre indica usa líneas telefónicas digitales. La desventaja es su precio más elevado. Este sistema consta de dos líneas de 64 k de velocidad que se pueden, mediante software, usar como una de 128 k, aunque como es lógico se paga la transmisión por las dos líneas (es decir cuesta el doble). Es una tecnología que cada vez se usa menos. Una variante es la conocida como ADSL, (Asymmetrical Digital Subscriber Line), útil para el acceso a Internet, pues permite la transmisión de información con una velocidad de hasta 8 Mbps, y es interoperativa con el sistema RDSI. Algunas variantes recientes como ADSL2+ transmiten con velocidad teórca de hasta 20 Gigas.
Enlaces recomendados: Conexion internet con banda ancha, ADSL,ADSL2 Ahorrar en la factura telefónica gracias a la banda ancha (cable y ADSL) Derechos del usuario de telecomunicaciones
Para líneas xDSL hay cuatro tipos de posibilidades: - DSL asimétrico (ADSL), en el que las velocidades de transmisión son distintas según el sentido. - DSL simétrico (SDSL), en el que las velocidades en ambos sentidos son análogas - DSL de elevada relación de bits, (HDSL) es como el simétrico, pero con más velocidad (HDSL2) - DSL de muy elevada relación de bits, (VDSL) es análogo a ADSL; pero al velocidad está en función de la red. Se alcanzan velocidades de hasta 60 Mbit/s
Enlaces recomendados: Banda ancha para todos (2004)
Topología de una red Por topología de una red se entiende la forma en la que se conectan electrónicamente los puntos de dicha red. Las topologías existentes son: bus, árbol y estrella. Se han de tener en cuenta una serie de factores al seleccionar como más adecuada una topología, se describen seguidamente: Complejidad. Este factor afecta a la instalación y mantenimiento de todo el cableado Respuesta. El tráfico que puede soportar el sistema Vulnerabilidad. La susceptibilidad de la topología a fallos o averías Aplicación. El tipo de instalación en el que es más apropiada la topología 10 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Expansión. La facilidad de ampliar la red y añadir dispositivos para cubrir grandes distancias. A) Topología en BUS Todas las estaciones (nodos) comparten un mismo canal de transmisión mediante un cable (frecuentemente coaxial). Las estaciones usan este canal para comunicarse con el resto.
Los factores de evaluación respecto a esta red son: Aplicación. Se usan en pequeñas redes y de poco tráfico Complejidad. Suelen ser relativamente sencillas Respuesta. Al aumentar la carga la respuesta se deteriora rápidamente. Vulnerabilidad. El fallo de una estación no afecta a la red. Los problemas en el bus son difíciles de localizar, aunque fáciles de subsanar. Expansión. Es muy sencilla. Análisis comparativo Ventajas El medio de transmisión es totalmente pasivo Es sencillo conectar nuevos dispositivos Se puede utilizar toda la capacidad de transmisión disponible Es fácil de instalar Inconvenientes El intefaz con el medio de transmisión ha de hacerse con dispositivos inteligentes A veces los mensajes interfieren entre sí El sistema no reparte equitativamente los recursos La longitud del medio de transmisión no supera habitualmente los dos kilómetros
B) Topología en Anillo Las estaciones se conectan formando un anillo. Ningún nodo controla totalmente el acceso a la red.
11 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Los factores de evaluación respecto a esta red son: Aplicación. Es útil cuando se ha de asignar la capacidad de la red de forma equitativa, o cuando se precisen velocidades muy altas a distancias cortas, para un pequeño número de estaciones. Complejidad. La parte física suele ser complicada. Respuesta. Con tráfico muy elevado la respuesta permanece bastante estable, sin embargo el tiempo de espera medio es bastante elevado. Vulnerabilidad. El fallo de una sola estación o de un canal puede hacer que no sea operativo el sistema completo. Un fallo es difícil de localizar y no es posible la reparación inmediata. Expansión. Es bastante sencillo el añadir o suprimir estaciones. Análisis comparativo Ventajas La capacidad de transmisión se reparte equitativamente La red no depende de un nodo central Se simplifica al máximo la transmisión de mensajes Es sencillo enviar un mismo mensaje a todas las estaciones El tiempo de acceso es aceptable, incluso con mucho tráfico El índice de errores es muy pequeño. Se pueden alcanzar velocidades de transmisión elevadas. Inconvenientes La fiabilidad de la red depende de los repetidores La instalación es bastante complicada.
C)Topología en Estrella Todas las estaciones están conectadas por separado a un nodo central, no estando conectadas directamente entre sí.
Los factores de evaluación respecto a esta red son: Aplicación. Es la mejor forma de integrar servicios de datos y voz Complejidad. Puede ser una configuración bastante complicada. Cada estación a su vez puede actuar como nodo de otras. Respuesta. Es bastante buena para una carga moderada del sistema. Afecta mucho la potencia del nodo central. 12 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Vulnerabilidad. Si falla el servidor central, se detiene la actividad de la red.. El fallo de una sola estación no afecta al funcionamiento del sistema Expansión. Es muy restringida. Es lógico, pues se ha de proteger el nodo central de sobrecargas. Análisis comparativo Ventajas Es ideal si hay que conectar muchas estaciones a una Se pueden conectar terminales no inteligentes Las estaciones pueden tener velocidades de transmisión diferentes Permite utilizar distintos medios de transmisión Se puede obtener un elevado nivel de seguridad Es fácil la detección de averías Inconvenientes Es susceptible de averías en el nodo central Es elevada en precio La instalación del cableado es cara La actividad que ha de soportar el servidor, hace que las velocidades de transmisión sean inferiores a las de las otras topologías. Principales tipos de redes Al hablar de "hardware" de red no hay más remedio que hablar de los desarrollos que existen en el mercado de ciertas normas creadas por el IEEE (Institute of Electrical and Electronics Engineers). Cada una de estas normas engloba toda una serie de características entre las que destacan la topología, velocidad de transferencia y tipos de cable. Para no entrar en temas excesivamente técnicos se describen dos: Ethernet y Token Ring. ETHERNET: Utiliza topología bus. Como su velocidad de transferencia es alta (las versiones más modernas alcanzan hasta el Gbit/s) puede ser utilizada en redes medias e incluso grandes. Pero, debido a su método de acceso, las prestaciones pueden caer si el tráfico es muy intenso. Por ello es recomendable estudiar el tipo de aplicaciones que se van a utilizar en la red. Fue el primer hardware de red presentado en el mercado, siendo ahora el más popular. La mayoría de fabricantes de ordenadores tienen implementaciones sobre Ethernet y gracias a ello, la conectividad con esta red es muy fácil. Utiliza cable coaxial de dos tipos y en su versión más moderna (10 Base T), cable UTP. Recomendada para entornos en los que deba convivir con equipos Digital o comunicaciones TCP/IP Para obtener amplia información sobre esta red se recomienda visitar la página web de Charles Espurgeons. Si se desea más información se puede acceder al tutorial de la empresa Lantronix. TOKEN RING:Hasta hace poco tiempo fue la red IBM por excelencia. Cuenta con versiones de 4 y 16 Mbit/s lo que la hacía hasta hace poco tiempo una de las más utilizada en redes grandes. Utiliza topología en anillo aunque en realidad el cable se hace en estrella. Ideal para conectividad con IBM. Actualmente cada vez se usa menos.
Sistemas Operativos de red Vistos los diversos niveles OSI, se puede concluir que hay una complejidad elevada en las tareas de control de las comunicaciones en una red. El programa que realiza esta tarea se denomina sistema operativo de red, y ha de cumplir ciertos requerimientos:
13 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Multitarea: Para atender las peticiones de muchos usuarios a la vez deben ser capaces de realizar varias tareas simultáneamente. De esta forma pueden realizar una lectura en disco al mismo tiempo que reciben otra petición a través de la red o imprimen un texto enviado por una estación de trabajo. Direccionamiento: Deben ser capaces de controlar grandes capacidades de disco, ya que éstos van a ser utilizados por más de un usuario. Para controlar gran capacidad de disco duro, necesitaran gran cantidad de memoria que deben direccionar. Control de acceso: Si desea que los datos de todos los usuarios no dañados por error de una de ellos, el sistema operativo de red deberá incorporar un sistema que permita a los usuarios acceder sólo a los datos imprescindibles para su trabajo en la red. Seguridad de datos: El disco duro de un servidor de ficheros almacena muchos datos, muchos más que el de un PC aislado. Preservarlos justifica tener un sistema de seguridad que evite que un fallo de los componentes cause su perdida. Por ello los sistemas operativos de red tienen sistema de tolerancia de fallos que funcionan de forma automática y transparente para los usuarios. Interface de usuario: Los usuarios deben seguir teniendo en su pantalla la misma apariencia que les ofrecía el entorno local. El acceso a los periféricos de la red debe ser transparente y de la misma forma que si estuviera conectado en su estación. Sólo con ello se conseguirá facilidad de uso en la red. En el mercado existen diversos sistemas operativos para red: Linux está alcanzando gran difusión, siendo el sistema operativo más seguro. La gran mayoría de servidores de internet operan bajo él. NETWARE (de Novell) dispone de diversas modalidades, hace unos años era el más difundido. VINES (de Banyan) dirigido a entorno más amplios. Utiliza en los servidores el sistema operativo UNIX y de ahí le viene su compatibilidad casi total. Windows, se están imponiendo como S.O. de red, dado que tienen entornos fáciles de manejar, aunque como todos los productos Microsoft, son poco fiables.
9.3 Telefonía El benedictino francés Dom Gauthey, en 1680, propuso a la Academia de Ciencias de París, un sistema de transmisión de la voz humana mediante tubos acústicos. En 1860 el alemán Phillipp Reis (1834-1874) inventó un aparato al que denominó "Teléfono" (del Griego "hablar a lo lejos") con el cual logró transmitir sonidos durante breves intervalos de tiempo. Johann Philipp Reis, Físico alemán Reis inició su carrera profesional como empleado de una sociedad dedicada a la fabricación de colorantes. De formación autodidacta, tanto en el campo de la ciencia como en el de la fisica, llevó a cabo diversos trabajos experimentales que le condujeron a la conversión de oscilaciones acústicas en impulsos eléctricos. A la edad de 19 años inició sus estudios de matemáticas y fisíca, a la vez que desarrollaba sus trabajos. Más tarde ejerció como preceptor en Friedrichsdorf. En dicha población desarrolló un aparato gracias al cual no sólo fue capaz de transformar las
14 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
ondas electromagnéticas en ondas sonoras sino que también le permitía transmitirlas hasta distancias de 100 m en forma de señales eléctricas. Bautizó su invento con el nombre de teléfono. En 1861 lo presentó ante la Sociedad Física de Frankfurt y en 1864 en la Universidad de Giessen. Sin embargo, su invención no despertó ningún interés.
En 1796, Francisco Salva estableció un sistema de comunicación telegráfica entre Madrid y Aranjuez. Tenía 44 cables que permitían la transmisión de 22 símbolos. Las señales se generaban mediante máquinas electrostáticas, si bien no fue desarrollado comercialmente debido a problemas técnicos. El 14 de Febrero de 1876, el americano de origen irlandés, Alexander Graham Bell (1847-1922) presentó una petición de patente de un teléfono, dos horas antes de que lo hiciera Elisha Gray (1835-1901) con un aparato similar. La realidad es que el teléfono fue inventado por el italiano Antonio Meucci, aunque no dispuso de medios para su lanzamiento al mercado. El receptor no presentó problemas, aunque sí el emisor. La razón es que el teléfono se basa en el principio de que una corriente contínua puede variarse por una resistencia que lohaga en función de las ondas acústicas que reciba (micrófono) lo que a su vez da lugar a la producción de las mismas en el receptor (un electroimán con una lámina fina). Fueron muchos los experimentos para lograr un micrófono eficaz, en 1878 Henry Hummings patentó uno que consistía en una cavidad parcialmente rellena de carbón que cerraba el circuito eléctrico, cuya resistencia y por tanto la intensidad que circula por el mismo es proporcional a la presión de las ondas sonoras, actualmente aún se sigue utilizando. Es de destacar que Tomas A. Edison (1847-1931) también contribuyó con inventos al desarrollo del teléfono. Otros elementos básicos del teléfono son el timbre o campanilla y el marcador. El primero es un electroimán doble, con una armadura pivotante que soporta a un martillo que al vibrar golpea a una campana, fue descubierto por T. Watson y aún sigue en uso, el dial se inventó en el año 1896, por unos asociados de Strowger. Los primeros teléfonos incluían su propia batería para alimentar el circuito, pero en 1894 se impuso la batería central con un voltaje de 48 V, en uso desde entonces. Al descolgar el auricular se produce el cierre del circuito y pasa por él una corriente continua, indicando a la central que se requiere servicio. En España se estableció el teléfono en el año 1877 en Barcelona, traídos desde Cuba, allí se importaban directamente de EE.UU.. En 1884 el estado se hace cargo del monopolio, en 1924 se creó la Compañía Telefónica Nacional de España, actualmente denominada Telefónica de España. En las primeras centrales telefónicas las conexiones entre usuarios se realizaban directamente por los operarios de la central, lo cual era muy limitado, pues en cuanto crecía el número de abonados el número de conexiones era inmanejable. En 1889 Almon B. Strowger, un enterrador de la ciudad de Kansas, al creer que las llamadas eran desviadas hacia la competencia, por parte de los operadores, inventó un sistema automático para la selección del destinatario. Este principio se ha utilizado muchos años, hasta la aparición de las centrales electrónicas. SISTEMA IBERCOM
15 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Como ejemplo de un servicio avanzado de comunicaciones se puede citar el sistema Ibercom de Telefónica de España. Es un sistema de transmisión de voz y datos dirigido al sector institucional y empresarial, soportado por tecnología enteramente digital. Permite a los usuarios disponer de su propia red dentro del sistema Ibercom, haciendo uso exclusivo de ciertos elementos de transmisión y conmutación, creándose una red privada virtual (RPV). La infraestructura básica de Ibercom está compuesta por dos partes, una es la de acceso cuya función es la de proporcionar las líneas de voz y datos a sus usuarios, denominada Red de Acceso Ibercom (RAI), pudiendo estar compuesta de varios Módulos de Red de Accesos Ibercom (MRAI) distribuidos, a los que se conectan todos los terminales correspondientes a los servicios de telecomunicación con los que se desee dotar cada dependencia, y otra, la de interconexión, que está incorporada en la porción de tránsito en las redes públicas, y a la cual se accede a través de un Centro Frontal (CF), que realiza el tránsito entre las RAI a él conectadas. La central telefónica de la empresa que tenga este servicio, es una Ericson MD110, que consta básicamente de unos módulos denominados Módulos de Interface de Línea (LIM) controlados por un microprocesador equipado con todos los elementos necesarios para el tratamiento de las llamadas pudiéndose conectar directamente dos de ellos o a través del Selector de Grupo (GS) en caso de sistemas mayores. Cada LIM puede funcionar como un sistema autónomo o como integrante de otro mayor, realizando la conmutación a un ritmo de 64.5 Mbps, y albergando unas 250 extensiones de voz y datos. La conexión entre los RAI y el CF se realiza mediante uno o más enlaces MIC, a 2 Mbps, con cables trenzados, coaxiales, fibra óptica o radioenlaces. Los servicios ofrecidos por Ibercom son: - Plan privado de numeración (Abreviado) - Rutas privadas - Marcación directa entrante - Función de operadora - Gestión de red - Tarificación especial - Servicios de voz (Analógica y Digital) - Servicio de datos - Servicios de valor añadido - Aplicaciones especiales Actualmente hay cerca del millón de líneas Ibercom instaladas
Algunas empresas de telefonía ofrecen servicios de voz a través de líneas dedicadas a internet, por ejemplo la telefonía en la universidad de Murcia funciona bajo la red de la operadora de cable Ono, es lo que se denomina (voz a través de IP). Las tarifas son muy baratas, aunque en algunas la calidad no suele estar al nivel de las líneas convencionales de telefonía. Recientemente el Gobierno reguló esta nueva modalidad de telefonía. Telefonía móvil celular A) Introducción
16 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
En la evolución de las redes de telecomunicación, una estrategia actual es dotar a los usuarios de movilidad, de forma que puedan establecer una comunicación desde cualquier lugar. Ello es posible mediante el empleo de la radio para establecer el enlace entre los elementos a comunicarse. Como ejemplos usuales se pueden consider los sistemas GSM y DECT. Seguidamente se describe el concepto celular por ser la base de la mayoría de los sistemas de telefonía vía radio. Los sistemas celulares fueron creados por los laboratorios Bell (AT&T) hace más de cincuenta años. Un sistema celular se forma al dividir el territorio al que se pretende dar servicio, en áreas pequeñas o celdas (normalmente hexagonales), de menor o mayor tamaño, cada una de las cuales está atendida por una estación de radio. A su vez las células se agrupan en "clusters" o racimos, de forma que el espectro de frecuencias se pueda utilizar en cada célula nueva, teniendo cuidado de evitar las interferencias. Las estructuras que permiten, de forma ininterrumpida, la cobertura de una zona determinada son configuraciones a modo de panal de abejas basadas en 4, 7, 12 o 21 células. El número total de canales por célula se obtiene por la fórmula siguiente, N=(Nº total de canales)/(Claustro (4, 7, 12, 21)). Al ser menor el tamaño de las células mayor será el número de canales que soporte el sistema. La siguiente tabla muestra la primera generación de sistemas celulares analógicos
Sistema
País
Nº Espaciado Canales (kHz)
AMPS
EE.UU.
832
30
C-450
Alemania
573
10
ETACS
Reino Unido
1240
25
JTACS
Japón
800
12.5
NMT-900
Escandinavia
1999
12.5
NMT-450
Escandinavia
180
25
NTT
Japón
2400
6.25
Radiocom-2000 Francia
560
12.5
RTMS
Italia
200
25
TACS
Reino Unido
1000
125
Respecto a los sistemas digitales, los más difundidos son: UMTS, GSM y DCS-1800, en Europa, IS-54 e IS-95 en EE.UU. y PDC en Japón B) Sistema NMT Las primeras generaciones de este tipo de comunicaciones eran sistemas analógicos, tales como NMT, TACS, AMPS, etc., con una amplia difusión. Actualmente han surgido sistemas digitales, como GSM y UMTS en Europa, el DAMPS en EE.UU. y JDC y PHP en Japón. En España la telefonía móvil automática o TMA apareció en el año 1982 en la modalidad de 450 MHz, tomando como referencia el modelo nórdico NMT. Debido al éxito del mismo y a la saturación del espectro, Telefónica implantó la modalidad de 900 MHz. El sistema NMT (Nordic Mobile Telephony) surgió en los países escandinavos en 1981, es ideal para cubrir la mayor extensión de terreno con la menor inversión. La versión NMT 900 permite un mayor número de canales. 17 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
C) Sistema TACS El sistema TACS 900 adaptado en Inglaterra el año 1985, deriva del sistema analógico AMPS americano desarrollado por los laboratorios Bell y comercializado en EE.UU en 1984. Con este sistema se obtiene unamejor calidad del servicio, al mismo tiempo que mejora la relación señal/ruido por tener una mayor anchura de canal. Además precisa de equipos más pequeños y baratos. El sistema TACS (Total Access Communications System) 900 conocido como TMA 900, es del mismo tipo que el anterior, analógico multiplexado en frecuencia, pero diferente por utilizar una tecnología mucho más avanzada y barata, dando mejor calidad de audio, así como una mejor conmutación al pasar de una a otra célula, ya que la señalización se realiza fuera de banda, al contrario que NMT, que lo hace dentro de ella, resultando casi imperceptible el ruido para el usuario, sin embargo sus estaciones base cubren un rango menor. Emplea la banda de frecuencia de los 900 MHz y cada MHz se divide en 40 semicanales de 25 kHz, por lo que resulta extremadamente útil, por su gran disponibilidad de canales, para cubrir áreas urbanas. Dispone de 1320 canales duplex, de los que 21 se dedican exclusivamente a control (señal digital) y el resto para voz (señal analógica) D) Sistema GSM El GSM (Groupe Spécial Mobile), surge del intento europeo de unificar los 10 sistemas diferentes existentes, en uno solo, el CEPT (año 1982). La principal ventaja de este sistema es que permite realizar o recibir llamadas en cualquier país europeo, aún estando en tránsito por ellos, el teléfono se registra automáticamente en la siguiente red GSM al cambiar de un país a otro, quedando disponible para su utilización. Al ser criptografiadas todas las conversaciones, da una gran ventaja, la mayor seguridad frente a escuchas. Otras ventajas son su menor consumo de energía, las células más pequeñas y la utilización del espectro de forma más eficiente. A continuación se muestra un mapa de cobertura de Vodafone. La existencia de competencia por parte de otras operadoras, Vodafone, Orange y Yoigo, aparte de las operadores móviles virtuales (OMV) como Carrefour y EroskiMovil, ha dado lugar a que las tarifas hayan bajado bastante. E) Otras tecnologías Respecto a la tecnología más reciente, UMTS, en España la ofrecen las operadoras Vodafone, Orange, Movistar y Yoigo. El siguiente enlace es al Libro Blanco sobre UMTS. A la red GSM se le añadieron otras funcionalidades, antes de la implantación completa de UMTS. Nuevas tecnologías como HSCSD, GPRS y EDGE HSCSD (High Speed Circuit Switched Data) se basa en circuitos conmutados de alta velocidad, proporciona una velocidad de 58 kbit/s. Permite acceder a varios servicios simultáneamente. Es parecida a la actual RDSI. GPRS (General Packet Radio Service) puede llegar a velocidades de 115 kbit/s. Al contrario que HSCSD que para su implantación requiere únicamente de actualización software, GPRS necesita de un hardware específico para el enrutamiento a través de una red de datos. EDGE (Enhaced Data rates for GSM Evolution) nos acerca a las capacidades que otorga 3G en la comunicación. En combinación con GPRS puede alcanzar velocidades de 384 kbit/s
18 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
En la transición se emplean terminales capaces de acceder a ambas redes. Las empresas de desarrollo y creadoras de contenidos están volcadas en desarrollo de aplicaciones WAP (páginas web accesibles desde la red celular) aunque la expansión es mucho menor de la esperada, posiblemente por las tarifas tan elevadas de la telefonía móvil. Además que la aparición de teléfonos GPRS y UMTS ha restado muchos usuarios a WAP. WAP acerca a los usuarios a la utilización de servicios de internet, el posicionemiento en esta tecnología ayudará al éxito en el desarrollo de proyectos UMTS. Por lo tanto no hay que ver únicamente a WAP como una tecnología pasarela a UMTS sino que además es una introducción de todas las partes (usuarios, operadoras, empresas, etc..) a servicios móviles en redes. Nuevos negocios se podrán implementar para esta tecnología, que van desde los propios fabricantes de dispositivos, que desarrollan los nuevos teléfonos y dispositivos capaces de aprovechar el nuevo método de comunicación a los propios desarrolladores que se les abrirán nuevas posibilidades que hasta ahora son inpensables de creación de contenidos, aplicaciones. En España proximamente habrá una regulación para la televisión a través de los móviles celulares UMTS. Actualmente se está implantando la tecnología HSDPA (High Speed Downlink Packet Access) es la optimización de la tecnología espectral UMTS/WCDMA, incluida en las especificaciones de 3GPP 5 y consiste en un nuevo canal compartido en el enlace descendente que mejora significativamente la capacidad máxima de transferencia de información hasta alcanzar tasas de 14 Mbps. Soporta tasas de throughput promedio cercanas a 1 Mbps. Es la evolución de la tercera generación (3G) de tecnología móvil, llamada 3.5G, y se considera el paso previo antes de la cuarta generación (4G), la futura integración de redes. La gran difusión de los teléfonos móviles, ha dado lugar a innovaciones, por ejemplo, mediante un conjunto de "Chips" se puede convertir un móvil en un control remoto universal para aparatos electrodomésticos. Proximamente se comercializarán móviles con esta capacidad. Y otras dirigidas al mundo multimedia, actualmente son habituales los teléfonos con sistema deposicionamiento global (GPS) cámara fotográfica y prestaciones musicles avanzadas. Como consecuencia recientemente se han empezado a comercializar teléfonos con disco duro de 1.5 Goctetos, que además incluyen transmisor de radio FM, salida de televisión, altavoces duales y pantalla de cristal líquido dual, (TFT en el interior y OLED en el exterior). F) Antenas y salud Respecto a la alarma creada por grupos ecologistas, sin ninguna base científica, sobre la rediación dañina y supuestamente productora de cáncer, no hay ninguna base científica que la soporte. La radiación de la telefonía móvil celular es no ionizante, por lo tanto no puede romper los enlaces del ADN. En los siguientes enlaces se tiene información seria: Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)
19 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
El 19 de julio de 2007 la Unión Europea sacó su informe sobre radiación electromagnética por parte del comité de salud humana. Puede acceder a dicho informe en: http://ec.europa.eu/health/ph_risk/committees/04_scenihr/docs/scenihr_o_006.pdf En la web de ARP SAPC, hay un estupendo monográfico denominado Antenas y Salud: http://www.arp-sapc.org/articulos/antenasindex.html Por otra parte, Ferrán Tarrasa dió una estupenda conferencia el 4 de mayo de 2007 denominada "Telefonía móvil, desmontando mitos". Se puede acceder a su presentación en: http://www.slideshare.net/giskard/telefona-mvil-y-salud-desmontando-mitos
Enlace recomendado: Teléfonos móviles como pluviómetros
9.4 Sistema de posicionamiento global Introducción histórica Cuando la Unión Soviética puso en órbita el primer satélite artificial de la Tierra, se observaba como un punto brillante, que se movía lentamente entre los astros que servían de referencia para los navegantes. Pronto surgió una idea,pasar de la navegación estelar a la por satélite. Un grupo de científicos soviéticos, dirigidos por el académico V. Kotélnikov, ofrecieron utilizar el método Doppler para determinar los parámetros de las órbitas de los satélites. El tres de marzo de 1978, la URSS puso en marcha el satélite Cosmos 1000, dando inicio al sistema de navegación cósmica nacional, "Tsikada", destinado a localizar a los barcos en cualquier lugar del océano. Actualmente hay varios satélites con esta misión.
20 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Con este esquema de satélites, se pueden obtener datos, en el ecuador cada 72 minutos y en latitudes altas más a menudo, y en las latitudes norteñas, donde las órbitas se cruzan, ininterrumpidamente. En los barcos se instala un microprocesador, que se conecta al sistema de radionavegación tradicional El uso de este sistema, proporcionaba, hace unos años, el ahorro del orden de unos 25000 rublos al año, por barco, en la extinta URSS. Posteriormente se implantó en la URSS el Sistema de Satélite de Navegación Global (SSNG), para la localización exacta de barcos, automóviles y otros objetivos. En el año 1986, la URSS y los EE.UU., declararon a la Organización Marítima Internacional, que se podían explotar estos sistemas con fines pacíficos. De forma que EE.UU. ha desarrollado desde entonces, un sistema análogo al soviético, quedando completo el año 1995. Consta de 24 satélites, de los que tres son de reserva, situados en tres planos orbitales, a 20200 km de altura, con un ángulo de 120 grados, uno respecto al otro. Las señales de navegación se emiten en una banda de 1602.2 a 1615 MHz. Además estos satélites pueden servir a una cantidad ilimitada de usuarios. Actualmente este sistema está gestionado por el Ministerio de Defensa de EE.UU. Este es el origen del Sistema de Posicionamiento Global "GPS", en amplio desarrollo actualmente, cuyo predecesor, el SSNG, puede seguir usándose, mediante un módulo adicional. A muchos navegantes y topógrafos acostumbrados a trabajar con los métodos tradicionales, la obtención de la posición con sólo pulsar un botón, les debe de parecer sorprendente. Existe actualmente una forma más avanzada del GPS, que optimiza aún más los límites de la precisión. Este avance se conoce como GPS diferencial "DGPS", y con él se puede medir fiablemente una posición hasta cuestión de metros, y en cualquier lugar del planeta. Actulamente Europa está desarrollando el sistema europeo Galileo, libre de cualquier interferncia militar. GPS Básico Se basa en 24 satélites en órbita a 20000 km de distancia. Éstos actúan como puntos de referencia a partir de los cuales "triangulan" su posición unos receptores en la Tierra. En cierto sentido es como una versión en alta tecnología de la vieja técnica, consistente en tomar marcaciones mediante una brújula desde las cumbres de los montes cercanos para situar un punto en el mapa.
Los satélites actúan como puntos de referencia al ser supervisadas sus órbitas con gran precisión desde estaciones terrestres. Mediante una medición del tiempo de viaje de las señales trasmitidas desde los satélites, un receptor GPS en la tierra determina su distancia desde cada satélite. Con la medición de la distancia desde cuatro satélites y la aplicación de cálculos, el receptor obtiene, latitud, longitud, altitud, derrota y velocidad. Los buenos receptores tienen una precisión menor que 100 m, y efectúan más de una medida por segundo. Los receptores pueden hacerse con antenas muy pequeñas, de hecho son de tal tamaño, que caben en la mano. Otra ventaja es que las señales GPS (código C/A) están al alcance de todos, gratuitamente sin necesidad de pagar tasas de licencia ni uso,
21 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
pues los satélites son de EE.UU y de Rusia, con lo cual no tiene ninguna opción de sacar dinero a costa de este tipo de usuarios. GPS en tres pasos básicos Paso 1 Los satélites son puntos de referencia. Sus posiciones en el espacio se conocen con mucha precisión, constituyendo la base de todos los cálculos GPS. Paso 2 El tiempo de viaje de la señal da la distancia. Mediante una serie de mensajes codificados, un receptor en tierra determina el momento en que la marca de tiempo partió del satélite, así como el momento de llegada a su antena. La diferencia es el tiempo de viaje de cada señal. La distancia es el producto del tiempo por la velocidad de la luz. En este proceso es donde hay errores. Paso 3 Tres distancias fijan la posición. Se supone un receptor a 23000 km de un satélite. Esta medición restringe el lugar del universo en que puede encontrarse el receptor. Indica que ha de estar en algún lugar de una superficie esférica imaginaria, centrada en ese satélite y con un radio de 23000 km. Si por ejemplo el receptor se encuentra a 26000 km de un segundo satélite, eso restringe aún más el lugar, a la intersección entre dos esferas, que es una circunferencia. Una tercera medición, añade otra esfera, que interceptal círculo determinado por las otras dos. La intersección ocurre en dos puntos, y así con tres mediciones, el receptor restringe su posición a sólo dos puntos en todo el universo. Una cuarta medición seleccionaría uno de estos dos puntos, pero no es necesario, pues de los dos puntos del paso anterior, uno está a miles de km de la Tierra, por lo que no tiene sentido. Aunque a veces es realizada esta cuarta medición, para proporcionar una forma de asegurar que el reloj del receptor está sincronizado con la hora universal. GPS diferencial (DGPS) Es una forma de hacer más preciso al GPS. El DGPS proporciona mediciones precisas hasta un par de metros en aplicaciones móviles, e incluso mejores en sistemas estacionarios. Esto implica el que sea un sistema universal de medición, capaz de posicionar objetos en una escala muy precisa. El DGPS opera mediante la cancelación de la mayoría de los errores naturales y causados por el hombre, que se infiltran en las mediciones normales con el GPS. Las imprecisiones provienen de diversas fuentes, como los relojes de los satélites, órbitas imperfectas y, especialmente, del viaje de la señal a través de la atmósfera terrestre. Dado que son variables es difícil predecir cuales actúan en cada momento. Lo que se necesita es una forma de corregir los errores reales conforme se producen. Aquí es donde entra el segundo receptor, se sitúa en un lugar cuya posición se conozca exactamente. Calcula su posición a través de los datos de los satélites y luego compara la respuesta con su posición conocida. La diferencia es el error de la señal GPS. No es posible calcular el error en un momento y que valga para mediciones sucesivas, ya que los receptores de los satélites cambian continuamente. Para realizar esta tarea es necesario tener dos receptores operando simultáneamente. El de referencia permanece en su estación y supervisa continuamente los errores a fin de que el segundo receptor (el itinerante) pueda aplicar las correcciones a sus mediciones, bien sea en tiempo real o en algún momento futuro. El concepto ya está funcionando algún tiempo y se ha utilizado ampliamente en la ciencia e industria. Hay una norma internacional para la transmisión y recepción de correcciones, denominada "Protocolo RTCM SC-104". 22 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
¿Por qué se necesita el DGPS? Si el mundo fuera como un laboratorio, el GPS sería mucho más preciso. Dado que el mundo parece una jungla, hay multitud de oportunidades para que resulte perturbado un sistema basado en la radio. A continuación se describen los errores a los que hay que enfrentarse: Errores de los satélites Los satélites llevan relojes atómicos muy precisos, pero no perfectos. La posición de los satélites en el espacio es también importante, estos se ubican en órbitas altas, por lo que están relativamente libres de los efectos perturbadores de la capa superior de la atmósfera terrestre, pero aún así se desvían ligeramente de las órbitas predichas. La atmósfera La información se transmite por señales de radio y esto constituye otra fuente de error. La física puede llevarnos a creer que las señales de radio viajan a la velocidad de la luz, que es constante, pero eso sólo es en el vacío. Las ondas de radio disminuyen su velocidad en función del medio en que se propagan, así pues, conforme una señal GPS pasa a través de las partículas cargadas de la ionosfera y luego a través del vapor de agua de la troposfera, se retrasa un poco, lo cual implica un valor erróneo de la distancia del satélite. Error multisenda Cuando la señal GPS llega a la Tierra se puede reflejar en obstrucciones locales antes de llegar al receptor. La señal llega la antena por múltiples sendas, primero la antena recibe la señal directa y algo más tarde llegan las desplazadas, produciendo ruido. Un ejemplo es en el caso de la TV cuando se ven imágenes múltiples solapadas. Error del receptor Los receptores tampoco son perfectos y pueden introducir sus propios errores, que surgen de sus relojes o de ruido interno. Disponibilidad selectiva Mucho peor que las fuentes naturales de error es el que aporta intencionadamente el Departamento de Defensa de EE.UU., con la finalidad de asegurarse de que ninguna fuerza hostil utiliza la posición de GPS contra los EE.UU. Se introduce ruido en los relojes de los satélites, lo cual reduce su precisión, aunque también pueden dar datos orbitales erróneos. Los receptores militares disponen de una llave física que desencripta los errores introducidos para así eliminarlos. De esta forma se pueden llegar a precisiones de 15 m. El DGPS obtiene mejores precisiones que las conseguidas con las codificadas para usos militares. DGPS también proporciona una forma de verificar la fiabilidad de las mediciones momento a momento. Magnitud típica de los errores (en m)
23 de 29
Precisión por satélite GPS
DGPS
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
Relojes satélites
de
Errores órbitas
de
http://www.um.es/docencia/barzana/II/Ii09.html
1.5
0
2.5
0
5
0.4
0.5
0.2
Ruido receptor
0
.3
Multisenda
0
.6
30
0
Ionosfera Troposfera
Dep. Defensa
Precisión de posición
GPS DGPS
Horizontal
50
1.3
Vertical
78
2
3D
93
2.8
¿Cómo funciona el DGPS? Un receptor GPS puede desplazarse a cualquier sitio y realizar mediciones por sí mismo, empleando como referencia los satélites GPS. Mientras que el DGPS implica otro receptor añadido, es decir uno que se desplaza y otro estacionario. Previamente se han comentado las diversas fuentes de error. A su vez las distancias entre los dos receptores son muy pequeñas comparadas con las distancias a las que se encuentran los satélites, esto quiere decir que recorrerán la atmósfera con retrasos análogos, de forma que una de las estaciones puede dedicarse a medir esos errores y facilitárselo a la otra. Se ha de ubicar el receptor de referencia en un punto cuya posición se haya determinado con exactitud, al recibir las señales GPS realiza los cálculos en sentido inverso al de un receptor. Emplea su posición para calcular el tiempo y así obtiene el error entre el teórico y el real. Todos los receptores de referencia han de facilitar esta información de errores a todos los receptores itinerantes de su zona con objeto de que corrijan sus mediciones. El receptor de referencia reconoce todos los satélites visibles y calcula los errores instantáneos. Luego codifica esta información en un formato estándar y lo transmite a los receptores itinerantes. Algunos trabajos no requieren correcciones en tiempo real, en este caso se conoce como GPS posprocesado. También existe el DGPS invertido, por ejemplo, en una flota de camiones que informan periódicamente de su posición a una estación base. En lugar de enviar a los camiones las correcciones diferenciales, la corrección se realiza en la estación base. Los camiones sólo conocen su posición de una manera aproximada, pero el controlador sabría la posición exacta, hasta el punto de poder ubicar el camión en el carril de la calle en que se encuentra. Aplicaciones de DGPS
24 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Servicio de guardacostas El Servicio de Guardacostas de EE.UU. es el responsable de proporcionar todas las ayudas de navegación. El huracán BOB que azotó la costa este de EE.UU. en 1991 destrozó o desplazó un gran número de boyas. La situación era peligrosa, pues los barcos iban a puerto confiados en unas boyas que ya no existían o estaban cambiadas de sitio. El Servicio de Guardacostas equipó uno de sus barcos de mantenimiento de boyas con un receptor DGPS y reposicionaron las boyas de nuevo, en tan solo unos días. Aviación Algunos experimentos realizados por la NASA y por la aviación de EE.UU. contribuyeron al aterrizaje de helicópteros y aviones de pasajeros mediante DGPS como único sistema guía, sin las radiobalizas tradicionales. En la actualidad los sistemas de aterrizaje con poca visibilidad son tan caros que sólo están disponibles en los mayores aeropuertos. El DGPS es tan barato que lo puede instalar cualquier aeropuerto y la mejora de seguridad de vuelo es tremenda. Como referencia se puede citar Canadá, donde el sistema GPS ha sustituido al habitual, conocido como Omega. Gestión de los recursos naturales La gestión del uso y protección de los bosques es una gran tarea. Su estudio topográfico es difícil, sin embargo hay que medir constantemente parcelas de árboles, ya sea por asunto de su conservación o por ventas a empresas madereras. El Servicio Forestal de EE.UU. ha sido uno de los pioneros del DGPS. Hacen medidas con GPS desde helicópteros. Otras aplicaciones son: topografía de galerías de minas, de superficies de pantanos y de zonas para pesca, control de incendios. Exploración costera Las empresas petrolíferas gastan mucho dinero en la exploración del fondo de los océanos en busca de lugares idóneos para perforar. El problema, es que una vez el barco encuentra un lugar de perforación, su tripulación necesita llevar a ese punto los dispositivos de perforación, lo cual no es fácil llegar al mismo sitio, al no haber posibilidad de poner marcas de referencia, y apartarse unos metros significa muchos millones de gasto de más. Para solucionar este problema usan el GPS. Otra utilidad es para mantener a los barcos en las rutas exactas y para el levantamiento topográfico de los puertos. Gestión transporte y flotas Con este sistema el controlador de una flota puede llevar la cuenta de cada vehículo, el resultado es una más estricta adhesión al horario y una mejor supervisión. A las empresas de transporte (un ejemplo, los autobuses urbanos en Murcia), flotas de servicios y servicios de seguridad pública les gusta saber la posición de sus vehículos incluso al extremo de conocer el nombre de la calle. La solución es DGPS. También se usa en los ferrocarriles 25 de 29
18/04/2008 19:49
Apuntes Introduccion a la Informática. Redes y comunicaciones, 2007/...
http://www.um.es/docencia/barzana/II/Ii09.html
Actualmente se ha difundido ampliamente su uso en todo tipo de vehículos, incluso hay algunos teléfonos móviles Nokia que incluyen GPS. Agricultura El GPS está abriendo una nueva era de "agricultura de precisión". Un agricultor puede analizar las condiciones del suelo en cada parcela, y compilar un mapa de las demandas de fertilizante. Este mapa se digitaliza y se registra en ordenador. La máquina que adiciona los productos químicos al terreno, va con un GPS y su posición se correlaciona con los datos previamente digitalizados, añadiendo en cada punto la cantidad exacta de fertilizante. Se beneficia el agricultor con menos gasto y el medio ambiente evitando un exceso de productos químicos. También se puede aplicar a la fumigación aérea. Transporte marítimo En EE.UU. es obligatorio que los barcos petroleros lleven GPS por motivos de seguridad. Otras aplicaciones costeras son: la verificación de vaciados en barcazas, hasta la determinación de las zonas de pesca legal. Seguridad pública Para los servicios de bomberos y policía el tiempo de respuesta es muy importante. Con DGPS se pueden guiar los vehículos con gran precisión. Los planos de rutas centralizadas ofrecen a los controladores un mejor conocimiento de la forma en que están desplegados sus efectivos.
¿Cómo solucionar la limitación de los 100 m de resolución? Como se ha comentado previamente, el sistema GPS para usos no militares tiene una limitación puesta intencionadamente por el ministerio de defensa de EE.UU., con la finalidad, como ya en normal en ellos de incordiar y no beneficiar a nadie, la limitación a 100 m en la resolución, salvo que se use el DGPS que como se ha visto requiere más medios y por lo tanto es más costoso. Debido a las presiones de diversos sectores, el presidente de EE.UU, Clinton. indicó que en el plazo de 10 años se eliminarían las restricciones militares, pero mientras tanto el error en demasiado grande para algunas aplicaciones, como el control de flotas de autobuses urbanos. Para resolver esta falta de resolución, en EE.UU se ha propuesto un sistema aplicable a los autobuses que consta del siguiente equipamiento en cada autobús, un odómetro o sensor de velocidad del vehículo, y un giróscopo que nos dará el cambio en acimut del vehículo. Estos sensores ha de estar perfectamente calibrados y además ha de conocerse la posición inicial y el acimut. Como todos los sensores están sujetos a error esta no es la solución perfecta. La empresa Andrew Corp., ha creado un sistema que combina lo mejor del GPS y el sistema de posicionamiento continuo (CPS). El sensor de GPS calibra los sensores para evitar errores acumulados. El factor más importante en la generación de errores es la estabilidad del giróscopo, reducidos al mínimo con el sistema Navigator AUTOGIRO, basado en un giróscopo con fibra óptica, diseñado especialmente para sistemas de navegación. El sistema propuesto por esta empresa está aplicándose en diversas empresas de transporte urbano de EE.UU. El siguiente enlace es una página dedicada a GPS.
26 de 29
18/04/2008 19:49