Monografia organización y arquitectura de computadoras

Page 1

UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA SUR

Área de Conocimientos de Ciencias del Mar Departamento Académico de Sistemas Computacionales

Monografía. Organización y Arquitectura de Computadoras: Un Enfoque Evolutivo.

Javier Aguilar Parra

Universidad Autónoma de Baja California Sur Consejo Académico del Área de Conocimientos de Ciencias del Mar Aprobada en el Acta No. 08/2014.

Junio 2014 1


Departamento Académico de Sistemas Computacionales

Prologo. El presente trabajo, muestra un enfoque evolutivo de los equipos de computo basadas en la arquitectura de Von Neumann, hoy en día los equipos de computo son llamadas por la mayoría de los usuarios Computadoras Personales (PC), por su siglas en inglés Personal Computer, estas están presente en la vida cotidiana de miles de personas en el planeta, las computadoras personales ayudan a las usuarios a desarrollar actividades en el hogar, en el trabajo, en la escuela y en actividades de recreación y esparcimiento, por lo que se han convertido en una herramienta de uso cotidiano y esto a permitido que la gente le haya perdido el miedo a trabajar con ellas, sin embargo, no todos los usuarios conocen los componentes que las computadoras albergan en su interior. Por lo que este trabajo tiene la intencionalidad de dar a conocer como han ido evolucionado las arquitectura de las computadoras a lo largo del tiempo, así como su funcionamiento y organización.. Esta obra es ideal para usuarios principiantes y de gran utilidad para estudiosos del área de sistemas computacionales ya que encontrará a lo largo de los capítulos la información pertinente que le explique ampliamente pero de manera sencilla la evolucionado y funcionamiento de los diversos componentes de las arquitectura de las computadoras. Sólo si conocemos bien lo organización y la arquitectura de nuestro equipo de computo personal podremos explotarlo eficiente en nuestro benéfico, por lo que esta obra permitirá a todos los lectores obtener los conocimientos necesario para entender el funcionamiento y las propiedades de cada dispositivo de los equipos de computo bajo un enfoque evolutivo.

Javier Aguilar Parra

2


Universidad Autónoma de Baja California Sur

Índice Capítulo 1 Conceptos de organización y arquitectura de computadoras. Introducción ...................................................................................................... 10 1.1. Definición de organización y arquitectura ................................................. 10 1.2. La arquitectura básica de una computadora. ........................................... 12 1.3. Estructura y Función ................................................................................ 15 1.3.1. Función .......................................................................................... 16 1.3.2. Estructura ...................................................................................... 19 1.4. Estructuras de interconexión para la computadora .................................. 23 1.4.1. Memoria interna y externa ............................................................. 23 1.4.2. Entrada-Salida. ............................................................................... 23 1.4.3. Estructura y función de la CPU ....................................................... 24 1.4.4. Operación de la unidad de control .................................................. 24

Capítulo 2 Breve historia del desarrollo de computadoras. 2.1. Antecedentes históricos de la computación .......................................... 25 2.1.1. La pascalina ................................................................................ 25 2.1.2. La máquina analítica .................................................................... 25 2.1.3. La máquina de Hollerith ............................................................... 26 2.1.4. La Mark I ...................................................................................... 26 2.1.5. La ENIAC ..................................................................................... 26 2.1.6. La EDVAC ................................................................................... 27 2.1.7. La UNIVAC .................................................................................. 28 2.2. Generaciones de las Computadoras ..................................................... 28 2.2.1. Primera Generación (1951-1958) ................................................ 28 2.2.2. Segunda Generación (1958-1964) .............................................. 29 2.2.3. Tercera Generación (1964-1971) ................................................ 30 2.2.4. Cuarta Generación (1971-1988) .................................................. 31 2.2.5. Quinta Generación (1983 al presente)......................................... 32 2.2.6. Sexta Generación (presente) ....................................................... 32 2.3. Computadoras Contemporáneas .......................................................... 34 2.3.1. Microcomputadora ....................................................................... 36 2.3.2. Microcomputadora ....................................................................... 38 2.3.3. Minicomputadora ......................................................................... 39 2.3.4. Mainframe .................................................................................... 41 2.3.5. Supercomputadora

Capítulo 3 Arquitectura de tarjetas madres. 3.1 Conceptos básicos ................................................................................. 43 3.1.1 MYCRO 1 .................................................................................... 43 3.1.2 KIM 1 ........................................................................................... 44 3.1.3 Placa base XT ............................................................................. 45 3.1.4 Placa base AT ............................................................................. 46 3.1.5 Placa base (ATX)......................................................................... 47 3.1.6 Factor de forma de las tarjetas madres ....................................... 48 3


Departamento Académico de Sistemas Computacionales

3.2 El Socket .................................................................................................. 48 3.2.1 PGA (Pin Grid Array) ................................................................... 53 3.2.2 LGA (Land Grid Array) ................................................................. 53 3.2.3 Socket 7 ....................................................................................... 53 3.2.4 Socket 370 FC-PGA/FC-PGA2 .................................................... 53 3.2.5 Socket N ...................................................................................... 53 3.2.6 Socket 604 ................................................................................... 53 3.2.7 Slots 1 .......................................................................................... 54 3.2.8 Socket T ...................................................................................... 54 3.2.9 Socket J ....................................................................................... 55 3.2.10 Socket 1.156/LGA........................................................................ 55 3.2.11 Socket B ...................................................................................... 55 3.2.12 Socket A/Socket 462 OPGA ........................................................ 55 3.2.13 Socket 754 ................................................................................... 56 3.2.14 Socket 940 ................................................................................... 56 3.2.15 Socket 939 ................................................................................... 56 3.2.16 Socket AM2 ................................................................................. 56 3.2.17 Socket AM2+ ............................................................................... 56 3.2.18 Socket AM3 ................................................................................. 56 3.2.19 Resume los socket más comerciales desde 1970 ....................... 57 3.3 Chipset ..................................................................................................... 57 3.3.1 Chipsets de Intel para Pentium ("Tritones") ................................. 57 3.3.2 Chipsets de VIA para Pentium ("Apollos") ................................... 62 3.3.3 Chipsets de SiS, ALI, VLSI y ETEQ para Pentium ...................... 62 3.3.4 Puentes northbridge y southbridge .............................................. 63 3.4 Tipo De Bus ........................................................................................... 64 3.4.1 Bus del procesador ...................................................................... 64 3.4.2 Bus de memoria........................................................................... 64 3.4.3 Bus de direcciones ...................................................................... 64 3.4.4 Bus de entrada/salida o ranuras de expansión ............................ 64 3.4.4.1. Bus industry standard architecture (ISA)......................... 65 3.4.4.2. PCI (Peripheral Component Interconnect). ..................... 66 3.4.4.3. AGP (Accelerated Graphics Port) ................................... 67 3.4.4.4. PCI-Express .................................................................... 68

Capítulo 4 Memoria RAM. 4.1. Conceptos básicos ................................................................................. 69 4.2. Características de la memoria principal (RAM) ...................................... 69 4.3. Evolución de la memoria RAM ............................................................... 69 4.3.1. Memoria de núcleo magnético o memoria de toros ..................... 69 4.3.2. Memoria DRAM (Dynamic Random Access Memory) ................. 69 4.3.3. Memorias DIP (Dual in-line package) .......................................... 75 4.3.4. Memoria SIPP (Single In-line Pin Package). ............................... 76 4.3.5. SIMM (Single In-line Memory Module)......................................... 77 4.3.6. SIMM de 30 Pins. ........................................................................ 76 4.3.7. SIMM de 72 pins .......................................................................... 80 4.3.8. DIMM (Dual In-Line Memory Module) .......................................... 81 4.4. Evolución de la memoria por su tipo de acceso. ................................... 82 4.4.1. Tipos de memoria DRAM ............................................................ 82 4.4.2. Tipos de memoria SRAM ............................................................. 95 Javier Aguilar Parra

4


Universidad Autónoma de Baja California Sur

Capítulo 5 Disco Duro 5.1. Conceptos básicos ................................................................................ 98 5.2. Estructura Física del Disco Duro ........................................................... 98 5.3. Factor de forma ..................................................................................... 103 5.4. Evolución de los discos duros ............................................................... 105 5.4.1. RAMAC ........................................................................................ 105 5.4.2. El modelo 1301 ............................................................................ 107 5.4.3. El modelo 2310 ............................................................................ 109 5.4.4. El 2314 de IBM ............................................................................ 109 5.4.5. Winchester 3340 .......................................................................... 111 5.4.6. Seagate ....................................................................................... 113 5.4.7. MFM ............................................................................................ 114 5.4.8. Discos dures para IBM PC/XT ..................................................... 115 5.4.9. CMI .............................................................................................. 116 5.4.10. Discos duros de 3.5 y 2.5 pulgadas ........................................... 116 5.4.11. Discos duros de 40 MB.............................................................. 117 5.4.12. Discos duros llegan a las GB de capacidad .............................. 117 5.4.13. Discos duros de estado sólido ................................................... 119 5.4.14. Discos duros con almacenamiento en TB ................................. 120

Capítulo 6 Tarjeta de video. 6.1. Tarjetas Gráficas ................................................................................... 122 6.1.1. Componentes de una tarjeta grafica ............................................ 123 6.2. Evolución de la tarjeta grafica ............................................................... 128 6.2.1. Primera etapa .............................................................................. 129 6.2.1.1. Tarjetas gráficas MDA ......................................................... 129 6.2.1.2. Tarjetas gráficas Hercules (HGA)........................................ 131 6.2.1.3. Tarjetas gráficas CGA ......................................................... 132 6.2.1.4. Tarjetas gráficas EGA ......................................................... 134 6.2.2. Etapa VGA ................................................................................... 135 6.2.2.1. Tarjetas gráficas MCGA ...................................................... 136 6.2.2.2. Tarjetas graficas VGA ......................................................... 136 6.2.2.3. Tarjetas graficas SVGA ....................................................... 139 6.2.3. Etapa 3D ...................................................................................... 141 6.2.3.1. Primeras 3D ........................................................................ 142 6.2.3.2. Generación 2D/3D............................................................... 143 6.2.3.3. Tarjetas gráficas de última generación................................ 145

Capítulo 7 Dispositivos de interconexión. 7.1. Modem .................................................................................................. 148 7.1.1. Como funciona .......................................................................... 148 7.1.2. Tipos de módems ...................................................................... 149 7.1.3. Módems telefónicos ................................................................... 150 7.1.4. Tipos de modulación ................................................................. 151 7.1.5. Perfiles de Funcionamiento ....................................................... 151 7.1.6. Pasos para establecer una comunicación ................................. 152 7.1.7. Protocolos de comprobación de errores .................................... 154 5


Departamento Académico de Sistemas Computacionales

7.1.8. Protocolos de transferencia de archivos. ................................... 155 7.2. Tarjeta de Red ...................................................................................... 157 7.2.1. Conceptos básicos .................................................................... 158 7.2.2. Tipos de tarjetas de red ............................................................. 158

Capítulo 8 Tarjeta de sonido. 8.1. Conexiones ........................................................................................... 160 8.2. Muestreo de sonido............................................................................... 161 8.3. Frecuencia de muestreo ....................................................................... 162 8.4. Canales de sonido y polifonía ............................................................... 163 8.5. Historia de las tarjetas de sonido .......................................................... 164

Capítulo 9 Dispositivos de almacenamiento secundario. 9.1. CD-ROM ............................................................................................... 165 9.1.1. Breve historia ............................................................................. 165 9.1.2. Detalles físicos .......................................................................... 166 9.1.3. Capacidades de disco ............................................................... 167 9.1.4. Estándares de los discos compactos ........................................ 168 9.1.5. Almacenamiento/Recuperación de la información ..................... 169 9.1.6. Almacenamiento de la información ............................................ 170 9.1.7. Recuperación de la información ................................................ 170 9.1.8. Tiempos de acceso y tasas de transferencia............................. 170 9.1.9. Almacenamiento y limpieza de los discos compactos ............... 171 9.1.10. Sistemas de archivos de CD ..................................................... 172 9.1.11. Tipos de CD............................................................................... 174 9.1.12. Grabado Multisesión .................................................................. 176 9.1.13. Diferencias entre CD-R multisesión y CD-R .............................. 177 9.2. El DVD .................................................................................................. 178 9.2.1. Breve historia ............................................................................. 178 9.2.2. Información técnica ................................................................... 179 9.2.3. Tipos De DVD............................................................................ 180 9.2.4. Velocidad ................................................................................... 182 9.2.5. Partes y dimensiones ................................................................ 183 9.2.6. Grabación de doble capa........................................................... 184 9.2.7. Conservación de los dispositivos ópticos .................................. 184 9.2.8. DVD-Video................................................................................. 185 9.2.9. Códigos de región ..................................................................... 189 9.3. Memoria Flash ...................................................................................... 190 9.3.1. Características generales .......................................................... 191 9.3.2. Funcionamiento ......................................................................... 193 9.3.3. Memoria flash de tipo NOR ....................................................... 193 9.3.4. Memorias flash de tipo NAND ................................................... 194 9.3.5. Comparación de memorias flash basadas en NOR y NAND ..... 195 9.3.6. Sistemas de archivos para memorias flash ............................... 196 9.3.7. Clasificación de la memoria flash .............................................. 197 9.3.8. Historia de la memoria flash ...................................................... 198 9.3.9. Futuro ........................................................................................ 199 Javier Aguilar Parra

6


Universidad Aut贸noma de Baja California Sur

Glosario. .......... ......................................................................................................... 202 Referencias...... ......................................................................................................... 217

7


Departamento Académico de Sistemas Computacionales

Índice de figuras. Capítulo 1 Figura 1.1: Partes básicas de la arquitectura Von Neumann. .................................................... 14 Figura 1.2: Una vista funcional de la computadora .................................................................... 17 Figura 1.3: Posibles operaciones de la computadora. ............................................................... 19 Figura 1.4: La computadora. ...................................................................................................... 20 Figura 1.5: La computadora, estructura de nivel superior .......................................................... 20 Figura 1.6: La Unidad Procesamiento Centra (CPU) ................................................................. 21 Figura 1.7: La Unidad de control ................................................................................................ 22

Capítulo 2 Figura 2.1: Las tendencias en el crecimiento del desempeño por clase de computadoras ... 34 Figura 2.1: Tabla que compara las características de algunas computadoras contemporaneas. ......... 41

Capítulo 3 Figura 3.1: MYCRO 1. ................................................................................................................ 44 Figura 3.1: KIM 1. ....................................................................................................................... 44 Figura 3.3: Placa base XT. ......................................................................................................... 45 Figura 3.4: Placa base AT. ......................................................................................................... 47 Figura 3.5: Placa base (ATX). .................................................................................................... 48 Figura 3.6: Factor de forma de las tarjetas madres. .................................................................. 50 Figura 3.7: Socket 7 con el micro fuera de las ranuras. ............................................................. 54 Figura 3.8: Slots 1 visto en la tarjeta madre. .............................................................................. 54 Figura 3.9: Socket 755................................................................................................................ 55 Figura 3.10: Socket AM3. ........................................................................................................... 56 Figura 3.11: Tabla que resume los socket desde el año 1970 a la fecha. ................................ 57 Figura 3.12: Esquema del Chipset. ............................................................................................ 61 Figura 3.13: Ranuras de expansión. .......................................................................................... 65

Capítulo 4 Figura 4.1: prefijos del Sistema Internacional de Unidades. ...................................................... 70 Figura 4.2: Las equivalencias entre bytes y objetos reales. ....................................................... 71 Figura 4.3: Matriz de toros. ......................................................................................................... 73 Figura 4.4: Primer modelo de memoria DRAM. ......................................................................... 75 Figura 4.5: Esquema de la memoria DIP. .................................................................................. 76 Figura 4.6: Memoria SIPP. ......................................................................................................... 78 Figura 4.7: Clips con springs para módulos DIMM .................................................................... 79 Figura 4.8: Tarjeta madre 386 con 8 ranuras DIMM. ................................................................. 79 Figura 4.9: Módulos de memorias SIMM de 30 y 72 pins. ......................................................... 81 Figura 4.10: Módulos de memorias SIMM y DIMM. ................................................................... 81 Figura 4.11: Módulo de memoria FPM de 30 pins. .................................................................... 83 Figura 4.12: Módulo de memoria EDO de 72 pins. .................................................................... 83 Figura 4.13: Módulo de memoria BEDO de 72 pins.. ................................................................. 84 Figura 4.14: Módulo de memoria SDRAM de 168 pins.. ............................................................ 85 Figura 4.15: Módulo de memoria DRDRAM Rambus (RIMM). .................................................. 88 Figura 4.16: Módulo de memoria DDR SDRAM. ........................................................................ 89 Figura 4.17: Tabla de modelos y características de módulo de memoria DDR ......................... 90 Figura 4.18: Comparación gráfica entre memorias DDR, DDR2 y DDR3 .................................. 90 Figura 4.19: Tabla de modelos y características de módulo de memoria DDR2. ...................... 92 Figura 4.20: Tabla de modelos y características de módulo de memoria DDR3. ...................... 93 Figura 4.21: Dual memory channel. ........................................................................................... 94 Figura 4.22: Static Random Access Memory (SRAM). .............................................................. 96

Capítulo 5 Figura 5.1: Estructura de un disco duro arquitectura IDE. ......................................................... 100 Figura 5.2: Conexión de disco duros IDE y SATA. .................................................................... 102 Figura 5.3: Evolución del factor de forma de los discos duros. .................................................. 104 Javier Aguilar Parra

8


Universidad Autónoma de Baja California Sur

Figura 5.4: Disco duro RAMAC de IBM. ..................................................................................... 106 Figura 5.5: Disco duro llamado Modelo 1301 de IBM. ............................................................... 108 Figura 5.6: Disco duro llamado Modelo 2310 de IBM. ............................................................... 109 Figura 5.7: Disco duro llamado Modelo 2314 de IBM. ............................................................... 110 Figura 5.8: Disco duro llamado Winchester 3340 de IBM. ......................................................... 112 Figura 5.9: Disco duro Seagate. ................................................................................................. 114 Figura 5.10: Disco duro MFM. .................................................................................................... 115 Figura 5.11: Disco duro que se instalaban en las IBM PC/XT. .................................................. 116 Figura 5.12: Tarjeta Lógica del disco duro CMI. ........................................................................ 116 Figura 5.13: Disco duros de 3.5 y 2.5 pulgadas. ........................................................................ 117 Figura 5.15: Disco duros de 40 GB. ........................................................................................... 117 Figura 5.15: Disco duros MK4058GSX. ..................................................................................... 119 Figura 5.16: Disco duro de estado sólido. .................................................................................. 120 Figura 5.17: Disco duro WD Caviar Green. ................................................................................ 121

Capítulo 6 Figura 6.1: Componentes de una tarjeta grafica. ....................................................................... 123 Figura 6.2: Conector VGA. ......................................................................................................... 126 Figura 6.3: Conector DVI y HDMI. .............................................................................................. 126 Figura 6.4: S-Video. .................................................................................................................... 128 Figura 6.5: Tarjeta de video MDA. .............................................................................................. 131 Figura 6.6: Tarjeta de video Hercules (HGA). ............................................................................ 132 Figura 6.7: Tarjeta de video CGA. .............................................................................................. 133 Figura 6.8: Tarjeta de video EGA. .............................................................................................. 135 Figura 6.9: Tarjeta de video MCGA. ........................................................................................... 136 Figura 6.10: Tarjeta de video VGA. ............................................................................................ 137 Figura 6.11: Tarjeta de video VGA. ............................................................................................ 140 Figura 6.12: Tarjeta de video Voodoo. ....................................................................................... 143 Figura 6.13: Tarjeta de video nVIDIA GeForce 6600GTe. ......................................................... 144 Figura 6.14: Tarjeta de video nVIDIA nvidia-quadro-fx-48001. .................................................. 146

Capítulo 7 Figura 7.1: Tarjeta de un modem interno ................................................................................... 147 Figura 7.2Conector RJ45............................................................................................................ 147 Figura 7.3: Tarjeta de red ISA de 10Mbps. ................................................................................ 148 Figura 7.4: Tarjeta de red PCI de 10Mbpse. .............................................................................. 149

Capítulo 8 Figura 8.1: Tarjeta de sonido interna. ......................................................................................... 160 Figura 8.2: Código de color de las conexiones de una tarjeta de sonido interna. ..................... 162

Capítulo 9 Figura 9.1: Disco compacto. ....................................................................................................... 165 Figura 9.2: Lente óptico de un lector. ......................................................................................... 167 Figura 9.3: tasas de transferencias y las revoluciones por minuto. ........................................... 171 Figura 9.3: DVD. 183 Figura 9.4: Códigos de región de DVD en el mundo. ................................................................. 189 Figura 9.5: CompactFlash de Kingston. .................................................................................... 191 Figura 9.6: Lector de tarjetas de memoria por USB.. ................................................................ 193

9


Departamento Académico de Sistemas Computacionales

Capítulo 1 Conceptos de organización y arquitectura de computadoras. Introducción Esta obra aborda la organización y arquitectura de computadoras desde un enfoque evolutivo, su propósito es presentar, tan claro y completo como sea posible, la naturaleza y las características de los sistemas computacionales modernos. En la actualidad hay una gran variedad de productos que pueden llevar el nombre computadora, desde las microcomputadoras de un solo micro-circuito que cuestan unos cuantos dólares que controlan electrodomésticos, hasta las supercomputadoras que cuestan decenas de millones de dólares como puede ser los servidores de Google. La diversidad de equipos de computo no solo se muestra en el precio, sino en el tamaño, el funcionamiento y la aplicación. El acelerado ritmo de desarrollo que siempre ha caracterizado a la tecnología computacional continúa en asenso. Estos cambios abarcan todos los aspectos de la tecnología computacional, desde la básica de circuitos integrados que se usa para construir componentes computacionales hasta el incremento en el uso de conceptos de organización en paralelo para combinar estos componentes. A pesar de la variedad y del ritmo de cambio en el campo de las computadoras, ciertos conceptos fundamentales se aplican en forma consistente. Sin duda, la aplicación de estos conceptos depende del estado actual de la tecnología y de los objetivos precio/desempeño del diseñador. La intención de esta obra es proporcionar información sobre los fundamentos de la organización y arquitectura computacional desde un enfoque evolutivo. Este capítulo introductorio analiza en forma breve el enfoque descriptivo que se tomará y proporciona una panorámica del resto del libro.

1.1 Definición de organización y arquitectura. Acudiendo a William Stallings se refiere a la arquitectura de la computadora como a los atributos de un sistema que puede ver un programador; en otras palabras, aquellos que Javier Aguilar Parra

10


Universidad Autónoma de Baja California Sur

tienen un efecto directo en la ejecución lógica de un programa. Para William Stallings la organización de la computadora se refiere a las unidades operacionales y sus interconexiones que efectúan las especificaciones de la arquitectura. Los ejemplos de atributos de la arquitectura incluyen el conjunto de instrucciones, el número de bits que se usan para representar varios tipos de datos (por ejemplo, números, caracteres), mecanismos de E-S y técnicas para direccionar la memoria. Los atributos de la organización incluyen aquellos detalles de hardware que son trasparentes para el programador, tales como señales de control, interfaces entre la computadora y los periféricos, y la tecnología de memoria que se utiliza. [L1]. Un ejemplo bastante ilustrativo para establecer la diferencia entre arquitectura y organización es cuando desde la perspectiva de diseño arquitectónico una computadora tendrá o no una instrucción para multiplicar. Es un aspecto de organización si esa instrucción será implantada por una unidad de multiplicación especial o por un mecanismo que haga uso repetido de la unidad de suma del sistema. La decisión de la organización se puede basar en la frecuencia anticipada del uso de la instrucción de multiplicación, la rapidez relativa de los dos enfoques, y el costo y el tamaño físico de una unidad de multiplicación especial. Es histórica, y aun en nuestros días, la diferencia entre arquitectura y organización, que ha sido muy importante. Varios fabricantes de computadoras ofrecen una familia de modelos de computadoras, todas con la misma arquitectura pero con diferencias en la organización. En consecuencia, los varios modelos de la familia tienen distintos precios y distintas características de desempeño. Además, una arquitectura puede sobrevivir varios años pero la organización cambia con la tecnología moderna. Un ejemplo prominente de ambos fenómenos es la arquitectura del Sistema IBM/370. Esta arquitectura se introdujo primero en 1970 e incluyó un gran número de modelos. El cliente con menos recursos podría comprar un modelo más lento y 11


Departamento Académico de Sistemas Computacionales

más barato y, si la demanda incrementaba, podría adquirir un modelo más rápido y más caro sin tener que abandonar el software que ya se había desarrollado. Con el paso de los años, IBM introdujo nuevos modelos con una mejor tecnología para sustituir a los modelos anteriores, ofreciendo al cliente mayor velocidad, bajo costo o ambos. Estos modelos más recientes tenían la misma arquitectura para proteger la inversión en software del cliente. De manera notable es el hecho de que la arquitectura del sistema 370, con unas pocas mejoras, ha sobrevivido hasta la fecha y continúa como la capitana de la línea de productos de IBM. En una clase de sistemas llamados microcomputadoras, la relación entre arquitectura y organización es muy estrecha. Los cambios en la tecnología no solo influyen en la organización sino que también resultan en la introducción de arquitecturas más ricas y poderosas. Por lo general, hay menos requerimientos de compatibilidad de generación en generación para estas máquinas más pequeñas. Así, hay más de una interacción entre las decisiones para el diseño de la arquitectura y de la organización.

1.2 La arquitectura básica de una computadora. El nacimiento de la arquitectura Von Neumann surge a raíz de una colaboración en el proyecto ENIAC del matemático de origen húngaro, John Von Neumann. Este trabajaba en 1947 en el laboratorio atómico de Los Álamos cuando se encontró con uno de los constructores de la ENIAC. Compañero de Einstein, Goedel y Turing en Princeton, Von Neumann se interesó por el problema de la necesidad de recablear la máquina para cada nueva tarea. En 1949 había encontrado y desarrollado la solución a este problema, consistente en poner la información sobre las operaciones a realizar en la misma memoria utilizada para datos, escribiéndola de la misma forma, es decir código binario. Su EDVAC fue el modelo de las computadoras de este tipo construidas a continuación. Se habla desde entonces de arquitectura de Von Neumann, aunque también diseñó otras formas de construcción. La primera computadora comercial construida en esta forma fue el Javier Aguilar Parra

12


Universidad Autónoma de Baja California Sur

UNIVAC 1, fabricado en 1951 por la Sperry-Rand Corporation y comprado por la Oficinadel Censo de Estados Unidos. En las primeras computadoras (Electrinic Numerical Integrtor And Computer ENIAC) la ejecución de tareas era tediosa debido a que no se contaba con la facilidad de tener tareas, programa y datos al mimos tiempo en la memoria de la computadora, esto llevo a la reflexión de que era posible tener programas, datos y tareas residiendo en una porción de memoria, más tarde utilizado en la EDVAC (Electronic Discrete Variable Computer). En 1946, Von Newmann y sus colaboradores (Princeton Institute for Advanced Studies, por lo que también se le conoció como Computadora IAS) diseñaron un modelo de computadora cuya característica principal el Concepto de Programa Almacenado, no fue sino hasta el año de 1952 cuando se termino este diseño que sirvió más adelante como prototipo de las subsecuentes computadoras de propósito general, los componentes de este prototipo son: 

Una memoria principal, que almacena datos e instrucciones.

Una Unidad Aritmética Lógica(ALU), con capacidad para operar con datos binarios.

Una Unidad de Control, que interpreta las instrucciones en memoria para su ejecución.

Unidades de Entrada / Salida, administra sus operaciones la Unidad de Control.

La Máquina de Von Neumann tenía cinco partes básicas: la memoria, la unidad aritmética-lógica, la unidad de control del programa y los equipos o unidades de entrada y salida, como se muestra en la figura 1.1. 

Memoria: Constaba de 4096 palabras, cada una con 40 bits. Cada palabra podía contener dos instrucciones de 20 bits o un número entero de 39 bits y su signo. Las instrucciones tenían 8 bits dedicados a señalar el tipo de la misma y 12 bits para especificar alguna de las 4096 palabras de la memoria.

13


Departamento Académico de Sistemas Computacionales

Unidad de Control: Es la que supervisaba la transferencia de información y la indicaba a la unidad aritmética lógica cual operación debía ejecutar.

Unidad Aritmética Lógica: Es aquella que se encarga de realizar las operaciones aritméticas y lógicas necesarias para la ejecución de una instrucción.

Acumulador: 40 bits llamado en acumulador que sirven para: Recibir datos de entrada, enviar datos a la salida, guardar el resultado de la última operación, una instrucción típica era sumar una palabra de la memoria al acumulador o almacenar este en la memoria.

Los dispositivos de Entrada/Salida sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web. Memoria

Unidad de Control

Unidad Aritmética Lógica Acumulador

Entrada

Salida

Figura 1.1: Partes básicas de la arquitectura Von Neumann.

La arquitectura Von Neumann que, si bien no es la primera en aparecer, sí que lo hizo prácticamente desde el comienzo de las computadoras y se sigue desarrollando actualmente. Claro es que está siendo desplazada por otra que permite una mayor velocidad de proceso, la RISC. En los primeros tiempos de las computadoras, con sistemas de numeración decimal, una electrónica sumamente complicada muy Javier Aguilar Parra

14


Universidad Autónoma de Baja California Sur

susceptible a fallos y un sistema de programación cableado o mediante fichas, Von Neumann propuso dos conceptos básicos: 1. La utilización del sistema de numeración binario. Simplificaba enormemente los problemas que la implementación electrónica de las operaciones y funciones lógicas planteaban, a la vez proporcionaba una mayor inmunidad a los fallos. 2. Almacenamiento de la secuencia de instrucciones de que consta el programa en una memoria interna, fácilmente accesible, junto con los datos que referencia. De esta forma la velocidad de proceso experimenta un considerable incremento; recordemos que una instrucción o un dato estaban codificados en una ficha. Tomando como modelo las máquinas que aparecieron incorporando las anteriores características, la computadora se puede considerar compuesta por las siguientes partes: La unidad central de proceso viene a ser el cerebro de la computadora y tiene por misión efectuar las operaciones aritmético-lógicas y controlar las transferencias de información a realizar. Es la que coordina el funcionamiento conjunto de las demás unidades y realiza los cálculos necesarios; por eso la podemos subdividir en una unidad de control y en una unidad de cálculo o unidad aritmético-lógica. La memoria interna contiene el conjunto de instrucciones que ejecuta la CPU en el transcurso de un programa. Es también donde se almacenan temporalmente las variables del mismo, los datos que se precisan y todos los resultados que devuelve. Las unidades de entrada y salida son las encargadas de la comunicación de la máquina con el exterior, proporcionando al operador una forma de introducir al ordenador tanto los programas como los datos y obtener los resultados.

1.3 Estructura y Función Una computadora es un sistema complejo; las computadoras contemporáneas contienen millones de componentes electrónicos elementales. Entonces, ¿Cómo puede uno

15


Departamento Académico de Sistemas Computacionales

describirlos? La clave es reconocer la naturaleza jerárquica de la mayoría de los sistemas complejos, incluyendo a la computadora. [L2]. Un sistema jerárquico es un conjunto de subsistemas interrelacionados, cada uno de los cuales, a su vez, es jerárquico en su estructura hasta que alcanzamos algún nivel de subsistema elemental. La naturaleza jerárquica de los sistemas complejos es esencial tanto para su diseño como para su descripción. El diseñador sólo necesita tratar con un nivel particular del sistema a la vez. En cada nivel, el sistema consta de un conjunto de componentes y de sus interrelaciones. El comportamiento en cada nivel sólo depende de una caracterización abstracta y simplificada del sistema en el siguiente nivel más bajo. En cada nivel, el diseñador está interesado en la estructura y en la función. [L3].

 Estructura: la forma en la cual los componentes están interrelacionados.  Función: la operación de cada componente individual como parte de la estructura. En cuanto a la descripción, tenemos dos alternativas: empezar desde abajo y crear una descripción completa o iniciar con un punto de vista general y descomponer el sistema en sus subpartes. La evidencia obtenida de un número de campos sugiere que el enfoque que va de lo general a lo particular es el más claro y el más efectivo. [L4]. El enfoque que se toma en consideración para el desarrollo de esta obra se obtiene de este punto de vista evolutivo y desde un posicionamiento macro, es decir, el sistema computacional se describirá de lo general a lo particular. Empezamos con los componentes mayores del sistema, describiendo su estructura y su función, y procedemos con capas cada vez más bajas de la jerarquía.

1.3.1 Función

Javier Aguilar Parra

16


Universidad Autónoma de Baja California Sur

Tanto la estructura como el funcionamiento de una computadora son, en esencia, simples. La figura 1.2 ilustra las funciones básicas que una computadora puede llevar a cabo. En términos generales, sólo son 4: 

Procesamiento de datos.

Almacenamiento de datos.

Movimiento de datos.

Control.

La computadora, por supuesto, debe ser capaz de procesar datos. Los datos pueden tener una amplia variedad de formas y el rango de requerimientos del procesamiento es amplio. Sin embargo, veremos que sólo hay unos cuantos métodos fundamentales o tipos de procesamiento de datos. Ambiente Operativo (Fuente y destino de los datos) Aparato para el movimiento de datos

Facilidad del procesamiento de datos

Facilidad para el almacenamiento de datos

Mecanismo de control

Figura 1.2: Una vista funcional de la computadora

También es esencial que una computadora almacene datos. Aun así la computadora está procesando datos en el vuelo (por ejemplo, los datos se introducen, se procesan y los resultados van directo a la salida), debe almacenar de forma temporal, por lo menos aquellas partes de datos que se están trabajando en un momento dado. De esta manera hay una función de almacenamiento de datos de término corto.

17


Departamento Académico de Sistemas Computacionales

Igual de importante, la computadora realiza una función de almacenamiento de datos de término largo. Los archivos de datos se almacenan en la computadora para una recuperación y actualización subsecuente. La computadora debe ser capaz de mover los datos entre el mundo exterior y ella misma. El ambiente operativo de la computadora consta de dispositivos que sirven tanto como fuentes o como destino de los datos. Cuando los datos se reciben de o se mandan a un dispositivo que está conectado en forma directa a la computadora, el proceso se conoce como entrada-salida (E-S) y se hace referencia al dispositivo como un periférico. Cuando los datos se mueven sobre distancias más largas, hacia o desde un dispositivo lejano, el proceso se conoce como comunicación de datos. Por último, debe haber un control de estas tres funciones. En fechas recientes, este control es ejercido

por el (los) individuo(s) que proveen a la computadora con

instrucciones. Dentro del sistema computacional, una unidad de control maneja los recursos de la computadora y dirige el desempeño de sus partes funcionales en respuesta a esas instrucciones. En este nivel general de la discusión, es reducido el número de operaciones posibles que se pueden llevar a cabo. La figura 1.3 ilustra los cuatro posibles tipos de operaciones. La computadora puede funcionar como un dispositivo de movimiento de datos (figura 1.3 a), solo transfiriendo datos desde un periférico o una línea de comunicaciones a otra (otro). También puede funcionar como un dispositivo de almacenamiento de datos (figura 1.3 b), con datos que se transfieren desde el ambiente externo al almacenamiento de la computadora (lectura) y viceversa (escritura). Los dos diagramas finales muestran las operaciones que involucran el procesamiento de datos, sobre los datos ya sea en almacenamiento (figura 1.3 c) o en el enrutamiento entre el almacenamiento y el ambiente externo. La discusión anterior podría verse como algo que se ha generalizado de manera

Javier Aguilar Parra

18


Universidad Autónoma de Baja California Sur

absurda. Cierto, es posible, aun en un nivel elevado de la estructura de la computadora, diferenciar una variedad de funciones, todo esto sugerido por Bell y Newell.

Movimiento

Movimiento

a)

b) Control

Control

Movimiento

c)

Movimiento

d)

Control

Almacena -miento

Procesamiento

Almacena -miento

Procesamiento

Almacena -miento

Control

Procesamiento

Almacena -miento

Procesamiento

Figura 1.3: Posibles operaciones de la computadora.

Existe una formación extraordinariamente pequeña de la estructura de la computadora con fines de ajuste a la función que se va a desempeñar. En la base de esto descansa la naturaleza del propósito general de las computadoras, en la cual toda la especialización funcional ocurre en el momento de la programación y no en el momento del diseño.

1.3.2 Estructura La figura 1.4 es la representación más simple posible de una computadora. Ésta es una entidad que interactúa de alguna forma con su ambiente externo. En general, todos sus enlaces con el ambiente externo pueden ser clasificados como dispositivos periféricos o líneas de comunicación. Tendremos que decir algo acerca de ambos tipos de enlaces.

19


Departamento Académico de Sistemas Computacionales

Computadora

Periféricos

 

Líneas de comunicación

Almacenamiento Procesamiento

Figura 1.4: La computadora.

Pero el asunto más importante de esta obra es la estructura interna de la computadora misma, la cual se muestra a un nivel superior en la figura 1.5. Periféricos Computadora

Computadora CPU

Memoria Principal

Interconexión con el sistema

E-S

Figura 1.5: La computadora, estructura de nivel superior

Hay cuatro componentes estructurales principales: 

Unidad centra de procesamiento (CPU): Controla la operación de la computadora y realiza sus funciones de procesamiento de datos. Con frecuencia se le llama tan sólo procesador.

Memoria principal: Almacena datos.

E-S: Mueve datos entre la computadora y su ambiente externo.

Interconexión del Sistema: Algún mecanismo que proporciona comunicación entre la CPU, la memoria principal y la E-S.

Javier Aguilar Parra

20


Universidad Autónoma de Baja California Sur

Podría haber uno o más de cada uno de los componentes anteriores. Tradicionalmente, sólo ha habido una sola CPU. En años recientes, se ha incrementado el uso de múltiples procesadores en un solo sistema.

Computadora Memoria

E-S Bus del sistema

CPU

Unidad de Procesamiento

Unidad de Control

Unidad Aritmética y Lógica Interconexión interna de la CPU

Registros

Figura 1.6: La Unidad Procesamiento Centra (CPU)

Cada uno de estos componentes se examinara con un poco más de detalle. Sin embargo, para nuestros propósitos, el componente más interesante y de alguna manera el más complejo, es la CPU, su estructura se ilustra en la figura 1.6. Sus principales componentes estructurales son:

21


Departamento Académico de Sistemas Computacionales

CPU ALU

Registros

Bus interno de la CPU

Unidad de Control

Unidad de Control

Lógica secuencial

Memoria de control Registros y decodificadores de la unidad de control

Figura 1.7: La Unidad de control

La Unidad de Control: Controla la operación de la CPU y, por consiguiente, la computadora.

La Unidad Aritmética y Lógica (ALU): Realiza las funciones de procesamiento de datos de la computadora.

Registros: Proporciona almacenamiento interno para la CPU.

Interconexión de la CPU: Algún mecanismo que proporciona lo necesario para la comunicación entre la unidad de control, la ALU y los registros.

Cada uno de estos componentes se examinará con un poco más de detalle. Ahora, hay varios enfoques para la implantación de la unidad de control, pero la más común por mucho es una implantación microprogramada. Con este enfoque, la estructura de la unidad de control puede representarse como en la figura 1.7. Javier Aguilar Parra

22


Universidad Autónoma de Baja California Sur

1.4 Estructuras de interconexión para la computadora A nivel superior, una computadora consta de un procesador, memoria y componentes de E-S. El comportamiento funcional del sistema se basa en el intercambio de datos y señales de control entre estos componentes. Para soportar este intercambio, dichos componentes deben estar interconectados de alguna forma.

1.4.1 Memoria interna y externa La memoria es esa parte del sistema computacional que se utiliza para el almacenamiento y para la subsecuente recuperación de datos e instrucciones. La memoria de la computadora exhibe un amplio rango de tipos, tecnología, organización, desempeño y costo. El sistema computacional típico está equipado con una jerarquía de subsistemas de memoria, algunos internos (accesibles por el proceso de forma directa) y algunos externos (accesibles por el procesador vía un módulo de E-S). Las características claves de los subsistemas de memoria y estudia la jerarquía de la memoria e incluye un análisis de: 

Caché.

Memoria principal de semiconductor.

Memoria de burbujas.

Disco magnético.

Cinta magnética.

1.4.2 Entrada-Salida. Además del procesador y la memoria, el tercer elemento clave de un sistema computacional es un conjunto de módulos de E-S. Cada módulo esta interconectado con el procesador y la memoria, y controla además uno o más dispositivos externos. Se estudian los mecanismos por medio de los cuales un módulo de E-S interactúa con el resto del sistema computacional, mediante el uso de las técnicas de E-S por programa, E23


Departamento Académico de Sistemas Computacionales

S por interrupción y acceso directo a memoria (DMA) y la interfaz entre un módulo de E-S y los dispositivos externos.

1.4.3 Estructura y función de la CPU. La estructura interna y función de la CPU se revisa la organización general de la CPU (ALU, unidad de control, registros) y el funcionamiento de la CPU cuando se ejecutan las instrucciones de máquina. Se estudia el ciclo de las instrucciones para mostrar la función y la interrelación de los ciclos de búsqueda, indirecto, de ejecución y de interrupción. Por último, se examina el uso de la ejecución en cascada para mejorar el desempeño.

1.4.4 Operación de la unidad de control. La unidad de control es el componente de la CPU que controla su operación. Se muestra que cada ciclo de instrucción está compuesto de una serie de microoperaciones que generan señales de control. La ejecución se lleva a cabo por el efecto de estas señales de control, que emanan de la unidad de control hacia la ALU, los registros y la estructura de interconexión del sistema. Por último, se presenta un enfoque para la implantación de la unidad de control, a la que se hace referencia como una unidad de control alambrada.

Javier Aguilar Parra

24


Universidad Autónoma de Baja California Sur

Capítulo 2 Breve historia del desarrollo de computadoras. La Computadora, como todo avance tecnológico, no surge de repente; es el resultado de muchos desarrollos: científicos, sociales, comerciales y otros más. En cada época, los seres humanos nos van mejorando sus herramientas para realizar mejor las tareas que deben cumplir.

2.1 Antecedentes históricos de la computación Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular.

2.1.1 La pascalina. Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 -1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

2.1.2 La máquina analítica. La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge e Ingeniero Ingles en el siglo XIX. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. La idea que tuvo Charles Babbage sobre una computadora nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. Las características de esta máquina incluyen una memoria que puede almacenar hasta 1000 números de hasta 50 dígitos cada uno. 25


Departamento Académico de Sistemas Computacionales

Las operaciones a ejecutar por la unidad aritmética son almacenadas en una tarjeta perforadora. Se estima que la maquina tardaría un segundo en realizar una suma y un minuto en una multiplicación.

2.1.3 La máquina de Hollerith. La máquina de Hollerith. En la década de 1880, la oficina del Censo de los Estados Unidos, deseaba agilizar el proceso del censo de 1890. Para llevar a cabo esta labor, se contrato a Herman Hollerith, un experto en estadística para que diseñara alguna técnica que pudiera acelerar el levantamiento y análisis de los datos obtenidos en el censo. Entre muchas cosas, Hollerith propuso la utilización de tarjetas en las que se perforarían los datos, según un formato preestablecido. Una vez perforadas las tarjetas, estas serian tabuladas y clasificadas por maquinas especiales. La idea de las tarjetas perforadas no fue original de Hollerith. Él se baso en el trabajo hecho en el telar de Joseph Jacquard que ingenio un sistema donde la trama de un diseño de una tela así como la información necesaria para realizar su confección era almacenada en tarjetas perforadas. El telar realizaba el diseño leyendo la información contenida en las tarjetas. De esta forma, se podían obtener varios diseños, cambiando solamente las tarjetas.

2.1.4 La Mark I. En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta computadora tomaba seis segundos para efectuar una multiplicación y doce para una división. Computadora basada en rieles (tenía aprox. 3000), con 800 kilómetros de cable, con dimensiones de 17 metros de largo, 3 metros de alto y 1 de profundidad. Al Mark I se le hicieron mejoras sucesivas, obteniendo así el Mark II, Mark III y Mark IV.

2.1.5 La ENIAC. En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica que funcionaba con Javier Aguilar Parra

26


Universidad Autónoma de Baja California Sur

tubos al vacío, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Este computador superaba ampliamente al Mark I, ya que llego hacer 1500 veces más potente. En el diseño de esta computadora fueron incluidas nuevas técnicas de electrónica que permitían minimizar el uso de partes mecánicas. Esto trajo como consecuencia un incremento significativo en la velocidad de procesamiento. Así, podía efectuar 5000 sumas o 500 multiplicaciones en un segundo y permitía el uso de aplicaciones científicas en astronomía, meteorología, por mencionar algunas. Durante el desarrollo del proyecto de la ENIAC, el matemático Von Neumann propuso unas mejoras que ayudaron a llegar a los modelos actuales de computadoras: 1. Utilizar un sistema de numeración de base dos (Binario) en vez del sistema decimal tradicional. 2. Hacer que las instrucciones de operación estén en la memoria, al igual que los datos. De esta forma, memoria y programa residirán en un mismo sitio.

2.1.6 La EDVAC. La EDVAC (Electronic Discrete Variable Automatic Computer), construida en la Universidad de Manchester, en Connecticut (EE.UU), en 1949 fue el primer equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambios o reconfigurados cada vez que se usaban. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos. EDCAV pesaba aproximadamente 7850 kg y tenía una superficie de 150 m2. En realidad EDVAC fue la primera verdadera computadora electrónica digital de la historia, tal como se le concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más completas.

2.1.7 La UNIVAC.

27


Departamento Académico de Sistemas Computacionales

La UNIVAC fue la primera computadora diseñada y construida para un propósito no militar. Desarrollada para la oficina de CENSO en 1951, por los ingenieros John Mauchly y John Presper Eckert, que empezaron a diseñarla y construirla en 1946. La computadora pesaba 7257 kg. aproximadamente, estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por segundo. Era una computadora 7 que procesaba los dígitos en serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo. Así Von Neumann, junto con Babbage se consideran hoy como los padres de la Computación.

2.2 Generaciones de las Computadoras. Las generaciones de las computadoras se definen haciendo referencia principalmente a los componentes electrónicos con los que fueron construidas y diseñadas las computadoras, cundo menos eso se criterio se tomo en consideración las primeras cuatro generaciones, sin embargo, también se toman criterios su estructura y función. La estructura refiere a la forma en la cual los componentes están interrelacionados y su función a la operación de cada componente individual como parte de la estructura. Otro aspecto que se considera para establecer las generaciones de las computadoras tiene que ver con el desarrollo de software como lenguajes de programación, sistemas operativos y aplicaciones de inteligencia artificial y robótica.

2.2.1 Primera Generación (1951-1958). En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características: Usaban tubos al vacío para procesar información. Javier Aguilar Parra

28


Universidad Autónoma de Baja California Sur

Usaban tarjetas perforadas para entrar los datos y los programas.

Usaban cilindros magnéticos para almacenar información e instrucciones internas.

Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.

Se comenzó a utilizar el sistema binario para representar los datos.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares). La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

2.1.1.Segunda Generación (1958-1964). En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cintas perforadas y otras por medio de cableado en un tablero. Las características de esta generación son: 

Usaban transistores para procesar información.

Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.

200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.

Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Pero esto provocaba una gran cantidad de calor lo que las hacían sumamente lentas.

Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.

Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accesibles.

29


Departamento Académico de Sistemas Computacionales

Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general.

La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".

Surgieron las minicomputadoras y los terminales a distancia.

Se comenzó a disminuir el tamaño de las computadoras.

2.1.1.Tercera Generación (1964-1971). La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. La computadora IBM-360 dominó las ventas de la tercera generación de computadoras desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador. Las características de esta generación son: 

Se desarrollaron circuitos integrados para procesar información.

Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.

Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas.

Surge la multiprogramación.

Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos.

Emerge la industria del "software".

Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.

Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.

Consumían menos electricidad, por lo tanto, generaban menos calor.

Javier Aguilar Parra

30


Universidad Autónoma de Baja California Sur

2.1.1.Cuarta Generación (1971-1988). Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". Las características de esta generación son: 

Se desarrolló el microprocesador.

Se colocan más circuitos dentro de un "chip".

"LSI - Large Scale Integration circuit".

"VLSI - Very Large Scale Integration circuit".

Cada "chip" puede hacer diferentes tareas.

Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips".

Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.

Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.

Se desarrollan las supercomputadoras.

2.2.5 Quinta Generación (1983 al presente). La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970 y principios de la década de 1980. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software, en vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan 31


Departamento Académico de Sistemas Computacionales

las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Las características principales de esta generación son: 

Mayor velocidad.

Más miniaturización de los elementos.

Aumenta la capacidad de memoria.

Multiprocesador (Procesadores interconectados).

Lenguaje Natural.

Lenguajes de programación: PROGOL (Programming Logic) y LISP (List Processing).

Máquinas activadas por la voz que pueden responder a palabras habladas en diversas lenguas y dialectos.

Capacidad de traducción entre lenguajes que permitirá la traducir instantáneamente lenguajes hablados y escritos.

Elaboración inteligente del saber y número tratamiento de datos.

Características de procesamiento similares a las secuencias de procesamiento Humano.

2.2.6 Sexta Generación (presente) La sexta generación se podría llamar a la era de las computadoras inteligentes basadas en redes neuronales artificiales o "cerebros artificiales". Serían computadoras que utilizarían superconductores como materia-prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula resistencia, ganando performance y economizando energía. La ganancia de performance sería de aproximadamente 30 veces la de un procesador de misma frecuencia que utilice metales comunes. Las características de esta generación son: 

Las Computadoras Portátiles (Ladtops). Javier Aguilar Parra

32


Universidad Autónoma de Baja California Sur

Las Computadoras de Bolsillo (PDAs).

Los Dispositivos Multimedia.

Los Dispositivos Móviles Inalámbricos (SPOT, UPnP, Smartphone, etc.).

El Reconocimiento de voz y escritura.

Las Computadoras Ópticas (luz, sin calor, rápidas).

Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas).

La Mensajería y el Comercio Electrónico.

La Realidad Virtual.

Las Redes Inalámbricas (WiMax, WiFi, Bluetooth).

El Súper Computo (Procesadores Paralelos Masivos).

Las Memorias Compactas (Discos Duros externos USB, SmartMedia, PCMCIA).

En esta generación se espera llegar a los Sistemas Expertos (imitar el comportamiento de un profesional humano), para esto se emplearán microcircuitos con inteligencia, en donde las computadoras tendrán la capacidad de aprender, asociar, deducir y tomar decisiones para la resolución de un problema, la famosa "Generación de la Inteligencia Artificial". El propósito de la Inteligencia Artificial es equipar a las computadoras con inteligencia humana y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la computadora aprenderá a partir de sus propias experiencias usará sus datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones.

2.3 Computadoras Contemporáneas. 33


Departamento Académico de Sistemas Computacionales

Hay una amplia variedad de computadoras en el mercado actual en términos de tamaño físico, precio, capacidad y desempeño. Es tan amplia que algunas veces es difícil ver esos elementos que comparten varias computadoras y aquellos que tienden a diferir entre las computadoras. De un tiempo a la fecha, los ingenieros, los fabricantes y los usuarios de computadoras han encontrado conveniente agrupar a las computadoras en tres clases principales: 

Microcomputadoras.

Minicomputadoras.

Mainframes. 100 Supercomputadoras 10

Desempeño Realtivo

Mainframaes

Microcomputadoras

1 Minicomputadoras 0.1 1965

1970

1975

1980

1985

1990

1995

2000

2005

2010

Figura 2.1: Las tendencias en el crecimiento del desempeño por clase de computadoras.

Esta clasificación es muy útil para tener un entendimiento de los elementos claves de la arquitectura de las computadoras y las diferencias esenciales entre computadoras. Aunque es importante darse cuenta que estas clases no están definidas de manera precisa. Esto es por dos razones: 

De hecho hay un espectro de tipo de tipos de computadoras, y las diferencias entre éstas dentro de cada una de las tres clases son tan grandes como las diferencias entre las clases aledañas.

La tecnología computacional evoluciona de manera rápida, por lo tanto, la microcomputadora actual es tan poderosa como la microcomputadora de hace

Javier Aguilar Parra

34


Universidad Autónoma de Baja California Sur

algunos años y la microcomputadora actual es tan poderosa como el mainframe de hace pocos años. Este último aspecto se ilustra en la figura 2.1, la cual muestra las principales clases de computadoras a través de los años. Al medir el poder de la computadora, se ve que cada clase ha crecido. Hacia arriba de la gráfica, en forma diagonal, uno observa que una clase de computadoras se vuelve más potente con el paso del tiempo. Si seguimos la gráfica en forma horizontal, se observa que, conforme avanza el tiempo, se puede proporcionar la misma potencia de cálculo con computadoras más pequeñas y más baratas1. La gráfica sólo refleja el desempeño de la CPU para aplicaciones de propósito general. El desempeño para otras clases diferentes en cuanto al microprocesador se subestima porque no se toma en cuenta el desempeño en E-S. Esta clasificación (microcomputadora, minicomputadora, mainframe), desde luego, implica diferencias entre las clases en una o más características. En la década de los sesentas, antes de la microcomputadora, había una distinción muy clara entre las minicomputadoras y los mainframes. Las características más importantes que se podían usar para diferenciar los dos tipos de computadoras eran:

1

Velocidad.

Repertorio de instrucciones.

Número de registros en la CPU.

Longitud de palabra.

Tamaño de la memoria principal.

Complejidad de los módulos de E-S.

Complejidad del Sistema Operativo.

Tamaño físico.

Costo.

La gráfica sólo refleja el desempeño de la CPU para aplicaciones de propósito general.

35


Departamento Académico de Sistemas Computacionales

Espacio de direcciones virtual.

Tamaño de la memoria secundaria.

Grado de multiprogramación.

(Los últimos tres términos todavía no se han definido, pero se discuten más tarde en este texto.) Un mainframe poseía más características de estas que la minicomputadora. Cuando la microcomputadora se introdujo primero, se podía usar esta misma lista para poder diferenciar a la microcomputadora de la minicomputadora. Con la evolución continua de la tecnología, los límites entre los tres tipo de máquinas se volvieron borrosos. También, surgió una nueva clase: la supercomputadora. Figura 2.2 da ejemplos de cada clase.

2.3.1.Microcomputadora. La clase de las microcomputadoras se puede definir de una forma más precisa que las otras clases. En términos simples, una microcomputadora es una computadora cuya CPU es un microprocesador. Como observamos en la sección anterior, un microprocesador es un procesador en el cual todos sus componentes están en un solo chip de circuito integrado. La microcomputadora se ha convertido en una parte tan común de la vida diaria que se necesita decir poco acerca de ella. Las computadoras caseras y las personales de oficina proliferan, proporcionando potencia de cómputo y capacitación a más y más gente. En términos de número de unidades, las ventas de microcomputadoras empequeñecen a todos los otros tipos de computadoras combinados. 2.3.2 Minicomputadora. A principios de los sesentas, se combinaron factores económicos y técnicos para hacer a las computadoras pequeñas y baratas atractivas para varias aplicaciones. Algunas tareas de cálculo podían efectuarse con menos potencia que la que entonces estaba disponible en las computadoras tipo mainframe contemporáneas. por ejemplo, las computadoras Javier Aguilar Parra

36


Universidad Autónoma de Baja California Sur

podían usarse para controlar algunos procesos industriales o de adquisición de datos, tales como la verificación del sistema electrónico de un producto en una línea de ensamble. Esta tarea no podía efectuarse económicamente por un mainframe, pero se podía usar una computadora pequeña y relativamente barata. Mientras que los mainframes eran operados por cuadrillas de operadores, tales costos no se podían justificar para la minicomputadora barata. De esta manera, se requirió la interacción directa entre la minicomputadora y el usuario. Un desarrollo clave en este campo fue la introducción a la minicomputadora de 16 bits, de las cuales PDP-11 de DEC, introducida en 1970, fue la más prominente y la más usada. Las primeras minicomputadoras emplearon varias longitudes de bits cortas, las máquinas de 8 y 12 bits eran comunes. A finales de los setentas, casi todas las minicomputadoras eran máquinas de 16 bits. Comparadas con máquinas de longitud de palabra más pequeña, la computadora de 16 bits tenía las siguientes ventajas: 

La longitud de palabra de 16 bits permite un conjunto de instrucciones de maquina valioso y un campo de direccionamiento relativamente grande. Esto proporciona una maquina más potente que puede usarse en una amplia variedad de aplicaciones.

La longitud de palabra de 16 bits es eficiente para el almacenamiento y la manipulación del texto. De esta manera, se presta tanto para las aplicaciones de negocios como científicas.

Con el aumento de la velocidad, del repertorio de instrucciones, del tamaño de la memoria y de otras características de estas minicomputadoras debido a los avances de la tecnología, estas características cambiaron su papel. Algunas de las aplicaciones individuales o dedicadas empezaron a efectuarse por las microcomputadoras. La minicomputadora se convirtió en un sistema multiusuario o compartido. En las décadas de

37


Departamento Académico de Sistemas Computacionales

los sesentas y setentas, los avances en la tecnología condujeron al incremento de la funcionalidad de la minicomputadora. Se mejoraron los conjuntos de instrucciones para incluir operaciones de números de punto flotante para el proceso científico y cadenas de caracteres para aplicaciones comerciales. La disponibilidad de la memoria de bajo costo permitió un incremento dramático en el tamaño de la memoria principal adjunta a la minicomputadora. La velocidad de ejecución de instrucción se incrementó. Todos estos adelantos sucedieron en una arquitectura de 16 bits. Pero hay limitaciones impuestas por esa arquitectura: 

Repertorio de instrucciones: Con el uso de instrucciones de 16 bits, es limitado el número de códigos de operación disponibles.

Aritmética de precisión más alta: La forma “natural” de la aritmética en una máquina de 16 bits opera número de 16 bits. Es posible obtener una precisión más alta por medio del almacenamiento de un solo número en 2 o más palabras. Una operación más eficiente puedo lograrse con un tamaño de palabra más grande para almacenar números.

Rango de direcciones: La capacidad de direccionamiento está delimitada casi siempre por el número de bits que pueden almacenarse en los registros de dirección. Así, en una máquina de 16 bits, se permite entonces un máximo de 64 K direcciones únicas.

De estas limitaciones, la última es la más importante y fundamental. Las direcciones se utilizan por los programas de la computadora para hacer referencia a las localidades de datos y del programa. Conforme aumentó la potencia de la minicomputadora, se creó un desajuste entre el rango de direcciones de 64 K y el espacio de dirección física del multimegabyte. Para usos más grandes, se desarrollaron dos tendencias:

Javier Aguilar Parra

38


Universidad Autónoma de Baja California Sur

1. Los usuarios de la minicomputadora querían procesar configuraciones de datos más grandes; esto se muestra en particular con los programas de FORTRAN. 2. Los programas de aplicación crecieron rápidamente en tamaño, en particular los programas grandes de COBOL. El programador tenían que recurrir a varios “trucos” para tratar con esta desigualdad.

En las consideraciones nos llevan a la introducción, a finales de los setentas. De la minicomputadora

de

32

bits,

la

cual

fue

llamada

como

la

supermini.

La

superminicomputadora continúa la tendencia establecida por la minicomputadora de 16 bits, soportando más usuarios en forma simultánea y manipulando más dispositivos periféricos y memorias más grandes que las minicomputadoras anteriores. Con la virtual desaparición de la minicomputadora de 16 bits, el término supermini se desechó en favor de minicomputadora o sistema de rango medio.

2.3.3 Mainframe. Aunque hay algunas confusiones sobre los límites entre las minicomputadoras y las computadoras mainframes, éstas pertenecen como una clase diferente de computadoras. Algunas de las diferencias claves entre el extremo alto de la clase de los mainframe y el extremo alto de la clase de las minicomputadoras están resaltadas por la IBM 3090 y la VAX en la tabla 2.8. Una de las diferencias más dramáticas reside en la velocidad de las dos clase, Una medida común de velocidad es millones de instrucciones por segundo (MIPS); esta es la tasa en la que se ejecutan las instrucciones de máquina. Algunas veces es peligroso comparar el porcentaje de MIPS de máquinas diferentes, ya que la instrucción típica en una maquina podría hacer más que la instrucción en otra. Sin embargo, son comparables los conjuntos de instrucciones de las computadoras mainframe y de las superminis, entonces la comparación es válida. Otra área dramática de diferencia es el precio, tal como se muestra en la tabla.

39


Departamento Académico de Sistemas Computacionales

En términos de volumen de dólares, los mainframes son el sector más grande del mercado de hardware computacional y el mercado continúa creciendo. La pregunta sugería de por qué tales maquinas costosas continúan sobreviviendo en el mundo de las minicomputadoras y de las minis de bajo costo. De hecho, las predicciones de la muerte de los mainframes han aparecido con regularidad desde hace 15 años o más. Por ejemplo: 1. Los mainframes tienen más que ir al paso de las otras clases de computadoras en términos de precio y de mejoras en el desempeño. 2. Hay una función que legítimamente sólo proporcionan las computadoras de la clase de los mainframes. Permítanos examinar con brevedad estos dos aspectos.

Los dramáticos progresos en el desempeño de las minicomputadoras llevaron a varios observadores a creer que los mainframes costosos estarían fuera de uso alrededor de la mitad de la década de los setentas. El evento que representó un punto decisivo para la industria de los mainframes fueron volúmenes de remesas de sistemas de conexión compatible por AmdahlCorp en 1976. Estas máquinas eran idénticas en funcionamiento a la CPU de IBM y podían usar todo el software de las máquinas IBM. Amdahl ofreció mejoras en el precio y en la ejecución sobre los mainframes de la IBM y esto introdujo una verdadera competencia para este sector de la industria. El resultado fue una fuerte respuesta de IBM. De 1970 a 1976, el mainframe de IBM aumentó de 1.8 MIPS a 2.5 MIPS y de 1976 a 1982, ascendió de 2.5 MIPS a 14 MIPS. Durante este período, los precios permanecieron estables. Esta mejora de precio/desempeño superó a la que se había experimentado en la industria de la minicomputadora en el mismo lapso de tiempo. Sin embargo, un mainframe de tamaño completo es una enorme inversión. Con el desarrollo de la tecnología de procesamiento de datos distribuidos, varios observadores sintieron que incluso grandes aplicaciones podrían manejarse con una red de Javier Aguilar Parra

40


Universidad Autónoma de Baja California Sur

minicomputadoras en lugar de una microcomputadora. Esto ha ocurrido en algunas áreas. Pero en un área, el mainframe continúa dominando. La principal función de los mainframes en la actualidad, es soportar grandes bases de datos. Las enormes organizaciones de negocios y de gobierno necesitan un almacén central de datos que se pueda manejar y controlar de manera central. Sólo el mainframe tiene la potencia de procesamiento para manejar grandes sistemas de bases de datos.

Clase

Cray Y-MP

IBM 3090/600

VAX 8842

IBM AS/400/B60

IBM PS/2/50

Supercomputadora

Mainframe

Minicomputadora

Minicomputadora

Microcomputadora

Primera instalación Razón de ejecución Tiempo del ciclo

3T/88

8/88

4T/88

8/88

3T/87

2.6 GFLOPS

120 MIPS

22 MIPS

N/D

2 MIPS

6

15

45

60

100

Memoria

32 - 128 TB

128 - 512 GB

32 - 128 GB

8 - 32 GB

2 - 16 GB

9.6

3-4.5

2.8

3

1.25

81 20 M Dls.

64-128 12.4 M Dls.

N/D 10000 Dls.

N/D 4000 Dls.

8 1750 Dls.

Trasferencia del disco Canales E-S Precio Base

Figura 2.1: Tabla que compara las características de algunas computadoras contemporaneas.

2.3.4 Supercomputadora. Aunque el desempeño de los mainframes de propósito general continúa mejorando sin descanso, existen algunas aplicaciones que están más allá del alcance de los mainframes contemporáneos. Hay una necesidad de computadoras que resuelvan problemas matemáticos de procesos reales, tal como sucede en ciertas disciplinas que incluyen a la aerodinámica, la sismología, la meteorología y la física atómica, nuclear y de plasma. De manera común, estos problemas se caracterizan por la necesidad de alta precisión y un programa que realice en forma repetitiva operaciones de punto flotante sobre grandes arreglos de números. La mayoría de estos problemas caen dentro de la categoría conocida como simulación de campo continuo. En esencia, una situación física se puede 41


Departamento Académico de Sistemas Computacionales

describir por una superficie o región en tres dimensiones (por ejemplo, el flujo de aire adyacente a la superficie de un cohete). Esta superficie es como una malla de puntos. Un conjunto de ecuaciones diferenciales define el comportamiento físico de la superficie en cada punto. Las ecuaciones se representan como un arreglo de valores y coeficientes, y la solución involucra operaciones aritméticas repetitivas sobre los arreglos de datos. Para manejar estos tipos de problemas, se ha desarrollado la supercomputadora. Estas máquinas son capaces de manejar cientos de millones de operaciones de punto flotante por segundo y su costo está en el rango de los 10 a los 15 millones de dólares. Aunque una supercomputadora es capaz de efectuar aplicaciones de propósito general que se encuentran en los mainframes, está optimizada para el tipo de cálculo numérico que involucra arreglos. La supercomputadora tiene un uso limitado y, debido a su precio, un mercado también limitado. Solo unas cuantas docenas de estas máquinas son operacionales, en su mayoría en los centros de investigación y en algunas agencias de gobierno con funciones científicas o de la ingeniería. Como en otras áreas de la tecnología de las computadoras, hay una constante demanda para incrementar el desempeño de la computadora. En algunas aplicaciones comunes de aerodinámica y de física nuclear, se necesitan tantas como 103 operaciones aritméticas, que absorben más de dos días de tiempo de cómputo en una supercomputadora contemporánea, para un solo problema. Así la tecnología y el desempeño de la supercomputadora continúan en su evolución.

Javier Aguilar Parra

42


Universidad Autónoma de Baja California Sur

Capítulo 3 Arquitectura de una computadora personal (PC) 3.1 Conceptos básicos. La placa madre (también llamada placa base o motherboard), es el elemento principal de todo ordenador, en el que se encuentran o se conectan todos los demás aparatos y dispositivos. Físicamente, se trata de una “plancha” de material sintético, sobre la cual existe un circuito electrónico que conecta diversos elementos que se encuentran anclados sobre ella; los principales son: 

El microprocesador, insertado en un elemento llamado zócalo.

La memoria, generalmente en forma de módulos.

Los slots o ranuras de expansión donde se conectan las tarjetas.

Diversos chips de control, entre ellos la BIOS.

3.1.1 MYCRO 1. En 1975 se fabrica la primera microcomputadora "de tarjeta única" en Oslo, Noruega en una empresa llamada Norsk Data Industri. Contaba con un microprocesador Intel 8080 y utilizaba el sistema operativo MYCROP, creado por la misma empresa. Esta computadora fue sucedida por la Mycron 3, que ya utilizaba CP/M; la Mycron 1000 que contaba con un microprocesador Zilog Z80 y utilizaba MP/M; y finalmente en 1980 llega al mercado la Mycron 2000, que fue la primera en albergar un microprocesador Intel 8086, y utilizaba inicialmente el sistema operativo CP/M-86 y eventualmente el MP/M-86. En la figura 3.1 se muestra una imagen de MYCRO 1.

43


Departamento Académico de Sistemas Computacionales

Figura 3.1: MYCRO 1.

3.1.2 KIM-1. En 1976 MOS Technology presenta la computadora en una sola tarjeta KIM-1. Cuenta con un microprocesador 6501/02* a 1 MHz; 1 kilobyte en RAM, ROM, teclado hexadecimal, pantalla numérica con LEDs, 15 puertos bidireccionales de entrada / salida y una interfaz para casete compacto (casete de audio). Esta computadora fue vendida armada, aunque carecía de fuente de poder. La KIM-1 fue producida hasta 1981, convirtiéndose en el primer producto de cómputo de Cómmodore. En la figura 3.2 se muestra una imagen de KIM 1.

Figura 3.1: KIM 1.

Javier Aguilar Parra

44


Universidad Autónoma de Baja California Sur

3.1.3 Placa base XT En 1981 IBM lanzó al mercado la primera computadora personal comercialmente exitosa, la IBM 5150, desde entonces el paso de la evolución que ha llevado este mundo de la Informática, ha sido vertiginoso, siempre buscando mayor velocidad y capacidad, al mismo tiempo que se reducían los costes de fabricación y por ende, los precios. Con la aparición del primer PC, sale al mercado la primera placa base estándar. En la figura 3.3 se muestra una imagen de la XT.

Figura 3.3: Placa base XT.

La arquitectura del XT posee una arquitectura a 8 bits, usualmente están equipadas con 8 ranuras ISA de 8 bits, 4 hileras de 9 zócalos para expandir la memoria pastilla por pastilla y una hilera por vez, para un total máximo de 1 megabyte en RAM. En cuanto a la memoria, esta consta de 4 hileras de 9 zócalos que daban cabida a 1 megabyte en total. Cada hilera recibe 9 pastillas de 32 kilobytes, utilizando una de ellas para paridad y únicamente funcionaba si toda la hilera estaba con sus circuitos correctamente insertados. Todavía no se inventaban las tarjetas de ampliación de memoria. 45


Departamento Académico de Sistemas Computacionales

De línea tenía cuando menos 3 ranuras ISA utilizadas, una para el controlador de disco duro, otra para la controladora de disquete y otra más para el controlador de video que habitualmente contaba también con un conector centronics para la impresora. Algunos modelos incorporaban una cuarta tarjeta para el puerto serial. Estas tarjetas, en su versión básica, únicamente contaban con microprocesador, el zócalo para el coprocesador matemático, que era un circuito independiente; zócalos para la ampliación de memoria, un conector DIN 5 para el teclado, las ranuras ISA de 8 bits, un conector de alimentación y la circuitería y pastillería necesaria para el funcionamiento de la computadora y carecía de funcionalidad útil por sí misma, sin tarjetas de expansión.

3.1.4 Placa base AT En 1984, apareciendo la AT, que son las siglas en inglés para Tecnología Avanzada, Advanced Technology. El AT, basado en el estándar IBM PC-AT, fue estándar absoluto durante años, desde los primeros microprocesadores Intel 80286 hasta los primeros Pentium II y equivalentes incluidos. Cuyo estándar y configuración siguió vigente hasta principios del presente siglo (XXI), comenzando su declinación en el 2000, frente al exitoso estándar ATX. El AT llega a los 16 bits. Estas tarjetas madre, en sus primeras versiones son de diseño y características elementales; carecen de accesorios integrados limitándose únicamente a los circuitos, componentes y pastillas básicos para su funcionamiento. En la figura 3.4 se muestra una imagen de la XT. Usualmente cuentan únicamente con un conector del teclado DIN de tipo ancho, así como algunas ranuras tipo ISA de 8 y / o 16 bits y en el caso de los modelos más recientes, algunas EISA, VESA y PCI en las que se tenían que insertar las tarjetas de expansión para controlar discos duros, puertos, sonido, etc. Durante este período casi todos los accesorios para computadora venían acompañados de una tarjeta controladora que había que instalar y configurar manualmente, ya que la Javier Aguilar Parra

46


Universidad Autónoma de Baja California Sur

tecnología de estas tarjetas madre no aportaba funciones para conectar y funcionar (Plug & Play), lo que hacía que la instalación, o al menos la configuración de estos dispositivos tuviera que ser realizada por personal calificado que supiera lidiar con los limitados recursos que ofrecía la placa base.

Figura 3.4: Placa base AT.

Estas carencias y limitaciones son las que motivaron que eventualmente se crearan tecnologías de conectar y funcionar así como buses externos de alta velocidad, como lo son el USB o el IEEE1394, para dar cabida a la creciente disponibilidad de accesorios y demanda de recursos. Las últimas generaciones de tarjetas madre tipo AT llegaron al mercado integrando la circuitería de control para 4 discos duros, 2 platinas de disquete, sonido de 8 y hasta 128 bits, 2 puertos seriales y 1 paralelo, al menos 2 conectores USB, puerto de video AGP a 64 bits con memoria de video compartida con la RAM del sistema configurable desde 4 hasta 64 megabytes, así como módem a 56Kbps y red ethernet a 10/100 megabits; con lo cual la mayoría de estos modelos ya no requerían de tarjetas de expansión para funcionar a toda su capacidad saliendo de la caja, ya que inclusive algunas traían montado el microprocesador y únicamente se equipaban con una ranura PCI y/o una ISA.

3.1.5 Placa base (ATX).

47


Departamento Académico de Sistemas Computacionales

El formato ATX, promovido por INTEL e introducido al mercado en 1996 comenzó su historia con una serie de debates sobre su utilidad debido principalmente al requerimiento de nuevos diseños de fuente de poder y gabinete. El cumplimiento de los estándares ATX permite la colocación de la UCP de forma que no moleste en el posicionamiento de las tarjetas de expansión, por largas que estas sean y está colocada al lado de la fuente de alimentación para recibir aire fresco del ventilador de esta. Se descubren exteriormente porque tiene más conectores, los cuales están agrupados y los conectores de teclado y ratón son tipo PS/2. Para 1997, con la llegada al mercado del AGP y el USB, estas tecnologías se incorporaron rápidamente en este estándar. Una placa base (ATX) y típica ofrece un aspecto similar al de la figura 3.5.

Figura 3.5: Placa base (ATX).

Debido las amplias características del ATX salieron al mercado diversas alternativas basadas en el mismo estándar, como el micro ATX, que es una versión reducida en tamaño, y el mini ITX, una versión todavía más compacta y de características de expansión limitadas. Javier Aguilar Parra

48


Universidad Autónoma de Baja California Sur

Otros formatos relativamente comunes basados en el estándar ATX son el LPX y el NLX. El LPX es de tamaño similar a las Baby AT con la particularidad de que las ranuras para las tarjetas se encuentran fuera de la placa base, en un conector especial quedando paralelas a la placa base. El NLX se sujeta a la carcasa mediante un mecanismo de fácil apertura, que permite un cambio rápido de la placa. También sus ranuras de expansión están dispuestas en una placa independiente conectada a la placa base. Las placas base se diferencian entre si por: 

El zócalo o socket de la CPU

El chipset que utilizan

El tipo de Bus.

Formato y cantidad de zócalos de memoria que admite.

Una primera distinción la tenemos en el formato de la placa, es decir, en sus propiedades físicas. Dicho parámetro está directamente relacionado con la caja, o sea, la carcasa del ordenador.

3.1.6 Factor de forma de las tarjetas madres. Las tarjetas madre necesitan tener dimensiones compatibles con las cajas que las contienen, de manera que desde los primeras computadoras personales se han establecido características mecánicas, llamadas factor de forma. Definen la distribución de diversos componentes y las dimensiones físicas, como por ejemplo el largo y ancho de la tarjeta, la posición de agujeros de sujeción y las características de los conectores. Con los años, varias normas se fueron imponiendo: XT: Es el formato de la placa base del PC de IBM modelo 5160, lanzado en 1983. En este factor de forma se definió un tamaño exactamente igual al de una hoja de papel tamaño carta y un único conector externo para el teclado. AT: Es el formato de la placa base del PC de IBM lanzado en 1984. En este factor de forma se definió un tamaño 305 × 305 mm. 49


Departamento Académico de Sistemas Computacionales

Baby AT: Uno de los formatos más usado de 1985 a 1995. sus dimisiones son 216 × 330 mm. AT: Uno de los formatos más grandes de toda la historia del PC (305 × 279–330 mm), definió un conector de potencia formado por dos partes. Fue usado de manera extensa de 1985 a 1995. ATX: Este modelo es sacado al mercado por Intel en 1995, con unas dimensiones 305 × 244 mm. Este modelo también introdujo las conexiones exteriores en la forma de un panel I/O y definió un conector de 20 pines para la energía. Se usa en la actualidad en la forma de algunas variantes, que incluyen conectores de energía extra o reducciones en el tamaño.En la figura 3.6 se aprecia un diagrama del factor de forma estableciendo sus dimensiones y el nombre de la norma. En mismo año de 1995, otros constructores diseñan modelos más compactos que los de Intel como estrategia de mercadotecnia, suponían que al ofrecer un tamaño más compacto motivara a los usuarios a comprar sus diseños. Los modelos son los siguientes. 

MicroATX: 244 × 244 mm

FlexATX: 229 × 191 mm

MiniATX: 284 × 208 mm

Figura 3.6: Factor de forma de las tarjetas madres.

Javier Aguilar Parra

50


Universidad Autónoma de Baja California Sur

ITX: En el años 2001 VIA Technologies Inc. empresa taiwanesa fabricante de circuitos integrados, principalmente de placas madre, chipsets, CPU y memoria. Presenta al consumidor el ITX con una dimensión 215 × 195 mm. Con rasgos procedentes de las especificaciones microATX y FlexATX de Intel, el diseño de VIA se centra en la integración en placa base del mayor número posible de componentes, además de la inclusión del hardware gráfico en el propio chipset del equipo, siendo innecesaria la instalación de una tarjeta gráfica en la ranura AGP. Además diseño otros modelos más compactos que se enlistan a continuación. (Ver en la figura 3.6) 

MiniITX: 170 × 170 mm

NanoITX: 120 × 120 mm

PicoITX: 100 × 72 mm

BTX: El estándar BTX (Balanced Technology Extended) fue creado por Intel en 1995. Retirada en muy poco tiempo por la falta de aceptación, resultó prácticamente incompatible con ATX, salvo en la fuente de alimentación. Fue creada para intentar solventar los problemas de ruido y refrigeración, como evolución de la ATX. Intel diseño 4 modelos los cueles se enlistan continuación: 

BTX: 325 × 267 mm

Micro BTX: 264 × 267 mm

PicoBTX: 203 × 267 mm

RegularBTX: 325 × 267 mm

DTX: Advanced Micro Devices, Inc. (AMD) en 2007 lanza al mercado un factore de forma de tarjeta madre destinadas a PCs de pequeño formato. Hacen uso de un conector de energía de 24 pines y de un conector adicional de 2x2. AMD diseño 3 modelos los cueles se enlistan continuación: 

DTX: 248 × 203 mm

Mini-DTX: 170 × 203 mm

51


Departamento Académico de Sistemas Computacionales

Full-DTX: 243 × 203 mm

Los factores de forma que se mencionaron hasta el momento son considerados factores de formato libres o factor de forma estándar, utilizados para en ensamblaje de PC compatibles o también denominadas de manera coloquial por los usuarios como PC clones, sin embargo también existen una gama muy amplia de factores de forma propietario. El formato propietario durante la existencia del PC, mucha marcas han intentado mantener un esquema cerrado de hardware, fabricando tarjetas madre incompatibles físicamente con los factores de forma con dimensiones, distribución de elementos o conectores que son atípicos. Entre las marcas más persistentes está Dell, que rara vez fabrica equipos diseñados con factores de forma de la industria.

3.2 El Socket. Otro factor que define o identifica a las tarjetas madre son el zócalo del procesador, el zócalo de la CPU es el lugar donde se inserta el microprocesador, el "cerebro" del ordenador. Veamos en detalle los tipos más comunes de zócalo, o socket, como dicen los anglosajones: Actualmente los procesadores utilizan un sistema ZIF (Zero Insertion Force) que para insertar el procesador en el Socket de la placa base no es necesario hacer ningún tipo de presión sobre él, basta con levantar la palanca que hay al lado del Socket y poner el procesador en la posición correcta, el cual sólo entra en una posición, una vez insertado el procesador sólo hay que bajar la palanca para que el procesador se quede anclado en el Socket (Los modelos más antiguos como fue el caso del Socket 1 usaban el sistema LIF: Low Insertion Force, que carecía de dicha palanca y por lo tanto requerían ejercer una cierta presión para insertar el procesador dentro del Socket). Por otra parte el diseño de tipo Socket puede ser de dos tipos:

Javier Aguilar Parra

52


Universidad Autónoma de Baja California Sur

3.2.1 PGA (Pin Grid Array): Se ha utilizado hasta hace poco tiempo en la mayoria de los procesadores, de hecho procesadores actuales como los Athlon 64 en Socket AM2, AM2+ y AM3 utilizan este diseño. En este caso el procesador tiene los pines y el Socket de la placa base tiene los contactos donde se conectan dichos pines. 3.2.2 LGA (Land Grid Array): Actualmente lo utiliza Intel en sus procesadores más actuales, desde el Socket 775 en adelante (Incluyendo los actuales Socket 1156 y 1366). En este caso el procesador tiene los contactos, mientras que el Socket de la placa base tiene los pines. Algunos de los socket más conocidos de Intel: 3.2.3 Socket 7 (1994): Con 321 pines, de los primeros Pentium/Pentium MMX y de los AMD K5. Este zócalo de fuerza de inserción nula. Eléctricamente es como un PGA, aunque gracias a un sistema mecánico permite introducir el micro sin necesidad de fuerza alguna, con lo que el peligro de arruinar el chip por romperle una patita desaparece. Apareció en la época del 486 y sus distintas versiones (sockets 3, 5 y 7, principalmente) se han utilizado hasta que apareció el Pentium II. Actualmente se fabrican zócalos ZIF o variantes del mismo: Socket 7 "Súper 7": variante del Socket 7 que se caracteriza por poder usar velocidades de bus de hasta 100 MHz, es el que utilizan los micros AMD K6-2. Como se puede apreciar en la figura 3.7. 3.2.4 Socket 370 FC-PGA/FC-PGA2 (1999): Tiene 370 pines, de los Pentium III y Celeron, destacando los cores “Coppermine” y “Tualatin” que fueron los últimos en utilizarlo. 3.2.5 Socket N. También conocido como Socket 478 ó mPGA478 (2000): Con 478 pines, hasta poco el socket de los Pentium 4 y Celeron, destacando el core “Northwood”, anterior al “Prescott”. 3.2.6. Socket 604 (2002): Utiliza 604 pines de Intel Xeon, son procesadores para servidores. 53


Departamento Académico de Sistemas Computacionales

Figura 3.7: Socket 7 con el micro fuera de las ranuras.

3.2.7 Slots 1: Pentium II y primeros Pentium III (Usaron el Slot 1), apareció en 1997. Es un invento de Intel para promocionar los Pentium II, o más bien para sacar de juego a su competencia, AMD y Cyrix. Físicamente, no se parece a nada de lo anterior. En vez de un rectángulo con agujeritos para las patitas del chip, es un slots, una especie de conector alargado como los ISA o PCI; técnicamente, y por mucho que diga Intel, no tiene muchas ventajas frente a los ZIF o PGA. Como se puede apreciar en la figura 3.8.

Figura 3.8: Slots 1 visto en la tarjeta madre.

3.2.8 Socket T. También conocido como Socket LGA (Low Grid Array) 775/Socket 775 (2004): Se puede apreciar en la figura 3.9. Con 775 pines, de los Pentium 4 tanto en single core (“Prescott”) como en Dual Core (“Smithfield”, que son dos cores “Prescott” en un mismo procesador) y Celeron con core “Prescott”, este mismo Socket lo utilizan también los Core 2 Duo/Quad actuales, dependiendo del chipset puede soportar memoria Javier Aguilar Parra

54


Universidad Autónoma de Baja California Sur

DDR, DDR2 o incluso DDR3 si es de los últimos. Este Socket está destinado a la extinción ya que ha sido sustituido por el Socket 1156 y 1366 que son los actuales para procesadores de sobremesa. 3.2.9 Socket J. También conocido como Socket LGA (Low Grid Array) 771/ Socket 771 (2006): Utiliza 771 pines, Lo utilizan algunos Xeon. 3.2.10 Socket 1.156/LGA (Low Grid Array) 1.156 (2009): Tiene 1.156 pines, lo utiliza el actual Core i5 750 y los Core i7 860 y 870, soporta DDR3. 3.2.11 Socket B. También conocido como Socket LGA (Low Grid Array) 1366/Socket 1.366 (2008): Con 1.366 pines, lo utilizan los Core i7 920 en adelante y los Xeon W35xx, E55xx, L55xx y X55xx, soporta DDR3.

Figura 3.9: Socket 755.

Algunos de los socket más conocidos de AMD (Advanced Micro Devices): 3.1.12 Socket A/Socket 462 OPGA (2000): Con 462 pines de la serie K7 (Los Athlon64/Opteron son los K8 o superior), más conocidos como Athlon entre ellos destacan los Athlon core “Thunderbird” y los Athlon XP (Especialmente los cores “Thoroughbred B” y “Barton” que fueron los últimos en comercializarse). También a esta serie pertenecen los Duron (Competidores de los Celeron de Intel, uno de los últimos cores Duron fue el “Appalbred”) y los últimos Sempron (core “Thoroughbred B” y “Barton”). 55


Departamento Académico de Sistemas Computacionales

3.2.13 Socket 754 (2003): Utiliza 754 pines de los Sempron (Core “Palermo”) y Athlon 64 (Core “Clawhammer”) entre otros. 3.2.14 Socket 940 (2003): Con 940 pines de los Opteron series 2xx y 8xx (Son procesadores para servidores). 3.2.15 Socket 939 (2004): Tiene 939 pines de los Athlon 64 (Destacando el core “Venice”/”San Diego” en single core, y los “Manchester”/”Toledo” en Dual Core) y algunos Opteron core “Venus” (Single core) y “Denmark” (Dual Core). 3.2.16 Socket AM2 (2006): Tiene 940 pines (Es incompatible con el Socket 940 anterior), soporta DDR2, actualmente está en uso aunque será desplazado en breve por el AM2+ y AM3, lo han utilizado los Athlon 64 x2 “Brisbane”. 3.2.17 Socket AM2+ (2007): Con 940 pines (Es incompatible con el Socket 940 anterior), soporta DDR2 y DDR3 ha sido un Socket de “transición” entre DDR2 y DDR3, lo han empleado los Athlon X2 “Kuma” y los Phenom “Agena” y Phenom II “Deneb”. 3.2.18 Socket AM3 (2009): Utiliza 941 pines, soporta únicamente DDR3, se utiliza en los procesadores Ahlon K10 más actuales como por ejemplo: Athlon II x2 “Regor”, Athlon II x3 “Rana”, Athlon II x4 “Propus”, Phenom x3 “Heka” y Phenom x4 “Deneb”. Lo podemos Como se puede apreciar en la figura 3.10.

Figura 3.10: Socket AM3.

3.2.19 Resume los socket más comerciales desde 1970.

Javier Aguilar Parra

56


Universidad Autónoma de Baja California Sur

Hay que tener en cuenta que el que una placa base disponga de un Socket actual (Ej: Socket 775) no significa que se pueda actualizar el procesador ya que el Socket sólo determina el sistema físico de enganche entre el procesador y la placa base, pero además el procesador debe ser compatible en especificaciones técnicas con la placa base (FSB, voltaje del procesador (vCore), TPD (Thermal Design Power), Conectores de alimentación,…), en algunos casos puede ser necesario una actualización de BIOS para compatibilizar el procesador con la placa base, en otros casos por el contrario aún actualizando la BIOS es posible que el procesador sea incompatible, por ejemplo si tenemos una placa base con soporte FSB800 (200 x4) y el procesador tiene FSB1066 (266 x4) el procesador muy probablemente no funcionara (Esto mismo ocurrió con el Socket A/Socket 462 de AMD donde los procesadores llegaron a tener FSB200/DDR400, pero algunas placas antiguas soportaban un FSB133/DDR266 ó FSB166/DDR333), por esta razón los fabricantes de placas base ponen a disposición de los usuarios lista de compatibilidad de procesadores para saber si un procesador es compatible o no con la placa base en cuestión. En la figura 3.11 se muestra una tabla que resume los socket más comerciales que se han desarrollado desde el año 1970 a la fecha. Nombre del zócalo

Año de introducción

Familias de CPU

Paquete

Número de pines

Velocidad del bus

DIP

1970s

Intel 8086 Intel 8088

DIP

40

5/10 MHz

PLCC

1984

Intel 80186 Intel 80286 Intel 80386

PLCC

68, 132

6–40 MHz

Socket 1

1989

Intel 80486

PGA

169

16–50 MHz

Socket 2

1989

Intel 80486

PGA

238

16–50 MHz

Socket 3

1991

Intel 80486

PGA

237

16–50 MHz

Socket 4

1992

Intel Pentium

PGA

273

60–66 MHz

Socket 5

1994

Intel Pentium AMD K5 IDT WinChip C6 IDT WinChip 2

PGA

320

50–66 MHz

Socket 6

1993

Intel 80486

PGA

235

?

57


Departamento Académico de Sistemas Computacionales

1994

Intel Pentium Intel Pentium MMX AMD K6

PGA

321

50–66 MHz

Super Socket 7

1998

AMD K6-2 AMD K6-III Rise mP6 Cyrix MII

PGA

321

66–100 MHz

Socket 8

1995

Intel Pentium Pro

PGA

387

60–66 MHz

Slot 1

1997

Intel Pentium II Intel Pentium III

Slot

242

66–133 MHz

Slot 2

1998

Intel Pentium II Xeon

Slot

330

100–133 MHz

Socket 463/ Socket NexGen

1998

NexGen Nx586

PGA

463

?

Socket 587

1998

Alpha 21164A

Slot

587

?

Slot A

1999

AMD Athlon

Slot

555

100 MHz

Slot B

1999

Alpha 21264

Slot

587

?

PGA

370

66–133 MHz

PGA

462

100–200 MHz

Socket 7

Intel Pentium III Intel Celeron VIA Cyrix III VIA C3 AMD Athlon AMD Duron AMD Athlon XP AMD Athlon XP-M AMD Athlon MP AMD Sempron

Socket 370

1999

Socket 462/ Socket A

2000

Socket 423

2000

Intel Pentium 4

PGA

423

400 MT/s (100 MHz)

Socket 478/ Socket N

2000

Intel Pentium 4 Intel Celeron Intel Pentium 4 EE Intel Pentium 4 M

PGA

478

400–800 MT/s (100–200 MHz)

Socket 495

2000

Intel Celeron

PGA

495

?

PAC418

2001

Intel Itanium

PGA

418

Socket 603

2001

Intel Xeon

PGA

603

133 MHz 400–533 MT/s (100–133 MHz)

PAC611

2002

Intel Itanium 2 HP PA-8800, PA8900

PGA

611

?

Socket 604

2002

Intel Xeon

PGA

604

400–1066 MT/s (100–266 MHz)

Socket 754

2003

AMD Athlon 64 AMD Sempron AMD Turion 64

PGA

754

200–800 MHz

Socket 940

2003

AMD Opteron Athl on 64 FX

PGA

940

200–1000 MHz

Socket 479

2003

Intel Pentium M Intel Celeron M

PGA

4798

400–533 MT/s (100–133 MHz) Javier Aguilar Parra

58


Universidad Autónoma de Baja California Sur

2004

AMD Athlon 64 AMD Athlon 64 FX AMD Athlon 64 X2 AMD Opteron

PGA

939

200–1000 MHz

LGA 775/ Socket T

2004

Intel Pentium 4 Intel Pentium D Intel Celeron Intel Celeron D Intel Pentium XE Intel Core 2 Duo Intel Core 2 Quad Intel Xeon

LGA

775

1600 MHz

Socket 563

2005

AMD Athlon XP-M

PGA

563

?

Socket M

2006

Intel Core Solo Intel Core Duo Intel DualCore Xeon Intel Core 2 Duo

PGA

478

533–667 MT/s (133–166 MHz)

LGA 771/ Socket J

2006

Intel Xeon

LGA

771

1600 MHz

Socket S1

2006

AMD Turion 64 X2

PGA

638

200–800 MHz

Socket AM2

2006

AMD Athlon 64 AMD Athlon 64 X2

PGA

940

200–1000 MHz

Socket F

2006

LGA

1207

?

Socket AM2+

2007

PGA

940

200–2600 MHz

Socket P

2007

Intel Core 2

PGA

478

533–1066 MT/s (133–266 MHz)

Socket 441

2008

Intel Atom

PGA

441

400–667 MHz

2008

Intel Core i7 (serie 900) Intel Xeon (serie 35xx, 36xx, 55xx, 56xx)

LGA

1366

4.8-6.4 GT/s

rPGA

988

2.5GT/s, 4.8GT/s

Socket 939

LGA 1366/ Socket B

AMD Athlon 64 FX AMD Opteron AMD Athlon 64 AMD Athlon X2 AMD Phenom AMD Phenom II

rPGA 988A / B/

Intel Core i7 (serie 600, 700, 800, 900)

Socket G1 / G2

Intel Core i5 (serie 400, 500) 2008 Intel Core i3 (serie 300) Intel Pentium (seri e P6000)

59


Departamento Académico de Sistemas Computacionales

Intel Celeron (seri e P4000) AMD Phenom II Socket AM3

2009

AMD Athlon II AMD Sempron

PGA

13

941

14

ó 940

200–3200 MHz

LGA 1156/ Socket H

2009

Intel Core i7 (serie 800) Intel Core i5 (serie 700, 600) Intel Core i3 (serie 500) Intel Xeon (serie X3400, L3400) Intel Pentium (seri e G6000) Intel Celeron (seri e G1000)

Socket G34

2010

AMD Opteron (ser ie 6000)

LGA

1974

200–3200 MHz

Socket C32

2010

AMD Opteron (ser ie 4000)

LGA

1207

200–3200 MHz

LGA 1248

2010

Intel Intel Itanium serie 9300

LGA

1248

4.8 GT/s

LGA 1567

2010

Intel Intel Xeon serie 6500/7500

LGA

1567

4.8-6.4 GT/s

LGA 1155/ Socket H2

2011/Q1

Intel Sandy Bridge-DT

LGA

1155

5 GT/s

LGA 2011/ Socket R

2011/Q3

Intel Sandy Bridge B2

LGA

2011

4.8-6.4 GT/s

Socket FM1

2011

PGA

905

Socket AM3+

2011

PGA

942 (CPU 938pin)

LGA 1150/ Socket H3

2013

AMD Llano Processor AMD FX Bulldozer (microarquitectura )

LGA

1156

2.5 GT/s

Figura 3.11: Tabla que resume los socket desde el año 1970 a la fecha. (Diseñada por el autor).

3.3 Chipset. El "chipset" es el conjunto (set) de chips que se encargan de controlar determinadas funciones del ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el control de puertos PCI, AGP, USB. En la figura 3.12 muestra un esquema del Chipset. Javier Aguilar Parra

60


Universidad Autónoma de Baja California Sur

Antiguamente estas funciones eran relativamente sencillas de realizar, por lo que el chipset era el último elemento al que se concedía importancia a la hora de comprar una placa base, si es que alguien se molestaba siquiera en informarse sobre la naturaleza del mismo. Sin embargo, la llegada de micros más complejos como los Pentium o los K6, además de nuevas tecnologías en memorias y caché, le ha hecho cobrar protagonismo, en ocasiones incluso exagerado.

Figura 3.12: Esquema del Chipset.

Antiguamente estas funciones eran relativamente sencillas de realizar, por lo que el chipset era el último elemento al que se concedía importancia a la hora de comprar una placa base, si es que alguien se molestaba siquiera en informarse sobre la naturaleza del mismo. Sin embargo, la llegada de micros más complejos como los Pentium o los K6, además de nuevas tecnologías en memorias y caché, le ha hecho cobrar protagonismo, en ocasiones incluso exagerado. Debido a lo anterior, se puede decir que el chipset de un 486 o inferior no es de mayor importancia (dentro de un límite razonable), por lo que vamos a tratar sólo de los chipsets para Pentium y superior:

3.3.1 Chipsets de Intel para Pentium ("Tritones")

61


Departamento Académico de Sistemas Computacionales

Son muy conocidos, pero a decir verdad más por el marketing que ha recibido su nombre comercial genérico (Tritón) que por sus capacidades, aunque éstas son destacables. 430 FX: el Tritón clásico. Un chipset bastante apropiado para los Pentium "normales" (no MMX) con memorias tipo EDO. Hoy en día desfasado y descatalogado. 430 HX: el Tritón II, la opción profesional del anterior. Mucho más rápido y con soporte para placas duales (con 2 Pentium). Algo anticuado pero muy bueno. 430 TX: Soporte MMX, SDRAM, UltraDMA... Sin embargo, carece de AGP y de bus a 100 MHz, por lo que ha quedado algo desfasado. Un problema: si se le pone más de 64 MB de RAM, la caché deja de actuar; aunque más de 64 MB es mucha RAM.

3.3.2 Chipsets de VIA para Pentium ("Apollos"). Son unos chipsets bastante buenos, se caracterizan por tener soporte para casi todo lo imaginable (memorias SDRAM o BEDO, UltraDMA, USB...); su pelea está en la gama del HX o TX, aunque suelen ser algo más lentos que éstos con micros Intel (y es que el Pentium lo inventó Intel, y tenía que notarse...) Lo bueno de las placas con chipsets VIA es que su calidad suele ser intermedia-alta, mientras que en placas con chipsets Intel hay un abanico muy amplio entre placas muy buenas y otras francamente malas. Además, y al contrario que Intel, siguen con el campo de placas socket 7 (las de tipo Pentium y Pentium MMX), por lo que ofrecen soluciones mucho más avanzadas que el TX (con AGP y bus a 100 MHz.

3.3.3 Chipsets de SiS, ALI, VLSI y ETEQ para Pentium. Como los anteriores, sus capacidades son avanzadas, aunque su velocidad sea en ocasiones algo más reducida si los usamos con microsIntel. Su principal ventaja, al igual que en los VIA, está en el soporte de características avanzadas de chips no Intel "compatibles Pentium" (y a veces mejores), como son el AMD K6, el K6-2, Athlon o Duron; si su opción está en uno de estos micros o quiere usar tarjetas AGP, su placa ideal es muy probable que no se llame "Intel inside". Javier Aguilar Parra

62


Universidad Autónoma de Baja California Sur

440 FX: un chipset fabricado para el extinto Pentium Pro, liquidado en favor del Pentium II Para un Pentium Pro, bueno; para un Pentium II y los avances actuales (memorias, AGP...). 440 LX: el primer y muy eficiente chipset para Pentium II. Lo tiene casi todo, excepto bus a 100 MHz, lo que hace que no admita micros a más de 333 MHz. 440 EX: un chipset basado en el LX pero de características recortadas. Muy malo, sólo válido para Celeron. 440 ZX: un chipset basado en el BX pero de características recortadas, como el EX. De nuevo, sólo válido para Celeron. En el caso de equipos portátiles o de marca, el chipset puede ser diseñado a la medida y aunque no soporte gran variedad de tecnologías, presentará alguna interfaz de dispositivo.

3.3.4 Puentes northbridge y southbridge. La terminología de los integrados ha cambiado desde que se creó el concepto del chipset a principio de los años 1990, pero todavía existe equivalencia haciendo algunas aclaraciones: El puente norte, northbridge, MCH (memory controller hub) o GMCH (graphic MCH), se usa como puente de enlace entre el microprocesador y la memoria. Controla las funciones de acceso hacia y entre el microprocesador, la memoria RAM, el puerto gráfico AGP o el PCI-Express de gráficos, y las comunicaciones con el puente sur. Al principio tenía también el control de PCI, pero esa funcionalidad ha pasado al puente sur. El puente sur, southbridge o ICH (input controller hub), controla los dispositivos asociados como son la controladora de discos IDE, puertos USB, FireWire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos infrarrojos, disquetera, LAN, PCI-Express 1x y una larga lista de todos los elementos que podamos imaginar integrados en la placa madre. Es el encargado de comunicar el procesador con el resto de los periféricos. 63


Departamento Académico de Sistemas Computacionales

En la actualidad los principales fabricantes de chipsets son AMD, ATI Technologies (comprada en 2006 por AMD), Intel, NVIDIA, Silicon Integrated Systems y VIA Technologies.

3.4 Tipo De Bus. El bus es el "camino" que recorre un impulso eléctrico transportando datos de un componente hacia otro. Estos caminos son los medios de comunicación que permiten el intercambio de datos. En una PC se pueden encontrar varios tipos de bus:

3.4.1 Bus del procesador. El bus del procesador es el canal de comunicación entre el procesador y los componentes de soporte, como por ejemplo la memoria caché externa. Además este bus transmite los datos hacia el bus principal del sistema. Este bus opera regularmente mucho más rápido que el resto de buses. Se compone de tres tipos de circuitos: de direcciones, de control y de datos.

3.4.2 Bus de memoria. Este bus sirve de canal de comunicación entre el procesador y la memoria. De acuerdo al fabricante de la mainboard, este bus puede ser independiente del bus del procesador o estar integrado a él.

3.4.3 Bus de direcciones. El bus de direcciones es un subconjunto de los buses del procesador y de la memoria. Este tipo de bus es utilizado para indicar una dirección de memoria o de sistema. Este bus también determina el tamaño de la memoria de acuerdo a la cantidad de direcciones que pueda direccionar.

3.4.4 Bus de entrada/salida o ranuras de expansión. Este tipo de bus es el más conocido y usualmente se le llama simplemente "bus". Tiene una gran importancia, pues permite la comunicación con los dispositivos de video, disco o Javier Aguilar Parra

64


Universidad Autónoma de Baja California Sur

impresora. También es llamado bus principal del sistema. Su identificación física es simple, pues está representada por las llamadas ranuras de expansión. Su evolución ha ido siempre a razón de su estandarización y su velocidad. Son unas ranuras de plástico con conectores eléctricos (slots) donde se introducen las tarjetas de expansión. Según la tecnología en que se basen presentan un aspecto externo diferente, con diferente tamaño y a veces incluso en distinto color. Entre los tipos más reconocidos de bus tenemos:

3.4.4.1 Bus industry standard architecture (ISA). El Industry Standard Architecture (en inglés, Arquitectura Estándar Industrial - ISA) es una arquitectura de bus creada por IBM en 1980 para ser empleado en las PC IBM. Los primeros eran de 8 bits y funcionaba a 4,77 MHz, la misma velocidad que el procesador Intel 8088 empleado en el IBM PC. Posteriormente, cuando se lanzaron nuevos PCs con el procesador Intel 80286, se creó una extensión de 16 bits y se aumentó su velocidad a 8 MHz. Esta extensión es compatible con el bus ISA de 8 bits. Suficiente para conectar un módem o una tarjeta de sonido. En la figura 3.13 ilustra las diferencia que existe en forma y tamaño de las ranuras de expansión.

Figura 3.13: Ranuras de expansión.

65


Departamento Académico de Sistemas Computacionales

Este bus es insuficiente para las necesidades actuales, tales como tarjetas de vídeo de alta resolución, por lo que el bus ISA ya no se emplea en las PCs de hoy en día siendo sustituido por el bus PCI. Las ranuras del bus ISA miden 8,5 cm. en la versión de 8 bits y 14 cm. en la de 16 bits; su color suele ser negro. Ranuras Vesa Local Bus: un modelo de efímera vida: se empezó a usar en los 486 y se dejó de usar en los primeros tiempos del Pentium. Son un desarrollo a partir de ISA, que puede ofrecer unos 160 MB/s a un máximo de 40 MHz. Son larguísimas, unos 22 cm., y su color suele ser negro, a veces con el final del conector en marrón u otro color. Bus extended industry standard architecture (EISA). El Extended Industry Standard Architecture (en inglés, Arquitectura Estándar Industrial Extendida – EISA) es una arquitectura de bus para computadores compatibles. Fue anunciado a finales de 1988 y desarrollado por el llamado "Grupo de los Nueve" (AST, Compaq, Epson, Hewlett-Packard, NEC Corporation, Olivetti, Tandy, Wyse y Zenith), vendedores de computadores clónicos como respuesta al uso por parte de IBM de su arquitectura propietaria MicroChannel (MCA) en su serie PS/2. Tuvo un uso limitado en computadores personales con procesadores 80386 y 80486 hasta mediados de los años noventa cuando fue reemplazado por los buses locales tales como VESA y PCI. EISA amplía la arquitectura de bus ISA a 32 bits y permite que más de una CPU comparta el bus. EISA es compatible con ISA.

3.4.4.2 PCI (Peripheral Component Interconnect). Se trata de un bus estándar para conectar dispositivos periféricos directamente a la mainboard. Desplazó al bus ISA de la mayoría de las PC’s. En la figura 3.11 ilustra su forma y tamaño. Entre sus principales características podemos notar: Javier Aguilar Parra

66


Universidad Autónoma de Baja California Sur

Ruta de datos más ancha.

El bus PCI proporciona un ancho de bus de 32 bits o 64 bits. Conteniendo un espacio de dirección de 32 bits (4 GB) a 33 MHz.

Alta Velocidad

El bus PCI permite configuración dinámica de un dispositivo periférico.

Miden unos 8,5 cm. y generalmente son blancas.

3.4.4.3 AGP (Accelerated Graphics Port). Creado por Intel en 1996 como solución a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI. Solo se puede conectar un dispositivo de video en este puerto mientras que en el bus PCI se pueden conectar varios. En la figura 3.11 ilustra su forma y tamaño. El puerto AGP se utiliza exclusivamente para conectar tarjetas de video y debido a su arquitectura sólo puede haber una ranura en cada mainboard. Dicha ranura mide unos 8 cm. y se encuentra a un lado de las ranuras PCI. Entre sus principales características tenemos: El bus AGP es de 32 bit como el PCI. Tiene 8 canales más para acceso a la memoria RAM. Además puede acceder directamente a esta a través del NorthBrigde pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus es de 66 MHz. El bus AGP cuenta con diferentes modos de funcionamiento: 

AGP 1X: velocidad 66 MHz con una tasa de transferencia de 264 MB/s y funcionando a un voltaje de 3,3V.

AGP 2X: velocidad 133 MHz con una tasa de transferencia de 528 MB/s y funcionando a un voltaje de 3,3V.

67


Departamento Académico de Sistemas Computacionales

AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas.

AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un voltaje de 0,7V o 1,5V.

3.4.4.4 PCI-Express. PCI-Express es un nuevo desarrollo del bus PCI que usa los conceptos de programación y los estándares de comunicación existentes, pero se basa en un sistema de comunicación mucho más rápida. Es una evolución de PCI, en la que se consigue aumentar el ancho de banda mediante el incremento de la frecuencia llegando a ser 32 veces más rápido que el PCI 2.1. PCI-Express se creó para ser usado sólo como bus local. Debido a que se basa en el bus PCI las tarjetas actuales pueden ser reconvertidas a PCI-Express cambiando solamente la capa física. La velocidad superior del PCI-Express permitirá reemplazar a casi todos los demás buses.

Javier Aguilar Parra

68


Universidad Autónoma de Baja California Sur

Capítulo 4 Memoria RAM. 4.1 Conceptos básicos. Se denomina memoria a los circuitos que permiten almacenar y recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de cinta. Memoria de acceso aleatorio o RAM (Random Access Memory) es la memoria basada en semiconductores que puede ser leída y escrita por el microprocesador u otros dispositivos de hardware. El acceso a las posiciones de almacenamiento se puede realizar en cualquier orden. Los chips de memoria son pequeños rectángulos negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos. La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los discos duros, es que la RAM es muchísimo más rápida, y que se borra al apagar el ordenador, no como éstos. El interior de cada chip se puede imaginar como una matriz o tabla en la cual cada celda es capaz de almacenar un bit. Por tanto, un bit se puede localizar directamente proporcionando una fila y una columna de la tabla. En realidad, la CPU identifica cada celda mediante un número, denominado dirección de memoria. A partir de una dirección se calcula cuál es la fila y columna correspondiente, con lo que ya se puede acceder a la celda deseada. El acceso se realiza en dos pasos: primero se comunica la fila y después la columna empleando los mismos terminales de conexión. Obviamente, esta técnica – denominada multiplexado– permite emplear menos terminales de conexión para acceder a la RAM, lo que optimiza la relación entre el tamaño del chip y la capacidad de almacenamiento. Realmente, la CPU no suele trabajar con bits independientes, sino más bien con agrupaciones de los mismos, en forma de palabras binarias. Esto hace que la RAM no se

69


Departamento Académico de Sistemas Computacionales

presente en un solo chip, sino más bien en agrupaciones de los mismos. Por ejemplo, un grupo de 8 chips, cada uno capaz de almacenas x bits, proporcionará en conjunto x Kb. Los prefijos utilizados para los múltiplos del byte normalmente son los mismos que los prefijos del Sistema Internacional (SI), también se utilizan los prefijos binarios, pero existen diferencias entre ellos, ya que según el tipo de prefijo utilizado los bytes resultantes tienen valores diferentes. Esto se debe a que los prefijos del SI se basan en base 10 (sistema decimal), y los prefijos binarios se basan en base 2 (sistema binario), por ejemplo: kibibyte = 1024 B = 210 bytes. kilobyte = 1000 B = 103 bytes. En la figura 4.1 se muestra una tabla con los múltiplos utilizando los prefijos del Sistema Internacional de Unidades. Prefijo

Símbolo del prefijo

Valor de referencia

Nombre resultante del prefijo + Byte

Símbolo del múltiplo del Byte

Factor y valor en el Sistema Internacional de Unidades 0

byte

B

10 = 1 3

kilo

k

kilobyte

kB

10 = 1 000

mega

M

megabyte

MB

10 = 1 000 000

giga

G

gigabyte

GB

10 = 1 000 000 000

tera

T

terabyte

TB

10

peta

P

petabyte

PB

10

exa

E

exabyte

EB

10

zetta

Z

zettabyte

ZB

10

yotta

Y

yottabyte

YB

10

6 9

12

= 1 000 000 000 000

15

= 1 000 000 000 000 000

18

= 1 000 000 000 000 000 000

21

= 1 000 000 000 000 000 000 000

24

= 1 000 000 000 000 000 000 000 000

Figura 4.1: prefijos del Sistema Internacional de Unidades.

La memoria no deja de ser un circuito electrónico real, y por tanto está expuesta a efectos que pueden producir errores en su contenido. En otras palabras, tras escribir una palabra en una posición de memoria es perfectamente posible que algún bit cambie de estado durante el tiempo que permanezca almacenada. Si se accede de nuevo a la memoria para leer dicha palabra se recuperará información errónea y esto puede acarrear todo tipo Javier Aguilar Parra

70


Universidad Autónoma de Baja California Sur

de consecuencias. Para ello se suelen emplear dos soluciones: la paridad y la técnica ECC (Error Correction Code). El elemento que implementa estos métodos se encuentra en el interior del PC y recibe el nombre de controlador de memoria. En la figura 4.2 se muestra una tabla para ilustrar, las equivalencias entre bytes y objetos reales de una forma aproximada. Número de bytes

Múltiplo

1 10 100 1000 10 000 100 000 1 000 000 10 000 000 100 000 000 1 000 000 000 1 000 000 000 000 10 000 000 000 000 1 000 000 000 000 000 1 000 000 000 000 000 000

1B 10 B 100 B 1 kB 10 kB 100 kB 1 MB 10 MB 100 MB 1 GB 1 TB 10 TB 1 PB 1 EB

Equivalencia aproximada Una letra. Una o dos palabras. Una o dos frases. Una historia muy corta. Una página de enciclopedia, tal vez con un dibujo simple.

Una fotografía de resolución mediana. Una novela.

Dos copias de la obra completa de Shakespeare. Un estante de 1 metro de libros. Una furgoneta llena de páginas con texto. 50 000 árboles. La colección impresa de la biblioteca del congreso de EEUU. Los datos que maneja google cada Hora. El peso de todos los datos en Internet para finales del año 2009

Figura 4.2: Las equivalencias entre bytes y objetos reales.

La paridad consiste en añadir un bit adicional a cada palabra, que hace que el número de unos sea par o impar (según se emplee la paridad par o impar). Si al leer información de la memoria el bit de paridad no está de acuerdo con el número de unos se habrá detectado un error. El sistema ECC (Error Correcting Code) añade un conjunto de bits a cada palabra a almacenar. La ventaja es que permite detectar errores en varios bits y además es capaz de corregir dichos errores. Estas técnicas implican añadir bits adicionales y por tanto tendrán impacto en la cantidad de memoria incorporada en cada módulo.

4.2 Características de la memoria principal (RAM).

71


Departamento Académico de Sistemas Computacionales

La RAM memoria de acceso aleatorio (en inglés: random-access memory). Es un sistema de memoria se puede clasificar en función de muy diversas características. Entre ellas podemos destacar las siguientes: 

Localización de la memoria.

Capacidad.

Método de acceso.

Velocidad de acceso.

En el caso de la memoria RAM (también denominada memoria principal o primaria) se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

4.3. Evolución de la memoria RAM. 4.3.1 Memoria de núcleo magnético o memoria de toros. Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferromágnetico de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria Javier Aguilar Parra

72


Universidad Autónoma de Baja California Sur

muy pequeña. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio. El mecanismo de memoria se basa en la histéresis de la ferrita. Los toros de ferrita se disponen en una matríz de modo que sean atravesadas por dos hilos, X e Y, que discurren según las filas y columnas. Para escribir un bit en la memoria se envía un pulso simultáneamente por las líneas Xi e Yj correspondientes. El toro situado en la posición (i, j) se magnetizará en el sentido dado por los pulsos. Los demás toros, tanto de la fila como de la columna, no varían su magnetización ya que sólo reciben un pulso (X o Y), cuyo campo magnético es insuficiente para vencer la histéresis del toro. Y por esto los toros se metían en corrales para sopartar los hilos X e Y. El dato se lee mediante un nuevo hilo Z, que recorre todos los toros de la matriz. Escribimos un cero por el método descrito anteriormente, luego sólo el toro (i, j) puede cambiar de estado. Si contiene un cero, no cambia, luego en la línea Z no se tiene señal; pero si el toro tiene un uno, pasa a valer cero, su sentido de magnetización cambia e induce un pulso en la línea Z, que se leerá como "uno". Como se ve, el proceso descrito destruye el dato que se lee, luego en las memorias de toros es necesario reescribir el dato tras leerlo. Una memoria con un tamaño de palabra de n bits, pongamos 16 bits, necesita 16 matrices como la descrita, con 16 líneas Z, una por bit. En la figura 4.3 se muestra una matriz de toros.

Figura 4.3: Matriz de toros.

4.3.2 Memoria DRAM (Dynamic Random Access Memory). 73


Departamento Académico de Sistemas Computacionales

En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1024 bytes, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos. DRAM se usa principalmente en los módulos de memoria RAM y en otros dispositivos, como memoria principal del sistema. Se denomina dinámica, ya que para mantener almacenado un dato, se requiere revisar el mismo y recargarlo, cada cierto período, en un ciclo de refresco. Su principal ventaja es la posibilidad de construir memorias con una gran densidad de posiciones y que todavía funcionen a una velocidad alta: en la actualidad se fabrican integrados con millones de posiciones y velocidades de acceso medidos en millones de bit por segundo. Es una memoria volátil, es decir cuando no hay alimentación eléctrica, la memoria no guarda la información. Inventada a finales de los sesenta, es una de las memorias más usadas en la actualidad. La celda de memoria es la unidad básica de cualquier memoria, capaz de almacenar un Bit en los sistemas digitales. La construcción de la celda define el funcionamiento de la misma, en el caso de la DRAM moderna, consiste en un transistor de efecto de campo y un condensador. El principio de funcionamiento básico, es sencillo: una carga se almacena en el condensador significando un 1 y sin carga un 0. El transistor funciona como un interruptor que conecta y desconecta al condensador. Este mecanismo puede implementarse con dispositivos discretos y de hecho muchas memorias anteriores a la época de los semiconductores, se basaban en arreglos de celdas transistor-condensador. Las celdas en cualquier sistema de memoria, se organizan en la forma de matrices de dos dimensiones, a las cuales se accede por medio de las filas y las columnas. En la DRAM Javier Aguilar Parra

74


Universidad Autónoma de Baja California Sur

estas estructuras contienen millones de celdas y se fabrican sobre la superficie de la pastilla de silicio formando áreas que son visibles a simple vista. En el ejemplo tenemos un arreglo de 4x4 celdas, en el cual las líneas horizontales conectadas a las compuertas de los transistores son las llamadas filas y las líneas verticales conectadas a los canales de los FET son las columnas. Para acceder a una posición de memoria se necesita una dirección de 4 bits, pero en las DRAM las direcciones están multiplexadas en tiempo, es decir se envían por mitades. Las entradas marcadas como a0 y a1 son el bus de direcciones y por el mismo entra la dirección de la fila y después la de la columna. Las direcciones se diferencian por medio de señales de sincronización llamadas RAS (del inglés Row Address Strobe) y CAS (Column Address Strobe) que indican la entrada de cada parte de la dirección. En la figura 4.4 se muestra una de los primeros modelos de memoria DRAM.

Figura 4.4: Primer modelo de memoria DRAM.

4.3.3 Memorias DIP (Dual in-line package). Las memoria DIP salieron al mercado en 1973. DIP es una forma de encapsulamiento común en la construcción de circuitos integrados. La forma consiste en un bloque con dos hileras paralelas de pines, la cantidad de éstos depende de cada circuito. Por la posición y espaciamiento entre pines, los circuitos DIP son especialmente prácticos para construir prototipos en tablillas de protoboard. Concretamente, la separación estándar entre dos pines o terminales es de 0,1“ (2,54 mm). En la figura 4.5 se muestra un esquema de la memoria DIP. 75


Departamento Académico de Sistemas Computacionales

Figura 4.5: Esquema de la memoria DIP.

La nomenclatura normal para designarlos es «DIPn», donde n es el número de pines totales del circuito. Por ejemplo, un circuito integrado DIP16 tiene 16 pines, con 8 en cada fila. Dada la actual tendencia a tener circuitos con un nivel cada vez más alto de integración, los paquetes DIP están siendo sustituidos en la industria por encapsulados de Tecnología de montaje superficial, (conocida por las siglas SMT, surface-mount technology o SMD, surface-mount device). Estos últimos tienen un diseño mucho más adecuado para circuitos con un alto número de patas, mientras que los DIP raras veces se encuentran en presentaciones de más de 40 patas. Para representar los pines en los esquemas de circuitos, se emplean números que identifican a cada uno. Para numerar los pines de un DIP hay que fijarse en el pequeño agujero que incluye en un extremo (Ver figura 4.5). El pin que está a su lado será el número 1. A partir de ahí, se numeran consecutivamente los pines de su fila. Al terminar pasamos a la otra fila, y, en sentido inverso, la recorremos hasta llegar al final. Es decir, se numeran de forma circular. Para trabajos en placas de circuito, se suelen usar unos soportes de plástico para este tipo de empaquetados, denominados zócalos, que contienen una serie de orificios colocados de la misma forma que el circuito. Así no soldamos directamente el circuito a la placa (que podría deteriorarse con el calor), sino el zócalo. Una vez está fijado, se coloca encima el circuito integrado. Si tenemos que sacar y poner continuamente el integrado, Javier Aguilar Parra

76


Universidad Autónoma de Baja California Sur

una forma práctica para que no se deterioren las patitas del encapsulado es poner dos zócalos, uno fijo en la placa y otro fijo en el integrado. Existen los zócalos de cero fuerza cuando se necesita instalar y remover muchas veces el circuito integrado. En este caso con una palanca se libera o sujeta el circuito integrado. Los pines se extienden a lo largo del encapsulado (en ambos lados) y tiene como todos los demás una muesca que indica el pin número 1. Este encapsulado básico fue el más utilizado hace unos años y sigue siendo el preferido a la hora de armar plaquetas por partes de los amantes de la electrónica casera debido a su tamaño lo que facilita la soldadura. Hoy en día, el uso de este encapsulado (industrialmente) se limita a UVEPROM y sensores.

4.3.4 Memoria SIPP (Single In-line Pin Package). En 1973 fue un año donde se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4096 bytes en un empaque de 16 pines,1 mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento2 se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización, entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. SIPP es un paquete de pines en línea simple y consiste en un circuito impreso (también llamado módulo) en el que se montan varios chips de memoria RAM, con una disposición de pines correlativa (de ahí su nombre). Tiene un total de 30 pines a lo largo del borde del 77


Departamento Académico de Sistemas Computacionales

circuito, que encajan con las ranuras o bancos de conexión de memoria de la placa base del ordenador, y proporciona 8 bits por módulo. Se usó en sistemas 80286 y fueron reemplazadas por las SIMM, más fáciles de instalar y que proporcionan 8 o 32 bits por módulo (según si son de 30 o de 72 contactos). En la figura 4.6 se muestra el modelo de la memoria SIPP.

Figura 4.6: Memoria SIPP.

4.3.5 SIMM (Single In-line Memory Module). El formato SIMM surge a principios de los años ochentas fue una mejora al las memoria SIPP eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines. Las memoria SIMM son pequeña placa de circuito impreso con varios chips de memoria integrados. Se fabrican con diferentes velocidades de acceso capacidades (4, 8, 16, 32, 64 Mb) y son de 30 ó 72 contactos. Se montan por pares generalmente. Estas se instalaban en las generaciones 386 y 486 de computadoras utilizaban versiones mejoradas de RAM a 80ns (12.5Mhz), y venían en circuitos especiales llamados “módulos”. Utilizando estos módulos de memoria simplificaba mucho el proceso de instalación y desinstalación del sistema, aparte de ser mucho más barato. Estos módulos eran montados en ranuras en la tarjeta madre y eran fijados utilizando unos clips con springs, los podemos apreciar en la figura 4.7. Javier Aguilar Parra

78


Universidad Autónoma de Baja California Sur

Figura 4.7: Clips con springs para módulos DIMM.

El utilizar estos módulos preparados significaba dedicarle menos espacio en la tarjeta madre para memoria, lo cual significaba no solamente una tarjeta madre más pequeño en tamaño, sino también el sistema completo era más pequeño. En caso de que fallara un modulo de memoria, solamente tenias que quitarlo y poner otro; esto simplifico bastante el proceso de mantenimiento y actualización.

4.3.6 SIMM de 30 Pins. Los módulos de memoria SIMM para las 386 y 486 tenían 30 pins, estos chips de memoria se montaban en el módulo, y el módulo en si era instalado en la ranura correspondiente en la tarjeta madre. La mayoría de las tarjetas madres tenían 8 ranuras de memoria en total, con 4 ranuras en cada banco. Ver figura 4.8. Para aumentar la capacidad de memoria, simplemente tenias que instalar nuevos módulos en las ranuras disponibles, o reemplazar módulos viejos con unos de mayor densidad.

Figura 4.8: Tarjeta madre 386 con 8 ranuras DIMM.

Cada banco de memoria debe ser del mismo ancho que el bus del procesador. Los 386s y 486s eran procesadores con bus de 32 bits; como cada SIMM de 30 pins tenía 8 bits de ancho de banda (9 bits para módulos con paridad), era requerido que uno instalara 4 79


Departamento Académico de Sistemas Computacionales

chips a la vez para llenar un banco. Uno tenía que llenar el banco, o sino el sistema no reconocería la memoria; para colmo, la memoria debía de ser de la misma capacidad. El aumento de 4Mhz entre memoria de 120ns y de 80ns era una mejora decente, pero la memoria todavía era desesperadamente lenta comparada con la velocidad del procesador, que para ese tiempo variaba desde 20Mhz hasta 120Mhz; velocidades de las tarjetas madres iban desde 20Mhz hasta 66Mhz. La memoria definitivamente representa un problema a la eficiencia del sistema. En los sistemas anteriores basados en el 286, el bus del sistema iba a la misma velocidad del procesador (aproximadamente 4.77Mhz); para ese tiempo, la velocidad de 8.33Mhz de la memoria era más que suficiente, pero con la llegada del 386 y 486, se notaba mucho de que la velocidad del sistema y del procesador estaban sacándole ventaja a la memoria.

4.3.7 SIMM de 72 pins. Con la salida del procesador Pentium trajo con él bus PCI y a módulos SIMM de 72 pins. Estos nuevos SIMM eran de 32 bits; estos módulos de 72 pins llegaron a algunos 486 con tarjetas madres VLB (Vesa Local Bus) y PCI (Peripheral Component Interconnect.) Solamente dos módulos eran requeridos para llenar un banco en un sistema Pentium, mientras que las 486 requerían de uno solo. Los dos chips instalados en un banco de memoria deben de ser preferiblemente del mismo tipo, tamaño y con el conector del mismo tipo (sea oro o cobre). No se podían ligar chips de diferentes capacidades; simplemente el sistema o no funcionaría o el sistema reduciría la capacidad del chip mayor al valor del menor (o sea que si uno instalase un chip de 8MB y uno de 16MB, el sistema reconocería a 2 chips de 8MB.). En la figura 4.9 se observa en la parte superior un modulo de memoria SIMM de 30 pins y en la parte inferior de la imagen el modulo de memoria SIMM de 72 pins.

Javier Aguilar Parra

80


Universidad Autónoma de Baja California Sur

Figura 4.9: Módulos de memorias SIMM de 30 y 72 pins.

4.3.8 DIMM (Dual In-Line Memory Module). Aparecen en 1995, son módulos de memoria RAM utilizados en ordenadores personales. Se trata de un pequeño circuito impreso que contiene chips de memoria y se conecta directamente en ranuras de la placa base. Los módulos DIMM son reconocibles externamente por poseer sus contactos (o pines) separados en ambos lados, a diferencia de los SIMM que poseen los contactos de modo que los de un lado están unidos con los del otro. Son de 168 pines ( 64 bits o 72 bits las que tienen paridad ).

Fueron

desarrolladas para Pentum Pro ( Bus de Datos de 64 bits ). Ver en la 4,10 la diferencia entre las memorias SIMM y DIMM.

Figura 4.10: Módulos de memorias SIMM y DIMM.

Respecto a las características básicas de cualquier módulo de memoria hemos de fijarnos, principalmente, en el tipo de memoria utilizada, el tipo de módulo (30, 70 ó 168 contactos), la capacidad total ofrecida y el tiempo medio de acceso que ofrece, que es el tiempo que transcurre desde que se solicita el dato almacenado en una determinada 81


Departamento Académico de Sistemas Computacionales

dirección de memoria hasta que el chip ofrece el dato solicitado. Evidentemente, cuanto menor sea este número mejores prestaciones obtendremos. Las antiguas memorias SIMM ofrecían cifras entre 70 u 80 nanosegundos y las modernas DIMM SDRAM tiempos inferiores a 10 nanosegundos. Esta diferencia de velocidad permite que el procesador no deba sufrir tiempos de espera innecesarios desde que solicita un dato hasta que lo recibe para poder realizar la operación.

4.4. Evolución de la memoria por su tipo de acceso. Los principales tipos de memoria RAM utilizadas en nuestros ordenadores se dividen en DRAM, SRAM y Tag RAM.

4.4.1 Tipos de memoria DRAM. Así, la memoria DRAM (Dynamic Random Access Memory) es la que montan las placas base como memoria principal del sistema, donde se almacenan las aplicaciones en ejecución y los datos que es están gestionando en cada momento. Se refresca cientos de veces por segundo y cuanto mayor cantidad pongamos a disposición del PC mejores resultados obtendremos. FPM (Fast Page Mode): Memoria muy popular, ya que era la que se incluía en los antiguos 386, 486 y primeros Pentium. Alcanza velocidades de hasta 60 ns. Se encuentra en los SIMM de 30 contactos y los posteriores de 72. Memoria asíncrona, más rápida que la anterior (Modo de Página Rápida) y con tiempos de acceso de 70 ó 60 ns. Esta memoria se encuentra instalada en muchos sistemas de la primera generación de Pentium. Incorpora un sistema de paginado debido a que considera probable que el próximo dato a acceder este en la misma columna, ganando tiempo en caso afirmativo, se implantó un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones Javier Aguilar Parra

82


Universidad Autónoma de Baja California Sur

consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primera vez no sería necesario decir el número de la calle únicamente seguir la misma. Su diseño lo podemos apreciar en la figura 4.11.

Figura 4.11: Módulo de memoria FPM de 30 pins.

EDO (Extended Data Output): Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el búffer de salida hasta que comienza el próximo ciclo de lectura. La memoria EDO, a diferencia de la FPM que sólo podía acceder a un solo byte al tiempo, permite mover un bloque completo de memoria a la memoria caché del sistema, mejorando así las prestaciones globales. De mayor calidad, alcanza velocidades de hasta 45 ns. Se encuentra en los Pentium, Pentium Pro y primeros Pentium II en SIMM de 72 contactos y en los primeros DIMM de 168 contactos, funcionando a 5 y 3,3 voltios. Su diseño lo podemos apreciar en la figura 4.12.

Figura 4.12: Módulo de memoria EDO de 72 pins.

BEDO (Burst Extended Data Output): Algunas veces llamada Burst EDO RAM, fue un tipo de EDO RAM capaz de trabajar con CPUs que tenían una velocidad de bus de 66 MHz, o menor. 83


Departamento Académico de Sistemas Computacionales

Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a mas de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj. Diseñada originalmente para los chipset HX, permite transferir datos al procesador en cada ciclo de reloj, aunque no de forma continuada, sino a ráfagas, reduciendo los tiempos de espera del procesador, aunque sin conseguir eliminarlos del todo. Viene en 70ns, 60ns y 50ns velocidades. 60ns es el más lento que se debe utilizar en un sistema de velocidad de bus de 66MHz (es decir, Pentium 100 MHz o superior) y los Triton HX y VX chipsets también pueden tomar ventaja de la versión 50 ns. Burst EDO DRAM es una mejora evolutiva en EDO DRAM que contiene una fase de canalización y un contador de 2 bits ráfaga. Con las DRAM convencionales como FPM y EDO, el iniciador accede DRAM a través de un controlador de memoria. El controlador debe esperar a que los datos que estén listos antes de enviarlo al iniciador. BEDO elimina los espera-estado mejorando así el rendimiento del sistema hasta en un 100% con respecto a FPM DRAM y hasta un 50% más de EDO DRAM estándar, logrando tiempos de sistema de 5-1-1-1 cuando se utiliza con un conjunto de chips de apoyo. Su diseño lo podemos apreciar en la figura 4.13.

Figura 4.13: Módulo de memoria BEDO de 72 pins..

SDRAM (Synchronous DRAM): Aunque el concepto de memoria DRAM síncrona era conocido desde al menos la década de 1970, y fue utilizado con los primeros

Javier Aguilar Parra

84


Universidad Autónoma de Baja California Sur

procesadores de Intel, fue sólo en 1993 cuando la SDRAM comenzó su camino hacia la aceptación universal de la industria electrónica. Memoria asíncrona que se sincroniza con la velocidad del procesador, pudiendo obtener información en cada ciclo de reloj, evitando así los estados de espera que se producían antes. La SDRAM es capaz de soportar las velocidades del bus a 100 y 133 MHz, alcanzando velocidades por debajo de 10 ns. Se encuentra en la práctica mayoría de los módulos DIMM de 168 contactos. Su diseño lo podemos apreciar en la figura 4.14.

Figura 4.14: Módulo de memoria SDRAM de 168 pins..

Fue utilizada en los Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos disponibles son: 

PC66: SDR SDRAM: Se refiere a equipo interno extraíble de memoria estándar definido por la JEDEC . PC66 es Synchronous DRAM que funciona a una frecuencia de reloj de 66,66 MHz, en un bus de 64 bits, a un voltaje de 3,3 V. PC66 está disponible en 168 pin DIMM y 144 pines SO-DIMM factores de forma. El ancho de banda teórico es de 533 MB / s. Esta norma fue utilizada por Intel Pentium y AMD K6 PC basados en. También cuenta en el Beige Power Mac G3 , los primeros iBooks y PowerBook G3 . También se utiliza en muchos primeros Intel Celeron sistemas con 66 MHz de FSB . Fue reemplazado por el PC100 y PC133 normas. 85


Departamento Académico de Sistemas Computacionales

PC-100 DRAM: Es un estándar para la informática interna extraíble de memoria de acceso aleatorio , que se define por la JEDEC . PC100 se refiere a Synchronous DRAM que funciona a una frecuencia de reloj de 100 MHz, en una de 64 bits de ancho de bus, a un voltaje de 3,3 V. PC100 está disponible en 168-pin DIMM y 144 pines SO-DIMM factores de forma. Un módulo construido a partir de chips de 100 MHz SDRAM no es necesariamente capaz de funcionar a 100 MHz. El estándar PC100 especifica las capacidades del módulo de memoria en su conjunto. PC100 se utiliza en muchos equipos más antiguos; PCs alrededor de la década de 2000 fueron los equipos más comunes con la memoria PC100. Es un tipo de memoria SDRAM que cumple unas estrictas normas referentes a calidad de los chips y diseño de los circuitos impresos establecidas por Intel. El objetivo es garantizar un funcionamiento estable en la memoria RAM a velocidades de bus de 100 MHz. PC100 es compatible con PC66 y fue reemplazado por el PC133 estándar.

PC-133 DRAM: Muy parecida a la anterior y de grandes exigencias técnicas para garantizar que el módulo de memoria que la cumpla funcione correctamente a las nuevas velocidades de bus de 133 MHz que se han incorporado a los últimos Pentium III. Es un estándar de la memoria del ordenador se define por la JEDEC . PC133 se refiere a Synchronous DRAM que funciona a una frecuencia de reloj de 133 MHz, en una de 64 bits de ancho de bus, a un voltaje de 3,3 V. PC133 está disponible en 168 pin DIMM y 144 pines SO-DIMM factores de forma. PC133 fue el estándar más rápida y definitiva SDRAM que haya sido aprobado por la JEDEC, y ofrece un ancho de banda de 1066 MB por segundo ([133.33 MHz * 64/8] = 1066 MB / s). PC133 es compatible con PC100 y PC66 .

DRDRAM (Direct Rambus DRAM): La RDRAM es un tipo de memoria síncrona, conocida como Rambus DRAM. El modo de funcionar de estas memorias es diferente a las DRAM, cambios producidos en una serie de decisiones de diseño que no buscan solo Javier Aguilar Parra

86


Universidad Autónoma de Baja California Sur

proporcionar un alto ancho de banda, sino que también solucionan los problemas de granularidad y número de pins. Este tipo de memoria se utilizó en la videoconsola Nintendo 64 de Nintendo y otros aparatos de posterior salida. Ees un tipo de memoria de siguiente generación a la DRAM en la que se ha rediseñado la DRAM desde la base pensando en cómo se debería integrar en un sistema. Es un tipo de memoria de 64 bits que alcanza ráfagas de 2 ns, picos de varios Gbytes/sg y funcionan a velocidades de hasta 800 MHz. Es el complemento ideal para las tarjetas gráficas AGP, evitando los cuellos de botella entre la tarjeta gráfica y la memoria principal durante el acceso directo a memoria para el manejo de las texturas gráficas. Es una memoria de bus de 16 bits que opera a velocidades de reloj de 400 MHz y funciona con ambos flancos ascendente y descendente del pulso del reloj del microprocesador. Transfiere dos palabras de datos por cada ciclo del reloj del sistema, tiene un ancho de banda teórico de 1.6 Gbytes/segundo. Esta memoria viene encapsulada en un diseño especial de módulo llamado RIMM. Su diseño lo podemos apreciar en la figura 4.15.

Figura 4.15: Módulo de memoria DRDRAM Rambus (RIMM).

En la época en la que se diseñaron suspusieron un gran reto para los ingenieros, debido principalmente a la necesidad de utilizar chips estables a alta frecuencia, lo que requería un silicio especialmente puro y que encareció el precio de las memorias por encima de sus competidoras. Posteriormente nos encontramos que la frecuencia principal de las RDRAM llegó a los 1200 MHz, incorporando dos canales RDRAM separados, a 1200 MHz en un solo módulo RIMM 4800. Además, han pasado de RIMM de 16 bits a conseguir módulos de 32 y 64 bits. 87


Departamento Académico de Sistemas Computacionales

Se presentan en módulos RIMM de 184 contactos. Fue utilizada en los Pentium 4 . Era la memoria más rápida en su tiempo, pero por su elevado costo fue rápidamente cambiada por la económica DDR. Los tipos disponibles son: 

PC600: RIMM RDRAM, funciona a un máximo de 300 MHz.

PC700: RIMM RDRAM, funciona a un máximo de 356 MHz.

PC800: RIMM RDRAM, funciona a un máximo de 400 MHz.

PC1066: RIMM RDRAM, funciona a un máximo de 533 MHz.

SLDRAM (SyncLink DRAM): Es el directo competidor de DRDRAM. El diseño de la memoria SLDRAM mejora el 69 con un bus de 64 bits a velocidad de reloj de 200 MHz y con transferencia de datos con el flanco de subida y el flanco de bajada del reloj del sistema, lo cual genera una velocidad efectiva de 400 MHz Esto le permite a la memoria SLDRAM tener un ancho de banda teórico de 3.2 Gbytes/segundo, el doble de la memoria DRDRAM. Se basa, al igual que la DRDRAM, en un protocolo propietario, que separa las líneas CAS, RAS y de datos. Los tiempos de acceso no dependen de la sincronización de múltiples líneas, por lo que este tipo de memoria promete velocidades superiores a los 800 MHz, ya que además puede operar al doble de velocidad del reloj del sistema. DDR SDRAM (Double Data Rate SDRAM o SDRAM II): Un tipo de memoria SDRAM mejorada que podía alcanzar velocidades de hasta 200 MHz. Cuenta con mecanismos para duplicar las prestaciones obtenidas a la velocidad del reloj del sistema. Fue soportada por ciertos chipset Socket 7, pero al no ser apoyada por Intel no está demasiado extendida. No todas las placas base soportan un diseño de una única muesca de DDR RAM y algunos sólo pueden soportar tipos específicos como PC 2700 o inferior. Un módulo DDR RAM más rápido seguirá funcionando con una placa base no compatible pero sólo funcionará a una velocidad menor. La mayoría de las placas base sólo pueden manejar entre 2 y 4 módulos DDR RAM, así que insertar módulos adicionales no aumentará Javier Aguilar Parra

88


Universidad Autónoma de Baja California Sur

realmente las velocidades. También puedes hacer "overclock" en la DDR RAM para que funcione más rápido, aunque no es algo que los fabricantes de RAM recomienden porque hace que el módulo tenga más posibilidades de calentarse demasiado y hace que consuma más energía de la fuente de alimentación de la computadora. DDR permite a ciertos módulos de memoria RAM compuestos por memorias síncronas (SDRAM), disponibles en encapsulado DIMM, la capacidad de transferir simultáneamente datos por dos canales distintos en un mismo ciclo de reloj. Los módulos DDR soportan una capacidad máxima de 1 GiB (1 073 741 824 bytes). Una de sus características es que solo tiene una muesca, y cuenta con 184 terminales de color dorado. Esta memoria opera con 2.5 volts. Su diseño lo podemos apreciar en la figura 4.16.

Figura 4.16: Módulo de memoria DDR SDRAM.

Fueron primero adoptadas de sistemas equipados con procesadores AMD Athlon. Intel con su Pentium 4 en un principio utilizó únicamente memorias RAMBUS, más costosas. Ante el avance en ventas y buen rendimiento de los sistemas AMD basados en DDR SDRAM, Intel se vio obligado a cambiar su estrategia y utilizar memoria DDR, lo que le permitió competir en precio. Son compatibles con los procesadores de Intel Pentium 4 que disponen de un front-side bus de 64 bits de datos y frecuencias de reloj internas que van desde los 200 a los 400 MHz. Muchas placas base permiten utilizar estas memorias en dos modos de trabajo distintos: Single memory channel: todos los módulos de memoria intercambian información con el bus a través de un solo canal, para ello sólo es necesario introducir todos los módulos DIMM en el mismo banco de slots. Se utiliza la nomenclatura PC-XXXX, dónde se indica el ancho de banda del módulo y pueden transferir un volumen de información de 8 bytes en cada ciclo de reloj a las 89


Departamento Académico de Sistemas Computacionales

frecuencias descritas. Un ejemplo de cálculo para PC1600: 100 MHz x 2 (Double Data Rate) x 8 B = 1600 MB/s = 1 600 000 000 bytes por segundo. En a figura 4.17 podemos apreciar una tabla que ejemplifica esta relación. Nombre estándar

Reloj de Bus

Reloj de memoria

Datos transferidos por segundo

Nombre del módulo

Máxima capacidad de transferencia

DDR-200 DDR-266 DDR-333 DDR-400

100 MHz 133 MHz 166 MHz 200 MHz

100 MHz 133 MHz 166 MHz 200 MHz

200 Millones 266 Millones 333 Millones 400 Millones

PC-1600 PC-2100 PC-2700 PC-3200

1600 MB/s (1,6 GB/s) 2128 MB/s (2,1 GB/s) 2656 MB/s (2,6 GB/s) 3200 MB/s (3,2 GB/s)

Figura 4.17: Tabla de modelos y características de módulo de memoria DDR.

Las memorias DDR SDRAM evolucionaron a los modelos DDR2 y DRR3. Estos se debió principalmente a las optimizaciones de los fabricantes, ya que las DRR utilizan mucha más energía y tiene un reloj más lento, y no ofrecen un mayor rendimiento. Un aspecto que las diferencia es la muesca esta a diferentes distancias como se observa en la figura 4.18.

Figura 4.18: Comparación gráfica entre memorias DDR, DDR2 y DDR3.

DRR2 SDRAM. Las memorias DDR2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida funcionen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Operan tanto en el flanco alto del reloj como en el bajo, en los puntos de 0 voltios y 1,8 voltios, lo que reduce el consumo de energía en aproximadamente el 50 por ciento del consumo de las DDR, que funcionaban a 0 y 2,5 voltios. Javier Aguilar Parra

90


Universidad Autónoma de Baja California Sur

Terminación de señal de memoria dentro del chip de la memoria ("Terminación integrada" u ODT) para evitar errores de transmisión de señal reflejada. Los módulos DDR2 funcionan con 4 bits por ciclo, es decir 2 de ida y 2 de vuelta en un mismo ciclo mejorando sustancialmente el ancho de banda potencial bajo la misma frecuencia de una DDR SDRAM tradicional (si una DDR a 200 MHz reales entregaba 400 MHz nominales, la DDR2 por esos mismos 200 MHz reales entrega 800 MHz nominales). Este sistema funciona debido a que dentro de las memorias hay un pequeño buffer que es el que guarda la información para luego transmitirla fuera del módulo de memoria. En el caso de la DDR convencional este buffer tomaba los 2 bits para transmitirlos en 1 sólo ciclo, lo que aumenta la frecuencia final. En las DDR2, el buffer almacena 4 bits para luego enviarlos, lo que a su vez redobla la frecuencia nominal sin necesidad de aumentar la frecuencia real de los módulos de memoria. Las memorias DDR2 tienen mayores latencias que las conseguidas con las DDR convencionales, cosa que perjudicaba su rendimiento. Reducir la latencia en las DDR2 no es fácil. El mismo hecho de que el buffer de la memoria DDR2 pueda almacenar 4 bits para luego enviarlos es el causante de la mayor latencia, debido a que se necesita mayor tiempo de "escucha" por parte del buffer y mayor tiempo de trabajo por parte de los módulos de memoria, para recopilar esos 4 bits antes de poder enviar la información. DDR2 se introdujo a dos velocidades iniciales: 200 MHz (llamada PC2-3200) y 266 MHz (PC2-4200). Ambas tienen un menor rendimiento que sus equivalentes en DDR, ya que su mayor latencia hace que los tiempos totales de acceso sean hasta dos veces mayores. Sin embargo, la DDR no ha sido oficialmente introducida a velocidades por encima de los 266 MHz. Existen DDR-533 e incluso DDR-600, pero la JEDEC ha afirmado que no se estandarizarán.

91


Departamento Académico de Sistemas Computacionales

Actualmente, Intel soporta DDR2 en sus chipsets 9xx. AMD incluye soporte DDR2 en procesadores de la plataforma AM2 introducidos en 2006. Los DIMM DDR2 tienen 240 pines, mientras que los de DDR tienen 184 y los de SDR 168. Para usar en PC, las DDR2 SDRAM son suministradas en tarjetas de memoria DIMM con 240 pines y una localización con una sola ranura. Las tarjetas DIMM son identificadas por su máxima capacidad de transferencia, llamado ancho de banda. En a figura 4.19 podemos apreciar una tabla con las características de las memorias DDR2. Nombre estándar

Velocidad del reloj

Tiempo entre señales

Velocidad del reloj de E/S

Datos transferidos por segundo

Nombre del módulo

Máxima capacidad de transferencia

DDR2-400 DDR2-533 DDR2-600 DDR2-667 DDR2-800 DDR2-1000 DDR2-1066 DDR2-1150 DDR2-1200

100 MHz 133 MHz 150 MHz 166 MHz 200 MHz 250 MHz 266 MHz 286 MHz 300 MHz

10 ns 7,6 ns 6,7 ns 6 ns 5 ns 3,75 ns 3,75 ns 3,5 ns 3,3 ns

200 MHz 266 MHz 300 MHz 333 MHz 400 MHz 500 MHz 533 MHz 575 MHz 600 MHz

400 millones 533 millones 600 millones 667 Millones 800 Millones 1000 Millones 1066 Millones 1150 Millones 1200 Millones

PC2-3200 PC2-4200 PC2-4800 PC2-5300 PC2-6400 PC2-8000 PC2-8500 PC2-9200 PC2-9600

3200 MB/s 4264 MB/s 4800 MB/s 5336 MB/s 6400 MB/s 8000 MB/s 8530 MB/s 9200 MB/s 9600 MB/s

Figura 4.19: Tabla de modelos y características de módulo de memoria DDR2.

DRR3 SDRAM. En 2005, Samsung Electronics anunció un chip prototipo de 512 MiB a 1.066 MHz (la misma velocidad de bus frontal del Pentium 4 Extreme Edition más rápido) con una reducción de consumo de energía de un 40% comparado con los actuales módulos comerciales DDR2, debido a la tecnología de 80 nanómetros usada en el diseño del DDR3 que permite más bajas corrientes de operación y tensiones (1,5 V, comparado con los 1,8 del DDR2 ó los 2,6 del DDR). Dispositivos pequeños, ahorradores de energía, como computadoras portátiles quizás se puedan beneficiar de la tecnología DDR3. Los DIMM DDR3 tienen 240 contactos, es el mismo número que DDR2; sin embargo, los DIMM son físicamente incompatibles, debido a una ubicación diferente de la muesca. El principal beneficio de instalar DDR3 es la posibilidad de hacer transferencias de datos más rápidamente, y con esto obtener velocidades de transferencia y de bus más altas que Javier Aguilar Parra

92


Universidad Autónoma de Baja California Sur

las versiones DDR2. Proporciona significativas mejoras de rendimiento en niveles de bajo voltaje, lo que conlleva una disminución global del consumo. Se preveía que la tecnología DDR3 pudiera ser dos veces más rápida que la DDR2 y el alto ancho de banda que prometía ofrecer DDR3 era la mejor opción para la combinación de un sistema con procesadores dual-core, quad-core y hexaCore (2, 4 y 6 núcleos por microprocesador). Las tensiones más bajas del DDR3 (1,5 V frente 1,8 V de DDR2) ofrecen una solución térmica y energética más eficientes. En 2008, Kingston Technology,los primeros módulos de memoria a 2GHz de la industria, para plataformas Intel Core i7. Si bien las latencias típicas DDR2 fueron 5-5-5-15 para el estándar JEDEC, para dispositivos DDR3 son 7-7-7-20 para DDR3-1066 y 9-9-9-24 para DDR3-1333. En a figura 4.20 podemos apreciar una tabla con las características de las memorias DDR3. Nombre estándar

Velocidad del reloj

Tiempo entre señales

Velocidad del reloj de E/S

Datos transferidos por segundo

Nombre del módulo

Máxima capacidad de transferencia

DDR3-1066 DDR3-1200 DDR3-1333 DDR3-1375 DDR3-1466 DDR3-1600 DDR3-1866 DDR3-2000 DDR3-2200

133 MHz 150 MHz 166 MHz 170 MHz 183 MHz 200 MHz 233 MHz 250 MHz 350 MHz

1 ns 1 ns 1 ns 1 ns 1 ns 1 ns 1 ns 1 ns 1 ns

532 MHz 600 MHz 664 MHz 680 MHz 732 MHz 800 MHz 932 MHz 1000 MHz 1400 MHz

1066 Millones 1200 Millones 1333 Millones 1375 Millones 1466 Millones 1600 Millones 1866 Millones 2000 Millones 2200 Millones

PC3-8500 PC3-9600 PC3-10600 PC3-11000 PC3-11700 PC3-12800 PC3-14900 PC3-16000 PC3-18000

8530 MB/s 9600 MB/s 10 664 MB/s 11 000 MB/s 11 700 MB/s 12 800 MB/s 12 800 MB/s 12 800 MB/s 12 800 MB/s

Figura 4.20: Tabla de modelos y características de módulo de memoria DDR3.

Dual memory channel: (Doble canal) Se reparten los módulos de memoria entre los dos bancos de ranuras diferenciados en la placa base, y pueden intercambiar datos con el bus a través de dos canales simultáneos, uno para cada banco, es decir van en pares como se aprecia en la figura 4.21. Es una tecnología para memorias aplicada en las computadoras u ordenadores personales, la cual permite el incremento del rendimiento gracias al acceso simultáneo a dos módulos distintos de memoria (haciéndolo a bloques de 128 bits, en lugar de los 64 93


Departamento Académico de Sistemas Computacionales

bits tradicionales desde el inicio de la era Pentium en 1993). Esto se consigue mediante un segundo controlador de memoria en el puente norte (northbridge) del chipset o conjunto de chips.

Figura 4.21: Dual memory channel.

Las mejoras de rendimiento son particularmente perceptibles cuando se trabaja con controladoras de vídeo integradas a la placa base ya que éstas, al no contar con memoria propia, usan la memoria RAM o memoria principal del sistema y, gracias al doble canal, pueden acceder a un módulo mientras el sistema accede al otro. Para que la computadora pueda funcionar en Dual Channel, se deben tener dos módulos de memoria de la misma capacidad, velocidad y tipo DDR, DDR2 o DDR3 (ya que no es posible usarlo en SDR) en los zócalos correspondientes de la placa base, y el chipset de la placa base debe soportar dicha tecnología. Es recomendable que los módulos de memoria sean idénticos (mismas frecuencia, latencias y fabricante), ya que en caso de que sean distintos puede que no funcionen (en casos esporádicos). Actualmente, es posible utilizar esta tecnología en memorias DDR, DDR2, y DDR3 cuyas velocidades estén comprendidas en el rango de las denominaciones comerciales DDR-266 y DDR32000 nominales (entre 133 y 1000 MHz reales, o entre 7,5 y 2 ns). ESDRAM (Enhanced SDRAM): Incluye una pequeña memoria estática en el interior del chip SDRAM. Con ello, las peticiones de ciertos accesos pueden ser resueltas por esta rápida memoria, aumentando las prestaciones. Se basa en un principio muy similar al de la memoria caché utilizada en los procesadores. Esto significa que muchos accesos serán Javier Aguilar Parra

94


Universidad Autónoma de Baja California Sur

de la SRAM más rápido. En el caso de la SRAM no tiene los datos, hay una amplia autobús entre la SRAM y la SDRAM porque están en el mismo chip. ESDRAM es la versión sincrónica de Memory Systems mejorada EDRAM arquitectura. Ambos dispositivos EDRAM y ESDRAM están en la categoría de caché DRAM y se utilizan principalmente para L1 y L2 . ESDRAM aparentemente está compitiendo con DDR SDRAM como un chip SDRAM más rápido para Socket 7 procesadores.

4.4.2 Tipos de memoria SRAM. Static Random Access Memory (SRAM), o Memoria Estática de Acceso Aleatorio es un tipo de memoria basada en semiconductores que a diferencia de la memoria DRAM, es capaz de mantener los datos, mientras esté alimentada, sin necesidad de circuito de refresco. Sin embargo, sí son memorias volátiles, es decir que pierden la información si se les interrumpe la alimentación eléctrica. No precisa de tanta electricidad como la anterior para su refresco y movimiento de las direcciones de memoria, por lo que funciona más rápida, aunque tiene un elevado precio. Estas memorias son de Acceso Aleatorio, lo que significa que las posiciones en la memoria pueden ser escritas o leídas en cualquier orden, independientemente de cuál fuera la última posición de memoria accedida. Cada bit en una SRAM se almacena en cuatro transistores, que forman un biestable. Este circuito biestable tiene dos estados estables, utilizados para almacenar (representar) un 0 o un 1. Se utilizan otros dos transistores adicionales para controlar el acceso al biestable durante las operaciones de lectura y escritura. Una SRAM típica utilizará seis MOSFET para almacenar cada bit. Adicionalmente, se puede encontrar otros tipos de SRAM, que utilizan ocho, diez, o más transistores por bit.1 2 3 Esto es utilizado para implementar más de un puerto de lectura o escritura en determinados tipos de memoria de video.

95


Departamento Académico de Sistemas Computacionales

Un menor número de transistores por celda, hará posible reducir el tamaño de esta, reduciendo el coste por bit en la fabricación, al poder implementar más celdas en una misma oblea de silicio. Podemos apreciar su diseño en la figura 4.22.

Figura 4.22: Static Random Access Memory (SRAM).

Una memoria SRAM tiene tres estados distintos de operación: standby, en el cual el circuito está en reposo, reading o en fase de lectura, durante el cual los datos son leídos desde la memoria, y writing o en fase de escritura, durante el cual se actualizan los datos almacenados en la memoria. Las SRAM se utilizan en sistemas científicos e industriales, electrónica del automóvil, y similares. También se pueden encontrar en prácticamente todos los productos de uso cotidiano que implementen una interfaz electrónica de usuario. También se puede encontrar memorias SRAM en los computadores personales, estaciones de trabajo, routers y la gran mayoría de periféricos. Y se dividen en tres categorías. Async SRAM: Es asíncronas porque trabaja independientes de la frecuencia de reloj. Las SRAM asíncronas se utilizaban para la memoria caché de los antiguos 386, 486 y primeros Pentium, asíncrona y con velocidades entre 20 y 12 ns. Actualmente las SRAM asíncronas están disponibles en tamaños desde 4Kb hasta 32Mb. Con un tiempo reducido de acceso, son adecuadas para el uso en equipos de comunicaciones, como switches, routers, teléfonos IP, tarjetas DSLAM, y en electrónica de automoción.

Javier Aguilar Parra

96


Universidad Autónoma de Baja California Sur

Sync SRAM: Son síncronas porque todas las operaciones son controladas por el reloj del sistema. Es la generación siguiente, capaz de sincronizarse con el procesador y con una velocidad entre 12 y 8,5 ns. Pipelined SRAM: Se llama 'pipeline' a una categoría de técnicas que proporcionan un proceso simultáneo, o en paralelo dentro de la computadora, y se refiere a las operaciones de solapamiento moviendo datos o instrucciones en una 'tuberia' conceptual con todas las fases del 'pipe' procesando simultáneamente. Por ejemplo, mientras una instrucción se está ejecutando, la computadora está decodificando la siguiente instrucción. Se sincroniza también con el procesador, pero tarda en cargar los datos más que la anterior, aunque una vez cargados accede a ellos con más rapidez. Opera a velocidades entre 8 y 4,5 ns.

97


Departamento Académico de Sistemas Computacionales

Capítulo 5 Disco Duro. 5.1 Conceptos básicos. Se llama disco duro o disco rígido (en inglés hard disk, abreviado con frecuencia HD o HDD) al dispositivo encargado de almacenar información de forma permanente en una computadora. Los discos duros generalmente utilizan un sistema de grabación magnética digital. En este tipo de disco encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares a la hora de comunicar un disco duro con la computadora. Los más utilizados son IDE/ATA, SCSI, y SATA, este último siendo de reciente aparición. En la figura 3.34 podemos apreciar el diseño de un disco duro con tecnología IDE. Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes tenemos que definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema. También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad para el uso en ordenadores personales específicamente portátiles. Así, el caché de pista es una memoria de estado sólido, tipo RAM, dentro de un disco duro de estado sólido.

5.2 Estructura Física del Disco Duro. Platos.

Javier Aguilar Parra

98


Universidad Autónoma de Baja California Sur

La pieza más importante de todo disco duro son uno o más platos de aluminio, vidrio o cerámica, recubiertos por un fina capa de material ferromagnético de unas cuantas micras de espesor (de entre 3 y 8 micras en los discos modernos). Aquí es donde, finalmente, se almacena la información binaria. En la figura 5.1 podemos apreciar los platos.

Motor. Los platos de almacenamiento giran accionados por un motor servocontrolado, que garantiza una velocidad angular

uniforme, la cual varía dependiendo del disco, pero

comúnmente oscila entre 3.200, 4.800, 5.400, 7.200 e incluso 10.000 revoluciones por minuto. Esta velocidad de giro es importante para el desempeño general de la unidad, ya que mientras más rápido sea el giro, más rápidamente se podrá almacenar o leer la información en la unidad. Actualmente, el motor de giro más usual suele ser el de tipo BSL (sin escobillas), lo que reduce prácticamente a cero las pérdidas por fricción, haciendo más eficiente la operación del conjunto. En la figura 5.1 podemos ver el diagrama del motor.

Cabezas de grabación y lectura. Para realizar la lectura y escritura de datos en la superficie de los discos, se necesitan dos cabezas de grabación y lectura, una por cada cara del disco (por supuesto que si hay más de un plato, habrá más cabezas). Las cabezas están unidas por un elemento al que se denomina "actuador". Se trata de un brazo que en un extremo tiene montadas las cabezas magnéticas y en el otro los elementos necesarios para lograr el desplazamiento de ellas a través de la superficie del disco. Antes las cabezas eran simples tiroides de ferrita (similares a las que se incluyen en cualquier grabadora de cassettes casera), pero en la actualidad se fabrican en miniatura, por un método parecido al de los circuitos integrados (cabezas tipo thin film), o se trata de complejos elementos magneto-resistivos que permiten enormes densidades de

99


Departamento Académico de Sistemas Computacionales

grabación, redundando en discos cada vez más pequeños y de mayor capacidad. En la figura 5.1 podemos apreciar los cabezales.

Figura 5.1: Estructura de un disco duro arquitectura IDE.

Motor de desplazamiento de cabezas o Pivote. El desplazamiento de las cabezas de lectura/escritura sobre la superficie de los platos, es necesaria para lograr la recuperación de los datos almacenados en un disco. En discos antiguos, el desplazamiento lo realizaba un motor de pasos conectado al brazo donde iban montadas las cabezas; en la actualidad, estos motores han sido sustituidos por una "bobinas de voz" (voice coil), las cuales permiten movimientos más precisos y, lo más importante, pueden autocorregir pequeñas desviaciones que pudiera haber en el proceso de búsqueda de un track de información (además de permitir desplazamientos más veloces). Para su funcionamiento, esta bobina de voz necesita un par de imanes permanentes que producen un campo magnético de cierta intensidad. En la figura 5.1 podemos apreciar el voice coil. Sumergida en dicho campo, se encuentra la bobina que está adosada en el brazo de cabezas (puede darse la situación contraria: un imán pegado al brazo y las bobinas rodeándolo); de modo que cuando circula una corriente a través de la bobina, por la atracción y repulsión magnéticas, el brazo de las cabezas tiende a moverse. Manejando la Javier Aguilar Parra

100


Universidad Autónoma de Baja California Sur

magnitud de corriente que circule por la bobina, se puede controlar el desplazamiento de las cabezas sobre la superficie del disco.

Gabinete Los discos se encuentran en un gabinete herméticamente sellado, de modo que el aire exterior que contiene una gran cantidad de partículas suspendidas, no penetre al interior de la unidad, a menos que pase por unos filtros especiales que retiran todas las partículas indeseables y permiten el flujo de aire limpio dentro del disco. Si bien, por algún tiempo se manejó que los discos duros venían al vacío, esto no es cierto, ya que para su funcionamiento es indispensable que se forme un colchón de aire entre la superficie del disco y la cabeza magnética, algo imposible si la unidad estuviera al vacío.

Circuitos electrónicos En la parte exterior del gabinete, hay una placa de circuitos electrónicos con varios chips que establecen la comunicación entre la computadora y el interior del disco duro. Esta placa contiene los circuitos de intercambio de datos, los amplificadores que graban los datos en la superficie de los platos y aquellos que recogerán los minúsculos pulsos que captan las cabezas de lectura, amplificándolos y decodificándolos para enviarlos al microprocesador. También incluye los conectores para alimentar el disco duro con +5 y +12 volts (ver figura 3.34); en esta placa también se configura la unidad como disco único, master o slave. Aún cuando estos elementos básicos conforman un disco duro, es posible encontrar otros, como un brazo para autoestacionado de cabezas (ver figura 3.34), LED's indicadores de actividad del disco, etc., sin embargo, la estructura básica de la unidad es la misma.

Tipos de conexión. Si hablamos de disco rígido podemos citar a los distintos tipos de conexión que poseen los mismos con la placa madre, es decir pueden ser SATA, IDE, SCSI o SAS.

101


Departamento Acadรฉmico de Sistemas Computacionales

IDE: Integrated Device Electronics ("Dispositivo con electrรณnica integrada") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta hace poco, el estรกndar principal por su versatilidad y relaciรณn calidad/precio. En la figura 5.2.a podemos ver la conexiรณn IDE. SCSI: Son discos duros de gran capacidad de almacenamiento . Se presentan bajo tres especificaciones: SCSI Estรกndar (Standard SCSI), SCSI Rรกpido (Fast SCSI) y SCSI Ancho-Rรกpido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad de transmisiรณn secuencial de informaciรณn puede alcanzar teรณricamente los 5 Mbps en los discos SCSI Estรกndares, los 10 Mbps en los discos SCSI Rรกpidos y los 20 Mbps en los discos SCSI Anchos-Rรกpidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 perifรฉricos SCSI) con conexiรณn tipo margarita (daisychain). A diferencia de los discos IDE, pueden trabajar asincrรณnicamente con relaciรณn al microprocesador, lo que los vuelve mรกs rรกpidos. SATA (Serial ATA): Nuevo estรกndar de conexiรณn que utiliza un bus serie para la transmisiรณn de datos. Notablemente mรกs rรกpido y eficiente que IDE. En la actualidad hay dos versiones, SATA 1 de hasta 1,5 Gigabits por segundo (192 MB/s) y SATA 2 de hasta 3,0 Gb/s (384 MB/s) de velocidad de transferencia. En la figura 5.2.b podemos ver la conexiรณn SATA.

Figura 5.2: Conexiรณn de disco duros IDE y SATA.

Javier Aguilar Parra

102


Universidad Autónoma de Baja California Sur

SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión de forma rápida. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costos. Por lo tanto, los discos SATA pueden ser utilizados por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.

5.3 Factor de forma. El más primer "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos FDD "floppy-disk drives" (en inglés). La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado otros tipos de disquetes con unas dimensiones más pequeñas. 8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas). En 1979, Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las mismas dimensiones y siendo compatible con la interfaz de 8 pulgadas de las disqueteras. Había dos versiones disponibles, la de la misma altura y la de la mitad (58,7mm). 5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo: 82,5 mm máximo. 103


Departamento Académico de Sistemas Computacionales

Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64 pulgadas). La mayoría de los modelos de unidades ópticas (DVD/CD) de 120 mm usan el tamaño del factor de forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó a finales de los 90'. 3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas). Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4mm (1 pulgada), o "low-profile" que es usado en la mayoría de los discos duros. En la figura 5.3 se ilustras gráficamente la evolución del factor de forma de los discos duros. 2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas). Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor capacidad tienen una altura de 12,5 mm.

Figura 5.3: Evolución del factor de forma de los discos duros.

Javier Aguilar Parra

104


Universidad Autónoma de Baja California Sur

1,8 pulgadas: 54×8×71 mm. Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las dimensiones indicadas y su uso se incrementa en reproductores de audio digital y su subnotebook. La variante original posee de 2GB a 5GB y cabe en una ranura de expansión de tarjeta de ordenador personal. Son usados normalmente en iPods y discos duros basados en MP3. 1 pulgadas: 42,8×5×36,4 mm. Este factor de forma se introdujo en 1999 por IBM y Microdrive, apto para los slots tipo 2 de compact flash, Samsung llama al mismo factor como 1,3 pulgadas. 0,85 pulgadas: 24×5×32 mm.Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares, incluyendo SD/MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micro-móviles de 4G. Toshiba actualmente vende versiones de 4GB (MK4001MTD) y 8GB (MK8003MTD) y 5 GB tienen el Récord Guinness del disco duro más pequeño. Los principales fabricantes suspendieron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85 pulgadas en 2007, debido a la caída de precios de las memorias flash, aunque Samsung introdujo en el 2008 con el SpidPoint A1 otra unidad de 1,3 pulgadas. El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del disco, para interés de la continuidad histórica.

5.4 Evolución de los discos duros. 5.4.1 RAMAC. IBM el 4 de septiembre de 1956 desarrollo lo que se considera el primer disco duro al cual lo llama RAMAC eran las iniciales en inglés de "Sistema de Contabilidad con Memoria de Acceso Aleatorio" ("Random Access Memory ACcounting System". Su diseño estuvo 105


Departamento Académico de Sistemas Computacionales

motivado por la necesidad de sustituir el fichero de tarjetas perforadas utilizado por la mayoría de las oficinas de la época. En la figura 5.4 podemos apreciar el disco duro RAMAC de IBM.

Figura 5.4: Disco duro RAMAC de IBM.

En 1957 se introdujo como un componente de IBM RAMAC la primera unidad de discos duros 350. Requirió 50 discos de 24 pulgadas para guardar cinco megabytes (millón bytes, se abrevió MB) de datos y costó bruscamente US$35.000 por año o arrendarlo a US$7.000 por megabyte anual. fue el primer ordenador comercial que utilizaba disco duro de cabeza móvil (unidad de disco magnético) como almacenamiento secundario. El primer RAMAC destinado a ser usado en la industria del automóvil estadounidense fue instalado en la Chrysler's MOPAR Division en 1957. Sustituyó a un gigantesco fichero que era parte del sistema de procesamiento para el control de inventario y pedidos de piezas de MOPAR. El 305 fue uno de los últimos ordenadores de tubo de vacío construídos por IBM. El sistema de disco IBM 350 almacenaba cinco millones de caracteres de siete bits (aproximadamente 4,2 MiB). Tenía cincuenta discos de veinticuatro pulgadas de diámetro. Dos brazos independientes se desplazaban verticalmente seleccionar un disco y horizontalmente para seleccionar una pista de grabación, todo para control de servomecanismos. El tiempo medio de posicionamiento en un registro era de seiscientos milisegundos. Javier Aguilar Parra

106


Universidad Autónoma de Baja California Sur

En a finales del año de 1957 se añadieron varios modelos mejorados. El ordenador IBM RAMAC 305 con almacenamiento en disco 350 tenía un coste en "leasing" de 3.200 dólares mensuales en dólares de 1957, equivalente a un precio de compra de unos 160.000 dólares. Se construyeron más de 1.000 unidades. La producción terminó en 1961, el RAMAC pasó a ser obsoleto en 1962 con el lanzamiento del IBM 1401 y retirado del mercado en 1969.

5.4.2 El modelo 1301. Fabricado en la planta de IBM en San José, California, los 1301s fueron entregados a los clientes en el tercer trimestre de 1962. (A pocos días antes del 1301 se anunció oficialmente en junio de 1961, un modelo de ingeniería del 1301 fue enviado a IBM en Poughkeepsie, NY, instalaciones para el uso en las pruebas del famoso sistema SABRE reserva. Más tarde, en pleno funcionamiento, el sistema SABRE adjunta seis tambores magnéticos de almacenamiento y 16 de IBM 1301s.) El Modelo 1 con un costo módulo de $ 2.100 por mes para alquilar o podrían ser comprados por 115.500 dólares. El Modelo 2 con dos módulos de un costo de $ 3.500 por mes para alquilar o 185.500 dólares a la compra. IBM introdujo un nuevo modelo, el 1301, con una capacidad de 28 MB y una velocidad de transferencia y una densidad de área 10 veces mayor que el RAMAC 305. La distancia entre los cabezales y la superficie del disco había descendido desde 20,32 µm a 6,35 µm. A partir del año 1962, muchos fabricantes comenzaron a vender discos duros como el 1301. La Unidad de almacenamiento en disco de IBM, con su mayor capacidad, flexibilidad y velocidad, hemos ampliado la capacidad operativa de la serie 7000 de los ordenadores de IBM (7070, 7094, 7080 y 7090). El 1301 aumentó el rendimiento de los sistemas grandes para muchos tipos de empleos, y con su organización única de datos, el 1301 contribuyó de manera significativa a la vez que 7000 servidores en realidad podría calcular. En la figura 5.5 podemos apreciar el disco duro llamado Modelo 1301 de IBM. 107


Departamento Académico de Sistemas Computacionales

Figura 5.5: Disco duro llamado Modelo 1301 de IBM.

Utilizado en combinación con la serie 7000, el 1301 había muchos de los mismos y las características físicas generales de funcionamiento como cuando se utiliza con el IBM 1410 Data Processing System. Estas características incluyen: el concepto del cilindro (verticalmente alineados de lectura / escritura cabezas, una a una superficie del disco, para proporcionar la lectura y escritura de información en temas relacionados con el disco correspondiente y para eliminar la necesidad de acceso para el movimiento vertical); longitud de registro flexibles (diferentes registros de longitud podría ser almacenados en el archivo, aumentando enormemente la capacidad de almacenamiento real); y selectiva frente (números de registro fueron asignados por el usuario para una mayor eficacia en muchos puestos de trabajo, las direcciones no tienen que ser consecutivos, secuencial o numérico). El 1301 de los discos giran a 1.800 rpm. El 1301 proporcionó el 50 pistas por pulgada y grabación de hasta 520 bits por pulgada de pista (gracias a una reducción media en la cabeza-a-distancia de la superficie de 800 a 250 micropulgadas). Como resultado, la capacidad de almacenamiento por pulgada cuadrada de la superficie se incrementó 13 veces más de lo que había sido con la tecnología de IBM RAMAC de 1956. El Modelo 1 de la 1301 había un módulo, el Modelo 2 con dos módulos. Módulo de la capacidad de la 1301 utilizadas con 7000 equipos de la serie fue de 28 millones de caracteres, que se utiliza con el equipo del 1410, la capacidad del módulo fue de 25 Javier Aguilar Parra

108


Universidad Autónoma de Baja California Sur

millones de caracteres. Hasta el 10 módulos (cinco unidades de 1301) podría ser incorporada - 7631 utilizando el archivo de la unidad de control de IBM, y en algunos casos, los adaptadores y los canales de datos - a un sistema informático, proporcionando una capacidad máxima de 280 millones de caracteres de la serie 7000 máquina y 250 millones para el 1410.

5.4.3 El modelo 2310 En 1965, IBM lanzó el modelo 2310, cuya notable característica era ser un elemento de almacenamiento desmontable (el primer disco flexible). En abril de 1967, IBM anunció una expansión de cuatro modo de sistema de 1130. Nuevas características para el escritorio de computadora del tamaño de IBM más pequeño a la vez, incluyó la capacidad de leer la información de cinco discos magnéticos al mismo tiempo. Anteriormente, sólo un equipo autónomo de disco (primer plano) estaba disponible. Sin embargo, en 1967, hasta cuatro discos adicionales (a la derecha, parte trasera) se podría agregar. Cada uno puede almacenar hasta un millón de caracteres de información. En la figura 5.6 podemos apreciar el disco duro llamado Modelo 2310 de IBM.

Figura 5.6: Disco duro llamado Modelo 2310 de IBM.

5.4.4 El 2314 de IBM. El 2314, lanzado en 1966, tenía cabezales de lectura de ferrita (óxido de hierro). Anunció un año después de la System/360 en abril de 1965, el IBM 2314 proporcionó ocho unidades de disco y una de repuesto, junto con una unidad de control en una misma 109


Departamento Académico de Sistemas Computacionales

instalación. Un paquete nuevo disco con 11 discos duplicó el número de superficies de almacenamiento de más de los disponibles en el paquete de la primera de disco extraíble. La densidad de grabación el incremento de la capacidad de almacenamiento de 29,2 millones de bytes por paquete o 233 millones de bytes en las ocho instalaciones de carga. El tiempo de acceso y la latencia de la 2314 era la misma que la de más edad de IBM 2311, pero el 2314 ofrece el doble de la velocidad de datos de 310.000 bytes por segundo. El 2314 también fue interesante porque era cuatro veces menor en el precio por megabyte de almacenamiento. En la figura 5.7 podemos apreciar el disco duro llamado Modelo 2314 de IBM.

Figura 5.7: Disco duro llamado Modelo 2314 de IBM.

Ayudado por OS/360 de IBM S/360 'del sistema operativo - el 2314 grandes bases de datos les permite tener acceso, y el sistema pasó de un trabajo a otro de forma automática siempre y cuando las instrucciones necesarias y los datos fueron en línea. Algunos observadores han dicho que OS/360 ayudado a hacer del 2314 el producto de almacenamiento más rentable que el tiempo y que el 2314 ha contribuido al éxito de la IBM S/360. En enero de 1969, IBM anunció dos nuevas versiones del 2314 - la A1 1 Modelo y Modelo 1 A2 - cada uno con un tiempo de acceso un 20 por ciento más rápido que el disponible anteriormente Modelo 1. Uno de los nuevos modelos de almacenamiento en disco con cinco unidades de disco independiente, y el otro tenía ocho. La versión de cinco unidades con una capacidad de almacenamiento de 145,8 millones de bytes; la más grande tenía Javier Aguilar Parra

110


Universidad Autónoma de Baja California Sur

una capacidad de 233,4 millones de bytes. El tiempo de acceso promedio se redujo en 75 a 60 milisegundos. El tiempo de acceso mínimo era de 25 milisegundos. Las nuevas versiones incluidas sus unidades de control propio y han sido diseñados para su uso con S/360 Modelos 30, 40, 50, 65, 67, 75 y 85. El más pequeño de 2314 alquiló 3.875 dólares al mes y se vendió por $ 175.075. La versión más grande de alquiler de 5.675 dólares al mes, con un precio de compra de 256.400 dólares. Primer cliente de los envíos se habían programado para el tercer trimestre de 1969. Más tarde, en 1969, una caja con dos unidades que se ofrecía. En 1970, la unidad de almacenamiento de 2319 se ha configurado con tres unidades de 2314, más la electrónica de control para la adhesión a los más pequeños de la recién anunciada System/370 transformadores (ver detalles más abajo). De IBM 2314 instalaciones de almacenamiento de acceso directo. Una serie de Proporcionó masiva de almacenamiento de acceso directo para IBM System/370 Modelos 135 al 195 e IBM S/360 Modelos 30 a 195. Se ofrecen módulos de ocho y cincuenta y nueve de almacenamiento. Cada módulo o conjunto de módulos se encuentra con un control de almacenamiento como un servicio único subsistema. Se entregan los datos a velocidades de acceso muy altas.

5.4.5 Winchester 3340. En 1973, IBM lanzó el Winchester 3340, un disco duro cuyo cabezal de lectura estaba separado de la superficie a través de una fina capa de aire de tan sólo 0,43 µm de espesor. Mejoró su capacidad en comparación con aquella del RAMAC, como también su tamaño y peso, lo cual hizo que este disco se convirtiera el nuevo estándar de los dispositivos de almacenamiento de acceso directo. Al disco duro de 30 MB de capacidad se le dio el apodo de 30-30, y así se convirtió en el "Winchester" (como el famoso rifle 3030). Tras un esfuerzo de desarrollo que comenzó en el verano de 1969, la unidad de disco IBM 3340 fue presentado en marzo de 1973, con una tecnología avanzada de disco 111


Departamento Académico de Sistemas Computacionales

conocido como "Winchester". Los primeros 3.340 envíos a los clientes se inició en noviembre de 1973. El 3340 aparece una más pequeña, más ligera lectura / escritura de la cabeza que podía montar más cerca de la superficie del disco - en una película de ambiente 18 millonésimas de pulgada de grosor - con una carga de menos de 20 gramos. Baja el archivo de disco Winchester cabeza de estructura de costes deslizante, hizo posible el uso de dos cabezas por superficie, reducción de la longitud de la carrera a la mitad. Los discos, el eje del disco y rodamientos, el transporte y la cabeza asambleas brazo se incorporaron en un cartucho sellado, desmontable, llamado 3348 de IBM Data Module. Una densidad de pista de 300 pistas por pulgada y un tiempo de acceso de 25 milisegundos se han alcanzado. En la figura 5.8 podemos apreciar el disco duro Winchester 3340 de IBM. El 3340 ofrece la disponibilidad de los jefes fija opcional, que proporcionan un tiempo de acceso promedio de sólo cinco milisegundos. Había tres tipos de módulos de datos: 35 megabytes, 70 megabytes, y 70 megabytes de los cuales 0,5 megabytes eran accesibles con la cabeza fija.

Figura 5.8: Disco duro llamado Winchester 3340 de IBM.

Dos a cuatro unidades de 3340 podrían estar vinculadas a la modelo de procesador IBM System/370 115 - que había sido anunciada simultáneamente con el 3340 proporcionando una capacidad de almacenamiento de hasta 280 millones de bytes.

Javier Aguilar Parra

112


Universidad Autónoma de Baja California Sur

Algunos observadores han señalado que el 3340 era conocido como "Winchester" porque sus ingenieros de desarrollo lo llamó un 30-30 "(sus dos ejes cada uno tenía una capacidad de disco de 30 megabytes), el nombre común de un rifle Winchester fabricados por la compañía. Kenneth E. Haughton, quien dirigió el esfuerzo de desarrollo de 3340, se informa que dijo: "Si es un 30-30, entonces debe ser un Winchester".

5.4.6 Seagate. El primer disco duro de 5,25" (cinco-coma-veinticinco pulgadas), desarrollado por la compañía Seagate, se lanzó en 1980.La revolución de la computadora personal a comienzos de 1980 cambió todo, es la introducción de los primeros discos duros pequeños. Eran discos de 5.25 pulgadas los que manejaban de 5 a 10 MB de almacenamiento- el equivalente de 2.500 a 5.000 páginas de tecleo de información- en un aparato del tamaño de la caja de un zapato pequeño. Al tiempo se consideró que una capacidad de almacenamiento de 10 MB era demasiado grande para una llamada computadora "personal". Los primeros PCS usaron discos flexibles trasladables como aparatos de almacenamiento casi exclusivamente. El término "disco blando" con precisión se refiere a los primeros discos para PC de 8 y 5.25 pulgadas que tuvieron éxito. Los discos internos de hoy, más pequeños, se construyen 3.5 pulgadas de forma similar a los anteriores, pero se albergan en un casco de plástico rígido, que es más durable que el techado flexible de los discos más grandes. En la figura 5.9 podemos apreciar el disco duro Seagate.

Figura 5.9: Disco duro Seagate.

113


Departamento Académico de Sistemas Computacionales

5.4.7 MFM En 1981 se inventó el primer disco duro para ordenadores personales. MFM (Modified Frequency Modulation), sistema de codificación utilizado por la mayoría de los formatos de disquete, y que anteriormente era común en discos duros, en particular los que usaban la interfaz ST-506. Usando el método de codificación de MFM, tenía una capacidad de 40MB y una velocidad de transferencia de datos de 625 KBps. Una versión posterior del interfaz ST506 trasladó al método de codificación de RLL, facilitando una aumentada capacidad de almacenaje y velocidad de procesamiento. Las unidades de disco utilizado por el modelo I, II, III, 4, 4D, 4P, 16, 12, 16B, 16BHD, 6000 y 6000HD son principalmente ST506 unidades de tipo. El ST506 Seagate es un disco que tenía una interfaz de MFM (Modified Frequency Modulation) que se ha repetido en docenas de unidades diferentes a lo largo de los años. Con el tiempo, que la interfaz ha tomado el nombre de la unidad ST506 original. La unidad ST506 es una unidad de capacidad muy baja para los estándares de hoy pero la interfaz había suficiente flexibilidad para permitir un mayor crecimiento. (La interfaz ST506 también fue llamada la "S" interface por algunos fabricantes por un tiempo que no quería hablar de la ST506, un modelo de unidad competitiors, pero la "S" nombre ya no era utilizado por la década de 1980. En esa la fecha, las unidades IDE SCSI y había comenzado a apoderarse del mercado de almacenamiento. En la figura 5.10 podemos apreciar el disco duro MFM.

Figura 5.10: Disco duro MFM. Javier Aguilar Parra

114


Universidad Autónoma de Baja California Sur

5.4.8 Discos dures para IBM PC/XT. En 1983 con la introducción del IBM PC/XT en 1983, el disco duro también volvió a ser un componente normal de computadoras personales. La descripción "duro" se usa porque los discos internos que contienen los datos se sostienen en una unidad de aluminio rígido que los liga. Estos discos, se cubren con un material magnético de mejor duración y calidad que el plástico utilizado en los discos blandos. La vida útil de una unidad de discos duros, están en función de la unidad del discos que lee/escribe (cabeza): en un disco duro, las cabezas no tienen un contacto directo con la unidad de almacenamiento, por el contrario en un disco blando la cabeza que lee/escribe esta en directo contacto, con lo que causa un deterioro con el uso. Rápidamente hubo una descenso en los precios por los discos duros lo que significaron que a mediados de 1980, un disco de por lo menos 20 MB de capacidad era un componente normal de la mayoría de PCs. Aunque los discos flexibles se seguían usando ya que se consideraban como un medios para la carga de software y transporte y archivo de datos vitales. En la figura 5.11 podemos apreciar el disco duro que se instalaban en las IBM PC/XT. Como cualquier otro producto de la industria de la electrónica, la unidad de discos duros no estaba exenta a la miniaturización. A mediados de 1980 el disco 5.25 pulgadas se había encogido considerablemente en cuanto a su altura.

Figura 5.11: Disco duro que se instalaban en las IBM PC/XT.

115


Departamento Académico de Sistemas Computacionales

5.4.9 CMI En 1985 la primera víctima en el mercado de los PC fue Computer Memories Inc. o CMI; después de un incidente con 20 MB defectuoso en discos en 1985, La reputación de CMI nunca se recuperó, y salieron del mercado de los discos duros en 1987. En la figura 5.12 podemos apreciar la tarjeta lógica el disco duro CMI.

Figura 5.12: Tarjeta Lógica del disco duro CMI.

5.4.10 Discos duros de 3.5 y 2.5 pulgadas. Por 1987 unidades de discos duros de 3.5 pulgadas empezaron a aparecer. Éstas unidades pequeñas pesan como una libra y son del tamaño de una agenda. Estos fueron integrados dentro de computadores de escritorio y más tarde se incorporaron a los primeros en de verdad llamados computadoras portátiles (laptops) -peso promedio bajo 12 libras. La unidad de 3.5 pulgadas rápidamente volvió a ser la norma para los computadores de escritorio y sistemas portátiles que requerían menos que 500 MB capacidad. Altura también se encoge con la introducción del disco de 1 pulgada de alto, dispositivos de 'bajo perfil'. Así como la forma de 3.5 pulgadas ganaba aceptación, todavía una forma más pequeña, de 2,5 pulgadas, poco a poco apareció en la escena. No sorprende que la marcha a la miniaturización no se detuvo con 2.5 pulgadas. En la figura 5.13 podemos apreciar gráficamente del tamaño de los disco duro de 3.5 pulgadas y del 2.5 pulgadas. Javier Aguilar Parra

116


Universidad Autónoma de Baja California Sur

Figura 5.13: Disco duros de 3.5 y 2.5 pulgadas.

5.4.11 Discos duros de 40 MB. Alrededor de 1992 varios modelos 1.8 pulgadas aparecieron, peso sólo unas onzas y entrega capacidades de hasta 40 MB. Igualmente aparecieron con formato de 1.3 pulgadas, del tamaño de una fosforera. Factores de forma más pequeños por supuesto, no eran necesariamente mejor que los más grandes. En la figura 5.14 podemos apreciar gráficamente del tamaño de los disco duro de 40 GB.

Figura 5.15: Disco duros de 40 GB.

Desde su introducción, el disco duro se ha vuelto la forma más común de almacenamiento en masa para computadoras personales. Fabricantes han hecho grandes avances en capacidad, tamaño y ejecución. Hoy, el formato de 3.5 pulgadas, es capaz de manejar y acceder a millones de datos (gigabyte GB) mientras el computador esta accediendo a las aplicaciones multimedia, gráficos de alta calidad, gestión de redes, y aplicaciones de las comunicaciones. Y, según el tamaño maneja no sólo el equivalente de cientos de miles de páginas de información, sino que también recupera un dato o artículo determinado en sólo

117


Departamento Académico de Sistemas Computacionales

unas milésimas de segundo. Aún más, con el transcurrir del tiempo cada vez es más barato la unidad de disco.

5.4.12 Discos duros llegan a las GB de capacidad. Entre los años de 1995 y 1999 el disco duro más pequeño que puede encontrarse en ésta época es el de 4 GB, mientras que el más grande es de 15 GB. Podría decirse que los discos duros de cualquier tamaño, permiten instalar Windows, Office y un programa de contabilidad, y aún sobrará capacidad para, digamos, unas 50.000 cartas y varios millones de apuntes bancarios. Un caso distinto es el del usuario doméstico; en teoría, apenas necesitaría un poco más de capacidad que el usuario ofimático, En cuanto a los profesionales del CAD o la edición de vídeo, la capacidad que siguen necesitando sigue siendo bastante elevada, aunque en este caso el tamaño no debe ser una obsesión; sencillamente, en estas aplicaciones el disco duro es sólo una herramienta de trabajo, nunca de archivo.

El MK4058GSX de Toshiba. En el año 2000 Toshiba lanza un disco duro de 400 GB. Consecución de una densidad superficial de almacenamiento de 477Mbit/mm2 (308Gbspi). El MK4058GSX logra una densidad superficial de almacenamiento de 477Mbit/mm2 como resultado de mejorar la cabeza de lectura/escritura y la capa magnética. Con el mismo diseño de dos platos que el diseño actual del disco de 320GB de Toshiba, el nuevo modelo ofrece una capacidad de 400GB, la mayor capacidad obtenida hasta la fecha, mientras conserva el espesor de 9,5 mm de su antecesor. En la figura 5.15 podemos apreciar al MK4058GSX. Otra característica del MK4058GSX es la reducción en el ruido acústico 2dB durante la búsqueda de datos. Toshiba ha concentrado sus más recientes avances en la tecnología de discos duros para reducir el ruido en 2dB, suprimiéndolo a un nivel en el cual los

Javier Aguilar Parra

118


Universidad Autónoma de Baja California Sur

usuarios pueden reproducir películas y música sin ninguna distracción ocasionada por el ruido durante la búsqueda de datos.

Figura 5.15: Disco duros MK4058GSX.

Pero una de la mejora más significativa es la eficiencia del consumo de energía. Comparado con el MK3252GSX de 320GB, el nuevo MK4058GSX mejora la eficiencia en el consumo de energía, según se define en el estándar legal japonés, a 0,0015W/GB, una mejora del 20%.

5.4.13 Discos duros de estado sólido. En 2009 este nuevo dispositivo SSD25D asegura una alta velocidad de transmisión de datos. Transcend Information anuncia el lanzamiento de su último disco duro en estado sólido ultra rápido SATA II de 2,5’’, equipado con 64 MB de memoria caché DRAM. Ofrece una velocidad de transferencia de datos, de más de 230M/s en lectura y de 180MB/s en escritura, garantizando así rapidez en el rendimiento, sin importar el tamaño o el tipo del archivo que se quiera transmitir. En la figura 5.16 podemos apreciar un disco duro de estado sólido. Construido con memoria NAND flash, que no contiene partes móviles, SSD25D es altamente resistente, y silencioso; además, este dispositivo es prácticamente inmune a problemas mecánicos por exceso de vibración, golpes o calor. Para mayor seguridad, SSD25D integra el código ECC (Error Correction Code), que asegura una transmisión de datos precisa. 119


Departamento Académico de Sistemas Computacionales

Figura 5.16: Disco duro de estado sólido.

5.4.14 Discos duros con almacenamiento en TB. En él años 2012 a un disco de 2TB le toma 1 hora y media leer toda la capacidad de un plato. Diversas tecnologías avanzadas hacen posible la velocidad, capacidad y rendimiento de los discos duros, el más popular sin duda es WD Caviar Green de 1,5 TB y 2 TB. Éstas incluyen: StableTrac, que fija el eje del motor en ambos extremos para reducir la vibración provocada por el sistema y estabilizar los platos, de forma que se consigue un rastreo más preciso durante las operaciones de lectura y escritura (solo disponible en este modelo de los Caviar Green). En la figura 5.17 podemos apreciar el disco duro de WD Caviar Green.

Figura 5.17: Disco duro WD Caviar Green.

IntelliPower, que optimiza el equilibrio entre velocidad de rotación, tasa de transferencia y algoritmos de caché, y está diseñado para proporcionar ahorros de energía significativos y un rendimiento sólido; IntelliSeek, que calcula las velocidades de búsqueda óptimas para reducir el consumo de energía, el ruido y la vibración; y la tecnología de carga de rampa NoTouch, que está diseñada para asegurar que el cabezal de grabación nunca toca la superficie del disco, lo que provoca en un desgaste significativamente menor del lector y del soporte, además de mejorar la protección del dispositivo cuando se transporta. Javier Aguilar Parra

120


Universidad Autónoma de Baja California Sur

Capítulo 6 Tarjeta de video. 6.1 Tarjeta Grafica. Una tarjeta gráfica, tarjeta de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora personal, encargada de procesar los datos provenientes de la CPU (Unidad de Procesamiento Gráfico) y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. La GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos. Las GPU están presentes en las tarjetas gráficas. Se denota con el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base (aunque estas ofrecen prestaciones inferiores). Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-2 y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick. En un principio, la tarea principal de las tarjetas gráficas es la de enviar píxeles a la pantalla, así como también una variedad de manipulaciones gráficas simples: Mover bloques (como el del cursor del ratón), trazado de rayos, trazado de polígonos, etc. Las tarjetas gráficas más recientes tienen procesadores fabricados para manipular gráficos complejos en 3D.

121


Departamento Académico de Sistemas Computacionales

La mayoría de las tarjetas gráficas son dispositivos independientes, conectado a la placa base a través de los buses ISA, PCI, VESA o AGP y PCI-Expess. Sin embargo, cada vez más, se encuentran tarjetas gráficas integradas en la placa base, las cuales realizan la misma función. Las tarjetas gráficas integradas producen un rendimiento inferior comparado con las tarjetas gráficas normales (debido a que tienen chipsets mas baratos y comparten la memoria del sistema con la dedicada), quien requiera alto rendimiento deberán elegir soluciones no integradas. Estas tarjetas gráficas más avanzadas, son usadas pa ra mostrar aplicaciones 3D y juegos. Sus motores de procesamiento son llamados GPU (unidad de procesamiento grafico). Por el contrario, algunas posibilidades de las gráficas 3D no son relevantes para la elección de tarjetas gráficas de alto rendimiento, los gráficos 2D y una buena calidad visual son importantes en algunas aéreas, como la arquitectura.

6.1.1 Componentes de una tarjeta grafica. La unidad de procesamiento gráfico ( GPU, Graphical Processing Unit), es el corazón de la tarjeta de gráficos y que procesa las imágenes de acuerdo a la codificación utilizada. La GPU es un procesador especializado con funciones relativamente avanzadas de procesamiento de imágenes, en especial para gráficos 3D. Debido a las altas temperaturas que puede alcanzar un procesador gráfico, a menudo se coloca un radiador y un ventilador. En la figura 6.1 podemos ubicar el procesador de gráficos en la tarjeta grafica.

Figura 6.1: Componentes de una tarjeta grafica. Javier Aguilar Parra

122


Universidad Autónoma de Baja California Sur

La memoria de video es la de almacenar las imágenes procesadas por el GPU antes de mostrarlas en la pantalla. A mayor cantidad de memoria de video, mayor será la cantidad de texturas que la tarjeta gráfica podrá controlar cuando muestre gráficos 3D. El término búfer de trama se utiliza para referirse a la parte de la memoria de video encargada de almacenar las imágenes antes de mostrarlas en la pantalla. Las tarjetas de gráficos presentan una dependencia importante del tipo de memoria que utiliza la tarjeta. Su tiempo de respuesta es fundamental en lo que respecta a la rapidez con la que se desea mostrar las imágenes. La capacidad de la memoria también es importante porque afecta el número y la resolución de imágenes que puede almacenarse en el búfer de trama. En la figura 6.1 podemos ubicar la memoria de video en la tarjeta grafica. El Convertidor digital-analógico de RAM (RAMDAC, Random Access Memory DigitalAnalog Converter) se utiliza a la hora de convertir las imágenes digitales almacenadas en el búfer de trama en señales analógicas que son enviadas a la pantalla. La frecuencia del RAMDAC determina a su vez la frecuencia de actualización (el número de imágenes por segundo, expresado en Hercios: Hz) que la tarjeta gráfica puede soportar. El BIOS de video contiene la configuración de tarjeta gráfica, en especial, los modos gráficos que puede soportar el adaptador. La interfaz: Este es el tipo de bus que se utiliza para conectar la tarjeta gráfica en la placa madre. El bus AGP está especialmente diseñado para controlar grandes flujos de datos, algo absolutamente necesario para mostrar un video o secuencias en 3D. El bus PCI Express presenta un mejor rendimiento que el bus AGP y en la actualidad, casi puede decirse que lo ha remplazado. Las conexiones: La tecnología avanza y con ella todo lo que pueden ofrecernos necesita más capacidad para “moverse” entre los diferentes componentes de un sistema. Los encargados de transmitir la información son, para todos los casos, los conectores. 123


Departamento Académico de Sistemas Computacionales

Día a día los fabricantes nos ofrecen mejores y más atractivas maneras de gestionar audio y video y, como es normal, el medio de transporte también debe evolucionar siendo capaces de administrar más datos en menos espacio y más rápido. Ahora mismo existen varios tipos de conectores pero los más usados, si no me equivoco, son los VGA, los DVI y los HDMI, para PC y equipos multimedia tales como HTPC, DVDs y BD. Aún se sigue usando y mucho el todo terreno euroconector y es que es un standard sencillo, útil, eficaz. Ha tenido tanto éxito en todos estos años que ahora es difícil sacárselo de encima, no es porque sea bueno o de gran calidad, es porque todo aparato tiene esta conexión y a malas siempre podremos conectarlo por euroconector.

La interfaz VGA estándar. La mayoría de las tarjetas gráficas tienen un conector VGA de 15 clavijas (Mini Sub-D, con 3 hileras de 5 clavijas cada una); por lo general estas son de color azul. Este conector se utiliza principalmente para las pantallas CRT. Este tipo de interfaz se usa para enviar 3 señales analógicas a la pantalla. Dichas señales corresponden a los componentes rojos, azules y verdes de la imagen. En la figura 6.2 podemos apreciar el conector VGA. El conector VGA es el que se usaba, y se sigue usando, para conectar el PC al monitor analógicamente. Aunque son conocidos como VGA (Video Graphics Array), realmente los conectores actuales no trabajan bajo el estándar VGA, que permite mostrar hasta un máximo de 256 colores de una paleta de 262.144 colores, con una resolución máxima de 720×480 y un refresco máximo de 70Hz, sino SVGA (Super Video Graphics Array), que permite unas resoluciones y paletas de colores muchísimo mayores, tal y como estamos acostumbrados. Estos dos sistemas utilizan el mismo tipo de conector, denominado VGA D-sub de 15 pines. Pero este tipo de conector, que para monitores del tipo CRT van bastante bien, no son capaces de suministrar la suficiente calidad de imagen cuando se trata de monitores TFT u otros tipos similares. Esto es debido a que, sea el tipo de tarjeta gráfica que sea, la Javier Aguilar Parra

124


Universidad Autónoma de Baja California Sur

conexión con el monitor se realiza de forma analógica. La profundidad de color y el brillo se define mediante voltaje simple. En los TFT el brillo y color de cada pixel se determina mediante bits(digital) así que necesitamos un decodificador para pasar el voltaje del VGA a ese sistema de bits, quitándole precisión y por lo tanto, calidad.

Figura 6.2: Conector VGA.

La Interfaz de Video Digital (DVI, Digital Video Interface). Se encuentra en algunas tarjetas gráficas y se utiliza para el envío de datos digitales a los distintos monitores que resultan compatibles con esta interfaz. De esta manera, se evita convertir los datos digitales en analógicos o los analógicos en digitales. En la figura 6.3 podemos apreciar el conector DVI.

Figura 6.3: Conector DVI y HDMI.

Con el conector DVI esto ya se hace de otra manera porque es capaz de transmitir los datos de forma digital. Así que cada bit es el encargado de darle la información a cada pixel de nuestro TFT. No hace falta decir que para que nuestra pantalla tenga su máxima calidad debemos usarla en su resolución nativa, eso es, la resolución en la que cada pixel

125


Departamento Académico de Sistemas Computacionales

de salida corresponde con su pixel en pantalla. Además, el DVI está libre de los ruidos y distorsiones inherentes en las señales analógicas. Cada enlace DVI consiste de cuatro pares trenzados de hilos (uno con un código de color de rojo, azul y verde y uno para una señal de reloj) para transmitir 24 bits por píxel. La señal del reloj es prácticamente la misma que la de la señal de vídeo analógica, mientras que la imagen es enviada electrónicamente línea por línea con intervalos de corte que separa cada línea y el marco, sin ningún tipo de compresión. Los tipos de DVI existentes son tres: 

DVI-D transmite sólo digital.

DVI-A transmite sólo analógica.

DVI-I transmite tanto señal digital como analógica.

A su vez, los tipos DVI-D y DVI-I pueden ser duales (DL o Dual Link), es decir, que pueden admitir dos enlaces. Como imaginaréis lo normal es que usemos el DVI-D dual link. El HDMI, (High Definition Multimedia Interface). Es el tipo de conector más usado actualmente y, claro está, el más nuevo. La principal diferencia con los demás tipos y en particular con el DVI es que a parte de transmitir la señal de video digital también es capaz de transmitir el audio. Y ambos sin comprimir. Esta conexión ofrece un ancho de banda de hasta 5 gigabytes por segundo, por eso se utiliza para enviar señales de alta definición, 1920×1080 píxeles (1080i, 1080p) o 1280×720 píxeles (720p). En la figura 6.3 podemos apreciar el conector HDMI. Existen tres tipos de conectores HDMI: 

Conector HDMI habitual es el tipo A, que dispone de 19 pines y es compatible hacia atrás con un enlace simple DVI, usado por monitores LCD y tarjetas gráficas modernas. Esto significa que una fuente DVI puede conectarse a un monitor HDMI, o viceversa, por medio de un adaptador adecuado. Javier Aguilar Parra

126


Universidad Autónoma de Baja California Sur

Conector HDMI tipo B tiene 29 pines y apenas está extendido actualmente, ya que fue diseñado para resoluciones más altas que las del formato 1080p (1920×1080 píxeles).

Conector tipo C es igual que el tipo A pero con un tamaño más reducido. Es lo que sería el miniUSB al USB. Su uso aún no está muy extendido.

Dentro de los tipos de HDMI encontramos tres especificaciones: 

HDMI 1.0 (Diciembre 2002). Cable único de conexión digital audio/video con bitrate máximo de 4.9 Gbit/s. Soporte hasta 165Mpixels/s en modo video (1080p60 Hz o UXGA) y 8-canales/192 kHz/24-bit audio.

HDMI 1.2 (Agosto 2005).Se añade en esta especificación soporte para One Bit Audio, usado en Super Audio CD’s, hasta 8 canales. Disponibilidad HDMI Tipo A para conectores de PC.

HDMI 1.3 (Junio 2006). Se incremente el ancho de banda a 340 MHz (10.2 Gbit/s) y se añade soporte para Dolby TrueHD y DTS-HD. TrueHD y DTS-HD son formatos de audio de bajas pérdidas usados en HD-DVD y Blu-ray Disc. Esta especificación dispone también de un nuevo formato de miniconector para videocámaras.

Hace poco que han desarrollado un nuevo tipo de conector llamado DisplayPort que promete hacerle la competencia al HDMI. La verdad es que aún casi no se usa y no se ve implementado en demasiados dispositivos pero quien sabe qué pasará en un futuro. Me he limitado a hablar de los tres standard más usados actualmente y espero que os sea de ayuda. Interfaz S-Video. En la actualidad, son cada vez más numerosas las tarjetas gráficas que incluyen un conector S-Video. Esto permite visualizar en una pantalla de televisión lo mismo que se observa en el ordenador. Por este motivo, generalmente se lo suele llamar conector "Salida de TV".

127


Departamento Académico de Sistemas Computacionales

Separated-Video, también conocido como Y/C (pero erróneamente conocido como SuperVideo), es un tipo de señal analógica de vídeo. No confundir ni mezclar con S-VHS (super video home system) que es un formato de grabación en cinta. S-Video tiene más calidad que el vídeo compuesto, ya que el televisor dispone por separado de la información de brillo y la de color, mientras que en el vídeo compuesto se encuentran juntas. Esta separación hace que el cable S-Video tenga más ancho de banda para la luminancia y consiga más trabajo efectivo del decodificador de crominancia. Cuando se incluye en computadores portátiles, este aparato se conecta a un televisor mediante un cable S-Video. Esto hace que el televisor reproduzca automáticamente todo lo que muestra la pantalla del portátil. En la figura 6.4 podemos apreciar el conector SVideo. S-Video se usa a menudo en televisores, reproductores de DVD, grabadores de vídeo, y videoconsolas modernas. Muchas tarjetas gráficas y tarjetas sintonizadoras de TV también tienen, respectivamente, salida y entrada de S-Video. También es muy común encontrar el conector S-Video en ordenadores portátiles. Suele tener una resolución de 480i (720x480). S-Video soporta una resolución de video de definición estándar que puede ser 480i o 576i.

Figura 6.4: S-Video.

6.2 Evolución de la tarjeta grafica. La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición Javier Aguilar Parra

128


Universidad Autónoma de Baja California Sur

de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta de video. El desarrollo de estas vamos a separarlo en tres grandes etapas, las cuales son: Primera Etapa: Aquí se abarcara desde las primeras tarjetas MDA hasta antes de la salida de las tarjetas VGA Etapa VGA: En esta parte se ve el desarrollo tanto de las tarjetas VGA y las SVGA. Etapa 3D: Este será el apartado más amplio, ya que ha sido desde la salida de las primeras tarjetas Voodoo cuando más se han desarrollado estándar de tarjetas.

6.2.1 Primera etapa. Esta primera etapa es la más larga de todas, nos lleva desde finales de los 60 hasta antes del año 1990, en este apartado he decidido abordar hasta la salida de la tarjetas MCGA y VGA, ya que sobre todo estas últimas produjeron una autentica revolución en el mundo grafico por ordenador. Aquí distinguimos estas cuatro grandes subetapas: 

Tarjetas gráficas MDA

Tarjetas gráficas Hercules

Tarjetas gráficas CGA

Tarjetas gráficas EGA

6.2.1.1 Tarjetas gráficas MDA. "Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada por IBM como una memoria de 4 KiB de forma exclusiva para monitores TTL (que representaban los clásicos caracteres en ámbar o verde). No disponía de gráficos y su única resolución era la presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna posibilidad de configuración. En la figura 6.5 podemos apreciar la tarjeta de video MDA. 129


Departamento Académico de Sistemas Computacionales

Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar y se envía al monitor como información serie. No debe sorprender la falta de procesamiento gráfico, ya que, en estos primeros PC no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a información en modo texto. Aunque hoy nos parezca algo raro, téngase en cuenta que los primeros PC se utilizaban para procesar cifras y textos. Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluía en su día) un puerto de comunicación para la impresora.

Figura 6.5: Tarjeta de video MDA.

6.2.1.2 Tarjetas Gráficas Hercules (HGA). La que pegó el bombazo fue la prestigiosa casa Hércules, que desarrolló un tipo de tarjeta que marcó un estándar en la industria del PC. "Hercules Graphics Card" o más popularmente conocida como Hércules (nombre de la empresa productora), aparece en el año 1982, con gran éxito convirtiéndose en un estándar de vídeo a pesar de no disponer del soporte de las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KiB de memoria. Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los puntos de la pantalla usando 30,58 KiB para el modo gráfico (1 bit x 720 x 348) y el resto para el modo texto y otras funciones. Las lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los caracteres se dibujaban en Javier Aguilar Parra

130


Universidad Autónoma de Baja California Sur

matrices de 14x9 puntos. En la figura 6.6 podemos apreciar la tarjeta de video Hercules (HGA). Las tarjetas Hércules eran totalmente compatibles con las MDA anteriores, puesto que tenían un modo texto; pero también tenían un modo gráfico monocromo que presentaba una resolución de 720 x 350 puntos, lo que la hace de calidad similar a las VGA actuales.

Figura 6.6: Tarjeta de video Hercules (HGA).

6.1.1.3 Tarjetas gráficas CGA. "Color Graphics Array" o "Color graphics adapter" según el texto al que se recurra. Aparece en el año 1981 también de la mano de IBM y fue muy extendida. Permitía matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los caracteres. Este detalle le imposibilitaba el representar subrayados, por lo que los sustituía por diferentes intensidades en el carácter en cuestión.En modo gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KiB y solo era compatible con monitores RGB y Compuestos. A pesar de ser superior a la MDA, muchos usuarios preferían esta última dado que la distancia entre puntos de la rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes pero no reproducibles en todas las resoluciones tal y como se muestra en el cuadro adjunto. En la figura 6.7 podemos apreciar la tarjeta de video CGA.

131


Departamento Académico de Sistemas Computacionales

Por supuesto, la CGA es compatible con todos los modos anteriores; incluso lleva el mismo chip que la Hércules, pero el tamaño de la matriz que almacena los caracteres ASCII se ha reducido hasta un tamaño de 8 x 8 pixels, lo que la hace inadecuada para el modo texto durante largos períodos de tiempo frente a la pantalla. Pero en modo gráfico la cosa cambia, y también el monitor, ya que los anteriores no sirven. Es necesario un monitor que tenga las entradas RGB, no uno que tenga solo la entrada de información de vídeo. Para la correcta visualización del color, se utilizan las entradas RGB, mandándoles señal o no. De esta manera, tenemos la cantidad de 8 colores (2 elevado a 3). Pero además, existe un pin adicional en el conector de señal, el denominado pin de intensidad, que da más señal a la rejilla de brillo, de manera que podemos tener 8 colores brillantes u 8 colores mates. En total, la CGA permite 16 colores, un récord para la época. Respecto a la resolución, se permitían las siguientes: 

160 x 100 puntos a 16 colores.

320 x 200 puntos a 4 colores.

640 x 200 puntos a 2 colores.

O sea, que los gráficos de “alta resolución” seguían siendo monocromos.

Figura 6.7: Tarjeta de video CGA.

Esta tarjeta tenía un fallo bastante habitual y era el conocido como "snow". Este problema era de carácter aleatorio y consistía en la aparición de "nieve" en la pantalla (puntos

Javier Aguilar Parra

132


Universidad Autónoma de Baja California Sur

brillantes e intermitentes que distorsionaban la imagen). Tanto era así que algunas BIOS de la época incluían en su SETUP la opción de eliminación de nieve ("No snow"). Un detalle curioso es el hecho de reducir el número de colores al aumentar la resolución. Esto es debido a que el tamaño de la memoria RAM de vídeo seguía siendo 64KB, por lo que si hacemos las cuentas, puntos x puntos x colores, no podemos pasarnos del tamaño de la RAM.

6.1.1.3 Tarjetas gráficas EGA. En 1985, IBM dio de nuevo en el clavo cuando presentó la tarjeta EGA (Enhanced Graphics Adapter). Esta tarjeta, totalmente compatible con las anteriores, también utilizaba el mecanismo RGB + intensidad, de manera que podía representar hasta 16 colores. Para la compatibilidad con las anteriores, presentaba una serie de switches o microinterruptores que, mediante la adecuada combinación representada en el manual de la tarjeta, se podían emular los modos anteriores. Incluso en modo texto, se presentaba la matriz de 8 x 14 pixels de las MDA, de manera que la visualización de largos períodos de tiempo en modo texto no cansaba la vista. En modo gráfico, la EGA presentaba dos resoluciones muy altas, de 640 x 200 y 640 x 350 puntos, ambas con el máximo de colores. Esto implica que tuviera que ampliarse la memoria RAM de la tarjeta, hasta una cifra de 256KB. De todas formas, también existían tarjetas con solo 64KB, de manera que el número de colores era menor. En la figura 6.8 podemos apreciar la tarjeta de video EGA.

133


Departamento Académico de Sistemas Computacionales

Figura 6.8: Tarjeta de video EGA.

Una serie de ventajas hicieron a la EGA como la tarjeta preferida de muchos. La principal ventaja fue el modo texto con 350 líneas, lo que implicaba una visualización en modo texto de 43 líneas de 80 caracteres. Las aplicaciones de tablas y bases de datos podían verse al completo, además de compatibilizarse con las impresoras de 80 columnas. Sin embargo, lo mejor fue el aumento de las frecuencias de sincronismo y cuadro, de manera que la visualización cansaba menos la vista. Además, ya no era el sistema el que controlaba a la tarjeta, puesto que esta llevaba su propia BIOS, que se cargaba en la memoria reservada. De esta forma, se incluían rutinas gráficas para el mejor aprovechamiento del controlador. El principal problema fue readaptar el software para aprovechar las características de la tarjeta, ya que si no se hacía así, se presentaba en modo MDA compatible, con lo que el usuario no debía haberse gastado el dinero en la tarjeta.

6.2.2 Etapa VGA. Esta etapa, produjo una gran revolución, equiparando los sistemas PC a los MAC en el aspecto grafico. Este periodo se alarga desde el año 1990 hasta el 1997 aproximadamente, cuando comenzaron a salir las primeras aceleradoras gráficas. El término Video Graphics Array (VGA) (Adaptador Gráfico de Video) se utiliza tanto para denominar a una pantalla de computadora analógica estándar, al conector VGA de 15 contactos D subminiatura, a la tarjeta gráfica que comercializó IBM por primera vez en 1988 o con la resolución 640 × 480. Tanto como los modos estándar, VGA puede ser configurado para emular a cualquiera de sus modos predecesores (EGA, CGA y MDA). Podemos separar estas tres etapas, aunque la primera y segunda, surgieron a la vez: 

Tarjetas gráficas MCGA

Tarjetas gráficas VGA Javier Aguilar Parra

134


Universidad Autónoma de Baja California Sur

Tarjetas gráficas SVGA

6.2.2.1 Tarjetas gráficas MCGA. Acercándonos al año 1990, IBM desarrollo la tarjeta de vídeo MCGA, destinada a los ordenadores PS/2 de gama baja que montaba la compañía. La MCGA (Memory Controller Gate Array). En lo que se refiere a modo texto, estas tarjetas se comportan igual que una CGA con sus 25 x 80 caracteres en modo texto, donde se puede elegir el color de texto y fondo de una paleta de 16 colores. Al contrario que en la tarjeta CGA su resolución horizontal no es de 200 líneas, sino de 400 líneas, por lo que la definición de los caracteres es mucho mejor. Esta tarjeta no es realmente ninguna revolución, pero se incluye en esta etapa al ser contemporánea con la VGA, su aspecto es muy similar a esta última. En la figura 6.9 podemos apreciar la tarjeta de video MCGA.

Figura 6.9: Tarjeta de video MCGA.

6.2.2.1 Tarjetas graficas VGA IBM volvió a dar en la diana cuando en su modelo de ordenador PS/2 incorporó el sistema VGA o Video Graphics Array. Fue el último estándar de gráficos introducido por IBM al que se atuvieron la mayoría de los fabricantes de computadoras compatibles IBM, convirtiéndolo en el mínimo que todo el hardware gráfico soporta antes de cargar un dispositivo específico. Por ejemplo, la pantalla de Microsoft Windows aparece mientras la máquina sigue funcionando en modo VGA, razón por la que esta pantalla aparecerá siempre con reducción de la resolución y profundidad de color. 135


Departamento Académico de Sistemas Computacionales

La norma VGA fue oficialmente reemplazada por Extended Graphics Array de IBM pero en realidad ha sido sustituida por numerosas extensiones clónicas ligeramente distintas a VGA realizadas por los fabricantes y que llegaron a ser conocidas en conjunto como "Super VGA". VGA es conocido como un "arreglo" en lugar de un "adaptador", ya que se implementó desde el principio como un solo circuito integrado, en sustitución del controlador de tubo de rayos catódicos Motorola 6845 y docenas de circuitos de lógica discreta que cubren una longitud total de una tarjeta ISA que los sistemas MDA, CGA y EGA utilizaban. Esto también permite que se coloquen directamente sobre la placa base del PC con un mínimo de dificultad, ya que sólo requiere memoria de vídeo, un oscilador de cristal y un RAMDAC externo. Los primeros modelos de la línea de computadores IBM Personal System/2 estaban equipados con VGA en su placa madre. En la figura 6.10 podemos apreciar la tarjeta de video VGA.

Figura 6.10: Tarjeta de video VGA.

La principal revolución fue el hecho de aprovechar señales analógicas en lugar de digitales. Me explicaré: en tarjetas gráficas anteriores se utilizaban las señales RGB, o no se utilizaban. En el VGA, se dispone de una especie de “reguladores” de la señal, de manera que podemos mandar toda o parte de las señales RGB. O sea, en lugar de dos valores (todo o nada) podemos utilizar una serie de valores intermedios. Javier Aguilar Parra

136


Universidad Autónoma de Baja California Sur

Para ello, las VGA llevan 3 circuitos convertidores Digital/Analógico. Los DAC transforman una serie de bits en su entrada en un voltaje determinado, que será aplicado a través de los pines de salida a los cátodos del monitor (ver capítulo anterior). Como cada DAC (Digital/Analogic Converter) tiene hasta 64 pasos o niveles, eso significa que tenemos 64 niveles distintos de Rojo, Verde o Azul. Combinando los tres colores, tenemos en total 64 elevado a 3 colores, 262.144 colores. Sin embargo, no podemos tenerlos todos a la vez en pantalla, puesto que la VGA tenía solo 256KB de RAM, y ahora tenemos más información que procesar. La paleta máxima era de 256 colores simultáneos, lo cual era suficiente para las aplicaciones de la época. Las especificaciones originales de VGA son las siguientes: 

256 KiB de VRAM

Modos de imagen con paletas de 16 y 256 colores

Paleta global de 262144 colores (6 bits y por tanto 64 bits para cada uno de los canales rojo, verde y azul mediante el RAMDAC)

Reloj maestro seleccionable de 25,2 MHz o 28,3

Máximo de 800 píxeles horizontales

Máximo de 600 líneas

Tasa de refresco de hasta 70 Hz

Interrupción de blanqueo vertical (No todas las tarjetas lo soportan)

Modo plano: máximo de 16 colores

Modo píxel empaquetado: en modo 256 colores (Modo 13h)

Soporte para desplazamiento suave de la imagen.

Algunas operaciones para mapas de bits

Desplazador "en barril"

Soporte para pantalla dividida

0,7 V pico a pico

75 ohmios de impedancia de doble terminación (18,7 mA - 13 mW)

137


Departamento Académico de Sistemas Computacionales

VGA soporta tanto los modos de todos los puntos direccionables como modos de texto alfanuméricos. Los modos estándar de gráficos son: o

640×480 en 16 colores

o

640×350 en 16 colores

o

320×200 en 16 de colores

o

320×200 en 256 colores (Modo 13h)

6.2.2.3 Tarjetas graficas SVGA. El éxito del VGA (Super Video Graphics Array) llevó, a principios de los años 90, a numerosas compañías como ATI, Cirrus Logic y S3 (empresa que dominó el sector de la época), a crear sus propias ampliaciones del mismo, siempre centrándose en aumentar la resolución y/o el número de colores disponibles, es entonces cuando nacería el estándar SVGA (Super VGA). Durante este periodo la memoria de las tarjetas de vídeo se fueron incrementado rápidamente, de forma que a finales de '93 ya se podía ver tarjetas con 2Mbytes de RAM. Con las tarjetas SVGA se consiguen resoluciones de 1.024 x 768 puntos. El número de colores que puede representar depende de la cantidad de memoria RAM que se tenga instalada. Con 512 Kbytes se pueden conseguir 16 colores con resolución 1.024 x 768, mientras que con 1 Mbyte el número de colores es de 256 con esa misma resolución. Las nuevas tarjetas SVGA de diferentes fabricantes no eran exactamente igual a nivel de hardware, lo que las hacía incompatibles. Los programas tenían dos alternativas: Manejar la tarjeta de vídeo a través de llamadas estándar, lo cual era muy lento pero había compatibilidad con las diferentes tarjetas, o manejar la tarjeta directamente, lo cual era muy rápido y se podía acceder a toda la funcionalidad de ésta (modos gráficos, etc), sin embargo, el programador tenía que hacer una rutina de acceso especial para cada tipo de tarjeta. En la figura 6.11 podemos apreciar la tarjeta de video SVGA.

Javier Aguilar Parra

138


Universidad Autónoma de Baja California Sur

Figura 6.11: Tarjeta de video VGA.

Poco después surgió Video Electronics Standards Association (VESA), un consorcio abierto para promover la interoperabilidad y definición de estándares entre los diferentes fabricantes. Entre otras cosas, VESA unificó el manejo de la interfaz del programa hacia la tarjeta, también desarrolló un bus con el mismo nombre para mejorar el rendimiento entre el ordenador y la tarjeta. Unos años después, este bus sería sustituido por el PCI de Intel. SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de 800 × 600 píxels y 4 bits de color por pixel, es decir, 3 bits de color (RGB) y 1 bit de transparencia (Hasta 8 colores por pixel). Después fue ampliado rápidamente a los 1024 × 768 pixels y 8 bits de color por pixel, y a otras mayores en los años siguientes. Aunque el número de colores fue definido en la especificación original, esto pronto fue irrelevante, (en contraste con los viejos estándares CGA y EGA), ya que el interfaz entre la tarjeta de vídeo y el monitor VGA o SVGA utiliza voltajes simples para indicar la profundidad de color deseada. En consecuencia, en cuanto al monitor se refiere, no hay límite teórico al número de colores distintos que pueden visualizarse, lo que se aplica a cualquier monitor VGA o SVGA. Mientras que la salida de VGA o SVGA es analógica, los cálculos internos que la tarjeta de vídeo realiza para proporcionar estos voltajes de salida son enteramente digitales. Para aumentar el número de colores que un sistema de visualización SVGA puede producir, no se precisa ningún cambio en el monitor, pero la tarjeta vídeo necesita 139


Departamento Académico de Sistemas Computacionales

manejar números mucho más grandes y puede ser necesario rediseñarla desde el principio. Debido a esto, los principales fabricantes de chips gráficos empezaron a producir componentes para tarjetas vídeo del alta densidad de color apenas unos meses después de la aparición de SVGA. Sobre el papel, el SVGA original debía ser sustituido por el estándar XGA o SXGA, pero la industria pronto abandonó el plan de dar un nombre único a cada estándar superior y así, casi todos los sistemas de visualización hechos desde finales de los 80 hasta la actualidad se denominan SVGA. Los fabricantes de monitores anuncian a veces sus productos como XGA o SXGA, pero esto no tiene ningún significado, ya que la mayoría de los monitores SVGA fabricados desde los años 90 llegan y superan ampliamente el rendimiento de XGA o SXGA.

6.2.3 Etapa 3D. La evolución de las tarjetas de vídeo dio un giro importante en 1995, hasta esta fecha las mejoras en los adaptadores gráficos se habían ceñido a un incremento de las resoluciones y colores soportados por estas, pero los juegos de la época exigían mucho más, es entonces cuando empezaron a aparecer las primeras tarjetas 2D/3D, fabricadas por compañías como: Matrox, Creative, S3, ATI, etc., estas seguían cumpliendo con el estándar SVGA pero implementaban algunas funciones 3D que las hacían mucho más potentes, aunque su precio era muy elevado y no pudieron suplir claramente a las tarjetas SVGA tradicionales. En este apartado vamos a mostrar varias partes para ver mas claramente el desarrollo de las mismas 

Primeras 3D

Generación 2D/3D

Tarjetas gráficas de última generación

6.2.3.1 Primeras 3D Javier Aguilar Parra

140


Universidad Autónoma de Baja California Sur

Alguna gente dice que la era moderna de la aceleración 3D comenzó con el lanzamiento de la primeras tarjetas Voodoo en Octubre de 1996, Esto no es del todo cierto, ya que a pesar de ser este el lanzamiento más importante y más avanzado tecnológicamente, existieron otras tarjetas antes que mostraron el camino a la de 3DFX, aquí tenemos algunas de ellas: 

La tarjeta Imagine 128 y el chip de Number Nine en 1995.

El chip R3D/100 de Lockheed-Martin subsidiario de REAL3D en 1995.

La tarjeta Diamond Edge 3D en 1995 montando el primer chip de NVIDIA el NV1.

El chip Gigi de 3Dlabs encontrado en la tarjeta Creative 3D Blaster VLB en 1995.

La tarjeta Matrox Mystique en 1996.

La Hercules Terminator 3D en 1996 usando el chip ViRGE de S3.

La tarjeta ATi 3D XPRESSION en 1996 usando el chip Lair 3D RAGE.

La

segunda

tarjeta

3D

Blaster

de

Creative

in

1996

basadea

en

el

chip

Rendition'sVérité1000. 

La Apocalypse 3D de Videologic en1996 usando el chip PCX de NEC/PowerVR

Como se puede ver, todas fueron lanzadas en 1996 y disponían de algún grado de funcionalidad 3D. De hecho el NV1 de NVIDIA un año antes fue extremadamente avanzada

para

1995,

Desafortunadamente

NVIDIA

adopto

una

estrategia

de

renderización de polígonos que era incompatible con la nueva API de Microsoft DirectX, Esto hizo que no tuviese mucho éxito y abrió la puerta a la tarjeta de 3DFX. Fue en 1997 cuando surgió la verdadera revolución del 3D, la compañía 3DFX sacó el chip gráfico Voodoo, la potencia de cálculo (450.000 triángulos por segundo) y la cantidad de nuevos efectos que aportaba esta tarjeta (Mip Mapping, Z-Buffering, Anti-aliasing, BiLinear...) la situaban en una posición privilegiada con respecto a las tarjetas 2D/3D de la competencia. En la figura 6.12 podemos apreciar la tarjeta de video Voodoo.

141


Departamento Académico de Sistemas Computacionales

Figura 6.12: Tarjeta de video Voodoo.

Esta tarjeta tenía dos problemas, el primero es que sólo era capaz de trabajar a 640x480, pero sin dura, el inconveniente mayor era que solamente podía realizar cálculos 3D, es decir, se necesitaba una tarjeta SVGA extra para mostrar la imagen en pantalla, lo que encarecía el precio, aún así esta tarjeta se implantó rápidamente (seguramente porque la cantidad de software 3D se incremento mucho en esta época y era la tarjeta que mejor resultado daba). A mediados de 1998 nació la Voodoo2, esta era seis veces más potente que su antecesora, además incorporaba nuevos efectos (como el Tri-Linear). La resolución en pantalla que podía emitir también se vió aumentada, ahora era posible mostrar 800x600 e incluso 1024x768 con el modelo Voodoo2 SLI pero seguía necesitando una tarjeta 2D extra.

6.2.3.2 Generación 2D/3D La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La Javier Aguilar Parra

142


Universidad Autónoma de Baja California Sur

potencia alcanzada por dichas tarjetas fue tal que el puerto PCI donde se conectaban se quedó corto. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (absorbiendo incluso a 3dfx)[8] con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4. En 2006, NVIDIA y ATI se repartían el liderazgo del mercado con sus series de chips gráficos GeForce y Radeon, respectivamente. En la figura 6.13 podemos apreciar la tarjeta de video nVIDIA GeForce 6600GTe.

Figura 6.13: Tarjeta de video nVIDIA GeForce 6600GTe.

Las tarjetas de hoy prometen realizar a tiempo real animaciones que hasta hace poco veíamos en películas de cine, como asegura NVIDIA: "Ya podemos obtener en los juegos los mismos efectos especiales que vemos en el mejor cine de acción. Utilizando una tecnología de procesamiento del color con calidad cinematográfica de 128 bits, los personajes y universos 3D adquieren un realismo nunca visto. Los sueños de Hollywood se han convertido en la realidad del PC....esto se traduce en juegos donde podemos obtener la profundidad de color y los efectos especiales de películas de animación digital tales como Toy Story o Monsters Inc., y renderizarlas en el momento." 143


Departamento Académico de Sistemas Computacionales

Una tarjeta gráfica actual es capaz de realizar 51.000.000.000 de operaciones de coma flotante por segundo sólo en el sombreador de píxeles. Esto significa: 

Poder renderizar 100 dinosaurios de Jurassic Park a 100 fotogramas por segundo.

Más capacidad de coma flotante que un superordenador Cray SV-1.

30 veces la capacidad geométrica de Infinite Reality.

5 veces la población mundial estimada para el año 2050.

Si se convirtiesen en metros, representaría 120 veces la distancia de la tierra a la luna.

Si se convirtiesen en litros, representaría 2 veces el volumen de vino producido en todo el mundo durante este año.

Además la memoria se ha visto incrementada rápidamente, si las primeras Gforce salían a la luz con 32 megas de RAM, las nuevas Gforce FX vienen con 128MB y la RADEON9800 en su gama alta lleva 256 Mbytes. Como se puede ver los problemas de cantidad de colores y de resoluciones que se tenía antes queda ya muy lejos.

6.2.3.3 Tarjetas gráficas de última generación. Las posibilidades para jugar en casa con una calidad "decente", entendida como la que permite usar resoluciones elevadas de alta definición y efectos visuales avanzados, pasan por el uso de una consola de videojuegos (como Xbox 360, PlayStation 3 o Wii) por un lado, o de un Mac o PC por otro. El debate consola vs PC está siempre latente en cualquier análisis del mercado de los videojuegos, pero en la práctica hay argumentos válidos para defender tanto uno como otro sistema. En la figura 6.14 podemos apreciar la tarjeta de video nVIDIA nvidia-quadro-fx-48001. Las consolas son más «convenientes» en tanto en cuanto prácticamente solo hay que pulsar un botón, esperar un tiempo breve, encender la tele o la pantalla y con el mando de juegos empezar a disfrutar en modo individual, cooperativo o multijugador con una calidad más que aceptable. Los PC (el gaming en los Mac es aún marginal) son menos cómodos de poner en marcha. Generalmente están en una habitación separada de las zonas de Javier Aguilar Parra

144


Universidad Autónoma de Baja California Sur

ocio comunes en la casa, conectados a una pantalla más o menos buena (pero más pequeña en general que la tele del salón) y con un proceso de arranque para los juegos más tedioso, donde primero hay que pasar por el sistema operativo y luego lanzar el juego.

Figura 6.14: Tarjeta de video nVIDIA nvidia-quadro-fx-48001.

Con DirectX 11, el repertorio de juegos compatibles con ella es aún modesto. Y, en cualquier caso, el máximo potencial de estas nuevas tecnologías gráficas solo se consigue pasados bastantes meses tras su lanzamiento, cuando también se logran optimizar los controladores y los programadores se han familiarizado con el desarrollo correspondiente, y cuando los motores de los juegos se han actualizado de modo que la implementación de DirectX 11 sea menos laboriosa. Además, las mejoras gráficas y cinemáticas, generalmente no se manifiestan de un modo radicalmente distinto a como lo hacen las tecnologías anteriores, como DirectX 10.1, DX10 o DX9. Más bien se trata de una mejora en elementos concretos o localizados dentro de los títulos.

Capítulo 7 145


Departamento Académico de Sistemas Computacionales

Dispositivos de interconexión. 7.1 Modem Un módem es un equipo electrónico que sirve para transmitir y recibir información digital a distancia, mediante la modulación y demodulación (en amplitud, o frecuencia o fase u otro sistema) de la señal digital. Se han usado módems desde los años 60 o antes del siglo 20 ya que la transmisión directa de las señales digitales a largas distancias, no es confiable. Y como medios de transmisión se han usado: el sonido, la señal eléctrica, electromagnética y lumínica principalmente. En la figura 7.1 podemos apreciar la tarjeta de un modem interno.

Figura 7.1: Tarjeta de un modem interno.

7.1.1 Como Funciona El modulador emite un fuerte sonido y una señal analógica constante denominada portadora. Generalmente, se trata de una simple señal sinusoidal. A medida que se desea transmitir datos digitales, se modifica alguna característica de la señal portadora, de manera que se indica si se está transmitiendo un "cero" o un "uno". Las características que se pueden modificar de la señal portadora son: 

Fase, dando lugar a una modulación de fase (PM/PSK).

Frecuencia, dando lugar a una modulación de frecuencia (FM/FSK).

Amplitud, dando lugar a una modulación de amplitud (AM/ASK).

Javier Aguilar Parra

146


Universidad Autónoma de Baja California Sur

También es posible una combinación de modulaciones o modulaciones más complejas como la Modulación de amplitud en cuadratura. El demodulador interpreta los cambios en la señal portadora para reconstruir el flujo de datos digitales.

7.1.2 Tipos De módems. La distinción principal que se suele hacer es entre módems internos y módems externos, aunque, recientemente, han aparecido unos módems llamados "módems software", más conocidos como "winmodems" o "linuxmodems", que han complicado un poco el panorama, también existen los módems para XDSL, RDSI, etc. y los que se usan para conectarse a través de cable coaxial de 75 Ohms (cable módems). 

Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes que forman el módem. Existen para diversos tipos de conector: o

Bus ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos años se utilizó en exclusiva este conector, hoy en día en desuso.

o

PCI: el formato más común en la actualidad.

o

AMR: sólo en algunas placas muy modernas; baratos pero poco recomendables por su bajo rendimiento. La principal ventaja de estos módems reside en su mayor integración con el

ordenador, ya que no ocupan espacio sobre la mesa y reciben energía eléctrica directamente del propio ordenador. Además, suelen ser algo más baratos debido a que carecen de carcasa y transformador, especialmente si son PCI (en este caso, son casi todos del tipo "módem software"). Por el contrario, son algo más complejos de instalar y la información sobre su estado sólo puede obtenerse por software. 147


Departamento Académico de Sistemas Computacionales

Externos: similares a los anteriores, pero externos al ordenador o PDA. La ventaja de estos módems reside en su fácil transportabilidad entre ordenadores diferentes (algunos de ellos más fácilmente transportables y pequeños que otros), además de que

podemos

saber

el

estado

del

módem

(marcando,

con/sin

línea,

transmitiendo...) mediante los LED de estado que incorporan. Por el contrario, y obviamente, ocupan más espacio que los internos. Tipos de conexión: o

La conexión de los módems telefónicos con el ordenador se realiza generalmente mediante uno de los puertos serie tradicionales o COM, por lo que se usa la UART del ordenador, que deberá ser capaz de proporcionar la suficiente velocidad de comunicación. La UART debe ser de 16550 o superior para que el rendimiento de un módem de 28.800 bps o más sea el adecuado. Estos módems necesitan un enchufe para su transformador.

o

Módems PC Card: son módems en forma de tarjeta, que se utilizaban en portátiles, antes de la llegada del USB, que puede ser utilizado tanto en los ordenadores de sobremesa como en los portátiles. Su tamaño es similar al de una tarjeta de crédito algo más gruesa, pero sus capacidades pueden ser igual o más avanzadas que en los modelos normales.

o

Existen modelos para puerto USB, de conexión y configuración aún más sencillas, que no necesitan toma de corriente. Hay modelos tanto para conexión mediante telefonía fija, como para telefonía móvil. Véase : Módem USB Vodafone Mobile Connect 3G.

Módems software, HSP o Winmodems: son módems generalmente internos, en los cuales se han eliminado varias piezas electrónicas (por ejemplo, chips especializados), de manera que el microprocesador del ordenador debe suplir su función mediante un programa. Lo normal es que utilicen como conexión una ranura PCI (o una AMR), aunque no todos los módems PCI son de este tipo. El uso Javier Aguilar Parra

148


Universidad Autónoma de Baja California Sur

de la CPU entorpece el funcionamiento del resto de aplicaciones del usuario. Además, la necesidad de disponer del programa puede imposibilitar su uso con sistemas operativos no soportados por el fabricante, de manera que, por ejemplo, si el fabricante desaparece, el módem quedaría eventualmente inutilizado ante una futura actualización del sistema. A pesar de su bajo coste, resultan poco o nada recomendables. 

Módems completos: los módems clásicos no HSP, bien sean internos o externos. En ellos, el rendimiento depende casi exclusivamente de la velocidad del módem y de la UART del ordenador, no del microprocesador.

7.1.3 Módems telefónicos. Su uso más común y conocido es en transmisiones de datos por vía telefónica. Los ordenadores procesan datos de forma digital; sin embargo, las líneas telefónicas de la red básica sólo transmiten señales analógicas. Los métodos de modulación y otras características de los módems telefónicos están estandarizados por el UIT-T (el antiguo CCITT) en la serie de Recomendaciones "V". Estas Recomendaciones también determinan la velocidad de transmisión. Destacan: 

V.32. Transmisión a 9.600 bps.

V.32 bis. Transmisión a 14.400 bps.

V.34. Transmisión a 33.600 bps. Uso de técnicas de compresión de datos.

V.90. Transmisión a 56'6 Kbps de descarga y hasta 33.600 bps de subida.

V.92. Mejora sobre V.90 con compresión de datos y llamada en espera. La velocidad de subida se incrementa, pero sigue sin igualar a la de descarga.

Existen, además, módems DSL (Digital Subscriber Line), que utilizan un espectro de frecuencias situado por encima de la banda vocal (300 - 3.400 Hz) en líneas telefónicas o por encima de los 80 KHz ocupados en las líneas RDSI, y permiten alcanzar velocidades mucho mayores que un módem telefónico convencional. También poseen otras 149


Departamento Académico de Sistemas Computacionales

cualidades, como es la posibilidad de establecer una comunicación telefónica por voz al mismo tiempo que se envían y reciben datos.

7.1.4 Tipos de modulación. Se utilizan diferentes tipos de modulación estos son los siguientes: 

ASK, (Amplitude Shift Keying, Modulación en Amplitud): la amplitud de la portadora se modula a niveles correspondientes a los dígitos binarios de entrada 1 ó 0.

FSK, (Frecuency Shift Keying, Modulación por Desplazamiento de Frecuencia): la frecuencia portadora se modula sumándole o restándole una frecuencia de desplazamiento que representa los dígitos binarios 1 o 0. Es el tipo de modulación común en módems de baja velocidad en la que los dos estados de la señal binaria se transmiten como dos frecuencias distintas.

PSK, (Phase Shift Keying, Modulación de Fase): tipo de modulación donde la portadora transmitida se desplaza cierto número de grados en respuesta a la configuración de los datos. Los módems bifásicos p. ej., emplean desplazamientos de 180º para representar el dígito binario 0.

Pero en el canal telefónico también existen perturbaciones que el módem debe enfrentar para poder transmitir la información. Estos trastornos se pueden enumerar en: distorsiones, deformaciones y ecos. Ruidos aleatorios e impulsivos. Y por último las interferencias.

7.1.5 Perfiles de funcionamiento. Existen 3 tipos de perfil para funcionamiento de los módems: 1. El de fábrica, (por defecto). 2. El activo. 3. El del usuario. Estos perfiles están guardados en su memoria RAM no volátil y el perfil de fabrica está guardado en ROM. Javier Aguilar Parra

150


Universidad Autónoma de Baja California Sur

Hay dos opciones o lugares de memoria donde se pueden grabar los perfiles 1. AT&Y0, (al encender se carga el perfil = 0) 2. AT&Y1, (al encender se carga el perfil = 1) Estas órdenes se envían antes de apagar el módem para que los cargue en su próximo encendido. Cuando se escriben las órdenes "AT", dependiendo del tamaño del buffer del módem, se pueden ir concatenando sin necesidad de escribir para cada uno de ellos el prefijo "AT". De esta forma, por ejemplo cuando en un programa se pide una secuencia de inicialización del módem, se puede incluir conjuntamente en una sola línea todos las órdenes necesarias para configurar el módem.

7.1.6 pasos para establecer una comunicación. 1. Detección del tono de línea. El módem dispone de un detector del tono de línea. Este se activa si dicho tono permanece por más de un segundo. De no ser así, sea por que ha pasado un segundo sin detectar nada o no se ha mantenido activado ese tiempo el tono, envía al ordenador el mensaje "NO DIALTONE". 2. Marcación del número. Si no se indica el modo de llamada, primero se intenta llamar con tonos y si el detector de tonos sigue activo, se pasa a llamar con pulsos. En el periodo de tiempo entre cada dígito del número telefónico, el IDP (Interdigit pulse), se continua atendiendo al detector de tono. Si en algún IDP el detector se activa, la llamada se termina y se retorna un mensaje de BUSY. Una vez terminada la marcación, se vuelve a atender al detector de tono para comprobar si hay conexión. En este caso pueden suceder varias cosas: 

Rings de espera. Se detectan y contabilizan los rings que se reciban, y se comparan con el registro S1 del módem. Si se excede del valor allí contenido se retorna al mensaje "NO ANSWER".

151


Departamento Académico de Sistemas Computacionales

Si hay respuesta se activa un detector de voz/señal, la detección de la respuesta del otro módem se realiza a través del filtro de banda alta (al menos debe estar activo 2 segundos).

Si el detector de tono fluctúa en un período de 2 segundos se retorna el mensaje "VOICE". El mensaje "NO ANSWER" puede obtenerse si se produce un intervalo de silencio después de la llamada.

3. Establecer el enlace. Implica una secuencia de procesos que dependen si se está llamando o si se recibe la llamada. Si se está llamando será: 

Fijar la recepción de datos a 1.

Seleccionar el modo de baja velocidad.

Activar 0'6 segundos el tono de llamada y esperar señal de línea.

Desactivar señal de tono

Seleccionar modo de alta velocidad.

Esperar a recibir unos, después transmitir unos y activar la transmisión

Analizar los datos recibidos para comprobar que hay conexión. Si ésta no se consigue en el tiempo límite fijado en el registro S7, se da el mensaje "NO CARRIER"; en caso contrario, se dejan de enviar unos, se activa la señal de conexión, se desbloquea la recepción de datos y se da el mensaje "CARRIER".

Si se está recibiendo será: 

Selección del modo respuesta.

Desactivar el scrambler.

Seleccionar el modo de baja velocidad y activar el tono de respuesta (p. ej. 2.400 Hz durante 3'3 s).

Desactivar el transmisor.

Javier Aguilar Parra

152


Universidad Autónoma de Baja California Sur

Esperar portadora, si no se recibe activar el transmisor, el modo de alta velocidad y el tono a 1.800 Hz.

Esperar el tiempo indicado en S7, si no hay conexión envía el mensaje "NO CARRIER", si la hay, indica "CONNECT", se activa el transmisor, el detector de portadora y la señal de conexión.

En resumen los pasos para establecimiento de una conexión son: 1. La terminal levanta la línea DTR. 2. Se envía desde la terminal la orden ATDT 5551234 ("AT" -> atención, D -> marcar, T -> por tonos, 5551234 -> número a llamar.) 3. El módem levanta la línea y marca el número. 4. El módem realiza el hand shaking con el módem remoto. 5. El programa de comunicación espera el código de resultado. 6. Código de resultado "CONNECT".

7.1.7 Protocolos de comprobación de errores. El control de errores: son varias técnicas mediante las cuales se chequea la fiabilidad de los bloques de datos o de los caracteres. 

Paridad: función donde el transmisor añade otro bit a los que codifican un símbolo. Es paridad par, cuando el símbolo tenga un número par de bits y es impar en caso contrario. El receptor recalcula el número de par de bits con valor uno, y si el valor recalculado coincide con el bit de paridad enviado, acepta el paquete. De esta forma se detectan errores de un solo bit en los símbolos transmitidos, pero no errores múltiples.

CRC: (Cyclic Redundancy Check, prueba de redundancia cíclica). Esta técnica de detección de error consiste en un algoritmo cíclico en el cual cada bloque o trama de datos es chequeada por el módem que envía y por el que recibe. El módem que está enviando inserta el resultado de su cálculo en cada bloque en forma de código 153


Departamento Académico de Sistemas Computacionales

CRC. Por su parte, el módem que está recibiendo compara el resultado con el código CRC recibido y responde con un reconocimiento positivo o negativo dependiendo del resultado. 

MNP: (Microcom Networking Protocol, protocolo de red Microcom). Es un control de error desarrollado por Microcom, Inc. Este protocolo asegura transmisiones libres de error por medio de una detección de error, (CRC) y retransmisión de tramas equivocadas.

7.1.8 Protocolos de transferencia de archivos. 

Xmodem: es el protocolo más popular, pero lentamente está siendo reemplazado por protocolos más fiables y más rápidos. Xmodem envía archivos en bloques de 128 caracteres al mismo tiempo. Cuando el computador que está recibiendo comprueba que el bloque ha llegado intacto, lo señala así y espera el bloque siguiente. El chequeo de error es un checksum o un chequeo más sofisticado de redundancia cíclica. Algunas comunicaciones por software soportan ambas y podrían automáticamente usar la más indicada para un momento dado. Durante una descarga, el software tiende a usar el CRC, pero se cambiará a checksum si se detecta que el host no soporta el CRC. El protocolo de Xmodem también necesita tener declarado en su configuración: no paridad, ocho bits de datos y un bit de parada.

Xmodem-1k: es una pequeña variante del anteriormente mencionado, que usa bloques que posen un kilobyte (1.024 bytes) de tamaño. Este protocolo es todavía mal llamado ‘Ymodem’ por algunos programas, pero la gente gradualmente se inclina a llamarlo correctamente.

Xmodem-1k-g: es una variante del anterior para canales libres de error tales como corrección de errores por hardware o líneas de cable null-modem entre dos computadoras. Logra mayor velocidad enviando bloques uno tras otro sin tener que Javier Aguilar Parra

154


Universidad Autónoma de Baja California Sur

esperar el reconocimiento desde el receptor. Sin embargo, no puede retransmitir los bloques en caso de errores. En caso de que un error sea detectado en el receptor, la transferencia será abortada. Al igual que el anterior, muchas veces es mal llamado ‘Ymodem-g’. 

Zmodem: este avanzado protocolo es muy rápido al igual que garantiza una buena fiabilidad y ofrece varias características. Zmodem usa paquetes de 1 kb en una línea limpia, pero puede reducir el tamaño del paquete según si la calidad de la línea va deteriorándose. Una vez que la calidad de la línea es recuperada el tamaño del paquete se incrementa nuevamente. Zmodem puede transferir un grupo de archivos en un lote (batch) y guardar exactamente el tamaño y la fecha de los archivos. También puede detectar y recuperar rápidamente errores, y puede resumir e interrumpir transferencias en un período de tiempo más tarde. Igualmente es muy bueno para enlaces satelitales y redes de paquetes switchadas.

ASCII: en una transferencia ASCII, es como que si el que envía estuviera actualmente digitando los caracteres y el receptor grabándolos ahora. No se utiliza ninguna forma de detección de error. Usualmente, solo los archivos ASCII pueden ser enviados de esta forma, es decir, como archivos binarios que contienen caracteres.

Ymodem: este protocolo es una variante del Xmodem, el cual permite que múltiples archivos sean enviados en una transferencia. A lo largo de ella, se guarda el nombre correcto, tamaño, y fecha del archivo. Puede usar 128 o (más comúnmente), 1.024 bytes para los bloques.

Ymodem-g: este protocolo es una variante del anterior, el cual alcanza una taza de transferencia muy alta, enviando bloques uno tras otro sin esperar por un reconocimiento. Esto, sin embargo, significa que si un error es detectado por el receptor, la transferencia será abortada. 155


Departamento Académico de Sistemas Computacionales

Telink: este protocolo es principalmente encontrado en Fido Bulletin Board Systems. Es básicamente el protocolo Xmodem usando CRC para chequear y un bloque extra enviado como cabecera del archivo diciendo su nombre, tamaño y fecha. Por su parte, también permite que más de un archivo sea enviado al mismo tiempo (Fido es una BBS muy popular, que es usada en todo el mundo).

Kermit: este protocolo fue desarrollado para hacer más fácil que los diferentes tipos de computadoras intercambiasen archivos entre ellas. Casi ninguna computadora que usa Kermit puede ser configurada para enviar archivos a otra computadora que también use Kermit. Kermit usa pequeños paquetes (usualmente de 94 bytes) y aunque es fiable, es lento porque la relación del protocolo de datos para usarlos es más alta que en muchos otros protocolos.

7.2 Tarjeta de red. 7.2.1 Conceptos básicos. Tarjeta de red o NIC (Network Interface Controller, Controlador de Interfaz de Red en español), es una tarjeta de expansión que permite a una DTE (Data Terminal Equipment) ordenador o impresora acceder a una red y compartir recursos entre dos o más equipos (discos duros, cdrom, etc.). Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, etc.), pero, actualmente el más común es del tipo Ethernet utilizando un interfaz o conector RJ45 como se aprecia en la figura 8.2.

Figura 7.2Conector RJ45.

7.2.2 Tipos de tarjetas de red.

Javier Aguilar Parra

156


Universidad Autónoma de Baja California Sur

Las tarjetas de red Ethernet pueden variar en función de la velocidad de transmisión, normalmente 10 Mbps ó 10/100 Mbps. Actualmente se están empezando a utilizar las de 1000 Mbps, también conocida como Gigabit Ethernet y en algunos casos 10 Gigabit Ethernet, utilizando también cable de par trenzado, pero de categoría 6, 6e y 7 que trabajan a frecuencias más altas. Otro tipo de adaptador muy extendido hasta hace poco era el que usaba conector BNC. También son NIC las tarjetas inalámbricas o wireless, las cuales vienen en diferentes variedades dependiendo de la norma a la cual se ajusten, usualmente son 802.11a, 802.11b y 802.11g. Las más populares son la 802.11b que transmite a 11 Mbps con una distancia teórica de 100 metros y la 802.11g que transmite a 54 Mbps. En figura 7.3 se puede apreciar una tarjeta de red ISA de 10Mbps y En figura 7.4 se puede apreciar una tarjeta de red PCI de 10Mbpse.

Figura 7.3: Tarjeta de red ISA de 10Mbps.

Figura 7.4: Tarjeta de red PCI de 10Mbpse.

Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado MAC (no confundir con Apple Macintosh). Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical Engineers (IEEE). Los tres 157


Departamento Académico de Sistemas Computacionales

primeros octetos del número MAC son conocidos como OUI identifican a proveedores específicos y son designados por la IEEE. Se le denomina también NIC a un sólo chip de la tarjeta de red, este chip se encarga de servir como interfaz de Ethernet entre el medio físico (por ejemplo un cable coaxial) y el equipo (por ejemplo un PC). Es un chip usado en computadoras o periféricos tales como las tarjetas de red, impresoras de red o sistemas embebidos para conectar dos o más dispositivos entre sí a través de algún medio, ya sea conexión inalámbrica , cable UTP, cable coaxial, fibra óptica, etcétera.

Javier Aguilar Parra

158


Universidad Autónoma de Baja California Sur

Capítulo 8 Tarjeta de sonido. Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite la entrada y salida de audio bajo el control de un programa informático. El uso típico de las tarjetas de sonido es proveer a las aplicaciones multimedia del componente de audio. Estas aplicaciones multimedia engloban composición y edición de video o audio, presentaciones multimedia y entretenimiento (videojuegos). Algunos equipos tienen la tarjeta ya integrada, mientras que otros requieren tarjetas de expansión. En la figura 8.1 podemos apreciar la tarjeta de sonido interna.

Figura 8.1: Tarjeta de sonido interna.

Una tarjeta de sonido típica, incorpora un chip de sonido que por lo general contiene el Conversor digital-analógico, el cual cumple con la importante función de "traducir" formas de ondas grabadas o generadas digitalmente en una señal analógica y viceversa. Esta señal es enviada a un conector (para audífonos) en donde se puede conectar cualquier otro dispositivo como un amplificador, un altavoz, etc. Para poder grabar y reproducir audio al mismo tiempo con la tarjeta de sonido debe poseer la característica "full-duplex" para que los dos conversores trabajen de forma independiente. Los diseños más avanzados tienen más de un chip de sonido, y tienen la capacidad de separar entre los sonidos sintetizados (usualmente para la generación de música y efectos especiales en tiempo real utilizando poca cantidad de información y tiempo del microprocesador y quizá compatibilidad MIDI) y los sonidos digitales para la reproducción. 159


Departamento Académico de Sistemas Computacionales

Esto último se logra con DACs (por sus siglas en inglés Digital-Analog-Conversor o Conversor-Digital-Analógico), que tienen la capacidad de reproducir múltiples muestras digitales a diferentes tonos e incluso aplicarles efectos en tiempo real como el filtrado o distorsión. Algunas veces, la reproducción digital de multi-canales puede ser usado para sintetizar música si es combinado con un banco de instrumentos que por lo general es una pequeña cantidad de memoria ROM o flash con datos sobre el sonido de distintos instrumentos musicales. Otra forma de sintetizar música en las PC's es por medio de los "códecs de audio" los cuales son programas diseñados para esta función pero consumen mucho tiempo de microprocesador. La mayoría de las tarjetas de sonido también tienen un conector de entrada o "Line In" por el cual puede entrar cualquier tipo de señal de audio proveniente de otro dispositivo como micrófonos, casseteras entre otros y luego así la tarjeta de sonido puede digitalizar estas ondas y guardarlas en el disco duro del computador. Otro conector externo que tiene una tarjeta de sonido típica es el conector para micrófono. Este conector está diseñado para recibir una señal proveniente de dispositivos con menor voltaje al utilizado en el conector de entrada "Line-In".

8.1 Conexiones. Casi todas las tarjetas de sonido se han adaptado al estándar PC99 de Microsoft que consiste en asignarle un color a cada conector externo como se muestra en la 8.2. Los conectores más utilizados para las tarjetas de sonido a nivel de usuario son los minijack al ser los más económicos. Con los conectores RCA se consigue mayor calidad ya que utilizan dos canales independientes, el rojo y el blanco, uno para el canal derecho y otro para el izquierdo. A nivel profesional se utilizan las entras y salidas S/PDIF, también llamadas salidas ópticas digitales, que trabajan directamente con sonido digital eliminando las pérdidas de calidad en las conversiones. Javier Aguilar Parra

160


Universidad Autónoma de Baja California Sur

Para poder trabajar con dispositivos MIDI se necesita la entrada y salida MIDI. Color

Función

Rosa

Entrada analógica para micrófono.

Azul

Entrada analógica "Line-In"¡

Verde

Salida analógica para la señal estéreo principal (altavoces frontales).

Negro

Salida analógica para altavoces traseros.

Plateado Salida analógica para altavoces laterales.

Naranja

Salida Digital SPDIF (que algunas veces es utilizado como salida análoga para altavoces centrales). Figura 8.2: Código de color de las conexiones de una tarjeta de sonido interna.

8.2. Muestreo de sonido. Para producir un sonido el altavoz necesita una posición donde golpear, que genera, dependiendo del lugar golpeado, una vibración del aire diferente que es la que capta el oído humano. Para determinar esa posición se necesita una codificación. Por lo tanto cuanto mayor número de bits se tenga, mayor número de posiciones diferentes se es capaz de representar. Por ejemplo, si la muestra de sonido se codifica con 8 bits se tienen 256 posiciones diferentes donde golpear. Sin embargo con 16 bits se conseguirían 65536 posiciones. No se suelen necesitar más de 16 bits, a no ser que se quiera trabajar con un margen de error que impida que la muestra cambie significativamente.

8.3 Frecuencia de muestreo. Las tarjetas de sonido y todos los dispositivos que trabajan con señales digitales lo pueden hacer hasta una frecuencia límite, mientras mayor sea esta mejor calidad se 161


Departamento Académico de Sistemas Computacionales

puede obtener, las tarjetas de sonido que incluian las primera computadoras Apple Mac Intosh tenian una frecuencia de muestreo de 22050 Hz (22,05 KHz)de manera que su banda de frecuencias para grabar sonido y reproducirlo estaba limitada a 10 KHz con una precisión de 8 bits que proporciona una relación señal sobre ruido básica de solo 40 dB, las primeras tarjetas estereofónicas tenian una frecuencia de muestreo de 44100 Hz (igual que los reproductores de CD) con lo que la banda útil se extendió hasta los 20 KHz (alta calidad) pero se obtiene un sonido mas claro cuando se eleva un poco esta frecuencia pues hace que los circuitos de filtrado funcionen mejor, por lo que los DAT (digital audio tape) tienen una frecuencia de conversión en sus convertidores de 48 KHz, con lo cual la banda se extiende hasta los 22 KHz. Debe recordarse que la audición humana esta limitada a los 16 ó 17 KHz, pero si los equipos se extienden mas allá de este límite se tienen una mejor calidad, también que la frecuencia de muestreo (del convertidor) debe ser de mas del doble que la banda que se pretende utilizar (teorema de Nyquist en la practica). Finalmente los nuevos formatos de alta definición usan frecuencias de muestreo de 96 KHz (para tener una banda de 40 KHz) y hasta 192 KHz, no porque estas frecuencias se puedan oír, sino porque así es mas fácil reproducir las que si se oyen.

8.4 Canales de sonido y polifonía. Otra característica importante de una tarjeta de sonido es su polifonía. Es el número de distintas voces o sonidos que pueden ser tocados simultánea e independientemente. El número de canales se refiere a las distintas salidas eléctricas, que corresponden a la configuración del altavoz, como por ejemplo 2.0 (estéreo), 2.1 (estéreo y subwoofer), 5.1, etc. En la actualidad se utilizan las tarjetas de sonido envolvente (surround), principalmente Dolby Digital 8.1 o superior. El número antes del punto (8) indica el número de canales y altavoces satélites, mientras que el número después del punto (1) indica la cantidad de Javier Aguilar Parra

162


Universidad Autónoma de Baja California Sur

subwoofers. En ocasiones los términos voces y canales se usan indistintamente para indicar el grado de polifonía , no la configuración de los altavoces.

8.5 Historia de las tarjetas de sonido. Las tarjetas de sonido eran desconocidas para los ordenadores basados en el IBM PC hasta 1988, siendo el altavoz interno del PC el único medio para producir sonido del que se disponía. El altavoz estaba limitado a la producción de ondas cuadradas, que generaba sonidos descritos como "beeps". Algunas compañías, entre las que destacaba Access Software, desarrollaron técnicas para la reproducción del sonido digital en el altavoz del PC. El audio resultante, aunque funcional, sufría distorsiones, tenía un volumen bajo y normalmente requería de los recursos destinados al resto de procesos mientras los sonidos eran reproducidos. Otros modelos de ordenadores domésticos de los años 80 incluían soporte hardware para la reproducción de sonido digital y/o síntesis musical, dejando al IBM PC en desventaja cuando aparecieron las aplicaciones multimedia como la composición de música o los juegos. Es importante destacar que el diseño inicial y el planteamiento de marketing de las tarjetas de sonido de la plataforma IBM PC no estaban dirigidas a los juegos, pero sí que se encontraban en aplicaciones de audio específicas como composición de música o reconocimiento de voz. Esto llevó al entorno de Sierra y otras compañías en 1988 a cambiar el enfoque de las tarjetas hacia los videojuegos.

163


Departamento Académico de Sistemas Computacionales

Capítulo 9 Dispositivos de almacenamiento secundario. 9.2 CD-ROM. El disco compacto (conocido popularmente como CD, del inglés compact disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, video, documentos). En la figura 9.1 se aprecia su diseño.

Figura 9.1: Disco compacto.

9.1.1 Breve historia. El disco compacto fue creado por el neerlandés Joop Sinjou y el japonés Toshí Tada Doi en 1979. Al año siguiente, Sony y Philips comenzaron a distribuir discos compactos, pero las ventas no fueron exitosas por la depresión económica de aquella época. Entonces decidieron abarcar el mercado de la música clásica, de mayor calidad musical. En 1981, el director de orquesta Herbert von Karajan convencido del valor de los discos compactos, los promovió durante el festival Salzburgo y desde ese momento empezó su éxito. Los primeros títulos grabados en discos compactos fueron la Sinfonía alpina de Richard Strauss, los valses de Frédéric Chopin interpretados por el pianista chileno Claudio Arrau y el álbum Los visitantes de ABBA. En el año 1984 salieron al mundo de la informática, permitiendo almacenar hasta 600 MB. El diámetro de la perforación central de los discos compactos fue determinado en 15 mm, cuando entre comidas, los creadores se inspiraron en el diámetro de la moneda de 10 Javier Aguilar Parra

164


Universidad Autónoma de Baja California Sur

centavos de florín de Holanda. En cambio, el diámetro de los discos compactos, que es de 12 cm, corresponde a la anchura de los bolsillos superiores de las camisas para hombres, porque según la filosofía de Sony, todo debía caber allí.

9.1.2 Detalles físicos. A pesar de que puede haber variaciones en la composición de los materiales empleados en la fabricación de los discos, todos siguen un mismo patrón: los discos compactos se hacen de un disco grueso, de 300.2 milímetros, de policarbonato de plástico, al que se le añade una capa refractante de aluminio, utilizada para obtener más longevidad de los datos, que reflejará la luz del láser (en el rango del espectro infrarrojo y por tanto no apreciable visualmente); posteriormente se le añade una capa protectora que lo cubre y, opcionalmente, una etiqueta en la parte superior. Los métodos comunes de impresión en los CD son screen printing y offset printing. Veamos ahora los parámetros más importantes de los CD. En la figura 9.2 podemos apreciar el lente óptica de un lector.

Figura 9.2: Lente óptico de un lector.

Velocidad de la exploración: 1.2-1.4 m/s, equivale aproximadamente a 500 RPM en el interior del disco, y aproximadamente a 200 RPM en el borde exterior, en modo de lectura CLV (Constant lineal velocity, velocidad lineal constante).

Distancia entre pistas: 1.6 μm.

Diámetro del disco: 120 milímetros u 80 milímetros.

Grosor del disco: 1.2 milímetros.

Radio del área interna del programa: 25 milímetros. 165


Departamento Académico de Sistemas Computacionales

Radio del área externa del programa: 58 milímetros.

Diámetro de centro del agujero: 15 milímetros

Según el disco compacto: o

De sólo lectura: CD-ROM (Compact Disc - Read Only Memory).

o

Grabable: CD-R (Compact Disc - Recordable).

o

Regrabable: CD-RW (Compact Disc - Re-Writable).

o

DE Audio: CD-DA (compact Disc - Digital Audio).

Un CD de audio se reproduce a una velocidad tal que se leen 150 KB por segundo. Esta velocidad base se usa como referencia para identificar otros lectores como los del ordenador, de modo que si un lector indica 24X, significa que lee 24 x 150KB = 3600 KB por segundo. El área del programa es de 86.05 centímetros cuadrados, de modo que la longitud del espiral grabable será de 86.05/1.6 = 5.38 kilómetros. Con una velocidad de exploración de 1.2 m/s, el tiempo de duración es 80 minutos, o alrededor de 700MB de datos. Si el diámetro del disco en vez de 120 milímetros fuera 115 milímetros, el máximo tiempo de duración habría sido 68 minutos, es decir, seis minutos menos.

9.1.3 Capacidades de disco. Los datos digitales en un CD se inician en el centro del disco y terminan en el borde de estos, lo que nos permite adaptarnos a diferentes tamaños y formatos. Los CD estándares están disponibles en distintos tamaños y capacidades, así tenemos la siguiente variedad de discos: 

120 mm (diámetro) con una duración de 74-80 minutos de audio y 650-700MB de capacidad de datos.

120 mm (diámetro) con una duración de 90-100 minutos de audio y 800-875MB de datos. Javier Aguilar Parra

166


Universidad Autónoma de Baja California Sur

80 mm (diámetro), que fueron inicialmente diseñados para CD singles. Estos pueden almacenar unos 21 minutos de música o 210MB de datos. También son conocidos como Mini-CD o Pocket CD.

9.1.4 Estándares de los discos compactos. Una vez resuelto el problema de almacenar los datos, queda el de interpretarlos de forma correcta. Para ello, las empresas creadoras del disco compacto definieron una serie de estándares cada uno de los cuales reflejaba un nivel distinto. Cada documento fue encuadernado en un color diferente, dando nombre a cada uno de los "libros arcoiris": 

Libro rojo: representa el estándar CEI IEC 908 para los discos compactos de audio digital (también conocidos como CD-DA). Este libro define el soporte, proceso de grabación y diseño del reproductor adecuado para soportar CD-Audio.

El formato especificado en el libro rojo para CD se basa en 2 canales de 16 bits PCMI que son codificados a una tasa de muestreo de 44.1KHz. Otra opción del libro red book eran utilizar 4 canales, aunque esto nunca fue implementado. 

Libro amarillo: describe el estándar ISO 10149:1989 para los CD-ROM (discos de sólo lectura). Se divide en dos modos: Modo 1: representa el modo de funcionamiento típico de almacenamiento de datos. Modo 2 (o formato XA): soporta, además, audio, imágenes y video.

Libro naranja: estandariza tanto los discos grabables (CD-R) como los regrabables (CD-RW).

Libro verde: sienta las bases para el diseño de los discos compactos interactivos (CD-I).

Libro azul: es el estándar del disco láser.

Libro blanco: define el estándar del vídeo en CD-ROM (VCD y SVCD). 167


Departamento Académico de Sistemas Computacionales

9.1.5 Almacenamiento/Recuperación de la información. En un CD la información se almacena en formato digital, es decir, utiliza un sistema binario para guardar los datos. Estos datos se graban en una única espiral que comienza desde el interior del disco (próximo al centro), y finaliza en la parte externa. Los datos binarios se almacenan en forma de hendiduras y llanuras llamadas "pits"(que son agujeros del porte de una bacteria), de tal forma que al incidir el haz del láser, el ángulo de reflexión es distinto en función de si se trata de una hendidura o de una llanura. Las hendiduras tienen un ancho de 0,6 micras, mientras que su profundidad (respecto a las llanuras) se reduce a 0,12 micras. La longitud de las hendiduras y llanuras está entre las 0,9 y las 3,3 micras. Entre una revolución de la espiral y las adyacentes hay una distancia aproximada de 1,6 micras (lo que hace cerca de 45.000 pistas por centímetro). Es una creencia común pensar que una hendidura corresponde a un valor binario y una llanura al otro valor. Sin embargo, esto no es así, sino que los valores binarios son detectados por las transiciones de hendidura a llanura, y viceversa: una transición determina un 1 (uno) binario, mientras que la longitud de una hendidura o una llanura indica el número consecutivo de 0 (ceros) binarios. Además, los bits de información no son insertados "tal cual" en la pista del disco. En primer lugar, se utiliza una codificación conocida como modulación EFM (Eighth to Fourteen Modulation o 'modulación ocho a catorce') cuya técnica consiste en igualar un bloque de 8 bits a uno de 14, donde cada 1 (uno) binario debe estar separado, al menos, por dos 0 (ceros) binarios.

9.1.6 Almacenamiento de la información. El almacenamiento de la información se realiza mediante tramas. Cada trama supone un total de 588 bits, de los cuales 24 bits son de sincronización, 14 bits son de control, 536 bits son de datos y los últimos 14 bits son de corrección de errores. De los 536 bits de datos, hay que tener en cuenta que están codificados por modulación EFM, y que cada Javier Aguilar Parra

168


Universidad Autónoma de Baja California Sur

bloque de 14 bits está separado del siguiente por tres bits; por tanto, una trama de 588 bits contiene 24 bytes de datos. Por último, la transmisión de datos se hace por bloques, cada uno de los cuales contiene 98 tramas, es decir, 2.048 bytes.

9.1.7 Recuperación de la información. Hablemos ahora de la lectura de un CD. Un CD es leído enfocando un láser (de baja densidad) semiconductor, con longitud de onda de 780 nanómetros a través de la capa del policarbonato, la diferencia de altura entre las hendiduras y las llanuras conduce a una diferencia de fase entre la luz reflejada de una hendidura y la de su llanura circundante. Si medimos la intensidad con un fotodiodo, uno puede leer los datos del disco. Como ya se ha comentado anteriormente, las hendiduras y las llanuras no representan directamente ni los ceros y ni los unos de datos binarios.

9.1.8 Tiempos de acceso y tasas de transferencia. Veamos los tiempos de acceso y la tasa de transferencia de los CD mediante una tabla. Esta tabla nos mostrará con “valor X” la velocidad de lectura de los datos, es decir, el tiempo de acceso en lectura, donde X indica que es el múltiplo valor del tiempo de acceso original. La primera versión de CD permitía una velocidad de transmisión de 150 kilobytes /segundo. Sucesivamente, aparecieron CD más rápidos, y los fabricantes adoptaron una convención para indicar el tiempo de lectura en términos de la velocidad original. Por lo tanto, una velocidad de 2X en la tabla indica que el tiempo de acceso de lectura es de 300KB por segundo. En la figura 9.3 también se muestra las principales tasas de transferencias y las revoluciones por minuto alcanzadas.

Rapidez CD

Máxima tasa de transferencia de datos

RPM (revoluciones por minuto)

1X CD-ROM

150 KB/sg

200 – 530

169


Departamento Académico de Sistemas Computacionales

2X CD-ROM

300 KB/sg

400 – 1060

4X CD-ROM

600 KB/sg

800 – 2120

8X - 12X CDROM

1.2 MB/sg

1600 – 4240

24X – 50X

1.8 - 6 MB/sg

2400 - 6360 aproximadamente

Figura 9.3: tasas de transferencias y las revoluciones por minuto.

9.1.9 Almacenamiento y limpieza de los discos compactos. Para que el disco almacene todos los datos en forma íntegra y por muy largo tiempo, es necesario conservar el disco en los empaques o lugares correctos. La parte -o las partesreflectivas del disco, deben estar limpias y libres de rayaduras, para evitar la perdida de datos. Es recomendable cambiar transferir los datos de un disco antiguo o erosionado, a otro disco limpio o nuevo, antes de que se pierdan todos los datos con el tiempo. Si el disco está solamente sucio, es recomendable limpiarlo con un paño suave -o de seda- en movimientos de una sola dirección, desde el cendro del disco hacia afuera. Nunca limpie un disco con movimientos circulares, para evitar que el sucio o el polvo dañe o erosione el disco. Si el disco está demasiado sucio, sumerja este en agua y limpie suavemente como se especificó en el principio; seque muy bien antes de leer o grabar en el disco. Si el disco esta rayado y sucio, es recomendable limpiarlo de la manera que aplique la condición, e intentar la lectura del disco. Si no ocurres errores de datos, o la mayoria de los datos estan integros, copie los mismos en otro disco nuevo o en otro medio, como un disco duro o pendrive. Nunca escriba o pinte el disco en el lado brillante del mismo, para evitar errores de lectura o escritura. Identifique los discos en la parte especializada (en las instrucciones o en el

Javier Aguilar Parra

170


Universidad Autónoma de Baja California Sur

disco) con una tinta permanente y nunca con lápiz o bolígrafo, para evitar la provocación de grietas en el disco. Evite pegar excesivo numero de papeles o adhesivos en el disco. En algunos casos, es probable que un disco muy dañado o agrietado se rompa dentro de la unidad de lectura o escritura del disco. En ese caso, apague el dispositivo o ordenador y contacte a alguna persona especializada, entes de evitar más daños. Dejo todo a los profesionales, aunque si este no esta disponible, puede retirar la unidad de lectura o escritura del ordenador, hasta tenerlo disponible.

9.1.10 Sistemas de archivos de CD. ISO 9660 El estándar ISO 9660 es una norma publicada por la ISO, que especifica el formato para el almacenaje de archivos en los soportes de tipo disco compacto. El estándar ISO 9660 define un sistema de archivos para CD-ROM. Su propósito es que tales medios sean legibles por diferentes sistemas operativos, de diferentes proveedores y en diferentes plataformas, por ejemplo, MS-DOS, Microsoft Windows, Mac OS y Unix. 

Joliet y Romeo, Joliet es una extensión del sistema de ficheros del ISO 9660.Estos sistemas de ficheros fueron diseñados para las plataformas Windows 95/NT de Microsoft. El sistema de archivos que empleaban era vfat pero con limitación de 64 caracteres para Joliet y 128 para Romeo. Para que Joliet y Romeo sean compatibles con Linux se necesita tener soporte en el kernel. Tener en cuenta que no todas las versiones de Linux disponen de dicho soporte.

Rock Ridge, Rock Ridge también es una extensión del sistema de ficheros del ISO 9660. Este sistema de ficheros fue diseñado para la plataforma UNIX, por lo que para este tipo de plataformas tiene características de las que nos podemos beneficiarnos más que con los otros sistemas de ficheros. Una de las características de este sistema de ficheros es que puede haber archivos

171


Departamento Académico de Sistemas Computacionales

ejecutables de acceso restringido a un usuario o enlaces simbólicos en el CD. Además, se pueden tener nombres de hasta 255 caracteres. Para aquellos sistemas operativos que no ven este tipo de sistema de ficheros, se puede crear unas tablas de trascripción de ficheros llamados TRANS.TBL. Estas aparecerán en cada directorio del CD, reproduciendo así el nombre visible. 

HFS (Hierarchical File System)

Aunque este tipo de sistemas es utilizado en DVD, también puede aparecer en CD. La utilización de este tipo de ficheros en Linux todavía es muy limitada, pero existen programas de CD que utilizan este sistema de ficheros, uno de ellos es Adaptec DirectCD. Entre las características de UDF podemos destacar: -265 caracteres en ASCII y 128 en Unicode. -Posibilidad de grabar en modo pocket writing. Este modo elimina la posibilidad de que aparezcan buffer underrun. 

El Torito, El Torito es el nombre que se le ha puesto al sistema diseñado para permitir el arranque del ordenador desde CD.

UDF (Universal Disk Format) Estos sistemas de ficheros aparecen en máquinas Macintosh. No son reconocidos por algunos sistemas operativos, como por ejemplo Windows. Linux es una excepción en este caso, pues los reconoce gracias a un parche del Kernel. También existe un programa para realizar imágenes de CD, que luego se podrán ver en máquinas Macintosh. 

Mount Rainier, Este es un sistema de ficheros para discos ópticos que nos permite realizar escrituras de paquetes en UDF. Mount Rainier puede utilizarse sólo en dispositivos que sean compatibles explícitamente. Por otro lado, no necesita medios especiales; funciona en todo tipo de medios ópticos regrabables, ya sea CD o DVD.

Javier Aguilar Parra

172


Universidad Autónoma de Baja California Sur

Si bien ya es posible utilizar CD-RW como discos floppy con el Universal Disk Format, esta utilización es gestionada por software especial ajeno al formato. Mount Rainier es independiente del sistema operativo y está totalmente basado en hardware. El tiempo necesario para formatear un disco con este sistema de archivos oscila alrededor de un minuto en función de las características de la unidad. Además, este nuevo estándar añade algunos sectores extra al final del disco para su gestión. Estos sectores se alojan en una tabla en el lead-in (un área especial del disco) y en una copia de dicha tabla en el lead-out. El formato también permite la utilización de DVD+RW de forma similar. Mount Rainier estará implementado de forma nativa en Windows Vista, y algunas distribuciones de GNU/Linux ya incluyen compatibilidad nativa. Los sistemas operativos no compatibles necesitan software de terceros para poder leer y escribir el formato Mount Rainier. CD-MRW es el nombre utilizado para discos con este sistema de ficheros: Compact Disc - Mount Rainier Read/Write.

9.1.11 Tipos de CD. Mini-CD Los MiniCD son discos compactos de formato reducido, también conocidos como PocketCD. Veamos los más importantes: 

CD single, en un disco de 80 mm. Este formato es utilizado para distribuir los sencillos de la misma forma que con los sencillos en vinilo. En un disco de 80 mm se puede almacenar hasta 21 minutos de música o 180 MB de datos.

o

En baja densidad un MiniCD almacena 18 minutos o 155 MB.

o

En alta densidad llegan hasta los 34 minutos o 300 MB.

Bussiness card CD, es un disco de 80 mm recortado con una capacidad de unos 50 MB. o

El eje largo del disco es de 80mm mientras que el eje corto es de 60 mm.

173


Departamento Académico de Sistemas Computacionales

o

El disco puede ser rectangular con unos laterales que llegan hasta el tamaño de los de un MiniCD de 80 mm.

Disco de 60 mm, es una versión redondeada de la bussiness card con la misma capacidad (50 MB).

CD-A (Compact Disk-Audio) Es el disco compacto de audio. Este tipo de CD además del área de datos , donde se almacenan hasta 74 minutos de audio en diferentes pistas, tiene una guía interna (lead in) que posee la tabla de contenidos del disco. Su labor es sincronizar el láser y localizar los datos y prepararlos antes de su lectura. También posee una guía externa (lead out), de tan sólo 1 mm de ancho, que simplemente marca el fin de los datos.

CD-ROM (Compact Disk-Read Only Memory) Son los discos compactos que sólo se pueden usar para lectura.

CD-R (Compact Disk Recordable) Un disco grabable es aquel CD (disco compacto) apto para su grabación casera o particular, pero como su nombre lo indica, solo se graba una vez, grabamos en el datos o música (e incluso videos), el disco no puede ser ni borrado ni grabado nuevamente cuando hayamos utilizado toda su capacidad.Se pueden grabar en varias sesiones (discos multisesión), con la desventaja en este caso de que se pierden bastantes megas de espacio de grabación y que algunos lectores, de modelos antiguos, no son capaces de leerlos. En sus cajas o caras serigrafiadas se menciona la leyenda: CD-R (Disco Grabable).

CD-E (Compact Disc Erasable) Es el nombre por el cual fueron conocidos los CD-RW durante su desarrollo.

CD-RW (Compact Disk ReWritable)

Javier Aguilar Parra

174


Universidad Autónoma de Baja California Sur

Este tipo de compact disc puede ser grabados y regrabados cuantas veces queramos, o incluso borrados. Estos discos normalmente son leídos únicamente por computadoras o aparatos que soporten la característica de lectura de discos CD-RW. En su caja o cara serigrafiada menciona la leyenda CD-RW. En ocasiones pueden ser regrabados hasta 1000 veces.

CD+G También es conocido como CD+Graphics, se trata de un disco de audio especial que puede almacenar gráficos además de los datos. Este es el sistema usado para los cds de Karaokes

CD+V Este tipo de CD es una combinación entre CD y discos láser.

9.1.12 Grabado Multisesión. Desde hace tiempo han surgido programas computacionales grabadores de CD que nos permiten utilizar un disco CD-R como si de un disco regrabable se tratase. Esto no quiere decir que el CD se pueda grabar y posteriormente borrar, sino que se puede grabar en distintas sesiones, hasta ocupar todo el espacio disponible del CD. Los discos multisesión no son más que un disco normal grabable, ni en sus cajas, ni en la información sobre sus detalles técnicos se resalta que funcione como disco Multisesión, ya que esta función no depende del disco, sino del software que lo grabe. El software es el encargado de hacerlo o no multisesión a petición del usuario. Haremos que un CD sea multisesión en el momento que realizamos la primera grabación sobre él, sin embargo, al grabar un CD de música automáticamente el CD-R queda finalizado y no puede ser utilizado como disco Multisesión.

9.1.13 Diferencias entre CD-R multisesión y CD-RW.

175


Departamento Académico de Sistemas Computacionales

Puede haber confusión entre un CD-R con grabado multisesión y un CD-RW. En el momento en que un disco CD-R se hace multisesión, el sofware le dará la característica de que pueda ser utilizado en múltiples sesiones, es decir, en cada grabación se crearan “capas”, que sólo serán modificadas por lo que el usuario crea conveniente. Veamos un ejemplo, si hemos grabado en un CD-R los archivos prueba1.txt, prueba2.txt y prueba 3.txt, se habrá creado una capa en el disco que será leída por todos los reproductores y que contendrá los archivos mencionados. Si en algún momento no necesitamos alguno de los ficheros o cambiamos el contenido de la grabación, el programa software creará una nueva capa, encima de la anterior, donde no aparecerán los archivos que no queramos observar o se verán las modificaciones realizadas, es decir, podemos añadir mas archivos, o incluso quitar algunos que estaban incluidos. Al realizar una modificación la capa anterior no se borrará, sino que quedará oculta por la nueva capa dándonos una sensación de que los archivos han sido borrados o modificados, pero en realidad permanecen en el disco. Todos los discos se configuran automáticamente para que los reproductores siempre lean la última capa grabada y no las anteriores. Obviamente las capas anteriores, aunque aparentemente no aparecen permanecen en el disco y están ocupando espacio en el mismo, esto quiere decir que algún día ya no será posible “regrabarlo”, modificar los archivos que contiene, porque se habrá utilizado toda la capacidad del disco. A diferencia de los CD-R, los discos CD-RW sí pueden ser borrados, regrabados, o incluso formateados, ya que el software que utilicemos para grabar no creara capas. En el caso de utilizar un CD-RW cuando grabamos o borramos lo hacemos como si se tratara de un disquete o de archivos en nuestro disco duro, por esta razón los discos regrabables tienen una velocidad de grabación menor que los discos grabables (tardan más en terminar de grabarse). Javier Aguilar Parra

176


Universidad Autónoma de Baja California Sur

9.2 El DVD. El DVD (también conocido como "Digital Versatile Disc" o "Disco Versátil Digital", anteriormente llamado "Digital Video Disc" o "Disco de Video Digital") es un formato de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de vídeo y audio. Se asemeja a los discos compactos en cuanto a sus dimensiones físicas (diámetro de 12 u 8 cm), pero están codificados en un formato distinto y a una densidad mucho mayor. A diferencia de los CD, todos los DVD deben guardar los datos utilizando un sistema de archivos denominado UDF (Universal_Disk_Format), el cual es una extensión del estándar ISO 9660, usado para CD de datos. El DVD Forum (un consorcio formado por todas las organizaciones que han participado en la elaboración del formato) se encarga de mantener al día sus especificaciones técnicas. En la figura 9.4 podemos apreciar su diseño.

Figura 9.3: DVD.

9.2.1 Breve historia A comienzos de los 80 dos estándares de almacenamiento óptico de alta densidad estaban desarrollándose; uno era el Multimedia Compact Disc (MMCD) apoyado por Philips y Sony, el otro era el Super Density disc (SD), apoyado por Toshiba, Time-Warner, Matsushita Electric, Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC. El presidente de IBM, Lou Gerstner, actuando de casamentero lideró los esfuerzos por unificar los dos

177


Departamento Académico de Sistemas Computacionales

proyectos bajo un único estándar, en previsión de que sucediera otra costosa guerra entre formatos como la que ocurrió entre VHS y Betamax en los 80. Philips y Sony abandonaron su formato MMCD y acordaron con Toshiba el Super Density disc (SD) con dos modificaciones. Una fue la adopción de una geometría propiedad de Philips/Sony que permitía “push-pull tracking”. La segunda modificación fue la adopción del EFMPlus de Philips, creado por Kees Immink, que es un 6% menos eficiente que el sistema de codificación de Toshiba, de aquí que la capacidad sea de 4,7 GB en lugar del los 5 GB del SD original. La gran ventaja de EFMPlus es su gran resistencia a los daños físicos en el disco, como arañazos o huellas. El resultado fue la especificación de la versión 1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el consorcio DVD (DVD Consortium) fue reemplazado por el foro DVD (DVD Forum), que estaba abierto a todas las demás compañías.

9.2.2 Información Técnica. Un DVD de capa simple puede guardar hasta 4,7 gigabytes (se le conoce como DVD-5), alrededor de siete veces más que un CD estándar. Emplea un láser de lectura con una longitud de onda de 650 nm (en el caso de los CD, es de 780 nm) y una apertura numérica de 0,6 (frente a los 0,45 del CD), la resolución de lectura se incrementa en un factor de 1,65. Esto es aplicable en dos dimensiones, así que la densidad de datos física real se incrementa en un factor de 3,3. El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed-Solomon, RS-PC, así como la codificación de línea Eight-to-Fourteen Modulation, la cual fue reemplazada por una versión más eficiente, EFMPlus, con las mismas características que el EFM clásico. El

Javier Aguilar Parra

178


Universidad Autónoma de Baja California Sur

subcódigo de CD fue eliminado. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que usa una tercera capa de corrección de errores. A diferencia de los discos compactos, donde el sonido (CDDA) se guarda de manera fundamentalmente distinta que los datos, un DVD correctamente creado siempre contendrá datos siguiendo los sistemas de archivos UDF e ISO 9660.

9.2.3 Tipos De DVD. Los DVD se pueden clasificar: 

según su contenido: o

DVD-Video: Películas (vídeo y audio)

o

DVD-Audio: Audio de alta fidelidad

o

DVD-Data: Datos cualquiera

según su capacidad de regrabado: o

DVD-ROM: Sólo lectura, manufacturado con prensa

o

DVD-R: Grabable una sola vez

o

DVD-RW: Regrabable

o

DVD-RAM: Regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los datos siempre activa tras completar la escritura

o

DVD+R: Grabable una sola vez

o

DVD+RW: Regrabable

o

DVD-R DL: Grabable una sola vez de doble capa

o

DVD+R DL: Grabable una sola vez de doble capa

o

DVD-RW DL: Regrabable de doble capa

o

DVD+RW DL: Regrabable de doble capa

según su número de capas o caras: o

DVD-5: una cara, capa simple. 4.7 GB o 4.38 gibibytes (GiB) - Discos DVD±R/RW. 179


Departamento Académico de Sistemas Computacionales

o

DVD-9: una cara, capa doble. 8.5 GB o 7.92 GiB - Discos DVD±R DL.

o

DVD-10: dos caras, capa simple en ambas. 9.4 GB o 8.75 GiB - Discos DVD±R/RW.

o

DVD-14: dos caras, capa doble en una, capa simple en la otra. 13'3 GB o 12'3 GiB - Raramente utilizado.

o

DVD-18: dos caras, capa doble en ambas. 17.1 GB o 15.9 GiB - Discos DVD+R.

El disco puede tener una o dos caras, y una o dos capas de datos por cada cara; el número de caras y capas determina la capacidad del disco. Los formatos de dos caras apenas se utilizan. También existen DVD de 8 cm (no confundir con miniDVD, que son CD conteniendo información de tipo DVD video) que tienen una capacidad de 1.5 GB. La capacidad de un DVD-ROM puede ser determinada visualmente observando el número de caras de datos, y observando cada una de ellas. Las capas dobles normalmente son de color dorado, mientras que las capas simples son plateadas, como la de un CD. Otra manera de saber si un DVD contiene una o dos capas es observar el anillo central del disco, el cual contendrá un código de barras por cada capa que tenga. Todos los discos pueden contener cualquier contenido y tener cualquier distribución de capas y caras. El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM, y Alliance creó los estándares DVD+R/RW para evitar pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares oficiales, no muestran el logotipo DVD. En lugar de ello, llevan el logotipo "RW" incluso aunque sean discos que solo puedan grabarse una vez, lo que ha suscitado cierta polémica en algunos sectores que lo consideran publicidad engañosa.

Javier Aguilar Parra

180


Universidad Autónoma de Baja California Sur

El "+" y el "-" son estándares técnicos similares, parcialmente compatibles. Ya en 2005, ambos formatos eran igualmente populares: la mitad de la industria apoya "+" y la otra mitad "-", aunque actualmente soportan ambos. Parece ser que ambos formatos coexistirán indefinidamente. Todos los lectores DVD deberían poder leer ambos formatos, aunque la compatibilidad real es alrededor de 90% para ambos formatos, con mejores resultados de compatibilidad en los DVD-R en pruebas independientes. La mayoría de grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos +RW y DVD-R/RW. La diferencia entre los tipos +R y -R radica en la forma de grabación y de codificación de la información. En los +R los agujeros son 1 mientras que en los -R los agujeros son 0.

9.2.4 Velocidad. La velocidad de transferencia de datos de una unidad DVD está dada en múltiplos de 1.350 kB/s, lo que significa que una unidad lectora de 16x permite una transferencia de datos de 16 x 1.350 = 21.600 kB/s (21.09 MB/s). Como las velocidades de las unidades de CD se dan en múltiplos de 150 kB/s, cada múltiplo de velocidad en DVD equivale a nueve múltiplos de velocidad en CD. En términos de rotación física (revoluciones por minuto), un múltiplo de velocidad en DVD equivale a tres múltiplos de velocidad en CD, así que la cantidad de datos leída durante una rotación es tres veces mayor para el DVD que para el CD, y la unidad de DVD 8x tiene la misma velocidad rotacional que la unidad de CD 24x. Las primeras unidades lectoras CD y DVD leían datos a velocidad constante (Velocidad Lineal Constante, o CLV). Los datos en el disco pasaban bajo el láser de lectura a velocidad constante. Como la velocidad lineal (metros/segundo) de la pista es tanto mayor cuanto más alejados esté del centro del disco (de manera proporcional al radio), la velocidad rotacional del disco se ajustaba de acuerdo a qué porción del disco se estaba

181


Departamento Académico de Sistemas Computacionales

leyendo. Actualmente, la mayor parte de unidades de CD y DVD tienen una velocidad de rotación constante (Velocidad Angular Constante, o CAV). La máxima velocidad de transferencia de datos especificada para una cierta unidad y disco se alcanza solamente en los extremos del disco. Por tanto, la velocidad media de la unidad lectora equivale al 50-70% de la velocidad máxima para la unidad y el disco. Aunque esto puede parecer una desventaja, tales unidades tienen un menor tiempo de búsqueda, pues nunca deben cambiar la velocidad de rotación del disco.

9.2.5 Partes y dimensiones. Descripción: Se asemeja a los discos compactos en cuanto a sus dimensiones físicas (diámetro de 12 u 8 cm.), pero está codificado en un formato distinto y a una densidad mucho mayor y es un disco compacto en el que se pueden guardar música y video, esta hecho por plástico recubierto de una capa metálica muy fina y tiene una capacidad de 8.5 gigabytes o un DVD de capa simple puede guardar hasta 4.7 gigabytes (se le conoce como DVD-5) y Los DVD se pueden clasificar: Según su contenido: DVD-Video: Películas (vídeo y audio), DVD-Audio: Audio de alta definición, DVD-Data: Datos cualesquiera. Según su capacidad de regrabado: DVD-ROM: Sólo lectura, manufacturado con prensa, DVD-R: Grabable una sola vez, DVD-RW: Regrabable, DVD-RAM: Regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los datos siempre activa tras completar la escritura, DVD+R: Grabable una sola vez, DVD+RW: Regrabable, DVD-R DL: Grabable una sola vez de doble capa, DVD+R DL: Grabable una sola vez de doble capa, DVD-RW DL: Regrabable de doble capa, DVD+RW DL: Regrabable de doble capa Según su número de capas o caras: DVD-5: una cara, capa simple. 4.7 GB ó 4.38 gibibytes (GiB) - Discos DVD±R/RW, DVD-9: una cara, capa doble. 8.5 GB ó 7.92 GiB Discos DVD±R DL, DVD-10: dos caras, capa simple en ambas. 9.4 GB u 8.75 GiB Discos DVD±R/RW, DVD-14: dos caras, capa doble en una, capa simple en la otra. 13'3

Javier Aguilar Parra

182


Universidad Autónoma de Baja California Sur

GB ó 12'3 GiB - Raramente utilizado, DVD-18: dos caras, capa doble en ambas. 17.1 GB ó 15.9 GiB - Discos DVD+R.

9.2.6 Grabación de doble capa. La grabación de doble capa permite a los discos DVD-R y los DVD+R almacenar significativamente más datos, hasta 8.5 Gigabytes por disco, comparado con los 4.7 GB que permiten los discos de una capa. Los DVD-R DL (dual layer) fueron desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para el DVD+R Alliance por Philips y Mitsubishi Kagaku Media. Un disco de doble capa difiere de un DVD convencional en que emplea una segunda capa física ubicada en el interior del disco. Una unidad lectora con capacidad de doble capa accede al la segunda capa proyectando el láser a través de la primera capa semitransparente. El mecanismo de cambio de capa en algunos DVD puede conllevar una pausa de hasta un par de segundos Los discos grabables soportan esta tecnología manteniendo compatibilidad con algunos reproductores de DVD y unidades DVD-ROM. Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es comparable con las unidades de una capa, aunque el medio continúa siendo considerablemente más caro. También es el medio de almacenamiento por defecto en la consola Xbox 360

9.2.7 Conservación de los dispositivos ópticos. Los dispositivos ópticos deben cuidarse del polvo y su superficie debe protegerse para que no sufran daños, por eso generalmente poseen fundas protectoras. En este sentido, los DVD son más sensibles, sus capas protectoras son más finas, por lo tanto están más expuestas a rayaduras. Como se leen con luz, su desgaste físico no es un problema. La persistencia de la información almacenada en ellos depende de las propiedades del material que la soporta y de las condiciones de su almacenamiento.

183


Departamento Académico de Sistemas Computacionales

Varias empresas aplican distintos métodos para estimar las expectativas de vida de sus propias marcas. Debido a que aún no existen estándares internacionales para estimar la durabilidad de estos materiales sus resultados no son muy fiables. Algunos estudios de los CD-R aseguran que los tintes de phthalocianina y cianina estabilizada con metal son bastante duraderos. Si se emplea una unidad (re)grabadora compatible con estos tintes y se graba a una velocidad de 2x o 4x, es posible crear discos que duren más de 100 años. Los CD-R con tinte de phthalocianina o cianina, y capa reflectante de oro, son más resistentes que los CD-R con tinte de azo y capa reflectante de plata. Contrariamente a lo que muchos piensan, la humedad y la temperatura son parámetros a considerar en el almacenamiento de los soportes ópticos. Los cambios bruscos pueden causar deterioros importantes, porque los componentes de las diferentes capas que los componen tienen diferentes coeficientes térmicos de expansión. Actualmente, existen normas internacionales para el almacenamiento de CD-R. Estas indican que para asegurar su permanencia a largo plazo, se deberán mantener a una temperatura máxima de 23 grados centígrados y un 50% de humedad relativa. Recientemente, se ha identificado un nuevo tipo de hongo que, en condiciones climatológicas tropicales (30º C de temperatura y 90% de humedad relativa), destruye los CD. Se trata del Geotrichum, se reproduce sobre el soporte y destruye la información almacenada, primero degradando el borde externo del soporte. Esto ocurre porque el hongo se alimenta del carbono y el nitrógeno de la capa plástica de policarbonato, destruyendo así las pistas de información. Este hongo crece y se reproduce con facilidad dentro de la estructura de un CD en las condiciones expuestas. Se caracteriza por formar largas cadenas de esporas viscosas e incoloras.

9.2.8 DVD-Video. Los discos DVD-Video requieren una unidad DVD con decodificador MPEG-1/MPEG-2 (por ejemplo, un reproductor DVD o una unidad DVD de ordenador con software Javier Aguilar Parra

184


Universidad Autónoma de Baja California Sur

reproductor de DVD). Las películas DVD comerciales se codifican combinando vídeo codificado en MPEG-2 y audio MPEG, Dolby Digital, DTS o LPCM (normalmente, multicanal 5.1 para Dolby Digital y DTS, y 2.0 para audio MPEG y LPCM). Para el vídeo, se suele utilizar el formato MPEG-2 con una resolución de 720 x 480 pixeles (para NTSC) y 720 x 576 (para PAL), usando una tasa de bits promedio de alrededor de 5 Mbps (en modo bitrate variable, que distribuye los bits disponibles de acuerdo a la complejidad de cada fotograma). La tasa máxima permitida es de 9'8 Mbit/s, que rara vez se utiliza por razones prácticas. La mayoría de las editoras de DVD comerciales suelen utilizar valores máximos de 7'8 a 8'5 Mbps. Es posible utilizar un modo especial llamado "16:9 anamórfico" que codifica una película panorámica utilizando toda la resolución disponible; de hecho la inmensa mayoría de películas en formato panorámico en DVD están codificadas de ésta forma, sin grabar las barras negras como si fuera parte de la imagen; aprovechándose así toda la resolución. Tan sólo se añade la barra negra necesaria para llenar la imagen hasta un formato 16:9 (en caso de películas con relación de imagen superior a 16:9, cómo las de formato 21:9 que suelen abundar en el cine actual). Los datos de audio en una película DVD puede tener el formato Linear PCM, DTS, MPEG, o Dolby Digital (AC-3). En países que usan el estándar NTSC, cualquier película debería contener una pista de sonido en formato PCM o Dolby AC-3, y cualquier reproductor NTSC debe soportar ambos; todos los demás formatos son opcionales. Esto asegura que cualquier disco compatible con el estándar puede ser reproducido en cualquier reproductor compatible con el estándar. La vasta mayoría de lanzamientos NTSC comerciales utilizan audio AC-3. Inicialmente, en países con el estándar PAL (la mayor parte de Europa) el sonido DVD era estándar en audio PCM y MPEG-2, pero aparentemente contra los deseos de Philips, bajo presión pública el 5 de diciembre de 1.997, el DVD Forum aceptó la adición de Dolby AC185


Departamento Académico de Sistemas Computacionales

3 a los formatos opcionales en discos y a los formatos obligatorios en reproductores. La vasta mayoría de lanzamientos PAL comerciales utilizan ahora audio AC-3. Los DVD pueden contener más de una pista de audio junto con el contenido de vídeo. En muchos casos, se encuentran pistas de sonido en más de un idioma (por ejemplo, el idioma original de la película y el idioma del país en el que se vende). Con varios canales de audio en el DVD, el cableado requerido para llevar la señal a un amplificador o a una televisión puede ser, en ocasiones, algo frustrante. Muchos sistemas incluyen un conector digital opcional para esta tarea, que se conecta a una entrada similar en el amplificador. La señal elegida de audio se envía sobre la conexión, típicamente RCA o TOSLINK, en su formato original, para decodificarse por el equipo de audio. Al reproducir CD, la señal se envía en formato S/PDIF. El vídeo es otro asunto que continúa presentando problemas. Los reproductores actuales normalmente sacan solamente vídeo analógico, el vídeo compuesto en un RCA y el SVideo en el conector estándar. Sin embargo, ninguno de estos conectores fue diseñado para usar vídeo progresivo, así que ha empezado a surgir otro conjunto de conectores en la forma de vídeo de componentes, que mantiene los tres componentes del vídeo, una señal de luminosidad y dos de diferencias de color, como se guarda en el mismo DVD, en cables completamente separados. El tema de los conectores es confuso ya que se utiliza un gran número de diferentes conectores físicos en diferentes modelos de reproductores, RCA o BNC (el típico conector usado con cable coaxial), cables VGA. No existe ninguna estandarización al respecto. En Europa, el sistema de conexión más extendido es la utilización de Euroconectores, que transportan una señal compuesta Y/C (S-Video), y/o señal de video analógica RGB entrelazada, así como dos canales de sonido analógico, todo ello en un único y cómodo cable. La señal analógica por componentes ofrece una calidad de video muy superior al S-Video, idéntica al video por componentes YPbPr sin problemas de conversión o de Javier Aguilar Parra

186


Universidad Autónoma de Baja California Sur

ruido. Sin embargo, las señales de RGB analógico y S-Video no se pueden transportar simultáneamente por el mismo cable debido a que ambas utilizan los mismos pines con propósitos diferentes, y normalmente es necesario configurar manualmente los conectores. HDMI (High Definition Multimedia Interface). Algunos reproductores más recientes disponen de una salida HDMI, que es una interfaz para habilitar la transmisión digital de video y audio sin compresión (LPCM o Bit Stream) con solamente un cable, mostrando una imagen vívida en un televisor que tenga entrada HDMI. Las resoluciones disponibles para el video son 480p,720p,768p ó 1080i. Los DVD-Video también pueden incluir una o más pistas de subtítulos en diversos idiomas, incluyendo aquellas creadas para personas con deficiencias auditivas parciales o totales. Los subtítulos son almacenados como imágenes de mapa de bits con fondo transparente, sobreimpresas al vídeo durante la reproducción. Están contenidos en el archivo VOB del DVD, y restringidos a usar sólo cuatro colores (incluyendo la transparencia) y por ende suelen lucir mucho menos estilizados que los grabados en la película. Los DVD-Video pueden contener capítulos para facilitar la navegación, pudiéndose acceder a ellos sin necesidad de pasar previamente por todas las escenas anteriores. Y, si el espacio lo permite, pueden contener distintas versiones de una misma escena llamadas ángulos. Esto se utiliza en ocasiones en una escena en la que aparece un texto escrito para que el texto pueda verse en diferentes idiomas sin tener que recurrir a los subtítulos. Una de las mayores ventajas de los DVD-Video es que su gran capacidad permite incluir una amplia gama de extras además de la película, como por ejemplo documentales sobre el rodaje, entrevistas, pistas de audio con comentarios sobre la película que se sincronizan con ella, material descartado. 187


Departamento Académico de Sistemas Computacionales

9.2.9 Códigos de región. El DVD-Video dispone actualmente de cuatro sistemas diseñados para restringir su uso: Macrovision (que impide la duplicación de la película), Content Scrambling System (CSS), los códigos de región y la inhabilitación de las operaciones de usuario.

Figura 9.4: Códigos de región de DVD en el mundo.

Cada disco de DVD contiene uno o más códigos de región, los cuales denotan el o las áreas del mundo a la que cada distribución está dirigida. En ocasiones, los códigos de región son llamados "Zonas". Las especificaciones de cada equipo reproductor indican qué zona pueden reproducir. En la figura 9.4 se observa los códigos de región de DVD en el mundo En teoría, esto permite que los estudios cinematográficos controlen varios aspectos del lanzamiento del DVD, los cuales incluyen el contenido, la fecha y el precio, basados en la adquisición por regiones. En la práctica, varios reproductores de DVD permiten reproducir cualquier disco, o pueden ser modificados para dicho propósito. Distinto al cifrado de datos, los códigos de región permiten el bloqueo regional, que fue originado en la industria de los videojuegos. La región europea (Región 2) puede tener 4 subcódigos: "D1" hasta "D4". "D1" identifica un lanzamiento únicamente del Inglaterra. "D2" y "D3" identifican a los DVD europeos que no son vendidos en Reino Unido o Irlanda. "D4" identifica los DVD que son distribuidos a través de Europa.

Javier Aguilar Parra

188


Universidad Autónoma de Baja California Sur

Cualquier combinación de regiones puede ser aplicadas a un único disco. Por ejemplo, un DVD designado con la región 1/4 pueden ser reproducidos en cualquier lugar de América. Un disco marcado como "Región 0" (codificado como Región 1/2/3/4/5/6) significa que puede ser reproducido en cualquier lugar del mundo. Este término también describe los reproductores de DVD que son modificados para incorporar las regiones de la 1 a la 6 simultáneamente, proveyendo así, compatibilidad con virtualmente cualquier disco, cualesquiera que sean sus regiones. Esta solución, en apariencia, fue popular en los primeros días del formato DVD, pero los estudios cinematográficos respondieron rápidamente, ajustando los discos para rechazar la reproducción en dichos aparatos. Este sistema es conocido como Regional Coding Enhancement o RCE. Hoy en día, muchos reproductores "multi-región" logran desbloquear el "bloqueo regional" y el RCE, por medio de la identificación y selección de la región compatible por el DVD o permitiendo al usuario seleccionar una región en particular. Otros simplemente se saltan el chequeo de la región por completo. Algunos manufacturadores de reproductores de DVD ahora proveen información libremente, en como deshabilitar el bloqueo regional, y en algunos modelos recientes, aparece que ha sido deshabilitado por defecto. Esta práctica, para muchas personas, es una violación a los acuerdos comerciales de la Organización Mundial del Comercio, aunque no hay leyes que hayan sido definidas en esta área.

9.3 Memoria Flash. La memoria flash es una forma evolucionada de la memoria EEPROM que permite que múltiples posiciones de memoria sean escritas o borradas en una misma operación de programación mediante impulsos eléctricos, frente a las anteriores que sólo permite escribir o borrar una única celda cada vez. Por ello, flash permite funcionar a velocidades muy superiores cuando los sistemas emplean lectura y escritura en diferentes puntos de esta memoria al mismo tiempo. 189


Departamento Académico de Sistemas Computacionales

9.3.1 Características generales. Las memorias flash son de tipo no volátil, esto es, la información que almacena no se pierde en cuanto se desconecta de la corriente, una característica muy valorada para la multitud de usos en los que se emplea este tipo de memoria. Los principales usos de este tipo de memorias son pequeños dispositivos basados en el uso de baterías como teléfonos móviles, PDA, pequeños electrodomésticos, cámaras de fotos digitales, reproductores portátiles de audio, etc. Las capacidades de almacenamiento de estas tarjetas que integran memorias flash comenzaron en 512 MB pero actualmente se pueden encontrar en el mercado tarjetas de hasta 16 GB por parte de la empresa A-DATA. En la figura 9.5 se observa Dos tarjetas CompactFlash de Kingston

Figura 9.5: CompactFlash de Kingston.

La velocidad de transferencia de estas tarjetas, al igual que la capacidad de las mismas, se ha ido incrementando progresivamente. La nueva generación de tarjetas permitirá velocidades de hasta 7-30 MB/s. Ofrecen, además, características como gran resistencia a los golpes y es muy silencioso, ya que no contiene ni actuadores mecánicos ni partes móviles. Su pequeño tamaño también es un factor determinante a la hora de escoger para un dispositivo portátil, así como su ligereza y versatilidad para todos los usos hacia los que está orientado.

Javier Aguilar Parra

190


Universidad Autónoma de Baja California Sur

Sin embargo, todos los tipos de memoria flash sólo permiten un número limitado de escrituras y borrados, generalmente entre 10.000 y un millón, dependiendo de la celda, de la precisión del proceso de fabricación y del voltaje necesario para su borrado. Este tipo de memoria está fabricado con puertas lógicas NOR y NAND para almacenar los 0’s ó 1’s correspondientes. Actualmente (08-08-2005) hay una gran división entre los fabricantes de un tipo u otro, especialmente a la hora de elegir un sistema de archivos para estas memorias. Sin embargo se comienzan a desarrollar memorias basadas en ORNAND. Los sistemas de archivos para estas memorias están en pleno desarrollo aunque ya en funcionamiento como por ejemplo JFFS originalmente para NOR, evolucionado a JFFS2 para soportar además NAND o YAFFS, ya en su segunda versión, para NAND. Sin embargo, en la práctica se emplea un sistema de archivos FAT por compatibilidad, sobre todo en las tarjetas de memoria extraíble. Otra característica de reciente aparición (30-9-2004) ha sido la resistencia térmica de algunos encapsulados de tarjetas de memoria orientadas a las cámaras digitales de gama alta. Esto permite funcionar en condiciones extremas de temperatura como desiertos o glaciares ya que el rango de temperaturas soportado abarca desde los -25 ºC hasta los 85 ºC. Las aplicaciones más habituales son: 

El llavero USB que, además del almacenamiento, suelen incluir otros servicios como radio FM, grabación de voz y, sobre todo como reproductores portátiles de MP3 y otros formatos de audio. En la figura 9.8 se observa un lector de tarjetas de memoria por USB.

Las PC Card

Las tarjetas de memoria flash que son el sustituto del carrete en la fotografía digital, ya que en las mismas se almacenan las fotos. 191


Departamento Académico de Sistemas Computacionales

Existen varios estándares de encapsulados promocionados y fabricados por la mayoría de las multinacionales dedicadas a la producción de hardware.

Figura 9.8: Lector de tarjetas de memoria por USB..

9.3.2 Funcionamiento. Flash, como tipo de EEPROM que es, contiene un array de celdas con un transistor evolucionado con dos puertas en cada intersección. Tradicionalmente sólo almacenan un bit de información. Las nuevas memorias flash, llamadas también dispositivos de celdas multi-nivel, pueden almacenar más de un bit por celda variando el número de electrones que almacenan. Estas memorias están basadas en el transistor FAMOS (Floating Gate AvalancheInjection Metal Oxide Semiconductor) que es, esencialmente, un transistor NMOS con un conductor (basado en un óxido metálico) adicional entre la puerta de control (CG – Control Gate) y los terminales fuente/drenador contenidos en otra puerta (FG – Floating Gate) o bien que rodea a FG y es quien contiene los electrones que almacenan la información.

9.3.3 Memoria flash de tipo NOR. En las memorias flash de tipo NOR, cuando los electrones se encuentran en FG, modifican (prácticamente anulan) el campo eléctrico que generaría CG en caso de estar activo. De esta forma, dependiendo de si la celda está a 1 ó a 0, el campo eléctrico de la celda existe o no. Entonces, cuando se lee la celda poniendo un determinado voltaje en CG, la corriente eléctrica fluye o no en función del voltaje almacenado en la celda. La presencia/ausencia de corriente se detecta e interpreta como un 1 ó un 0, reproduciendo Javier Aguilar Parra

192


Universidad Autónoma de Baja California Sur

así el dato almacenado. En los dispositivos de celda multi-nivel, se detecta la intensidad de la corriente para controlar el número de electrones almacenados en FG e interpretarlos adecuadamente. Para programar una celda de tipo NOR (asignar un valor determinado) se permite el paso de la corriente desde el terminal fuente al terminal sumidero, entonces se coloca en CG un voltaje alto para absorber los electrones y retenerlos en el campo eléctrico que genera. Este proceso se llama hot-electron injection. Para borrar (poner a “1”, el estado natural del transistor) el contenido de una celda, expulsar estos electrones, se emplea la técnica de Fowler-Nordheim tunnelling, un proceso de tunelado mecánico – cuántico. Esto es, aplicar un voltaje inverso bastante alto al empleado para atraer a los electrones, convirtiendo al transistor en una pistola de electrones que permite, abriendo el terminal sumidero, que los electrones abandonen el mismo. Este proceso es el que provoca el deterioro de las celdas, al aplicar sobre un conductor tan delgado un voltaje tan alto. Cabe destacar que las memorias flash están subdividas en bloques (en ocasiones llamados sectores) y por lo tanto, para el borrado, se limpian bloques enteros para agilizar el proceso, ya que es la parte más lenta del proceso. Por esta razón, las memorias flash son mucho más rápidas que las EEPROM convencionales, ya que borran byte a byte. No obstante, para reescribir un dato es necesario limpiar el bloque primero para después reescribir su contenido.

9.3.4 Memorias flash de tipo NAND. Las memorias flash basadas en puertas lógicas NAND funcionan de forma ligeramente diferente: usan un túnel de inyección para la escritura y para el borrado un túnel de ‘soltado’. Las memorias basadas en NAND tienen, además de la evidente base en otro tipo de puertas, un coste bastante inferior, unas diez veces de más resistencia a las operaciones pero sólo permiten acceso secuencial (más orientado a dispositivos de almacenamiento masivo), frente a las memorias flash basadas en NOR que permiten 193


Departamento Académico de Sistemas Computacionales

lectura de acceso aleatorio. Sin embargo, han sido las NAND las que han permitido la expansión de este tipo de memoria, ya que el mecanismo de borrado es más sencillo (aunque también se borre por bloques) lo que ha proporcionado una base más rentable para la creación de dispositivos de tipo tarjeta de memoria.

9.3.5 Comparación de memorias flash basadas en NOR y NAND. Para comparar estos tipos de memoria se consideran los diferentes aspectos de las memorias tradicionalmente valorados. 

La densidad de almacenamiento de los chips es actualmente bastante mayor en las memorias NAND.

El coste de NOR es mucho mayor.

El acceso NOR es aleatorio para lectura y orientado a bloques para su modificación. Sin embargo, NAND ofrece tan solo acceso directo para los bloques y lectura secuencial dentro de los mismos.

En la escritura de NOR podemos llegar a modificar un solo bit. Esto destaca con la limitada reprogramación de las NAND que deben modificar bloques o palabras completas.

La velocidad de lectura es muy superior en NOR (50-100 ns) frente a NAND (10 µs de la búsqueda de la página + 50 ns por byte).

La velocidad de escritura para NOR es de 5 µs por byte frente a 200 µs por página en NAND.

La velocidad de borrado para NOR es de 1 s por bloque de 64 KB frente a los 2 ms por bloque de 16 KB en NAND.

La fiabilidad de los dispositivos basados en NOR es realmente muy alta, es relativamente inmune a la corrupción de datos y tampoco tiene bloques erróneos frente a la escasa fiabilidad de los sistemas NAND que requieren corrección de

Javier Aguilar Parra

194


Universidad Autónoma de Baja California Sur

datos y existe la posibilidad de que queden bloques marcados como erróneos e inservibles. En resumen, los sistemas basados en NAND son más baratos y rápidos pero carecen de una fiabilidad que los haga eficiente, lo que demuestra la necesidad imperiosa de un buen sistema de archivos. Dependiendo de qué sea lo que se busque, merecerá la pena decantarse por uno u otro tipo.

9.3.6 Sistemas de archivos para memorias flash. Diseñar un sistema de archivos eficiente para las memorias flash se ha convertido en una carrera vertiginosa y compleja, ya que, aunque ambos (NOR y NAND) son tipos de memoria flash, tienen características muy diferentes entre sí a la hora de acceder a esos datos. Esto es porque un sistema de ficheros que trabaje con memorias de tipo NOR incorpora varios mecanismos innecesarios para NAND y, a su vez, NAND requiere mecanismos adicionales, innecesarios para gestionar la memoria de tipo NOR. Un ejemplo podría ser un recolector de basura. Esta herramienta está condicionada por el rendimiento de las funciones de borrado que, en el caso de NOR es muy lento y, además, un recolector de basura NOR requiere una complejidad relativa bastante alta y limita las opciones de diseño del sistema de archivos. Comparándolo con los sistemas NAND, que borran mucho más rápidamente, estas limitaciones no tienen sentido. Otra de las grandes diferencias entre estos sistemas es el uso de bloques erróneos que pueden existir en NAND pero no tienen sentido en los sistemas NOR que garantizan la integridad. El tamaño que deben manejar unos y otros sistemas también difiere sensiblemente y por lo tanto es otro factor a tener en cuenta. Se deberá diseñar estos sistemas en función de la orientación que se le quiera dar al sistema Los dos sistemas de ficheros que se disputan el liderazgo para la organización interna de las memorias flash son JFFS (Journaling Flash File System) y YAFFS (Yet Another Flash File System) 195


Departamento Académico de Sistemas Computacionales

9.3.7 Calcificación de la memoria flash Las memorias han evolucionado mucho desde los comienzos del mundo de la computación. Conviene recordar los tipos de memorias de semiconductores empleadas como memoria principal y unas ligeras pinceladas sobre cada una de ellas para enmarcar las memorias flash dentro de su contexto. Organizando estos tipos de memoria conviene destacar tres categorías si las clasificamos en función de las operaciones que podemos realizar sobre ellas, es decir, memorias de sólo lectura, memorias de sobre todo lectura y memorias de lectura escritura. 1. Memorias de sólo lectura. 1. ROM: se usan principalmente en microprogramación de sistemas. Los fabricantes las suelen emplear cuando producen componentes de forma masiva. 2. PROM: (Programmable Read Only Memory): El proceso de escritura es electrónico. Se puede grabar posteriormente a la fabricación del chip, a diferencia de las anteriores que se graba durante la fabricación. Permite una única grabación y es más cara que la ROM. 2. Memorias de sobre todo lectura. 1. EPROM (Erasable Programmable Read Only Memory): Se puede escribir varias veces de forma eléctrica, sin embargo, el borrado de los contenidos es completo y a través de la exposición a rayos ultravioletas (de esto que suelen tener una pequeña ‘ventanita’ en el chip). 2. EEPROM (Electrically Erasable Programmable Read Only Memory): Se puede borrar selectivamente byte a byte con corriente eléctrica. Es más cara que la EPROM. 3. Memoria flash: Está basada en las memorias EEPROM pero permite el borrado bloque a bloque y es más barata y densa. Javier Aguilar Parra

196


Universidad Autónoma de Baja California Sur

3. Memorias de Lectura/Escritura (RAM). 1. DRAM (Dynamic Random Access Memory): Los datos se almacenan como en la carga de un condensador. Tiende a descargarse y, por lo tanto, es necesario un proceso de refresco periódico. Son más simples y baratas que las SRAM. 2. SRAM (Static Random Access Memory): Los datos se almacenan formando biestables, por lo que no require refresco. Igual que DRAM es volátil. Son más rápidas que las DRAM y más caras.

9.2.8 Historia de la memoria flash. La historia de la memoria flash siempre ha estado muy vinculada con el avance del resto de las tecnologías a las que presta sus servicios como routers, módems, BIOS de los PCs, wireless, etc. Fue Fujio Masuoka en 1984 cuando inventó este tipo de memoria como

evolución

de

las

EEPROM

existentes

por

aquel entonces

(Trabajador

pertenenciente a Toshiba). Intel intentó atribuirse la creación de esta aunque sin éxito. Este último comercializó la primera memoria flash Entre los años 1994 y 1998, se desarrollaron los principales tipos de memoria que conocemos hoy, como la SmartMedia o la CompactFlash. La tecnología pronto planteó aplicaciones en otros campos. En 1998, la compañía Rio comercializó el primer ‘Walkman’ sin piezas móviles aprovechando el modo de funcionamiento de SmartMedia. Era el sueño de todo deportista que hubiera sufrido los saltos de un diskman en el bolsillo. En 1994 SanDisk comenzó a comercializar tarjetas de memoria (CompactFlash) basadas en estos circuitos, y desde entonces la evolución ha llegado a pequeños dispositivos de mano de la electrónica de consumo como reproductores de MP3 portátiles, tarjetas de memoria para vídeo consolas, capacidad de almacenamiento para las PC Card que nos permiten conectar a redes inalámbricas y un largo etcétera, incluso llegando a la aeronáutica espacial. El espectro es grande. 197


Departamento Académico de Sistemas Computacionales

9.3.9 Futuro El futuro del mundo de la memoria flash es bastante alentador, ya que se tiende a la ubicuidad de las computadoras y electrodomésticos inteligentes e integrados y, por ello, la demanda de memorias pequeñas, baratas y flexibles seguirá en alza hasta que aparezcan nuevos sistemas que lo superen tanto en características como en coste y, al menos en apariencia, no es factible ni siquiera a medio plazo ya que la miniaturización y densidad de las memorias flash está todavía lejos de alcanzar niveles preocupantes desde el punto de vista físico. El desarrollo de las memorias flash es, en comparación con otros tipos de memoria sorprendentemente rápido tanto en capacidad como en velocidad y prestaciones. Sin embargo, los estándares de comunicación de estas memorias, de especial forma en la comunicación con los PCs es notablemente inferior, lo que puede retrasar los avances conseguidos. La apuesta de gigantes de la informática de consumo como AMD y Fujitsu en formar nuevas empresas dedicadas exclusivamente a este tipo de memorias como Spansion en julio de 2003 auguran fuertes inversiones en investigación, desarrollo e innovación en un mercado que en 2005 sigue creciendo en un mercado que ya registró en 2004 un crecimiento asombroso hasta los 15.000 millones de dólares (después de haber superado la burbuja tecnológica del llamado boom punto com) según el analista de la industria Gartner, avala todas estas ideas. Es curioso que esta nueva empresa, concretamente, esté dando la vuelta a la tortilla respecto a las velocidades con una técnica tan sencilla en la forma como compleja en el fondo de combinar los dos tipos de tecnologías reinantes en el mundo de las memorias flash en tan poco tiempo. Sin duda se están invirtiendo muchos esfuerzos de todo tipo en este punto.

Javier Aguilar Parra

198


Universidad Autónoma de Baja California Sur

Sin embargo, la memoria flash se seguirá especializando fuertemente, aprovechando las características de cada tipo de memoria para funciones concretas. Supongamos una Arquitectura Harvard para un pequeño dispositivo como un PDA; la memoria de instrucciones estaría compuesta por una memoria de tipo ORNAND (empleando la tecnología MirrorBit de segunda generación) dedicada a los programas del sistema, esto ofrecería velocidades sostenidas de hasta 150 MB/s de lectura en modo ráfaga según la compañía con un costo energético ínfimo y que implementa una seguridad por hardware realmente avanzada; para la memoria de datos podríamos emplear sistemas basados en puertas NAND de alta capacidad a un precio realmente asequible. Sólo quedaría reducir el consumo de los potentes procesadores para PC actuales y dispondríamos de un sistema de muy reducidas dimensiones con unas prestaciones que hoy en día sería la envidia de la mayoría de los ordenadores de sobremesa. Y no queda mucho tiempo hasta que estos sistemas tomen, con un esfuerzo redoblado, las calles. Cualquier dispositivo con datos críticos empleará las tecnologías basadas en NOR u ORNAND si tenemos en cuenta que un fallo puede hacer inservible un terminal de telefonía móvil o un sistema médico por llegar a un caso extremo. Sin embargo, la electrónica de consumo personal seguirá apostando por las memorias basadas en NAND por su inmensamente reducido costo y gran capacidad, como los reproductores portátiles de MP3 o ya, incluso, reproductores de DVDs portátiles. La reducción del voltaje empleado (actualmente en 1,8 V la más reducida), además de un menor consumo, permitirá alargar la vida útil de estos dispositivos sensiblemente. Con todo, los nuevos retos serán los problemas que sufren hoy en día los procesadores por su miniaturización y altas frecuencias de reloj de los microprocesadores. Los sistemas de ficheros para memorias flash, con proyectos disponibles mediante CVS (Concurrent Version System) y código abierto permiten un desarrollo realmente rápido,

199


Departamento Académico de Sistemas Computacionales

como es el caso de YAFFS2, que, incluso, ha conseguido varios sponsors y hay empresas realmente interesadas en un proyecto de esta envergadura. La integración con sistemas de wireless permitirá unas condiciones propicias para una mayor integración y ubicuidad de los dispositivos digitales, convirtiendo el mundo que nos rodea en el sueño de muchos desde la década de 1980. Pero no sólo eso, la Agencia Espacial Brasileña, por citar una agencia espacial, ya se ha interesado oficialmente en este tipo de memorias para integrarla en sus diseños; la NASA ya lo hizo y demostró en Marte su funcionamiento en el Spirit (satélite de la NASA, gemelo de Opportunity), donde se almacenaban incorrectamente las órdenes como bien se puede recordar. Esto sólo es el principio. Y más cerca de lo que creemos. Intel asegura que el 90% de los PCs, cerca del 90% de los móviles, el 50% de los módems, etc. en 1997 ya contaban con este tipo de memorias. TDK que están fabricando discos duros há memorias flash NAND de 32 Gb há tamaño similar al de há disco duro de 2.5 pulgadas, similares a los discos duros de los portátiles há velocidad de 33.3 Mb/s. El problema de este disco duro es que, al contrario de los discos duros convencionales, tiene há número limitado de accesos. Samsung también há desarrollado memorias NAND de hasta 32 Gb.

Javier Aguilar Parra

200


Universidad Autónoma de Baja California Sur

Glosario A Actualizar: Instalar una versión más nueva de un programa computacional que ya se posee. Ancho de banda: Capacidad máxima de transmisión, que se mide por bits por segundo. Antivirus: Software para detectar, diagnosticar y destruir los virus informáticos. ASCII: American Standard Code for Information Interchange (Código Estadounidense Estándar para el Intercambio de Información), Código utilizado por las computadoras para representar los caracteres más habituales, como las letras, los números, los signos de puntuación o los caracteres de control.

B Base de datos: Estructura de software que colecciona información muy variada de diferentes personas y cosas (es decir, de una realidad determinada), cada una de las cuales tiene algo en común o campos comunes con todos o con algunos. Se diseñó con la finalidad de solucionar y agilizar la administración de los datos que se almacenan en la memoria de la computadora. BIOS: Basic Input-Output System, sistema básico de entrada-salida. Programa incorporado en un chip de la tarjeta madre que se encarga de realizar las funciones básicas de manejo y configuración de la computadora. Bit: Unidad mínima de medida para la información digital. Búfer: Es una ubicación de la memoria en una computadora o en un instrumento digital reservada para el almacenamiento temporal de información digital, mientras que está esperando ser procesada. Byte: Unidad de medida para la información digital, un byte equivale a 8 bits.

C 201


Departamento Académico de Sistemas Computacionales

Cable coaxial: Cable formado por un alambre aislado rodeado de una malla trenzada y con una cubierta exterior de protección. Con multitud de usos, la transmisión de Tv y datos entre otros. Cable IDE: Sigla de Integrated Drive Electronics (electrónica de unidad integrada), que denota la interfaz estándar usada para conectar fundamentalmente unidades de disco y CD-ROM a un ordenador. Cable par trenzado: Dispositivo parecido al cable telefónico el cual contiene una mayor cantidad de cables. Es el medio físico por el cual pueden conectarse varias computadoras. El trenzado mantiene estable las propiedades eléctricas a lo largo de toda la longitud del cable y reduce las interferencias creadas por los hilos adyacentes en los cables compuestos por varios pares Cargar: Trasladar la información desde un servidor a su computador (más precisamente a la memoria de trabajo del computador, o memoria RAM), para poder visualizarla en la pantalla. Cd RW: Disco compacto en el cual se graba información y se puede borrar para grabar información diferente en el. Cd: Abreviatura del término inglés Compact Disc, que significa Disco Compacto, hecho de una placa de metal recubierta de plástico y cuyo campo físico es de 3 pulgadas de diámetro que se coloca bajo un aparato lector que emite un rayo láser. Chatear: Comunicarse con otro usuario u otros usuarios vía Chat utilizando programas o sistemas de mensajería instantánea. Chip: Es una pastilla o chip en la que se encuentran todos o casi todos los componentes electrónicos necesarios para realizar alguna función. Cliente: Se le llama así a la computadora que solicita servicios a otra computadora llamada servidor. Código binario: Lenguaje en el cual toda la información es representada por secuencias Javier Aguilar Parra

202


Universidad Autónoma de Baja California Sur

de ceros y unos. Computadora analógica: Es el tipo de computadora que utiliza fenómenos electrónicos o mecánicos para modelar el problema a resolver utilizando un tipo de cantidad física para representar otra. Por ejemplo un osciloscopio. Computadora de propósito especial: Estas computadoras están diseñadas para un propósito específico, pueden ser utilizadas para monitoreo o hacer lecturas o como medidores eléctricos, por ejemplo: relojes digitales, un procesador de palabras. Computadora digital: Aceptan

y procesan datos convertidos a sistema binario. La

mayoría de las computadoras son de esta clase. Computadora hibrida: Este tipo de computadoras procesan señales analógicas que suelen estar convertidas en digitales, son utilizadas para controlar procesos en el área de robótica. Computadora: Es un dispositivo electrónico compuesto básicamente de un procesador, una memoria y los dispositivos de entrada/salida (E/S). Correo electrónico: Permite enviar y recibir mensajes desde cualquier lugar del mundo a través de Internet. Cpu: Central Processing Unit (o unidad central de proceso) es un dispositivo lógico programable que ejecuta todas las instrucciones y realiza todos los procesos lógicos y matemáticos de un ordenador. Cracker: Persona que acceder a un sistema informático sin autorización. Estas personas tienen a menudo malas intenciones, en contraste con los hackers, y suelen disponer de muchos medios para introducirse en un sistema.

D Diagrama de flujo: Es la representación gráfica de una secuencia de instrucciones de un programa que ejecuta un computador para obtener un resultado determinado.

203


Departamento Académico de Sistemas Computacionales

Dimm: Son las siglas de "Dual In-line Memory Module" y que podemos traducir como Módulo de Memoria de Doble línea. Son módulos de memoria RAM utilizados en computadoras personales. Disco de 3 ½: Es un tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un material magnético que permite la grabación y lectura de datos, fino y flexible (de ahí su denominación) encerrado en una carcasa fina cuadrada o rectangular de plástico. Disco duro: Es un dispositivo de almacenamiento interno, gran capacidad, dispositivo principal de una computadora por ser donde residen programas como el S.O. Documento o archivo: Son archivos computacionales que contienen información (al contrario de instrucciones), como texto, imágenes, sonido, video, etc. Driver: Pequeño programa cuya función es controlar el funcionamiento de un dispositivo de la computadora bajo un determinado sistema operativo. Dvd: Digital Video Device, dispositivo digital de vídeo. Dispositivo óptico de almacenamiento masivo capaz de albergar entre 4,7 y 17 GB en cada disco de 12 cm (de apariencia similar a los CDs).

E Electrónica: Ciencia aplicada de la familia de la electricidad, que aprovecha las propiedades eléctricas de los materiales semiconductores para distintos usos. Encriptación: Transformación de datos legibles a datos ilegibles. Permite proteger la información reservada que viaja por Internet, como por ejemplo, el número de tarjeta de crédito. Para desactivar este mecanismo o "desencriptar" el mensaje o documento, se debe poseer una clave.

F Fdisk: Es un programa de utilidad que se usa para crear, borrar o modificar las

Javier Aguilar Parra

204


Universidad Autónoma de Baja California Sur

particiones en una unidad de disco. Fibra óptica: Sistema de transmisión que utiliza fibra de vidrio como conductor de frecuencias de luz visible o infrarroja, se caracteriza por un elevado ancho de banda y por tanto, una alta velocidad de transmisión, y poca pérdida de señal.

F Firewall: En español cortafuego, Sistema que aísla una red computacional de Internet, filtrando la información que entra y que sale desde esta, para protegerla de amenazas a la seguridad e integridad de los datos. Format: Comando de MS-DOS cuya función es dar formato a una partición de disco duro o disquete. Frecuencia de muestreo: Frecuencia a la que se toman muestras de una señal analógica para convertirla en señal digital. Generalmente se mide en hercios (o ciclos por segundo). Frecuencia: Es un término empleado en física para indicar la velocidad de repetición de cualquier fenómeno periódico. Se define como el número de veces que se repite un fenómeno en la unidad de tiempo. FTP: (file transfer protocol), herramienta de Internet que permite conectarse a un servidor de una empresa o institución para "bajar" archivos como imágenes, documentos o MP3s.

G Gabinete: Caja que contiene los elementos más importantes de una PC, como la placa madre, el disco rígido y demás placas. Trae una fuente energética y un ventilador ubicado en la parte posterior. Giga byte: Unidad de medida para la información digital, un giga byte equivale a 1024 mega bytes aproximadamente.

H 205


Departamento Académico de Sistemas Computacionales

Hacker: Experto informático especialista en entrar en sistemas ajenos sin permiso, generalmente para mostrar la baja seguridad de los mismos o simplemente para demostrar que es capaz de hacerlo, pero a diferencia de los cracker este no lo hace con fines dañinos. Hardware: En informática, se llama así a todos los aparatos físicos, dispositivos electrónicos y electromecánicos, circuitos, cables, tarjetas, armarios o cajas, periféricos de todo tipo Hertz: Una medida utilizada para representar el número de veces por segundo que una forma de onda repite su patrón de movimiento (ciclo). Host: Una computadora que realiza algunas tareas en beneficio de otras aplicaciones llamadas clientes. Hub: Conector que distribuye la información llegada de una o más direcciones a varios ordenadores. Es una de las formas de conexión de los usuarios de una red local.

I Icono: Imagen que representa un programa u otro recurso; generalmente conduce a abrir un programa. Impresora: Periférico cuya función es transcribir/pasar un documento (imagen y/o texto) desde la computadora a un medio físico, generalmente papel, mediante el uso de cinta, cartuchos de tinta o también con tecnología láser. Informática: La Informática o computación es la ciencia del tratamiento automático de la información mediante una computadora. Inteligencia artificial: Es una rama de la Informática que pretende desarrollar programas en los que el ordenador desarrolle conductas típicas de los seres inteligentes. Internet: Red de ordenadores a nivel mundial. Ofrece distintos servicios, como el envío y recepción de correo electrónico (e-mail), la posibilidad de ver información en las páginas

Javier Aguilar Parra

206


Universidad Autónoma de Baja California Sur

Web, de participar en foros de discusión (News), de enviar y recibir ficheros mediante FTP, de charlar en tiempo real. Intranet: Red de uso privado que emplea los mismos estándares y herramientas de Internet. Ip: Protocolo de Internet que define los códigos numéricos que identifican a cada computador conectado a Internet.

J JPG/JPEG: Joint Photographic Expert Group, formato gráfico para comprimir y descomprimir imágenes, permitiendo crear archivos gráficos de menor tamaño. Jumper: Elemento para interconectar dos terminales de manera temporal sin tener que efectuar una operación que requiera herramienta adicional, dicha unión de terminales cierra el circuito eléctrico del que forma parte.

K Kilo byte: Unidad de media para la información digital, un kilo byte equivale a 1024 bytes aproximadamente

L Laptop: Ordenador portátil en el que se levanta una tapa que alberga la pantalla, y en la parte inferior queda el teclado y la circuitería interna Link: Enlace entre páginas en el Web. Son sectores de la página (texto o imágenes) que están vinculados a otras páginas, de manera que basta con hacer clic en ellos para "trasladarse" a otra página, que puede estar ubicada en cualquier servidor de la red.

M Mainframe: Es el tipo de computadora mas grande, se usan donde muchas personas tienen acceso frecuente a una misma información el cual es mediante una Terminal

207


Departamento Académico de Sistemas Computacionales

pasiva. Mega byte: Unidad de medida para la información digital, un mega byte equivale a 1024 kilo bytes aproximadamente. Memoria RAM: Siglas de Random Access Memory, que lo podríamos traducir como Memoria de Acceso Aleatorio. Es un conjunto de Chips que junto con el microprocesador es parte fundamental del ordenador, es una memoria volátil ya que los datos almacenados en ella se pierden al apagar el ordenador. El tamaño de la RAM determina la rapidez y comodidad de trabajo ante el ordenador, así como el número de programas que podemos utilizar de forma simultánea. Memoria ROM: Memoria no volátil de sólo lectura en la que se almacenan todos los programas esenciales para el funcionamiento del sistema operativo. Es decir, la información contenida en la memoria ROM no puede modificarse y es de carácter permanente. Memoria DRAM: memoria DRAM ("Dynamic RAM") Memoria FPM-RAM: (Fast Page Mode RAM) Memoria EDO-RAM: (Extended Data Output RAM) Memoria BEDO-RAM: (Burst Extended Data Output RAM) Memoria SDR SDRAM: (Single Data Rate Synchronous Dynamic RAM) Memoria RDRAM: (Rambus DRAM) Memoria ESDRAM: (Enhanced SDRAM) Memoria SRAM: Representa la abreviatura de "Static RAM". Memoria DDR SDRAM (Double Data Rate SDRAM) Memoria Tag RAM: Este tipo de memoria almacena las direcciones de memoria de cada uno de los datos de la DRAM almacenados en la memoria caché del sistema. Memoria VRAM:

Éste tipo de memoria fue utilizada en las tarjetas gráficas

(controladores gráficos) para poder manejar toda la información visual que le manda la Javier Aguilar Parra

208


Universidad Autónoma de Baja California Sur

CPU del sistema, y podría ser incluida dentro de la categoría de Peripheral RAM. Memoria FRAM: La memoria FRAM (RAM Ferroeléctrica) es una memoria de estado sólido, similar a la memoria RAM, pero que contiene un funcionamiento más parecido a las antiguas memorias de ferrite. Mini computadora: Se les llama así debido a su tamaño pequeño en comparación con las mainframe. Modelo OSI: El modelo OSI (Open Systems Interconection) es la propuesta que hizo la Organización

Internacional para

la Estandarización

(ISO) para estandarizar la

interconexión de sistemas abiertos. Un sistema abierto se refiere a que es independiente de una arquitectura específica. Se compone el modelo, por tanto, de un conjunto de estándares ISO relativos a las comunicaciones de datos. MODEM: Término que proviene de las palabras MOdulador-DEModulador. Consiste en un dispositivo que se conecta al ordenador ya una línea telefónica y que permite poner en contacto dos ordenadores, convierte la información de digital a analógica y viceversa. Monitor: Periférico de salida que muestra la información que el usuario necesita en una pantalla. Mouse: Generalmente fabricado en material plástico, que podemos considerar, al mismo tiempo, como un dispositivo de entrada de datos y de control, dependiendo del software que maneje en cada momento. MS-DOS: MS-DOS es un sistema operativo de Microsoft perteneciente a la familia DOS. Fue un sistema operativo para el IBM PC que alcanzó gran difusión.

N Nanotecnología: Rama de la tecnología que se ocupa de la fabricación y el control de estructuras y máquinas a nivel y tamaño molecular. El nanómetro es una unidad que equivale a una mil millonésima parte del metro.

209


Departamento Académico de Sistemas Computacionales

Nodo: Punto de una red computacional. Puede ser una computadora personal, un servidor o un dispositivo de comunicación (router o "enrutador", hub o "concentrador", etc.).

P Pagina web: Una página de Web es un archivo escrito en lenguaje Hyper Text Markup Language HTML, publicada a través de un servidor de Internet, que proporciona información o servicios, a determinada comunidad en el mundo Password (palabra, contraseña o clave de acceso): Código conocido sólo por el usuario de correo electrónico, y que se utiliza para proteger la privacidad de los mensajes. PC: Significan "Personal Computer", u ordenador personal, se dio esta denominación a los ordenadores IBM ya los que son compatibles con ellos, Periféricos: Un periférico es un dispositivo hardware de un ordenador que potencia la capacidad de éste y permite la entrada y/o salida de datos. Protocolo: Se denomina protocolo a un conjunto de normas y/o procedimientos para la transmisión de datos que ha de ser observado por los dos extremos de un proceso de comunicación (emisor y receptor). Estos protocolos "gobiernan" formatos, modos de acceso, secuencias temporales. Puertas de conexión: Todos los computadores tienen puertas o puertos (enchufes) a los que se conectan periféricos como impresoras, módem, fax y otros. Puerto fire wire: También llamado ilink o IEEE1394, es un sistema de bus serial compatible con la tecnología plug & play capaz de transmitir datos a 400 Mb/s. Puerto paralelo: Un puerto paralelo es un interfase entre un ordenador y un periférico cuya principal característica es que los bits de datos viajan juntos enviando un byte completo o más a la vez. Es decir, se implementa un cable o una vía física para cada bit de datos formando un bus.

Javier Aguilar Parra

210


Universidad Autónoma de Baja California Sur

Puerto PS/2: (personal system 2), se creo a finales de los ochentas por IBM, son dos conectores redondos de 5 pines que solo pueden emplearse para conectar ratones y teclados. Plug & play: significa "enchufar y usar". Reconocimiento inmediato de un dispositivo por parte de la computadora, sin necesidad de instrucciones del usuario. Puerto serial: Un puerto serie es un interfase de comunicaciones entre ordenadores y periféricos en donde la información es transmitida bit a bit enviando un solo bit a la vez. Quemar: Término genérico que significa escribir datos en un CD-ROM Realidad Virtual: Sistema de representación de imágenes y objetos mediante computadores, que permite crear una "ilusión casi real". De esta forma, se puede decir que la Realidad Virtual aparece como un sustituto de la realidad, con el fin de apoyar actividades que saquen provecho de la simulación. Red informática: Conjunto de computadoras y elementos que permite una comunicación entre sí y forman parte de un mismo ambiente. Red LAN: Local Area Network (Red de Área Local), y que se refiere a las redes locales de ordenadores. Red MAN: (Metropolitan Area Network) Red de Área Metropolitana, Este termino describe a una red que provee una conectividad digital de una área regional a una metropolitana que no va más allá de los 100 km. Red WAN: Wide Area Network o Redes de Area Ancha. Tipo de red que interconecta computadoras a nivel de un país o grupo de países. Repetidor: Dispositivo encargado de amplificar o regenerar la señal entre dos segmentos de una red que se interconectan ampliando su cobertura. Robótica: Es una ciencia o rama de la tecnología, que estudia el diseño y construcción de máquinas capaces de desempeñar tareas realizadas por el ser humano o que Szrequieren del uso de inteligencia. 211


Departamento Académico de Sistemas Computacionales

S Scandisk: Programa de Windows que revisa un disco, detecta errores y los corrige. Scanner: Un dispositivo que convierte imágenes o texto en papel en datos que pueden ser manipulados por una computadora. Servidor: Ordenador que actúa como unidad de archivo central en una determinada red, que puede ser local o Internet. Seudo código: Es la transcripción del diagrama de flujo a un código no ejecutable pero que es comprensible para el programador, el cual ayuda a esclarecer mas la programación. Simm: Módulo simple de memoria en línea. Las memorias RAM suelen venir en módulos SIMM para insertar en la tarjeta madre. Sistema operativo: Programa o conjunto de programas que actúan como intermediarios entre las aplicaciones de los usuarios (Software) y el equipo físico (Hardware) de la máquina, ocultando las características particulares de este último. Software: Son los programas, incluyendo procedimientos, utilidades, sistemas operativos, programas de aplicación y paquetes informáticos, implementados para un sistema informático. Supercomputadora: Son computadoras con capacidades computacionales muy superiores a las comunes de una computadora, se utilizan para realizar cálculos que precisan velocidad de proceso. Tienen muchos procesadores que trabajan en paralelo y pueden realizar billones de operaciones por segundo. Switch: Dispositivo utilizado para conectar varios equipos informáticos, en redes locales. Más seguro y fiable que el Hub, el switch opera en la capa de enlace de datos del modelo OSI.

T Javier Aguilar Parra

212


Universidad Autónoma de Baja California Sur

Tarjeta de sonido: Accesorio que permite oír sonidos en nuestra PC. Se le pueden conectar parlantes y micrófono. Tarjeta de video: Adaptador que transforma los datos digitales en impulsos eléctricos, para que puedan ser mostrados en la pantalla. Tarjeta madre: Es un circuito integrado con varios microchips y diferentes tipos de ranuras y conectores. En ella se conectan todos los componentes del computador incluyendo el procesador. Taza de transferencia: Medida o termino para designar el tamaño o la proporción de la cantidad y velocidad en el proceso de manejo de información. Teclado: Dispositivo que contiene un conjunto de teclas semejantes a las de las máquinas de escribir que permite al usuario ingresar datos en una computadora. Tecnología: Aplicación del conocimiento científico u organizado a las tareas prácticas por medio de sistemas ordenados que incluyen las personas, las organizaciones, los organismos vivientes y las máquinas. Telecomunicación: Comunicación a distancia, técnica de transmitir un mensaje desde un punto a otro, normalmente con el atributo típico adicional de ser bidireccional. Topología: Disposición física de los nodos de una red, por ejemplo, es posible que se encuentren formando un bus, una estrella, un anillo. Transistor: Dispositivo sellado que consiste en semiconductores agrupados, usado para amplificar o modificar la corriente eléctrica y el voltaje.

U Unicode: Norma para representación de datos que están en proceso de evolución, llamada norma de código único para caracteres mundiales. Unidad cd-rw: Dispositivo interno que sirve para leer y escribir en un cd rw. Unidad de cd rom: Dispositivo interno que sirve para dar lectura a los cd. Unidad floppy: Dispositivo interno que sirve para leer/escribir en los disquetes. 213


Departamento Académico de Sistemas Computacionales

Unix: Sistema operativo creado en los años 70 por Bells Lab, una división de la compañía de

telecomunicaciones

estadounidense

AT&T.

Sistema

operativo

multitarea

y

multiusuario. USB memory: Es un pequeño dispositivo de almacenamiento que utiliza la memoria flash para guardar la información sin necesidad de pilas. USB: Universal Serial Bus. Interfaz estándar que facilita la conexión de periféricos a una computadora.

V Velocidad de transmisión: Velocidad de transmisión de la información en palabras por minuto en baudios, caracteres o bits por segundo. Cantidad de elementos de información que pueden ser transportados por unidad de tiempo. Virus: Programa que se duplica a sí mismo en un sistema informático incorporándose a otros programas que son utilizados por varios sistemas. Estos programas pueden causar serios problemas a los sistemas infectados.

W Web cam: Es una pequeña cámara digital conectada a una computadora, la cual puede capturar imágenes y transmitirlas a través de Internet en directo, ya sea a una página web o a otra u otras computadoras en forma privada. Windows: Sistema operativo de Microsoft basado en el uso de ventanas virtuales para las distintas aplicaciones o documentos. La utilización de ventanas no es exclusiva de Windows.

Z Zip: Disco magnético removible que permite almacenar 100 o 250 Mb de información, de gran estabilidad y duración.

Javier Aguilar Parra

214


Universidad Aut贸noma de Baja California Sur

215


Departamento Académico de Sistemas Computacionales

Lista de Referencias. [L1] William Stallings. Organización y Arquitectura de Computadoras. Principios de estructura y de funcionamiento. Editorial MEGABYTE. México. 1995. [L2] Somon, H. The Sciences of the Artificial. Cambridge, MA: MIT Press.1969. [L3] Koestler, A. Janus. Nueva York: Random House, 1978. [L4] Weinberg, G. An Introduction to General Systems Thinking. Nueva York. 1975. [L5] Bell, C. y Newell, A. Computer Structure: Principles and Examples. McGrill. New York. 1982. [L6] Intel 815 Chipset Family. http://www.intel.com/design/chipsets/designex/29071401.pdf. Consultado el 04-05-2014. [L7] 423 Pin Socket (PGA423) Design Guidelines. http://www.intel.com/content/www/us/en/404.html. Consultado el 03-05-2014. [L8] Intel Pentium 4 Processor 478-Pin Socket (mPGA478) Design Guidelines. http://download.intel.com/design/Pentium4/guides/24989002.pdf. Consultado el 03-052014. [L9] 495-Pin and 615-pin micro-PGA ZIF Socket Design Specification Application Note. http://download.intel.com/design/mobile/applnots/24528401.pdf. Consultado el 03-052009. [L10] mPGA 604 Socket Mechanical Design Guide. http://www.intel.com/content/www/us/en/processors/xeon/mpga604-socket-guide.html. Consultado el 03-05-2014. [L11] AMD Sempron Processor Product Data Sheet. http://www.amd.com/Pages /usen/assets/content_type/white_papers_and_tech_docs/31805.pdf. Consultado el 03-052014.

Javier Aguilar Parra

216


Universidad Aut贸noma de Baja California Sur

[L12] AMD Opteron Processor Product Data Sheet. http://www.amd.com/Pages/ usen/assets/content_type/white_papers_and_tech_docs/23932.pdf. Consultado el 03-052014. [L13] CPU only has 478 pins, but the socket has 479. http://www.intel.com/Assets/PDF/designguide/302666.pdf. Consultado el 03-05-2014.

[L14] LGA775 Socket Mechanical Design Guide. amd.com. http://www.intel.com/content/www/us/en/404.html. Consultado el 04-05-2014.

[L15] LGA771 Socket Mechanical Design Guide. http://www.intel.com/content/www/us/en/404.html. Consultado el 03-05-2014. [L16] Low-Profile Socket S1 Design Specification. http://www.amd.com/Pages/usen/assets/content_type/white_papers_and_tech_docs/31839.pdf. Consultado el 03-052014. [L17] Thermal Design Guide for Socket F (1207) Processors. http://www.amd.com/Pages/usen/assets/content_type/white_papers_and_tech_docs/32800.pdf. Consultado el 06-052014. [L18] CPU only has 938 pins, but the socket has 941. http://support.amd.com/en-us. Consultado el 05-01-2014. [L19] AMD Documentation Socket AM3 design Specification. http://support.amd.com/enus. Consultado el 05-01-2014. [L20] Hennessy J. y Jouppi N. Computer Technology and Architectutre: An Evolving Interaction. 1991. [L21] http://www.intel.com/support/sp/processors/sb/cs-032341.htm. Consultado el 05-012014. 217


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.