Ensamblaje

Page 1

C.E.T.PRO Mariscal Andres Avelino Caceres

Modulo:

ENSAMBLAJE Y REPARACION DE COMPUTADORAS

CAPITULO 1 – INTRODUCCIÓN Y CONCEPTOS GENERALES

1. El Mundo de la Computación.El insospechado éxito que alcanzo Intel en 1971 con la fabricación del primer microprocesador (Chip programable) comercial del mundo, el “4004” constituyo el comienzo de una revolución que afecta hasta nuestros días a toda la humanidad. Por su impacto se le ha dado por nombrarle como “la segunda revolución Industrial”. Se le da este nombre debido a que está multiplicando la capacidad de diseño del hombre con la misma fuerza que la primera revolución Industrial multiplico la fuerza de producción muscular del hombre. Entrando en el nuevo milenio las computadoras han demostrado ser un elemento esencial para cualquier tipo de trabajo, tal es así que son parte de nuestra vida diaria, las encontramos en todas partes: en Bancos, en facturación de las empresas, en oficinas y hogares, etc.

1.1 La Computadora y sus Características Técnicas. La computadora (ordenador), es una máquina que almacena y procesa información, sobre la base de programas residentes en su memoria. En esta máquina se pueden identificar dos partes bien definidas el HARDWARE y el SOFTWARE.

Lic.

Manuel Llerena Silva


C.E.T.PRO Mariscal Andres Avelino Caceres El Hardware, es toda la parte física de la Computadora. Es decir, los Chips, las tarjetas, el monitor, etc.

El Software, es el conjunto de programas que controlan el funcionamiento de una computadora (equipo lógico).

La unión de estos dos elementos constituye la computadora. El Hardware de una computadora se compone de: - La Unidad Central de Proceso (CPU), es el conjunto de chips capaces de ejecutar algunos cálculos sencillos como suma o multiplicación de números. La potencia de una computadora depende completamente de la velocidad y fiabilidad de la CPU.

- Memoria Central. La información procesada por la CPU se almacena normalmente en la memoria central hasta que se terminan los cálculos. Los programas de computadora se almacenan también en la memoria central.

- Dispositivos de almacenamiento secundario (memoria Auxiliar), diferentes dispositivos tales como Discos, Cintas Magnéticas, CDs, se usan para almacenar grandes cantidades de información. Para ser procesados por la CPU, los datos se almacenan en dispositivos de almacenamiento auxiliar y luego tienen que llevarse a la memoria.

Lic.

Manuel Llerena Silva


- Periféricos o Dispositivos de entrada / salida, Estos dispositivos permiten al usuario comunicarse con la computadora. Algunos dispositivos típicos de E/S son el teclado, la impresora, monitor, ratón, etc.

Los componentes Básicos del SOFTWARE, se consideran: - El BIOS (sistema básico de entrada y salida) programa residente en la memoria ROM de la tarjeta madre. - El Sistema Operativo, es un conjunto sofisticado de programas que controlan la computadora y ejecutan los programas de aplicación (DOS, WINDOWS, LINUX, etc) - Paquetes de Aplicación, se cargan después del sistema operativo entre ellos están WORD, AutoCAD, etc. 1.2 La Señal Binaria.

Lic.

Manuel Llerena Silva


Básica mente existen dos tipos de señales a los cuales responden los sistemas: La señal analógica se caracteriza por ser continua y variable en el tiempo. En cambio una señal digital o discreta puede tener varios valores perfectamente diferenciados. La computadora trabaja sobre la señal digital más básica (señal binaria) de dos valores perfectamente diferenciados, es decir, sólo reconocen secuencias de ceros(0) y unos(1). Estos dígitos, constituyen la unidad más pequeña de información que se puede representar, y se llaman bits. NOTA.-Podemos denominar al byte como la unidad base para la medida de la c apacidad de almacenamiento de la memoria o el disco duro, etc. Así como el metro es la unidad base para la medida de la longitud lineal.

Agrupando los bits tendremos: Bits Byte Kilobyte (Kb) Megabytes (Mb) Gigabytes (Gb) Terabytes (Tb)

=0ó1 = Grupo de 8 bits = 1.024 Bytes = 1.024 Kb = 1.024 Mb = 1.024 Gb

= 210 = 220 = 230 = 240

bytes bytes bytes bytes

Lic.

Manuel Llerena Silva


1.3 Características más sobresalientes en la computadora  El microprocesador o CPU, es el cerebro de la computadora determina que tanta de memoria puede utilizar el sistema, que clase de programas puede correr y que tan velozmente puede avanzar. (Existen multitud de procesadores y es muy difícil reconocerlos si no se tiene experiencia)  Velocidad del microprocesador, La Frecuencia (Cantidad de ciclos que se suscitan en un segundo c.p.s. [Hertz = Hz]) es la unidad que utilizamos para medir la velocidad del Sistema. Si todas las demás características fueran  iguales, una máquina de 400MHz. sería más rápida que otra de 333MHz. (Sin embargo no todas la son.)  Tarjeta Madre, es la placa base sobre la cual se arma la computadora, en ella están los zócalos de memoria, los buses de expansión, los chips, etc. Existen diferentes modelos, así como fabricantes y están muy relacionados a los procesadores que soportan.

 Puertos, es el punto de conexión de algún dispositivo externo a la unidad del sistema. De El puerto paralelo (de impresora 25 pines) puede servir como interfaz bidireccional de alta velocidad. El puerto serie (de ratón o fax módem 9 y 25 pines), Puerto USB Bus universal serial, puede ser usado para conectar una infinidad de dispositivos modernos.  Memoria, Hay varios tipos diferentes de memoria: convencional, extendida y expandida, memoria caché. Cada una resuelve un problema diferente. Algunos programas no corren si no cuentan con cierta cantidad mínima de una clase determinada de memoria, por esta razón es muy importante conocer la capacidad y el tipo de memoria instalada en una computadora. No olvide la capacidad de memoria se mide en bytes y sus correspondientes múltiplos.  Case, es el gabinete en el cual esta ensamblada la computadora (tarjeta madre, microprocesador, tarjeta de vídeo, discos duros, cdroms, etc.). Y por el tipo de fuente de alimentación se clasifican en dos modelos:

Lic.

Manuel Llerena Silva


AT: Se caracteriza por ser una fuente que utiliza un switch de posición para su encendidoATX: Caracterizada por tener encendido por pulso, y apagado por software (fuente inteligente)

 Tarjeta de vídeo, afecta al tipo de programas que se pueden correr y qué tan rápidamente llegan a la pantalla los datos. Las tarjetas de vídeo han mejorado ofreciendo más colores, mostrando más puntos en la pantalla (píxeles) y siendo más rápidas (aceleradores gráficos). Un aspecto importante para cumplir esta función es la memoria de video (Ejemplos: 256 Kb, 1 Mb, 4 Mb, 8 Mb, etc.)  Monitor es un periférico de salida que muestra de forma visual la información al usuario. Existen de diferentes tipos: VGA, Súper VGA, CGA, HERCULES, etc., a color ó monocromáticos. También existen de diferentes tamaños: 14 pulgadas, 15 “, 17 “, etc.

 El disco duro, es un dispositivo de almacenamiento auxiliar, normalmente son de alta capacidad en el orden de los Megabytes y Gigabytes.

 Multimedia, significan mezclar sonido imágenes, gráficos y otra información digital en un solo CD (Disco Compacto), para este fin se instalan Tarjetas de sonido, Parlantes, Lectores y Grabadores de CD ROMs, DVD, Micrófonos, Scanner, cámaras, etc.  El teclado, es el medio por excelencia por el cual se introducen los datos, existen diferentes pero básicamente interesa el número de teclas, el idioma del teclado y tipo de conector a la tarjeta madre. 

El ratón o Mouse es un elemento esencial para la manipulación de la computadora bajo entorno gráfico como Windows. Varían por el número de teclas y tipo de conector (serial de 9 pines ó PS/2)

Lic.

Manuel Llerena Silva


C.E.T.PRO Mariscal Andres Avelino Caceres 1.4 Cuestionario De acuerdo a lo expuesto en clases y utilizando su capacidad investigativa responda las siguientes preguntas: Características Técnicas COMPUTADORA 1 COMPUTADORA 2 COMPUTADORA 3 Del HARDWARE (En Laboratorio) (En Laboratorio) (En Domicilio u oficina) Microprocesador Velocidad del sistema Memoria Caché Memoria RAM Convencional Memoria RAM Extendida Tarjeta de Vídeo Memoria de video Disco Duro (capacidad) Puertos Paralelo Seriales USB Monitor Tipo y tamaño CD-ROM Velocidad X Tarjeta de Sonido Parlantes Potencia Case o Gabinete MiniTower o Full Tower ATX Unidad de Disco Flexible Mouse o ratón PS-2 o Serial Teclado Idioma y otros Otros Otros Otros SOFTWARE Sistema Operativo (Windows, Linux, etc.) COSTO TOTAL APROXIMADO Lic.

Manuel Llerena Silva


cuestionario a) Hoy en día como se consideran a los individuos que no saben operar una computadora? R.

b) ¿Cree usted que el software está compuesto por los periféricos o dispositivos de entrada salida? ¿Por qué? R. c) Del hardware de una computadora, cuál componente considera más importante. ¿Por qué? R. d) Cuál es la unidad básica de medida de la información en el campo de la informática? R. e) Usted cree que la frecuencia es la unidad de medida de la capacidad del disco duro? ¿Por que? R. f) Explique cual la diferencia entre un conector USB R.

y Mini DIN

g) Mencione al menos tres marcas de fabricantes de microprocesadores y de ejemplos de algunos modelos en cada marca. R.

Lic.

Manuel Llerena Silva


ARQUITECTURA DE LA COMPUTADORA Arquitectura Básica de una Microcomputadora Una microcomputadora en forma general está compuesto de los siguientes elementos: El microprocesador (llamado también CPU), un clock ó reloj del sistema (implica velocidad), la memoria RAM, la memoria ROM, los dispositivos de memoria auxiliar, los periféricos de entrada y los periféricos de salida.

A su vez estos elementos están unidos o comunicados a través de los denominados buses: El bus de datos, El bus de direcciones y el bus de control. En esta estructura, el microprocesador (cerebro electrónico) es el que controla y administra todo el sistema. Sin embargo todos son indispensables. Veamos de forma simple la lógica del funcionamiento, suponiendo que queremos llevar un dato de la memoria RAM a la CPU. i. Para el objetivo mencionado, la orden para llevar el dato tiene que estar presente


ii. iii. iv. v.

en un programa y este ubicado en la memoria RAM Se ejecuta la orden correr el programa colocando la dirección donde se encuentra la instrucción. Entonces la CPU, busca la instrucción. La CPU, después de leer el dato del programa decodifica la instrucción (que hace está instrucción) y luego procede a ejecutar la instrucción En la ejecución tiene que generar la dirección de la memoria donde se encuentra el dato a través del bus de Direcciones. Posteriormente indica a la memoria que va a proceder a una lectura “read" (bus de control), y la memoria habilita o conecta sus datos al Bus de datos y el CPU carga este dato en algún registro interno.

Aclaremos: El BUS de DATOS, es utilizado para transferir información del CPU hacia la memoria y los dispositivos periféricos, ó en sentido contrario. Esté bus tiene 8, 16, 32 líneas según sea el sistema el computación. El BUS de DIRECCIONES, es utilizado por el CPU para indicar con quien establecerá una comunicación. El BUS de CONTROL, consta de diferentes señales como WAIT = esperar, READ = leer, Write = escribir, INTERRUPT = Interrupción, y otras. NOTAS: -

Cada dato en la memoria y cada dispositivo periférico tiene una o varias “Direcciónes Hexadecimales” para su acceso

-

Los Dispositivos pueden Interrumpir al CPU, mientras está trabajando en un programa principal. La CPU decide si atender o no a la interrupción de acuerdo a un criterio de prioridad, es por eso que existe más de una interrupción (normalmente 16 interrupciones del IRQ0 al IRQ15).

-

Todos los dispositivos no trabajan a la misma velocidad por lo que existe un protocolo de comunicación (espera, el dato todavía no esta listo).

EL MICROPROCESADOR, (El cerebro electrónico) su capacidad varía de acuerdo al modelo y determina la potencialidad del sistema de computación. Veamos algunas características del Microprocesador 80386 (1985) que, esta compuesto de tres grandes bloques:  Unidad Central de Proceso, compuesta a su vez de una Unidad para la Decodificación de las Instrucciones (dispone de 8 registros de 32 bits que se emplean en el cálculo del direccionamiento y en la manipulación de datos) y otra para la ejecución complementada con la ALU Unidad Lógica Aritmética.  La Unidad de Manejo de Memoria, posee una zona dedicada al procesamiento de la paginación y otra para la segmentación. La memoria está organizada en uno o varios segmentos de longitud variable, con un máximo de 4 Gigabytes cada uno. Cada segmento se divide en una o más paginas de 4k bytes cada una.


 Unidad de interfaz de Bus, soporta el direccionamiento pipelining información dinámica del bus de datos y señales de permiso de byte para cada uno de los bytes que se compone el bus de datos. La arquitectura pipeline admite las funciones de búsqueda, decodificación, ejecución y manejo de memoria en paralelo (dando lugar al surgimiento de la memoria cache). MEMORIAS: Son los chips que nos permiten almacenar información y tenemos de varios tipos: Memoria ROM (Memoria de Solo Lectura). - Este tipo de memoria tiene almacenado de forma permanente un programa (en el caso de las PCs el BIOS, sistema básico de entrada y salida). La característica principal es que el programa se graba en fabrica y este no se pierde cuando se quita la Energía. A su vez estas memorias se subdividen en: PROM (ROM Programable), EPROM (PROM Borrable por Luz Ultravioleta), EEPROM (EPROM borrable Eléctricamente).

Memoria RAM (Memoria de Acceso Aleatorio), Este tipo de memoria es de lectura y escritura, pero la diferencia es que la información grabada en este dispositivo se pierde cuando se quita la energía. Básicamente existen dos tipos de memoria RAM, las denomi-nas memorias RAM estáticas y memorias RAM dinámicas. La memoria es manipulada, por el concepto de Dirección, dato, observando un pequeño mapa de memoria, podemos ver que en una dirección se almacena un dato y que para acceder a un dato, primero debemos generar la dirección en la que se encuentra. 2.4. Los Dispositivos de Memoria Auxiliar, son aquellos en los que realmente se guarda los programas y los datos para el procesamiento por el microprocesador. Estos dispositivos se pueden accederse a través del concepto de memoria virtual, que es un servicio prestado por el sistema operativo, Los Dispositivos de Almacenamiento, trabajan en conjunción con las características integradas del microprocesador para usar almacenamiento externo (como el Disco Duro, etc.) para así simular grandes cantidades de memoria real.


Lic. Manuel Llerena Silva 2.5 Los periféricos de entrada / salida, son todos aquellos que sirven para introducir o bien sacar datos del sistema, entre ellos se pueden mencionar, el teclado, el Mouse, el scanner, la impresora, el monitor, la tarjeta de sonido e impresora,etc.

El Teclado: bien para clavija DIN ancha

, propio de las placas Baby-AT, o mini-

DIN en placas ATX.. Puerto paralelo: también llamado "LPT1" (en los pocos casos que existen más de uno, el segundo sería LPT2). Es un conector hembra mm, con 25 pines agrupados en 2 hileras

de unos 38

Puertos serie: o bien puertos "COM" o "RS232". Suelen ser dos, uno estrecho de unos 17 mm, con 9 pines agrupados en 2 hileras (habitualmente "COM1"), y otro ancho de unos 38 mm, con 25 pines agrupados en 2 hileras (generalmente "COM2"), como el paralelo pero macho, con los pines hacia fuera. Internamente son iguales, sólo cambia el conector exterior; en las placas ATX suelen ser ambos de 9 pines. Puerto para ratón PS/2: en realidad, un conector mini-DIN como el de teclado; el nombre proviene de su uso en los ordenadores PS/2 de IBM. Puerto de juegos: o puerto para joystick o teclado midi. De tamaño algo mayor que el puerto serie estrecho, de unos 25 mm, con 15 pines agrupados en 2 hileras. Puerto VGA: suponiendo que nuestra tarjeta de vídeo sea de este tipo (incluyendo SVGA, XGA...). Aunque lo común es que no esté integrada en la placa base sino en una tarjeta de expansión, vamos a describirlo para evitar confusiones: de unos 17 mm, con 15 pines agrupados en 3 hileras. Otros: en las placas más modernas (ni siquiera en todas las ATX) pueden existir otros tipos de puerto, de los cuales el más común es el USB, de forma estrecha y rectangular; inconfundible pero de muy poca utilidad por ahora. Actualmente los teclados y ratones tienden hacia el mini-DIN o PS/2, y se supone que en unos años casi todo se conectará al USB, en una cadena de periféricos conectados al mismo cable. Sin embargo, en mi opinión nos quedan puertos paralelo y serie para rato; no en vano llevamos más de quince años con ellos. Estos periféricos, tienen una dirección de acceso para la entrada o salida, (ej. para recibir cartas hacemos uso de un buzón, donde se depositan todas las cartas sin nosotros saber que origen tienen), algunos pueden tener un rango de direcciones para el acceso al sistema. También están asociados a una Interrupción, que le permite al periférico interrumpir al CPU cuando requiere la atención del procesador.


CUESTIONARIO De acuerdo a lo expuesto en clases y utilizando su capacidad investigativa responda las siguientes preguntas: a) Cual será el significada de puerto USB y que tipos existiran? R. b) Mencione Cinco microprocesadores especificando el modelo y fabricande, que hayan salido al mercado comercial en los dos últimos años? R. c) ¿La memoria Cache es de tipo ROM? ¿Por qué? R. d) Mencione al menos seis dispositivos de almacenamiento auxiliar? R. e) El BIOS SETUP es un programa de configuración que es parte de Windows? ¿Por qué? R. f) Explique el funcionamiento o finalidad de una Interrupcion? R. g) Explique el sistema númerico hexadecimal mostrando algunas equivalencias con el sistema númerico decimal. R. h) Podran funcionar dos dispositivos al mismo tiempo con la misma dirección hexadecimal? ¿Por qué?. R.

Lic. Manuel Llerena Silva


COMPLETEMOS LA SIGUIENTE TABLA MICROPROCESADOR BIOS - MARCA Memoria RAM Memoria RAM Cache Capacidad del Disco Duro SISTEMA OPERATIVO DISPOSITIVO PERIFERICO

DIRECCIONES 贸 RANGO DE DIRECCIONES

GRA FICO

INTERRUPCION

PUERTO PARA LELO LPT1

PUERTO SERIA L COM1

PUERTO SERIA L COM2

PUERTO PARA LELO LPT2

PUERTO SERIA L COM3

PUERTO SERIA L COM4

TECLA DO

TARJETA DE VIDEO

OTROS

Lic. Manuel Llerena Silva


TÉCNICAS DE ENSAMBLAJE Y PARTES DENTRO LA PC Técnicas de Ensamblaje Consideremos algunas precauciones y recomendaciones generales, que deberá seguir durante la aventura para reducir los riesgos de que algo salga mal. Nunca toque un circuito ni inserte o remueva un componente de hardware mientras la PC esté encendida e incluso, en los sistemas ATX, enchufada. Descárguese regularmente (de energía estática, no de estrés) haciendo tierra durante el proceso de ensamblaje. Puede tocar una tubería conectada a tierra o insertar alguna pieza metálica en la conexión a tierra de un enchufe y tocarla. Esto es necesario para que la energía estática en su cuerpo no queme algún componente de hardware. Recupere todas las pequeñas piezas que se le escondan. Nada más un tornillo caído sobre la tarjeta madre pudiera ocasionar un cortocircuito. No utilice destornilladores ni ninguna otra herramienta magnética, dicha energía también puede dañar algunos componentes. No fuerce nada. Generalmente, los componentes y conectores deberían poder insertarse sin tener que realmente aplicarles fuerza. No haga nada de lo que no esté seguro. Hoy en día la mayoría de los componentes de hardware están diseñados de manera de que no pueda insertarlos erróneamente. 3.1.1. Consejos desarmar una PC

Generales

para

 Asegúrese de tener suficiente espacio de trabajo.  Guarde los componentes pequeños en orden.  Apague la PC y Periféricos asociados.  Retire la cubierta del case con cuidado. Descargue su energía estática (toque el chasis). Haga diagramas ¿en qué orden estaban las tarjetas? No olvide los cables. Si no sabe qué está haciendo, no lo haga No fuerce las cosas. Deténgase y VEA.  Desconecte los cables y conectores antes de retirar los dispositivos o tarjetas.  No se apresure, ni se asuste.

    


Errores frecuentes y Consejos para rearmar  Olvidarse conectar los cables P8 y P9 de la fuente (Es el caso de las fuentes AT en el que los cables de color negro van juntos no se olvide).  La famosa regla de la Pata 1, El cable tipo “listón” consiste de varios conectadores tendidos paralelamente formando un cable plano. Uno de cables de la orilla viene de un color diferente de los demás (color rojo). Este conectador va conectado al perno número “1” del conector. (Algunos rotulan “2”).  Tarjeta Madre mal asentada,  Inversión de los cables de datos.  Evitar el pánico cuando no arranca el equipo inmediatamente.

“Case, Gabinete ó Carcasa” Hay de diferentes calidades, con fuentes de alimentación de mayor o menor capacidad, y más o menos ampliables. Los tipos más comunes son: •

Minitorre: Es el modelo estándar. Resulta poco ampliable (típicamente, un par de dispositivos externos y uno interno, por ejemplo para instalar un DVD, y otro disco duro). Por dentro son auténticas marañas de cables, de ventilación escasa y con fuentes de unos 200 W; en general sólo recomendable para usos poco ambiciosos como ofimática. Semitorre: estándar en algunas tiendas, opcional o con equipos potentes en otras. Poca diferencia con las minitorres, pero añaden sitio para algún dispositivo más, además de ser menor el follón interno. Para casi todos los públicos, aunque es recomendable que la fuente sea de más potencia, unos 600 W. Sobre la potencia de la fuente, tenga en cuenta que casi todos los AMD Athlon y los Pentium D más rápidos consumen bastante, necesitan fuentes de 550 W o más para funcionar sin problemas, sobre todo si se instalan junto con tarjetas gráficas potentes. Supertorres: para servidores no muy ambiciosos, equipos con bastantes periféricos, personas sibaritas y sin complejos o aquellos que prefieran tener el ordenador apoyado en el suelo. En general son de mucha mayor calidad, aunque hay de todo, claro. Fuentes potentes, hasta de 300 W e incluso con fuentes redundantes (vamos, con dos por si una falla), además de ventiladores extra para favorecer la ventilación. Para servidor: lo mejor en carcasas con diferencia; de diversos tamaños, entre semitorre y supertorre, con una refrigeración perfecta (¡en algunos casos hasta 10 ventiladores!), fuentes de alimentación


redundantes, accesibilidad "en caliente" (con el equipo en funcionamiento)... y unos precios elevadísimos. • Sobremesa: poco recomendables por ser mínimamente ampliables y de mala ventilación, además de elevar el monitor hasta alturas poco recomendables para el cuello y la espalda (salvo que se tenga una silla muy alta y un reposapiés). Sin embargo, las necesidades de espacio a veces no dejan otro remedio. Otros temas a tener en cuenta son el formato (el actualmente estándar ATX, el clásico Baby-AT e incluso otros más raros), que determina además que el conector del teclado sea DIN o miniDIN (PS/2), y las características especiales como botón para dejar el ordenador suspendido temporalmente (en stand-by, como con los televisores) o tapa para proteger del polvo al CD y la disquetera. En general, en las cajas de más calidad los bordes metálicos están mejor rematados, el blindaje ante interferencias está mejor conseguido, la fuente de alimentación es más silenciosa y la ventilación es mejor, a veces apoyada con ventiladores extra. En la pared de atrás de su case, cerca de la entrada de corriente de su fuente de poder, encontrará el selector de voltaje, un pequeño switch de dos posiciones. Ajústelo para indicar el voltaje de la corriente de entrada (115v ó 220v). Sea muy cuidadoso en éste paso, si selecciona el voltaje equivocado su hardware puede quemarse. 3.2.2. Fuente de poder. Los cables de poder transportan la electricidad hacia cada componente de hardware de las PCs. Los que irán conectados a sus unidades de discos y a algunos ventiladores son grupos de cuatro cables sencillos (uno amarillo, uno rojo y dos negros en el centro) con el mismo conector. Observe el significado de cada color en la siguiente tabla:

4,7cm de largo, con un soporte atrás, doce chatos pines en línea


En las tarjetas madres ATX, busque un gordo conector de aproximadamente 4x1cm con dos filas de diez agujeros cada una. Insértele el conector con dos filas de diez largos pines plásticos cada una que sale de su fuente de poder, pasando su gancho plástico por la pequeña punta blanca que sobresale del conector en la tarjeta madre. NOTA: - Si le conecta los cables de poder a su tarjeta madre en la dirección equivocada, hasta ahí llegó la tarjeta madre. Conectar los cables que salen de la fuente en forma erronea y en el lugar que no corresponde son los peores errores. 3.2.3 La Tarjeta Madre ó placa base La "placa base" (mainboard), o "placa madre" (motherboard), es el elemento principal de todo ordenador, en el que se encuentran o al que se conectan todos los demás aparatos y dispositivos. Físicamente, se trata de una "oblea" de material sintético, sobre la cual existe un circuito electrónico que conecta diversos elementos que se encuentran anclados sobre ella; los principales son: • • • •

el microprocesador, "pinchado" en un elemento llamado zócalo; la memoria, generalmente en forma de módulos; los slots o ranuras de expansión donde se conectan las tarjetas; diversos chips de control, entre ellos la BIOS.

Veamos una placa base moderna y típica:


3.2.4. Zócalo del microprocesador Es el lugar donde se inserta el "cerebro" del ordenador. Durante más de 10 años ha consistido en un rectángulo o cuadrado donde el "micro", una pastilla de plástico negro con patitas, se introducía con mayor o menor facilidad; recientemente, la aparición de los Pentium II ha cambiado un poco este panorama. Veamos en detalle los tipos más comunes de zócalo, o socket, como dicen los anglosajones: •

PGA: son el modelo clásico, Pentium III, IV Y D; consiste en un cuadrado de conectores en forma de agujero donde se insertan las patitas del chip por pura presión. Según el chip, tiene más o menos agujeritos.


SOCKET

775

Para que el CPU no exceda su máxima temperatura, necesita colocarle encima un disipador de calor y un pequeño ventilador. Generalmente disipador y ventilador vienen juntos, ya atornillados de la manera conveniente. Si no, monte el ventilador sobre el disipador y atorníllelo. Slots (Ranuras) para Tarjetas de Expansión Son unas ranuras de plástico con conectores eléctricos (slots) donde se introducen las tarjetas de expansión (tarjeta de vídeo, de sonido, de red...). Según la tecnología en que se basen presentan un aspecto externo diferente, con diferente tamaño y a veces incluso en distinto color. . •

Ranuras PCI: el estándar actual. Pueden dar hasta 132 MB/s a 33 MHz, lo que es suficiente para casi todo, excepto quizá para algunas tarjetas de vídeo 3D. Miden unos 8,5 cm y generalmente son blancas. Ranuras AGP: o más bien ranura, ya que se dedica exclusivamente a conectar tarjetas de vídeo 3D, por lo que sólo suele haber una; además, su propia estructura impide que se utilice para todos los propósitos, por lo que se utiliza como una ayuda para el PCI. Según el modo de funcionamiento puede ofrecer 264 MB/s o incluso 528 MB/s. Mide unos 8 cm y se encuentra bastante separada del borde de la placa.

Las placas actuales tienden a tener los más conectores PCI posibles, manteniendo uno o dos conectores ISA por motivos de compatibilidad con tarjetas antiguas y usando AGP para el vídeo.

Lic.

Manuel Llerena Silva


RANURA PCI EXPRESS: Ranura exclusiva para video. La encontraremos en las actuales computadoras

3.2.6. Slots (Ranuras) de memoria Son los conectores de la memoria principal del ordenador, la RAM.

Antiguamente, los chips de RAM se colocaban uno a uno sobre la placa, de la forma en que aún se hace en las tarjetas de vídeo, lo cual no era una buena idea debido al número de chips que podía llegar a ser necesario y a la delicadeza de los mismos; por ello, se agruparon varios chips de memoria soldados a una plaquita, dando lugar a lo que se conoce como módulo.

Chips de Control El "chipset" es el conjunto (set) de chips que se encargan de controlar determinadas funciones del ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el control de puertos PCI, AGP, USB...

Antiguamente estas funciones eran relativamente sencillas de realizar, por lo que el chipset era el último elemento al que se concedía importancia a la hora de comprar una placa base, si es que alguien se molestaba siquiera en informarse sobre la naturaleza del mismo. Sin embargo, la llegada de micros más complejos como los Pentium o los K6, además de nuevas tecnologías en memorias y caché, le ha hecho cobrar protagonismo, en ocasiones incluso exagerado.

Conectores internos


Bajo esta denominación englobamos a los conectores para dispositivos internos, como puedan ser la disquetera, el disco duro, el CD-ROM o el altavoz interno, e incluso para los puertos serie, paralelo y de joystick si la placa no es de formato ATX. En las placas base antiguas el soporte para estos elementos se realizaba mediante una tarjeta auxiliar, llamada de Input/Output o simplemente de I/O,

Conectores externos Se trata de los conectores para periféricos externos: teclado, ratón, impresora... En las placas Baby-AT lo único que está en contacto con la placa son unos cables que la unen con los conectores en sí, que se sitúan en la carcasa, excepto el de teclado que sí está adherido a la propia placa. En las ATX los conectores están todos agrupados entorno al de teclado y soldados a la placa base. Los principales conectores son:

Teclado

Bien para clavija DIN ancha, propio de las placas Baby-AT, o mini-DIN en placas ATX y muchos diseños propietarios.

Puerto paralelo (LPT1)

En los pocos casos en los que existe más de uno, el segundo sería LPT2. Es un conector hembra de unos 38 mm, con 25 pines agrupados en 2 hileras.

Puertos serie (COM o RS232)

Suelen ser dos, uno estrecho de unos 17 mm, con 9 pines (habitualmente "COM1"), y otro ancho de unos 38 mm, con 25 pines (generalmente "COM2"), como el paralelo pero macho, con los pines hacia fuera. Internamente son iguales, sólo cambia el conector exterior; en las placas ATX suelen ser ambos de 9 pines.

Puerto para ratón PS/2

En realidad, un conector mini-DIN como el de teclado; el nombre proviene de su uso en los ordenadores PS/2 de IBM.

Puerto juegos

O puerto para joystick o teclado midi. De tamaño algo mayor que el puerto serie estrecho, de unos 25 mm, con 15 pines agrupados en 2 hileras.

de

Puerto VGA

Incluyendo las modernas SVGA, XGA... pero no las CGA o EGA.


Aunque lo normal es que no esté integrada en la placa base sino en una tarjeta de expansión, vamos a describirlo para evitar confusiones: de unos 17 mm, con 15 pines agrupados en 3 hileras.

USB

En las placas más modernas (ni siquiera en todas las ATX); de forma estrecha y rectangular, inconfundible pero de poca utilidad por ahora.

Actualmente los teclados y ratones tienden hacia el mini-DIN o PS/2, y se supone que en unos años casi todo se conectará al USB, en una cadena de periféricos conectados al mismo cable. Sin embargo, en mi opinión nos quedan puertos paralelo y serie para rato; no en vano llevamos más de quince años con ellos. BIOS: "Basic Input-Output System", sistema básico de entrada-salida. Programa incorporado en un chip de la placa base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador. Bueno, ya está. ¿Cómo, que es poco? Bueeno... para los exigentes, algunas explicaciones adicionales: Cuando encendemos el ordenador, el sistema operativo se encuentra o bien en el disco duro o bien en un disquete; sin embargo, si se supone que es el sistema operativo el que debe dar soporte para estos dispositivos, ¿cómo demonios podría hacerlo si aún no está cargado en memoria? Lo que es más: ¿cómo sabe el ordenador que tiene un disco duro (o varios)? ¿Y la disquetera? ¿Cómo y donde guarda esos datos, junto con el tipo de memoria y caché o algo tan sencillo pero importante como la fecha y la hora? Pues para todo esto está la BIOS. Resulta evidente que la BIOS debe poderse modificar para alterar estos datos (al añadir un disco duro o cambiar al horario de verano, por ejemplo); por ello las BIOS se implementan en memoria. Pero además debe mantenerse cuando apaguemos el ordenador, pues no tendría sentido tener que introducir todos los datos en cada arranque; por eso se usan memorias especiales, que no se borran al apagar el ordenador: memorias tipo CMOS, por lo que muchas veces el programa que modifica la BIOS se denomina "CMOS Setup". En realidad, estas memorias sí se borran al faltarles la electricidad; lo que ocurre es que consumen tan poco que pueden ser mantenidas durante años con una simple pila, en ocasiones de las de botón (como las de los relojes). Esta pila (en realidad un acumulador) se recarga cuando el ordenador está encendido, aunque al final fenece, como todos...


Pila La pila del ordenador, o más correctamente el acumulador, se encarga de conservar los parámetros de la BIOS cuando el ordenador está apagado. Sin ella, cada vez que encendiéramos tendríamos que introducir las características del disco duro, del chipset, la fecha y la hora... Se trata de un acumulador, pues se recarga cuando el ordenador está encendido. Sin embargo, con el paso de los años pierde poco a poco esta capacidad (como todas las baterías recargables) y llega un momento en que hay que cambiarla. Esto, que ocurre entre 2 y 6 años después de la compra del ordenador, puede vaticinarse observando si la hora del ordenador "se retrasa" más de lo normal. Para cambiarla, apunte todos los parámetros de la BIOS para reescribirlos luego, saque la pila (usualmente del tipo de botón grande o bien cilíndrica como la de la imagen), llévela a una tienda de electrónica y pida una exactamente igual. O bien lea el manual de la placa base para ver si tiene unos conectores para enchufar pilas externas; si es así, apunte de qué modelo se

trata y cómprelas. Observamos La BIOS - La Pila y conectores SATA Conectando los cables más pequeños. Bueno, lo más difícil queda de último. Los cables vienen de los LEDs y botones de la pared frontal de su case, y la idea es conectarlos a ciertos pines en su tarjeta madre. Verá unos seis grupos de dos o tres cables de diferentes colores. Los cables de un mismo grupo vienen de un mismo LED o botón, y comparten un mismo conector plástico negro, del tamaño de un pin. En cada conector debe estar indicado en pequeñas letras blancas de dónde vienen sus cables. En algunos cases ATX, todos estos cables son reemplazados por un práctico cable de datos. Busque en su tarjeta madre un grupo de unos 20 pines, con inscripciones a sus lados como RST (reset) SPK (speaker) y PWR (power). Con ayuda de las inscripciones y de los manuales de su tarjeta madre, determine en cuáles pines debe insertar cada conector. Si no sabe en qué sentido introducir algún conector, simplemente determínelo por ensayo y error


Responde el siguiente Cuestionario CUESTIONARIO De acuerdo a lo expuesto en clases y utilizando su capacidad investigativa responda las siguientes preguntas: a) En que tipo de Zocalo se instala un procesador Celeron de 2.4 ghz? R. b) Según usted cual es la regla de la Pata 1? R. c) Caracteristicas de una Fuente de Poder ATX? R. d) Se debe tocar el chasis del case, de forma continua y periodica cada 5 minutos con el objetivo de nivelar la temperatura del técnico con el de la máquina? ¿Por qué? R. e) Cuáles serian las medidas de precaución para ensamblar un equipo? R. f) Cuantos tipos de slots (ranuras) de memoria existen? R. g) Que significa Slot (ranura) de expansión y cuales son?. R. h) Mencione al menos tres tipos de zocalos de microprocesadores que se usan en equipos modernos y presentes en el mercado en este último año?. R.

Lic Manuel Llerena Silva


COMPLETEMOS EL SIGUIENTE CUADRO MIENTRAS REALIZA LA PRテ,TICA TIPO DE CASE テウ GABINETE: TIPO DE FUENTE

MINITOWER:

SI:___ FULLTOWER: SI:___ NO:___ NO:___ MODELO: AT: ____ POTENCIA: ________ ATX: ____ Watts TARJETA MADRE MARCA: TIPO: _______________ __________________ PUERTOS: PARALELO: DB25 SERIAL: COM1: ___ HEMBRA DB: ___ SI: ___ NO: ____ COM2:____ DB:________ SLOTS DE CANTIDAD: TIPOS: ________ EXPANSION _____________ ________ RST(reset) PWR(power) SPK(speaker) Colores:_____________ Colores:_____________ Colores: ____________ _ ____________________ ____________________ _____ ____________________ ____ ____ HDD LED ATX SW Turbo SW Colores Colores: Colores: ______________ _________________ ________________ ____________________ ____________________ ____________________ _____ _____ _____ MICROPROCESADOR MARCA: VELOCIDAD: _________________ __________ ZOCALO: VOLTAGE: _________ ________________ Voltios MEMORIA RAM TIPO: CAPACIDAD:_______B ___________________ YTES SLOTS DE MEMORIA CANTIDAD: TIPOS: ________ ______________ ________ MAX. RAM: ______________ DISCO DURO CAPACIDAD: DIMENSIONES: ____________ __________ CABLE TIPO LISTON NUMERO DE DOBLE: SI__ NO: ___ IDE LINEAS:_____ DISCO FLEXIBLE CAPACIDAD: DIMENSIONES: ____________ __________ CABLE TIPO LISTON NUMERO DE DOBLE: SI__ NO: ___ LINEAS:_____ LECTOR DE CD ROM MARCA: VELOCIDAD: _________________ _____________ INTERFACE:_________ _____


BIOS TARJETA DE VIDEO

TARJETA DE SONIDO:

MARCA: _________________ MARCA: _________________ SLOT TIPO: ______________ MARCA: _________________ SLOT TIPO: ______________

FECHA: __________________ MODELO: ________________

MODELO: ________________

OBSERVACIONES – OTROS

Lic.

Manuel Llerena Silva


MICROPROCESADORES y CONFIGURACION MICROPROCESADORES Microchip más importante en una computadora, es considerado el cerebro de una computadora. Está constituido por millones de transistores integrados. Este dispositivo se ubica en un zócalo especial en la placa madre y dispone de un sistema de enfriamiento (generalmente un ventilador). Lógicamente funciona como la unidad central de procesos (CPU), que está constituida por registros, la unidad de control y la unidad aritmético-lógica. En el microprocesador se procesan todas las acciones de la computadora. Su "velocidad" es medida por la cantidad de operaciones por segundo que puede realizar: la frecuencia de reloj. La frecuencia de reloj se mide en MHz (megahertz) o gigahertz (GHz). También dispone de una memoria caché (medida en kilobytes), y un ancho de bus (medido en bits). El primer microprocesador comercial fue el Intel 4004, presentado el 15 de noviembre de 1971. Actualmente las velocidad de procesamiento son miles de veces más grandes que los primeros microprocesadores. También comienzan a integrarse múltiples procesadores para ampliar la capacidad de procesamiento. Se estima que para 2010 vendrán integrados hasta 80 núcleos en un microprocesador, son llamados procesadores multi-core. Los principales fabricantes de microprocesadores son AMD e Intel

TIPOS Si un microprocesador es capaz de ejecutar muchas instrucciones en código máquina no es garantía de ser mejor que otro que ejecuta menos instrucciones. En la actualidad sucede todo lo contrario.


Si atendemos al número de ciclos de reloj que se necesitan para ejecutar las instrucciones en código máquina podemos encontrar dos tipos de microprocesadores: CISC.-Computación con una colección de instrucciones compleja. Las instrucciones son ejecutadas haciendo uso de varios ciclos de reloj. Las instrucciones son interpretadas por un microprograma a través de la unidad de control. Es decir, cada instrucción "código máquina" está asociada a una serie de microinstrucciones dentro del microprocesador. RISC.- Computación con una colección de instrucciones reducida. Son más rápidos y eficientes aunque los programas ejecutables son más largos. Una tarea simple puede requerir la ejecución de varias instrucciones. Cada instrucción es ejecutada en un ciclo de reloj, excepto las de cargar y guardar. También poseen otras características que los definen comoel formato simple de instrucción. Es decir, todas ocupan un número de bits. Disipación de calor [editar] Artículo principal: disipador

Con el aumento en el número de transistores incluidos en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación natural del procesador no es suficiente para mantener temperaturas aceptables en el material semiconductor, de manera que se hace necesario el uso de mecanismos de enfriamiento forzado, como son los disipadores de calor. Entre ellos se encuentras sistemas sencillos como disipadores metálicos que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados. Artículo principal: Socket de CPU

Superficies de contacto en un procesador Intel para Zócalo LGA775

El microprocesador posee un arreglo de elementos metálicos (pines, esferas, contactos) que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 1000 elementos metálicos en la superficie de su empaque. El montaje del procesador puede ser con la ayuda de un Socket de CPU o soldado sobre la placa base.


Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al Socket, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones. Buses del procesador Todos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bytes por segundo. Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control. En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama el Front Side Bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 Mhz haciendo 4 transferencias por ciclo.3 En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas. Los microprocesadores de última generación de Intel y muchos de AMD poseen además un controlador de memoria DDR en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus esta de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 3 buses de memoria.


Arena, material abundante en la tierra.

El proceso de fabricación de un microprocesador es muy complejo. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1370°C) y muy lentamente (10 a 40 Mm por hora) se va formando el cristal. De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de menos de un milímetro de espesor (una capa de unas 10 micras de espesor, la décima parte del espesor de un cabello humano), utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.

Silicio.

Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en un someterlas a un calentamiento extremo para remover cualquier defecto o impureza que pueda haber llegado a esta instancia. Luego de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micrón, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor. De aquí en adelante, comienza el proceso del “dibujado” de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea,


sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de remover las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo "bocadillo" que contiene todos los circuitos interconectados del microprocesador. Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las mascaras utilizadas durante la fabricación.

Una oblea de silicio grabada

Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico de aire (0,028 metros cúbicos). Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan se sus cuerpos. Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso. La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea. Luego el


oblea es cortado y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora. Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Cada una de estas conexiones se realiza utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es dotada de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como el que equipa nuestro ordenador.

Plataformas PC La combinación placa base - procesador a elegir para nuestro PC ha quedado más complicada de lo que ya estaba. El problema viene dado por la incompatibilidad existente entre los distintos zócalos, que determinan claramente cuales son los procesadores admitidos en cada uno de ellos. CONOSCAMOS ALGUNOS MICROPROCESADORES El procesador Pentium® 4 de Intel® Incorpora avanzadas tecnologías que ayudan a asegurar un eficaz desempeño incluso en las condiciones más exigentes. Estas demandas sólo aumentarán a medida que las empresas adopten poderosas herramientas de visualización 3D, conferencia de video y audio basada en la red y acceso a medios y aplicaciones de gran ancho de banda a través de la red. Tal vez la más importante sea que estas operaciones se realizan en forma simultánea, lo que representa una enorme carga para la PC de escritorio.

El procesador Pentium 4 está diseñado para ambientes de trabajo de múltiples tareas y gran demanda. Entre las características clave del nuevo procesador se incluyen: •

• •

Microarquitectura NetBurst™ de Intel®: una unidad de enteros de súper carga se ejecuta al doble de la frecuencia del reloj central del procesador para acelerar prácticamente todas las aplicaciones Arquitectura de súper secuencias: Divide las operaciones en partes más pequeñas y habilita un silicio del procesador que se puede ejecutar a frecuencias de reloj mucho mayores Predicción y bifurcación avanzadas: Esta capacidad permite que el procesador Pentium 4 evite las dependencias de códigos y mantenga un desempeño óptimo Extensiones SIMD de secuencia 2 (SSE2, Streaming SIMD Extensions 2): 144 nuevas instrucciones aceleran tareas tales como el manejo de video DVD en


tiempo real, reconocimiento de voz y presentación de gráficos 3D y medios en secuencia • Buses más rápidos: Un bus de sistema de 400 MHz y un caché L2 interno más rápido introducen y extraen datos del procesador Pentium 4 a una velocidad mucho mayor que la del procesador Pentium® III Ante todo, el Pentium 4 necesita placas base diseñadas específicamente para él. Esto es lógico, ya que su diseño es muy distinto al del Pentium III, interna y externamente. El chip en sí viene en formato zócalo y tiene 423 pines; por tanto, su zócalo se llama "Socket 423". Pero aquí viene la sorpresa: según todos los informes disponibles, este formato será sustituido por otro con más pines (¿478?) EN MENOS DE UN AÑO. Sí, ha leído bien: si se compra hoy un Pentium 4 y la correspondiente placa base, dentro de un año se encontrará con un equipo incompatible con los siguientes Pentium 4. Uno se pregunta si se trata de una broma macabra cuando Intel dice que ésa es "la estrategia más segura contra la obsolescencia"... o será de nuevo el departamento de márketing. Otras características importantes hacen relación al núcleo del chip:

Pentium III 1 GHz

Pentium 4 1,5 GHz

Athlon 1,1 GHz

105 mm2

217 mm2

120 mm2

Millones de transistores

28,1

55

37

Calor a disipar

33 W

54,7 W

55 W

Tamaño núcleo

Como vemos en la tabla comparativa, el calor generado ha subido mucho, situándose a la altura del "caliente" Athlon. Esto no es una limitación insalvable (al menos no lo ha sido para el Athlon), pero obliga a dejarse de soluciones baratas e instalar un ventilador de calidad... El socket va soldado sobre la placa base de manera que tiene conexión eléctrica con los circuitos del circuito impreso. El procesador se monta de acuerdo a unos puntos de guía (borde de plástico, indicadores gráficos, pines o agujeros faltantes) de manera que cada pin o contacto quede alineado con el respectivo punto del socket. Alrededor del área del socket, se definen espacios libres, se instalan elementos de sujeción y agujeros, que permiten la instalación de dispositivos de disipación de calor, de manera que el procesador quede entre el socket y esos disipadores. En los últimos años el número de pines a aumentado de manera substancial debido al aumento en el consumo de energía y a la reducción de voltaje de operación. En los


últimos 15 años, los procesadores han pasado de voltajes de 5 V a algo mas de 1 V y de potencias de 20 vatios, a un promedio de 80 vatios. Para trasmitir la misma potencia a un voltaje menor, deben llegar mas amperios al procesador lo que requiere conductores mas anchos o su equivalente: mas pines dedicados a la alimentación. No es extraño encontrar procesadores que requieren de 80 a 120 amperios de corriente para funcionar cuando están a plena carga, lo que resulta en cientos de pines dedicados a la alimentación. En un procesador Socket 775, aproximadamente la mitad de contactos son para la corriente de alimentación.

Adaptador de Socket 478 a 423

La distribución de funciones de los pines , hace parte de las especificaciones de un Socket y por lo general cuando hay un cambio substancial en las funciones de los puertos de entrada de un procesador (cambio en los buses o alimentación entre otros), se prefiere la formulación de un nuevo estándar de socket, de manera que se evita la instalación de procesadores con tarjetas incompatibles. En algunos casos a pesar de las diferencias entre uno y otro socket, existe compatibilidad por lo general hacia atrás (las placas bases aceptan procesadores mas antiguos). En algunos casos, si bien no existe compatibilidad mecánica y puede que tampoco de voltajes de alimentación, si en las demás señales. En el mercado se encuentran adaptadores que permiten montar procesadores en placas con diferente socket, de manera que se monta el procesador sobre el adaptador y este a su vez sobre el socket.

AMD • • • • •

Socket 462 Socket F Socket 939 Socket 940 Socket AM2


Intel • • •

Socket 478 Socket 775 Socket 1366 CORE DUO / CORE 2 DUO / DUAL CORE / QUAD-CORE Diferencias: Core Duo = Centrino Duo Core 2 Duo = Conroe o Allendale Dual Core = Doble Nucleo ya sean AMD X2 o Pentium D Quad-Core = 4 núcleos Futuros Core 2 Quad Dual Core hace referencia a micros con dos procesadores (núcleos) de ejecución, sean cuales sean, ya sean de AMD o de Intel. Dual Core serían dos procesadores "P4" encajados en una sola placa base o motherboard. Tanto los procesadores Intel Core Duo y los Intel Core 2 Duo incluyen la tecnología de virtualización Vanderpool, que permite que aplicaciones como VMware o Parallels funcionen con un impacto mínimo en su rendimiento. Los procesadores Intel Core Duo cuenta con Smart Cache, esto es ambos procesadores acceden al mismo cache L2 permitiendo un mayor reuso de la data cacheada, mejorando la performance. Core 2 Duo es una marca, y por extensión así se denomina a los últimos micros con dos chips de silicio de Intel, ya sean para el escritorio o para portátiles. Los Core 2 Duo proporcionan más potencia de cálculo, con menor gasto energético, que los procesadores a los que reemplazan, en todos los casos. Por supuesto, esto es más evidente en los procesadores basados en la arquitectura NetBurst que en los basados en la microarquitectura usada por los Pentium M, y posteriormente por los Intel Core Duo iniciales (alias Yonah). Los Intel Core 2 Duo de primera generación pueden utilizar la misma disposición de patillas que los Intel Core Duo, Pentium D y Pentium EE, y lo más importante, las mismas placas, de modo que es posible reemplazar esos procesadores antiguos por los Intel Core 2 Duo actuales. Procesador: Intel Core. Code Name: Yonah. Velocidad: 1.06–2.33 GHz. Socket: Socket M. Fabricado a: 65 nm. Core: mayormente dual core. L2 Cache: 2048 KiB. Procesador: Intel Core 2. Code Name: Allendale, Conroe, Merom.


Velocidades: 1.66–2.93 GHz. Socket: LGA 775/Socket M. Fabricado a: 65 nm. Core: dual core. L2 Cache: 2048-4096 KiB. Tabla comparativa entre Core Duo y Core 2 Duo:

Lic. Manuel Llerena Silva



Cuestionario De acuerdo a lo expuesto en clases y utilizando su capacidad investigativa responda las siguientes preguntas: a) Que velocidad de bus tiene un procesador actual? R. b) Según usted que es memoria cache de segundo nivel L2? R. c) ¿ un microprocesador actual cuantas velocidades internas puede alcanzar? R. d) Define memoria cache y su importancia en la computadora? R. e) Menciona 3 recomendaciones para instalar un c.p.u.?. ¿Por qué? R. COMPLETEMOS LAS TABLAS Nro.

PROCESADOR

Frecuencia

Voltage Voltage Core I/O

BUS

MultipliCador

Tipo de Zócalo

1.2.3.4.5.6.-

Lic. Manuel Llerena Silva


MEMORIA RAM, CACHE y BIOS Clasificación de Memorias Las computadoras y otros tipos de sistemas requieren el almacenamiento permanente o semipermanente de un gran número de datos binarios. Los sistemas basados en microprocesadores necesitan de la memoria para almacenar los programas y datos generados durante el procesamiento y disponer de ellos cuando sea necesario. Existen tres tipos principales de memoria: a) Memorias semiconductoras, b) Memorias magnéticas, c) Memorias ópticas Las memorias semiconductoras están formadas por matrices de elementos de almacenamiento que pueden ser latches o flips - flops, condensadores, transistores, o cualquier otro elemento de almacenamiento de carga eléctrica. Las principales categorías de memorias semiconductoras son las memorias ROM y RAM. Qué es... la memoria RAM?

de

La memoria principal o RAM (acrónimo de Random Access Memory, Memoria Acceso Aleatorio) es donde el ordenador guarda los datos

que está utilizando en el momento presente; Físicamente, los chips de memoria son rectángulos negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos, como se muestra: La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los discos duros, es que la RAM es mucho (mucho) más rápida, y que se borra al apagar el ordenador, no como éstos.

¿Cuánta RAM se debe tener? Cuanta más, mejor. La cantidad de RAM necesaria es función únicamente de para qué use usted su ordenador, lo que condiciona qué sistema operativo y programas usa, se recomienda una cantidad mínima de:


Windows XP únicamente sistema operativo (DOS incluido)

4 MB

Ofimática (procesador de texto, hoja de cálculo...)

6 a 10 MB

CAD (2D o 3D sencillo)

12 a 28 MB (según versión)

Gráficos / Fotografía (nivel medio)

10 a 32 MB (según resolución y colores)

Windows 7 únicamente sistema operativo

600 MB

Ofimática (procesador de texto, hoja de cálculo...)

450 MB

CAD (2D o 3D sencillo)

150MB (según versión)

Gráficos / Fotografía (nivel medio)

200MB (según resolución y colores)

Juegos

600 MB

Existen más datos sobre la cantidad de memoria recomendable en Como ve, la misma tarea bajo distintos sistemas operativos y programas necesita de distintas cantidades de RAM, aunque el resultado final del informe, trabajo de CAD u hoja de cálculo sea el mismo. Un aumento de RAM aumentará el rendimiento sólo si había escasez. La RAM vacía no sirve de nada, aunque como en todo, "mejor que sobre...".

Cuánta memoria es "suficiente"?.- Nunca lo diremos lo suficiente: lo más importante al comprar un ordenador es que sea equilibrado; la cantidad de memoria del PC es uno de los factores que más puede afectar al rendimiento. Windows y la memoria virtual Por supuesto, cuantos más programas utilicemos y más complejos sean, más memoria necesitaremos; esto seguro que no sorprenderá a nadie, pero lo que sí puede que le sorprenda es la gran cantidad de memoria que se utiliza tan sólo para arrancar el sistema operativo. Observen los siguientes datos:


¿Impresionado? Como puede ver, sólo la carga del sistema operativo puede consumir TODA la memoria con la que se venden algunos ordenadores de gama Programas cargados

RAM utilizada

Sólo Windows 98

121 MB

Sólo Windows XP

127 MB

Sólo Windows XP, tras varios meses de funcionamiento y diversas instalaciones de programas

135 MB

Windows XP, Microsoft Word 97 e Internet Explorer 4

146 MB

Windows XP y AutoCAD 14 (con un dibujo sencillo en 2D) 155 MB baja. Además, Windows 98 utiliza más memoria que Windows 95 debido entre otros temas a su integración con Microsoft Internet Explorer. Para terminar de complicar el tema, ambos Windows tienden a aumentar su tamaño y su consumo de memoria según vamos instalando programas... o sencillamente según pasa el tiempo, sin instalar nada. Pese a esto, el hecho es que los ordenadores siguen trabajando cuando se les agota la memoria RAM, algo que sería imposible si no fuera por la denominada "memoria virtual", que no es sino espacio del disco duro que se utiliza como si fuera memoria RAM. Sin embargo, esta memoria virtual tiene varios inconvenientes; el principal es su velocidad, ya que es muchísimo más lenta que la RAM. Mientras la velocidad de acceso a la RAM se mide en nanosegundos (ns, la 10-9, parte de un segundo), la de los discos duros se mide en milisegundos(ms 10-3 parte de un segundo); es decir, que se tarda casi un millón de veces más en acceder a un dato que encuentra en el disco duro que a uno de la RAM. Además, el ancho de banda es también muy inferior; por ejemplo, en un ordenador con memoria PC100 cada segundo pueden transmitirse 800 MB de datos que se encuentren en dicha memoria, mientras que ningún disco duro actual alcanza siquiera los 40 MB/s., y lo más importante: el hecho innegable y no pocas veces lamentado de la escasa estabilidad de Windows cuando realmente sobrecargamos el "archivo de intercambio" (el que almacena los datos de la memoria virtual). Por todo ello, lo ideal es necesitar lo menos posible la memoria virtual, y para eso evidentemente hay que tener la mayor cantidad de memoria RAM posible. Cuánta memoria utilizando?

se

está

Existen infinidad de métodos para determinarlo; uno de los mejores es el Monitor del sistema, una de las utilidades incluidas en


Windows que, si se ha instalado, se encontrará en la carpeta Accesorios -> Herramientas del sistema. Además, tiene la ventaja de que podemos configurarlo para que nos muestre el tamaño del archivo de intercambio en uso y una infinidad de otros datos, sin consumir él mismo demasiada memoria. Algunas pruebas de rendimiento Para ilustrar la importancia de la cantidad de memoria se ha realizado unas cuantas pruebas, centradas no en la puntuación sino en lo que más nota el usuario: el tiempo que se tarda en hacer la prueba (descontando la carga en sí de los programas desde el disco duro, por ser independiente de la cantidad de memoria instalada). RAM instalada Tiempo empleado 64 MB

466 segundos

128 MB

368 segundos

256 MB

327 segundos

512 MB

307 segundos

1GB MB

306 segundos

2 GB

420 segundos

Configuración: Windows 98, Celeron 466, disco duro UltraDMA33, tarjeta gráfica i740 (podríamos decir que se trata de un ordenador bastante "típico", ni lento ni excesivamente rápido) Como puede observarse, a partir de 96 MB apenas existe variación en las cifras, pero pasar de 64 a 128 MB supone un aumento del rendimiento de nada menos que el 42,5% , y pasar de 64 a 128 MB un aumento adicional del 6,9%. Tenga en cuenta que esto es un test, no la "vida real", pero de cualquier modo no hay duda de que trabajar con sólo 128 MB en Windows XP es casi una locura. Un EXCESO de memoria no aumenta PARA NADA el rendimiento, sólo se apreciará mejoría si necesitábamos más memoria. Así que si ya tiene 48 MB o más y hace un uso exclusivamente doméstico u ofimático del PC, no se moleste en instalar más. En el futuro la tendencia parece que no va a cambiar: cada vez necesitaremos más memoria (Windows 2000 ya "recomienda" 64 MB y añade que cualquier aumento sobre esta cantidad mejorará el rendimiento), y no sería raro que antes de un año los ordenadores vinieran como mínimo con 128 MB, en lugar de 32MB.


Tipos de Memoria RAM Tantos como quiera: DRAM, Fast Page, EDO, SDRAM... y lo que es peor, varios nombres para la misma cosa. Trataremos estos cuatro, que son los principales, aunque en el apartado encontrará prácticamente todos los demás (no pocos). •

DRAM: Dinamic-RAM, o RAM a secas, ya que es "la original", y por tanto la más lenta (aunque recuerde: siempre es mejor tener la suficiente memoria que tener la más rápida, pero andar escasos). Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos. Por ello, es más rápida la de 70 ns que la de 80 ns. Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos de 30 contactos.

Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia. Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser de 70 ns ó 60 ns. Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó 72 contactos (los de 72 en los Pentium y algunos 486).

• •

EDO: o EDO-RAM, Extended Data Output-RAM. Evoluciona de la Fast Page; permite empezar a introducir nuevos datos mientras los anteriores están saliendo (haciendo su Output), lo que la hace algo más rápida (un 5%, más o menos). Muy común en los Pentium MMX y AMD K6, con refrescos de 70, 60 ó 50 ns. Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de 168. SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad de la placa (de 50 a 66 MHz), para lo que debe ser rapidísima, de unos 25 a 10 ns. Sólo se presenta en forma de DIMMs de 168 contactos; es usada en los Pentium II de menos de 350 MHz y en los Celeron. PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos 100 MHz, que utilizan los AMD K6-2, Pentium II a 350 MHz y micros más modernos; teóricamente se trata de unas especificaciones mínimas que se deben cumplir para funcionar correctamente a dicha velocidad, aunque no todas las memorias vendidas como "de 100 MHz" las cumplen... PC133: o SDRAM de 133 MHz. La más moderna (y recomendable). PC600, PC700 y PC800 módulo de memoria RDRAM (Rambus) se dice que la Rambus funciona a 600, 712 y 800 MHz "virtuales" o "equivalentes". Y por


motivos comerciales, se la denomina PC600, PC700 y PC800. La memoria Rambus tiene un bus de datos más estrecho, de sólo 16 bits = 2 bytes, pero funciona a velocidades mucho mayores, de 300, 356 y 400 MHz. Además, es capaz de aprovechar cada señal doblemente, de forma que en cada ciclo de reloj envía 4 bytes en lugar de 2. PC200 y PC266 módulo de memoria DDR-SDRAM, DDR, es decir, Doble Data Rate consiste en enviar los datos 2 veces por cada señal de reloj, una vez en cada extremo de la señal (el ascendente y el descendente), en lugar de enviar datos sólo en la parte ascendente de la señal. De esta forma, un aparato con tecnología DDR que funcione con una señal de reloj "real", "física", de por ejemplo 100 MHz, enviará tantos datos como otro sin tecnología DDR que funcione a 200 MHz. Por ello, las velocidades de reloj de los aparatos DDR se suelen dar en lo que podríamos llamar "MHz efectivos o equivalentes" (en nuestro ejemplo, 200 MHz, "100 MHz x 2"). ¿Y por qué se hace esto? ¿No es más fácil subir el número de MHz

Para hacernos una idea, veamos unos cuantos anchos de banda para diferentes memorias:

Pero ojo, no termina aquí la cosa: como con su "progenitora" la SDRAM, existe un importante (y desconocido) parámetro que dice mucho de la calidad de la memoria DDR: el valor de latencia CAS mínimo al cual puede funcionar para una velocidad dada. Para entendernos: la latencia CAS es mala (es un tiempo de espera, tiempo perdido), así que cuanto menor sea, mejor es la memoria. DIMMs: más alargados (unos 13 cm), con 168 contactos y en zócalos generalmente negros; llevan dos muescas para facilitar su correcta colocación. Pueden manejar 64 bits de una vez, por lo que pueden usarse de 1 en 1 en los Pentium, K6 y superiores. Existen para voltaje estándar (5 voltios) o reducido (3.3 V). RIMMS, Modulo de memoria RDRAM o Rambus DRAM: un nuevo tipo de memoria, de diseño totalmente distinto al de la SDRAM; teóricamente ofrece mejor rendimiento.


La RDRAM o

memoria Rambus tiene un bus de datos más estrecho, de sólo 16 bits = 2 bytes, pero funciona a velocidades mucho mayores, de 300, 356 y 400 MHz. Además, es capaz de aprovechar cada señal doblemente, de forma que en cada ciclo de reloj envía 4 bytes en lugar de 2.

. DDR-SDRAM, DDR, es decir, Doble Data Rate. Los módulosDDR, es decir, de memoria DDR-SDRAM (o DDR, como los llamaremos en adelante) son del mismo tamaño que los DIMM de SDRAM, pero con más conectores: 184 pines en lugar de los 168 de la SDRAM normal. Además, para que no exista confusión posible a la hora de instalarlos (lo cual tendría consecuencias sumamente desagradables), los DDR tienen 1 única muesca en lugar de las 2 de los DIMM "clásicos". Además, podríamos mencionar los módulos SIP, que eran parecidos a los SIMM pero con frágiles patitas soldadas y que no se usan desde hace bastantes años, o cuando toda o parte de la memoria viene soldada en la placa (caso de algunos ordenadores de marca).

Módulos por banco Procesador

bus de datos

SIMM 30 pins (8 bits)

SIMM 72 pins (32 bits)

DIMM (64 bits)

386/486

32 bits

4 (4 x 8 = 32)

1

N/A*

Pentium/ P.Pro

64 bits

N/A*

2 (2 x 32 = 64)

1

* No Aplicable Otros tipos de RAM • •

BEDO (Burst-EDO): una evolución de la EDO, que envía ciertos datos en "ráfagas". Poco extendida, compite en prestaciones con la SDRAM. Memorias con paridad: consisten en añadir a cualquiera de los tipos anteriores un chip que realiza una operación con los datos cuando entran en el chip y otra cuando salen. Si el resultado ha variado, se ha producido un error y los datos ya no son fiables. Dicho así, parece una ventaja; sin embargo, el ordenador sólo avisa de que el error se ha producido, no lo corrige. Es más, estos errores son tan improbables que la mayor parte de los chips no los sufren jamás aunque estén funcionando durante años; por ello, hace años que todas las memorias se fabrican sin paridad.


ECC: memoria con corrección de errores. Puede ser de cualquier tipo, aunque sobre todo EDO-ECC o SDRAM-ECC. Detecta errores de datos y los corrige; para aplicaciones realmente críticas. Usada en servidores y mainframes.

Memorias de Vídeo: para tarjetas gráficas. De menor a mayor rendimiento, pueden ser: DRAM -> FPM -> EDO -> VRAM -> WRAM -> SDRAM -> SGRAM

Actualizar la memoria RAM Ante todo, tenga en cuenta que actualizar la memoria de un ordenador muy antiguo como un 8086, un 286 ó muchos 386 SX resulta casi imposible; en estos ordenadores la memoria o no es ampliable (por venir soldada en placa o no tener ranuras para ampliarla) o no se fabrica desde hace años la que sería necesaria. Por cierto: casi todos los ordenadores de marca usan memorias especiales, independientemente de si son 386, 486... En esos casos, vaya al fabricante (que le pedirá muchííísimo dinero). Para actualizar por su cuenta. Los pasos que deberá seguir son: 1.- Identificar el tipo de memoria que utiliza su ordenador. Algunas placas base admiten más de un tipo de memoria, pero en general mezclar dos tipos o velocidades distintos de memoria es una garantía de incompatibilidades y problemas; incluso dos módulos iguales de distinta marca (¡e incluso de distinta remesa!!) no tienen por qué ser compatibles, especialmente cuando se trata de marcas de no demasiada calidad... . 2.- Una vez leído el manual de la placa base, no se fíe y compruebe qué tipo de memoria hay en realidad en su ordenador. Para ello, y siguiendo los consejos de, desconéctelo, ábralo, descárguese de electricidad estática y observe la placa. En cuanto a los módulos en sí, la velocidad se suele indicar sobre los chips de memoria, mediante un número o dos al final del serigrafiado que indica los nanosegundos (ns), como "-7" o "-07" (curiosamente, rara vez "-70") para 70 ns, o "-6" para 60 ns. Por ejemplo, el chip de la imagen de la derecha pertenece a un módulo de SDRAM de 10 ns. Esto es también aplicable a los chips de caché (que después de todo no es más que memoria rápida con una finalidad determinada); por ejemplo, a la izquierda están dos chips de memoria caché de 15 ns. Y, finalmente, algunos chips de memoria (especialmente del tipo SDRAM) llevan escrita no la velocidad de refresco (60 ns, 50 ns...) sino la velocidad máxima en MHz que pueden alcanzar sin problemas (100 MHz o 133 MHz son los valores más comunes hoy en día).


En cuanto a diferenciar memoria EDO de FPM, principalmente observe los mensajes de la BIOS al arrancar, especialmente durante el test de memoria, o entre dentro de la misma y observe si encuentra mensajes del tipo "EDO DRAM in banks 0,1" o bien "No EDO DRAM present". 3.- Una vez instalada físicamente, verifique el funcionamiento de la memoria. Primero, asegúrese de que la BIOS la reconoce, tanto en el test de arranque como en los menús de la misma; para entrar en la BIOS, quizá se haga pulsando la tecla "Supr" ("Del"). No se preocupe si el recuento de memoria de una o ambas pruebas indica algo menos, como 23.936 Kb en vez de 24.576 Kb (24 MB, 24 "megas"), esto no significa que la memoria sea defectuosa en absoluto. Sin embargo, en ambos casos debe estar cerca de la cifra real, ¡nada de 16 MB cuando ha instalado 32!! Si esto está bien, pruebe a arrancar y usar algunos programas, además de su sistema operativo e interfaz gráfica favoritos. A estos efectos, Windows es mucho más exquisito que el viejo, adorable y tolerante DOS, así que haga las pruebas sobre él. Si haciendo el trabajo habitual nada falla más de lo normal, ¡felicidades!! Ya ha actualizado la memoria con éxito. La Memoria Cache Para empezar, digamos que la caché no es sino un tipo de memoria del ordenador; por tanto, en ella se guardarán datos que el ordenador necesita para trabajar. ¿Pero no era eso la RAM?, preguntará usted. Bueno, en parte sí. A decir verdad, la memoria principal del ordenador (la RAM, los famosos 8, 16, 32 ó 64 "megas") y la memoria caché son básicamente iguales en muchos aspectos; la diferencia está en el uso que se le da a la caché. Debido a la gran velocidad alcanzada por los microprocesadores desde el 386, la RAM del ordenador no es lo suficientemente rápida para almacenar y transmitir los datos que el microprocesador (el "micro" en adelante) necesita, por lo que tendría que esperar a que la memoria estuviera disponible y el trabajo se ralentizaría. Para evitarlo, se usa una memoria muy rápida, estratégicamente situada entre el micro y la RAM: la memoria caché. Ésta es la baza principal de la memoria caché: es muy rápida. ¿Cuánto es "muy rápida"? Bien, unas 5 ó 6 veces más que la RAM. Esto la encarece bastante, claro está, y ése es uno de los motivos de que su capacidad sea mucho menor que el de la RAM: un máximo en torno a 512 kilobytes (512 Kb), es decir, medio "mega", frente a 16 ó 32 megas de RAM. Pero la caché no sólo es rápida; además, se usa con una finalidad específica. Cuando un ordenador trabaja, el micro opera en ocasiones con un número reducido de datos, pero que tiene que traer y llevar a la memoria en cada operación. Si situamos en medio del camino de los datos una memoria intermedia que almacene los datos más usados, los que casi seguro necesitará el micro en la próxima operación que realice, se ahorrará mucho tiempo del tránsito y acceso a la lenta memoria RAM; esta es la segunda utilidad de la caché.


Para los que tengan curiosidad por ver cómo es la caché (aunque en muchas ocasiones no resulta fácil de reconocer, por venir encapsulada en algún tipo de chip de control o toda junta en un único chip), aquí tienen una foto de unos chips de caché: El tamaño de la caché Leído lo anterior, usted pensará: pues cuanto más grande, mejor. Cierto, pero no; o más bien, casi siempre sí. Aunque la caché sea de mayor velocidad que la RAM, si usamos una caché muy grande, el micro tardará un tiempo apreciable en encontrar el dato que necesita. Esto no sería muy importante si el dato estuviera allí, pero ¿y si no está? Entonces habrá perdido el tiempo, y tendrá que sumar ese tiempo perdido a lo que tarde en encontrarlo en la RAM. Por tanto, la caché actúa como un resumen, una "chuleta" de los datos de la RAM, y todos sabemos que un resumen de 500 páginas no resulta nada útil. Se puede afirmar que, para usos normales, a partir de 1 MB (1024 Kb) la caché resulta ineficaz, e incluso pudiera llegar a ralentizar el funcionamiento del ordenador. El tamaño idóneo depende del de la RAM, y viene recogido en la siguiente tabla: Se debe hacer notar que muchos "chipsets" RAM (MB) Caché (Kb) para Pentium, como los conocidos Intel "Tritón" VX o TX, no permiten cachear más de 1a4 128 ó 256 64 MB de RAM; es decir, que a partir de esta 4 a 12 256 cifra, ES COMO SI NO EXISTIERA CACHé EN ABSOLUTO (0 Kb!!). 12 a 32 512 más de 32

512 a 1024

La caché interna o L1 La caché a la que nos hemos referido hasta ahora es la llamada "caché externa" o de segundo nivel (L2). Existe otra, cuyo principio básico es el mismo, pero que está incluida en el interior del micro; de ahí lo de interna, o de primer nivel (L1). Esta caché funciona como la externa, sólo que está más cerca del micro, es más rápida y más cara, además de complicar el diseño del micro, por lo que su tamaño se mide en pocas decenas de kilobytes. Se incorporó por primera vez en los micros 486, y por aquel entonces era de 8 Kb. Hoy en día se utilizan 32 ó 64 Kb, aunque seguro que pronto alguien superará esta cifra. La importancia de esta caché es fundamental; por ejemplo, los Pentium MMX son más rápidos que los Pentium normales en aplicaciones no optimizadas para MMX, gracias a tener el doble de caché interna. MEMORIAS DE SOLO LECTURA (ROMs) La memoria ROM (Read-Only Memory, memoria de solo lectura) es un tipo de memoria en la que los datos se almacenan de forma permanente o semipermanente. Los datos se pueden leer de una ROM, pero no existe la operación de escritura como en las RAMs. Debido a que las ROMS mantienen los datos almacenados incluso cuando se desconecta la alimentación, reciben el nombre de memorias no volátiles


Las ROM se utilizan en los ordenadores para almacenar lo que se conoce como BIOS (Basic Input/Output Services, Servicios Básicos de entrada/salida). Estos son programas que se utilizan para realizar tareas fundamentales de control y soporte en las computadoras y permitir pasar el control al sistema operativo etc. Otro uso de las ROMs en las computadoras es el almacenamiento de los programas en lenguajes interpretes, como el BASIC. ROMs PROGRAMABLES (PROMs Y EPROMs). Las PROMs son básicamente iguales que las ROMs, una vez que han sido programadas. La diferencia consiste en que las PROMs salen de fábrica sin estar programadas y las programa el usuario a medida, de acuerdo a sus necesidades. Una EPROM es una PROM borrable. A diferencia de una PROM ordinaria, una EPROM puede ser reprogramada si antes se borra el programa existente en la matriz de memoria. Los dos tipos fundamentales de EPROMs son las PROMs borrables por rayos ultravioletas (UV EPROM) y las PROMs borrables eléctricamente (EEPROM). Una UV EPROM se puede reconocer por la ventana de cuarzo transparente de su encapsulado. El borrado se realiza mediante la exposición del chip de la matriz de memoria a una radiación ultravioleta de alta intensidad, a través de la ventana de cuarzo en la parte superior del encapsulado, en un periodo de tiempo de entre unos minutos y una hora de exposición. EEPROMs. Las PROMs borrables eléctricamente se pueden borrar y programar mediante impulsos eléctricos. La ventaja de las EEPROMs es que se pueden reprogramar dentro del propio circuito final, sin tener que sacarlo del mismo. Esto permite reconfigurar cualquier sistema fácil y rápidamente. MEMORIAS FLASH, Las memorias FLASH son memorias de lectura/escritura de alta densidad (gran capacidad de almacenamiento de bits) que son no volátiles, lo que significa que Los datos se pueden guardar indefinidamente sin necesidad de alimentación. Alta densidad significa que se pueden empaquetar en una pequeña superficie del chip, gran cantidad de celdas, lo que implica que cuanto mayor sea la densidad, más bits se pueden almacenar en un chip de tamaño determinado. La memoria FLASH es la memoria ideal porque posee una capacidad de almacenamiento alta, es no volátil, tiene capacidad de lectura y escritura, rapidez de operación comparativamente alta, buena relación calidad-precio. Las tecnologías tradicionales de memoria como la ROM, PROM, EPROM, EEPROM, SRAM, DRAM, poseen una o más características pero ninguna de ellas tiene todas, excepto las memorias FLASH. Actualmente se utilizan en la fabricación de BIOS para computadoras, generalmente conocidos como FLASH BIOS. La ventaja de esta tecnología es que permite actualizar el BIOS con un software proporcionado por el fabricante, sin necesidad de desmontar el chip del circuito final, ni usar aparatos especiales.


5.4 . BIOS: "Basic Input-Output System", sistema básico de entrada-salida. Programa incorporado en un chip de la placa base que se encarga de realizar las funciones básicas de manejo y configuración del ordenador. Cuando encendemos el ordenador, el sistema operativo se encuentra o bien en el disco duro o bien en un disquete; sin embargo, si se supone que es el sistema operativo el que debe dar soporte para estos dispositivos, ¿cómo demonios podría hacerlo si aún no está cargado en memoria? Lo que es más: ¿cómo sabe el ordenador que tiene un disco duro (o varios)? ¿Y la disquetera? ¿Cómo y donde guarda esos datos, junto con el tipo de memoria y caché o algo tan sencillo pero importante como la fecha y la hora? Pues para todo esto está la BIOS. Resulta evidente que la BIOS debe poderse modificar para alterar estos datos (al añadir un disco duro o cambiar al horario de verano, por ejemplo); por ello las BIOS se implementan en memoria. Pero además debe mantenerse cuando apaguemos el ordenador, pues no tendría sentido tener que introducir todos los datos en cada arranque; por eso se usan memorias especiales, que no se borran al apagar el ordenador: memorias tipo CMOS, por lo que muchas veces el programa que modifica la BIOS se denomina "CMOS Setup". En realidad, estas memorias sí se borran al faltarles la electricidad; lo que ocurre es que consumen tan poco que pueden ser mantenidas durante años con una simple pila, en ocasiones de las de botón (como las de los relojes). Esta pila (en realidad un acumulador) se recarga cuando el ordenador está encendido, aunque al final fenece, como todos... Ante todo, conózcanse. La BIOS es la responsable de la mayoría de esos extraños mensajes que surgen al encender el ordenador, justo antes del "Iniciando MSDOS" o bien Windows 95, NT, Linux, OS/2 o lo que sea. La secuencia típica en que aparecen (eso sí, muy rápido) suele ser: Primero los mensajes de la BIOS de la tarjeta gráfica (sí, las tarjetas gráficas suelen tener su propia BIOS, ¿passa algo?). -

El nombre del fabricante de la BIOS y el número de versión. El tipo de microprocesador y su velocidad. La revisión de la memoria RAM y su tamaño. Un mensaje indicando cómo acceder a la BIOS ("Press Del to enter CMOS Setup" o algo similar); volveremos sobre esto). Mensajes de otros dispositivos, habitualmente el disco duro.

Todo esto sucede en apenas unos segundos; a veces, si el monitor está frío y tarda en encender, resulta casi imposible verlos, no digamos leerlos, así que ármese de valor y reinicie varias veces, ¡pero no a lo bestia! Espere a que termine de arrancar el ordenador cada vez y use mejor el Ctrl-Alt-Del (es decir, pulsar a la vez y en este orden las teclas "Ctrl", "Alt" y "Del" -el "Supr" de los teclados en español-) que el botón de "Reset". Es más, si tiene un sistema operativo avanzado como OS/2, Linux, Windows 9x o NT, debe hacerlo mediante la opción de reiniciar del menú correspondiente, generalmente el de apagar el sistema (o con la orden "reboot" en Linux).


Bien, el caso es que al conjunto de esos mensajes se le denomina POST (Power-On Self Test, literalmente autotesteo de encendido), y debe servirnos para verificar que no existen mensajes de error, para ver si, grosso modo, la cantidad de memoria corresponde a la que debería (puede que sean unos pocos cientos de bytes menos, eso es normal y no es un error, es que se usan para otras tareas) y para averiguar cómo se entra en la BIOS. Generalmente se hará mediante la pulsación de ciertas teclas al arrancar, mientras salen esos mensajes. Uno de los métodos más comunes es pulsar "Del", aunque en otras se usa el "F1", el "Esc" u otra combinación de teclas (Alt-Esc, AltF1...). Existen decenas de métodos, así que no le queda más remedio que estar atento a la pantalla o buscar en el manual de su placa o en el sitio web del fabricante de la BIOS. Por cierto, es bastante raro que un fabricante de placas base sea su propio suministrador de BIOS, en general todas provienen de apenas un puñado de fabricantes: Award, AMI, Phoenix y pocos más. Manejo básico de la BIOS Bien, ya entró en la BIOS. ¿Y ahora, qué? Bueno, depende de su BIOS en concreto. Las BIOS clásicas se manejan con el teclado, típicamente con los cursores y las teclas de Intro ("Enter"), "Esc" y la barra espaciadora, aunque también existen BIOS gráficas, las llamadas WinBIOS, que se manejan con el ratón en un entorno de ventanas, lo cual no tiene muchas ventajas pero es mucho más bonito. La pantalla principal de una BIOS clásica es algo así:

Como se ve, casi la totalidad de las BIOS vienen en inglés, y aunque algunas de las más modernas permiten cambiar este idioma por el español. De cualquier modo, observamos que existen varios apartados comunes a todas las BIOS:


• • • •

Configuración básica, llamado generalmente "Standard CMOS Setup" o bien "Standard Setup". Opciones de la BIOS, llamado "BIOS Features Setup" o "Advanced Setup". Configuración avanzada y del chipset, "Chipset Features Setup". Otras utilidades, en uno o varios apartados (autoconfiguración de la BIOS, manejo de PCI, introducción de contraseñas -passwords-, autodetección de discos duros...).

Tenga en cuenta que JUGAR CON LA BIOS PUEDE SER REALMENTE PELIGROSO para su ordenador, así que COPIE LA CONFIGURACIÓN ACTUAL en unos folios antes de tocar nada, e incluso si no piensa hacer modificaciones; nunca se sabe, recuerde la Ley de Murphy... BIOS FEATURES SETUP - Optimización de la BIOS Se trata del primero de los tres apartados más interesantes, aunque son pocas las opciones de éste que nos deben interesar de cara a la optimización: External Cache: (en el caso de tratarse de un sistema con zócalo socket 7, para Pentium, Pentium MMX, K6, K6-2, K6-III, Cyrix MII o Winchip). Debería estar activada (Enabled), para permitir que nuestro sistema utilice la memoria caché instalada en nuestra placa base. CPU Level 2 Cache: (para sistemas Pentium II/III, Celeron A, Athlon o Duron). Es el equivalente al anterior, sin embargo la caché de segundo nivel en estos procesadores se encuentra en el micro, no en la placa; también debería estar activada (Enabled). CPU Level 1 Cache: la caché de primer nivel del procesador SIEMPRE debe estar activada (Enabled). Si la desactiva, verá que su ordenador se vuelve muy leeentooo... Memory parity/ECC Check: activa la corrección de errores en la memoria principal. Si activamos esta opción y nuestra memoria soporta ECC (cosa francamente extraña, excepto en servidores bastante caros) disminuirá el rendimiento pero aumentará la fiabilidad. Recomendamos que esté desactivada (Disabled). CPU Level 2 Cache ECC Checking: lo mismo que antes pero para la memoria caché de nivel 2, lo más lógico de cara a aumentar el rendimiento es desactivarla (Disabled). IDE HDD Block Mode: debe estar activado (Enabled) para que nuestro disco duro soporte el modo de transferencia de bloques. Video BIOS Shadow: copiaremos parte del código de la BIOS de nuestra tarjeta gráfica en la RAM, acelerando el acceso a funciones gráficas, por tanto debemos activarlo (Enabled). CHIPSET FEATURES SETUP El segundo submenú importante, y tal vez el más influyente. En este caso tenemos bastantes opciones interesantes que afectan al rendimiento: System Memory Clock: opción típica de placas base con chipset Intel 815, que permite ajustar la velocidad de la memoria a 100 ó 133 MHz. Lo ideal será lo más rápido... que soporte la memoria, claro.


DRAM Clock: una opción similar a la anterior, típica de las placas con chipsets VIA. Permite configurar la velocidad de la memoria a la misma que la del bus ("Host Clock"; por ejemplo, 66 MHz en un Celeron) o a la del bus más/menos 33 MHz (la velocidad del PCI). Por supuesto, lo ideal es que vaya lo más rápido posible... ¡pero dentro de sus posibilidades, claro, ninguna memoria normal aguanta 133+33, tendría que ser nada menos que PC166!! SDRAM CAS-to-CAS Delay: el valor debe ser mínimo (2 normalmente) para obtener las mayores prestaciones. Un mayor valor significa, por el contrario, mayor estabilidad. SDRAM CAS latency: también debe ser mínimo para obtener las mayores prestaciones. Un valor más alto (3) aumenta la estabilidad. Debe tenerse en cuenta que aunque la mayoría de memorias soportan el valor 2 cuando funcionan a 100 MHz o menos, funcionando a 133 MHz sólo las de EXCEPCIONAL calidad lo soportarán. Bank 0/1 (2/3, 4/5) DRAM timing: a menos ns, más MHz, con lo que aumentaremos significativamente la velocidad de transferencia de memoria. En mi caso, con PC100, 60ns no me están dando problemas... pero es cuestión de probar. SDRAM Leadoff Command: también deberá tener un valor mínimo para aumentar el rendimiento. SDRAM Precharge Control: si lo activamos podemos reducir el rendimiento al forzar un refresco continuo de los datos en la memoria, es mejor desactivarlo (Disabled). DRAM Read Pipeline: será mejor que la activemos (Enabled) para aumentar el rendimiento. Cache Rd + CPU Wt Pipeline: también deberemos activarla (Enabled) para acelerar la transferencia entre la caché y el procesador. System BIOS Cacheable: deberemos activarla (Enabled) para copiar el código de la BIOS en la RAM y así acceder a él más rápidamente, al poder situarse en la caché. Video BIOS Cacheable: también la activaremos (Enabled), en este caso para copiar la BIOS de nuestra tarjeta gráfica en la RAM, con lo que puede utilizar la caché. Video RAM Cacheable: algunos dispositivos gráficos permiten que la memoria RAM de nuestra gráfica pueda utilizar la caché para un acceso más rápido. Si la tarjeta gráfica lo soporta deberemos activarlo (Enabled). AGP Aperture Size: indicaremos el tamaño de memoria principal destinado a las tarjetas AGP. Un mayor tamaño implica un mayor tránsito de datos, y puede saturar nuestra memoria. Lo más conveniente es probar diversos valores, entre 32MB y la memoria de nuestro sistema y comprobar aquél con el que obtenemos un mayor rendimiento. Spread Spectrum: es una opción que deberemos desactivar (Disabled). CPU to PCI Write Buffer: deberemos activarlo (Enabled). Acelerará la comunicación de nuestro procesador con el BUS PCI. PCI Dynamic Bursting: deberemos activarlo (Enabled). PCI Master OWS Write: deberemos activarlo (Enabled). PCI Delay Transaction (o Delayed Transaction): lo más lógico sería desactivar el retraso (Disabled). Pero para cumplir las especificaciones PCI 2.1 deberá estar activado (Enabled). PCI Master Read Prefetch: deberemos activar esta opción (Enabled). PCI #2 Acces PCI #1 Retry: deberemos activarla (Enabled).


AGP Master 1 WS Write/Read: ambas opciones deberán estar activadas para acelerar el comportamiento del BUS AGP (Enabled). Memory Hole at 15-16M: en condiciones normales, siempre deberemos desactivar esta opción (Disabled) INTEGRATED PERIPHERALS El último submenú con algo de importancia, aunque en este caso tan solo por un par de opciones: Parallel Port Mode: deberá estar ajustado al tipo de impresora u otros dispositivos de puerto paralelo que tengamos (escáner, ZIP...). Lo normal es EPP o en todo caso ECP, pero nunca debería elegirse "Standard" ni "SPP", la velocidad sería mucho menor. IDE Prefetch Mode, que debe estar activada (Enabled) para un funcionamiento óptimo. Esta opción no se encuentra en muchos ordenadores. Arranque rápido Muchas veces encendemos el ordenador y vemos cómo pasan algunos valiosos segundos de nuestro preciado tiempo con un chequeo reiterativo de la memoria, la detección de discos duros y comprobaciones de teclado o disquetera. Pues bien, ésta será la última cosa que podremos optimizar, el tiempo necesario hasta que aparezca el esperado logotipo de Windows XX en nuestra pantalla, o la pantalla en modo texto que nos da la bienvenida a la versión 2.2.X de Linux (¿alguien utiliza BeOS o Solaris?, ¿qué es lo que aparece al principio?, quedaría curioso incluirlo en próximas revisiones del artículo). En el submenú STANDARD CMOS SETUP encontramos algunas opciones interesantes. Si ha probado a encender el ordenador sin conectar un teclado, habrá notado que da un error. Esto se produce porque existe una opción llamada "Halt on:" que indica a la BIOS que debe comprobar ciertas cosas y detenerse en el caso de que encuentre algún error (normalmente en disquetera y teclado). Si le decimos "No Errors" no se detendrá ante ningún error. También observamos en la misma pantalla cuatro filas con los canales IDE. Normalmente se encuentran en "Auto", con lo que cada vez que arranquemos el ordenador, la BIOS deberá detectar nuestros discos duros. La opción correcta pasa por desactivar la detección en los canales que no tienen discos duros (seleccionando "None"). En cuanto a los que tienen discos duros, si no queremos insertar sus características de forma manual (no hay ninguna necesidad), podemos recurrir a la opción IDE HARD DISK DETECTION del menú principal, que detectará nuestros discos duros y colocará las opciones correctas. Tan solo existe un caso en el que la opción Auto resulta recomendable (prácticamente necesaria), y es cuando la unidad de disco es extraíble. Por último, podemos reducir el número de tests de memoria que realiza el sistema al arrancar, seleccionando "Enabled" en la opción "Quick Power On Self Test".


cuestionario De acuerdo a lo expuesto en clases y utilizando su capacidad investigativa responda las siguientes preguntas: a) Mencione tres tipos de tecnología de Memoria RAM principal? R. b) Explique cuantos bits de datos manipula un SIMMs de 30 pines y otro de 72 pines? R. c) ¿La memoria virtual se ubica dentro el concepto de memoria Cache L2? ¿Por qué? R. d) En una memoria SDRAM PC100, el tiempo de acceso es de 100 nano segundos? ¿Por qué? R. e) Investigue un procedimiento para actualizar una denomina Flash BIOS? R. f) En que caso será aconsejable activar la verificación de paridad (en lo que respecta a la memoría) en las opciones de la BIOS? R.

PRACTICA

1.- Verificación de tipos de Memoria, en forma física, por el tiempo de acceso y por la frecuencia de trabajo.

2.- Manipulación del BIOS, con observando relacionadas a la memoria y la configuración optima.

las

opciones


3.- Borrado de la CMOS RAM de la BIOS, a travĂŠs de los jumpers, utilizando como ejemplo un PASSWORD de usuario desconocido.

Lic.

Manuel Llerena Silva


UNIDADES DE ALAMCENAMIENTO

6.1. Discos duros - Hard Disk Drive Son otro de los elementos habituales en los ordenadores, al menos desde los tiempos del 286. Un disco duro está compuesto de numerosos discos de material sensible a los campos magnéticos, apilados unos sobre otros; en realidad se parece mucho a una pila de disquetes sin sus fundas y con el mecanismo de giro y el brazo lector incluido en la carcasa. Los discos duros han evolucionado mucho desde los modelos primitivos de 10 ó 20 MB. Actualmente los tamaños son del orden de varios gigabytes, el tiempo medio de acceso es muy bajo (menos de 20 ms) y su velocidad de transferencia es tan alta que deben girar a más de 5.000 rpm (revoluciones por minuto), lo que desgraciadamente hace que se calienten como demonios, por lo que no es ninguna tontería instalarles un ventilador para su refrigeración. Una diferencia fundamental entre unos y otros discos duros es su interfaz de conexión. Antiguamente se usaban diversos tipos, como MFM, RLL o ESDI, aunque en la actualidad sólo se emplean dos: IDE y SCSI. La estructura es idéntica a la del floppy Diskette, pero se caracteriza por tener mayor capacidad, y normalmente varias cabezas o lados en los discos que realmente son rígidos hechos en aleación de aluminio. Los componentes físicos de una unidad de disco duro son:  CABEZA DE LECTURA / ESCRITURA: Es la parte de la unidad de disco que escribe y lee los datos del disco. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco.  DISCO:


 Convencionalmente los discos duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de control.  EJE: Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco.  IMPULSOR DE CABEZA: Es el mecanismo que mueve las cabezas de lectura / escritura radialmente a través de la superficie de los platos de la unidad de disco. Parámetros a tener en cuenta:  Capacidad: Aconsejable que sea a partir de 2,1 Gbytes en adelante.  Tiempo de acceso: Importante. Este parámetro nos indica la capacidad para acceder de manera aleatoria a cualquier sector del disco.  Velocidad de Transferencia: Directamente relacionada con el interface. En un dispositivo Ultra-2 SCSI es de 80 MBytes/seg. mientras que en el Ultra DMA/33 (IDE) es de 33,3 MBytes/seg. en el modo DMA-2. Esta velocidad es la máxima que admite el interface, y no quiere decir que el disco sea capaz de alcanzarla.  Velocidad de Rotación: Tal vez el más importante. Suele oscilar entre las 4.500 y las 7.200 rpm (revoluciones por minuto).  Caché de disco: La memoria caché implementada en el disco es importante, pero más que la cantidad es importante la manera en que ésta se organiza. Por ello este dato normalmente no nos da por si solo demasiadas pistas. Son normales valores entre 64 y 256 Kb. Mientras que lógicamente la capacidad de un disco duro puede ser medida según los siguientes parámetros:  CILINDRO: Es una pila tridimensional de pistas verticales de los múltiples platos. El número de cilindros de un disco corresponde al número de posiciones diferentes en las cuales las cabezas de lectura/escritura pueden moverse.  CLUSTER: Es un grupo de sectores que es la unidad más pequeña de almacenamiento reconocida por el DOS. Normalmente 4 sectores de 512 bytes constituyen un Cluster (racimo), y uno o más Cluster forman una pista.  PISTA: Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster.  SECTOR: Es la unidad básica de almacenamiento de datos sobre discos duros. En la mayoría de los discos duros los sectores son de 512 Bytes cada uno, cuatro sectores constituyen un Cluster.


Capacidad _____[KB]

=

(Cabezas) x (Pistas) x (Sectores) x (½) KB

=

Otros elementos a tener en cuenta en el funcionamiento de la unidad es el tiempo medio entre fallos, MTBF (Mean Time Between Failures), se mide en horas (15000, 20000, 30000..) y a mayor numero mas fiabilidad del disco, ya que hay menor posibilidad de fallo de la unidad. Otro factor es el AUTOPARK o aparcamiento automático de las cabezas, consiste en el posicionamiento de las cabezas en un lugar fuera del alcance de la superficie del disco duro de manera automático al apagar el ordenador, esto evita posibles daños en la superficie del disco duro cuando la unidad es sometida a vibraciones o golpes en un posible traslado. Controladoras El interface es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. El interface define la forma en que las señales pasan entre el bus del sistema y el disco duro. En el caso del disco, su interface se denomina controladora o tarjeta controladora, y se encarga no sólo de transmitir y transformar la información que parte de y llega al disco, sino también de seleccionar la unidad a la que se quiere acceder, del formato, y de todas las órdenes de bajo nivel en general. La controladora a veces se encuentra dentro de la placa madre. INTERFACE A NIVEL DE DISPOSITIVO: Es un interface que usa un controlador externo para conectar discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son interfaces a nivel de dispositivo. INTERFACE A NIVEL DE SISTEMA: Es una conexión entre el disco duro y su sistema principal que pone funciones de control y separación de datos sobre el propio disco (y no en el controlador externo), SCSI e IDE son interfaces a nivel de sistema. Se encuentran gobernados por una controladora y un determinado interface que puede ser: ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s. Proporciona un valor máximo de transferencia de datos de menos de 1 Mbyte por segundo (625k por segundo con codificación MFM, y 984k por segundo con codificación RLL). Actualmente esta desfasado y ya no hay modelos de disco duro con este tipo de interface. ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506 pero con un valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por segundo).Ya ha dejado de utilizarse este interface y es difícil de encontrar. IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a los AT y que usa una variación sobre el bus de expansión del AT (por eso también llamados discos tipo AT) para conectar una unidad de disco a la CPU, con un valor máximo de transferencia de 4 Mbytes por


segundo. En principio, IDE era un término genérico para cualquier interface a nivel de sistema. La especificación inicial de este interface está mal definida. Es más rápida que los antiguos interfaces ST506 y ESDI pero con la desaparición de los ATs este interface desaparecerá para dejar paso al SCSI y el SCSI-2. Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que define un conjunto de normas que deben cumplir los dispositivos. Años atrás la compañía Western Digital introdujo el standard EIDE (Enhanced IDE), que mejoraba la tecnología superando el límite de acceso a particiones mayores de 528 Mb. y se definió ATAPI, normas para la implementación de lectores de CD-ROM y unidades de cinta con interfaz IDE. E-IDE se basa en el conjunto de especificaciones ATA-2. Como contrapartida comercial a E-IDE, la empresa Seagate presento el sistema FAST-ATA-2, basado principalmente en las normas ATA-2. En cualquier caso a los discos que sean o bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE como referencia. Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias soluciones:  El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros, cabezas y sectores (ligeramente incongruentes) y los incluidos en el software de sólo lectura (Firmware) que incorpora la unidad de disco.  El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una dirección de 28 bits manejables por el sistema operativo, para el controlador de dispositivo y para la interfaz de la unidad. Debido a la dificultad que entraña la implemetación de la compatibilidad LBA en BIOS, muchos de los ordenadores personales de fabricación más reciente continúan ofreciendo únicamente compatibilidad con CHS. El techo de la capacidad que permite las solución CHS se sitúa en los 8,4 Gb, que por el momento parecen suficientes. El estándar IDE fue ampliado por la norma ATA-2 en lo que se ha dado en denominar EIDE (Enhanced IDE o IDE mejorado). Los sistemas EIDE disponen de 2 canales IDE, primario y secundario, con lo que pueden aceptar hasta 4 dispositivos, que no tienen porqué ser discos duros mientras cumplan las normas de conectores ATAPI; por ejemplo, los CD-ROMs y algunas unidades SuperDisk se presentan con este tipo de conector. En cada uno de los canales IDE debe haber un dispositivo Maestro (master) y otro Esclavo (slave). El maestro es el primero de los dos y se sitúa al final del cable, asignándosele generalmente la letra "C" en DOS. El esclavo es el segundo, conectado en el centro del cable entre el maestro y la controladora, la cual muchas veces está integrada en la propia placa base; se le asignaría la letra "D". Los dispositivos IDE o EIDE como discos duros o CD-ROMs disponen de unos microinterruptores (jumpers), situados generalmente en la parte posterior o inferior de los mismos, que permiten seleccionar su carácter de maestro, esclavo o incluso otras posibilidades como maestro con esclavo. Las


posiciones de los jumpers vienen indicadas en una pegatina en la superficie del disco, o bien en el manual o serigrafiadas en la placa de circuito del disco duro, con las letras M para designar "maestro" y S para "esclavo". Los discos duros se deben configurar a través del BIOS-SETUP, algunos también nos permiten cambiar la unidad de Boot (arrancar sistema operativo), ya que por defecto es la unidad “C” del primer IDE 0, al segundo IDE 1, etc. SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito general, que permite que se conecten hasta siete dispositivos a un único controlador. Usa una conexión paralela de 8 bits que consigue un valor máximo de transferencia de 5 Mbytes por segundo. Actualmente se puede oír hablar también de SCSI-2 que no es más que una versión actualizada y mejorada de esta interface. Es el interface con más futuro, si bien tiene problemas de compatibilidad entre las diferentes opciones de controladoras, discos duros, impresoras, unidades de CD-ROM y demás dispositivos que usan este interface debido a la falta de un estándar verdaderamente sólido. Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través del bus, desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se aumenta el ancho del bus de 8 a 16 bits, doblando también el flujo de datos. Actualmente se ha logrado el ancho de 32 bits, consiguiendo velocidades teóricas de hasta 40 Mbytes / seg. Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el controlador realmente no suele ser mas que un adaptador principal para conectar el disco al PC. Como se puede ver unos son interfaces a nivel de dispositivo y otros a nivel de sistema. Datos de control del disco Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan determinados sectores que son defectuosos. En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del disco. En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En los modernos, las direcciones de estos sectores se graban en pistas especiales o se reconocen durante el formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí donde se guardan las tablas que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el acceso al disco duro, pero teniendo en cuenta que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene importancia. Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los discos son datos, existen zonas donde se almacena información de control. Entre la información que se encuentran dentro de un sector: · Numero de sector y cilindro Code) DATA.

· El ECC (Error Correction


· La zona de datos zonas o entre pistas

· Zonas de separación entre

También existen pistas extra donde se recogen otras informaciones como: · Pistas "servo" donde se guardan cambios de flujo según un esquema determinado, para la sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en RLL. · Pistas de reserva, normalmente usadas como reserva de sectores defectuosos. · Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la superficie con datos ante vibraciones o golpes de la unidad. Tiempos de acceso, velocidades y su medición Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios conocer para comprender su funcionamiento y sus diferencias.  Tiempo de búsqueda de pista a pista : intervalo de tiempo necesario para desplazar la cabeza de lectura y escritura desde una pista a otra adyacente.  Tiempo medio de acceso : tiempo que tarda, como media, para desplazarse la cabeza a la posición actual. Este tiempo promedio para acceder a una pista arbitraria es equivalente al tiempo necesario para desplazarse sobre 1/3 de las pistas del disco duro. El antiguo IBM PC/XT utilizaba discos de 80 a 110 milisegundos, mientras que los AT usaban discos de 28 a 40 milisegundos, y los actuales sistemas 386, 486 y PENTIUMÒ usan discos de menos de 20 milisegundos.  Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco.  Latencia Promedio : Es el promedio de tiempo para que el disco una vez en la pista correcta, encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. La velocidad de transferencia a la que los datos (bits) pueden transferirse desde el disco a la unidad central. Depende esencialmente de dos factores : la velocidad de rotación y la densidad de almacenamiento de los datos en una pista. 3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos) Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos


Una comparativa entre un disquete y un disco duro de todos estos Factores mencionados anteriormente sería:

FD 360k HD AT 30

T. Pista 6-12 ms 8-10 ms

T.M. Acceso Rotación Latencia V. Transferencia 93 ms 300 rpm 100 ms 125-250 Kb / seg 40-28 ms 3600 rpm 8,3 ms 1-5 Mb / seg

El tiempo de búsqueda depende del tamaño de la unidad (2", 3"½, 5"¼), del número de pistas por pulgada (que a su vez depende de factores como el tamaño de los dominios magnéticos) y de la velocidad y la precisión de los engranajes del cabezal. La latencia depende de la velocidad de rotación y equivale a la mitad del tiempo que tarda el disco en describir un giro completo. El rendimiento total también depende de la disposición de los dominios magnéticos, uso de ZBR. Para mejorar el tiempo de acceso se reduce esa latencia acelerando la rotación del disco o velocidad de eje. Hace unos años todos los discos duros giraban a la misma velocidad unos 3600 rpm, la latencia resultante era de 8,3 milisegundos. Hoy las unidades de disco más rápidas para PC giran a 5400 rpm (un 50% más rápidas) y por tanto su latencia es de 5,6 milisegundos. Algunos discos siguen usando los 3600 rpm para consumir menos energía. El trabajar a RPM 1 Vuelta cada Latencia velocidades elevadas plantea 3600 16,66 ms 8,33 mseg. varios problemas: 4500 13,33 ms 6,66 mseg. El primer problema es 5400 11,11 ms 5,55 mseg. que a esta velocidad la 7200 8,33 ms 4,16 mseg. disipación del calor se 10000 6,00 ms 3,00 mseg. convierte en un elemento a considerar. El segundo es que exige a usar nuevos motores articulados pro fluidos para los engranajes, los actuales motores de cojinetes no pueden alcanzar estas velocidades sin una reducción drástica de fiabilidad, se quemarían demasiado rápido. Además de todas estas características de velocidades y tiempos de acceso de los discos duros existen una serie de técnicas que nos permiten aminorar los accesos a disco así como acelerar las transferencias de datos entre el sistema y el dispositivo en cuestión. Una de las técnicas más conocidas en la informática para hacer esto es la del uso de memorias intermedias, buffers o cachés. · Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una pista, esta se puede leer de una sola vez, enviando la información a la CPU, sin necesidad de interleaving. · Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a través de programas usar la memoria central. La gestión de esta memoria es completamente invisible y consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos no solicitados en un


determinado tiempo. Se usan para descargar al sistema de las lentas tareas de escritura en disco y aumentar la velocidad. Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos de ésta a la memoria definen también la velocidad del sistema. Se pueden emplear 4 métodos: · Programed I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La tasa de transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se pueden lograr transferencias de 3 a 4 Mbytes. Con el modo de transferencia PIO 4, que es el método de acceso que actualmente utilizan los discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbytes / seg. · Memory mapped I/O: La CPU puede recoger los datos de la controladora de forma más rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida que los accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg. · DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las transferencias de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se puede pasar de más de 2 Mb. por segundo. · Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora del bus y transfiere los datos con la ayuda de un controlador Bus Master DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb. por segundo. Aunque en este terreno se barajan las cifras de transferencia máxima teóricas, que no las que físicamente puede alcanzar el disco; los 66,6 MB/s son absolutamente inalcanzables para cualquier disco duro actual. En realidad, llegar a 20 MB/s con un disco duro UltraDMA es algo bastante difícil de conseguir, actualmente las cifras habituales están más bien por unos 10 a 15 MB/s. 6.4. Estructura lógica de los discos duros Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos. En primer Sector de Arranque. lugar, internamente los discos duros se Primera tabla de localización de archivos (FAT). pueden dividir en varios volúmenes Una o más copias de la FAT. homogéneos. Dentro Directorio Raíz (eventualmente con etiqueta de cada volumen se de volumen). encuentran una Zona de datos para archivos y subdirectorios. estructura que bajo el sistema operativo del Ms-Dos, sería la siguiente:


Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una parte acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes archivos y subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes estructuras de datos y zonas. Pero no es posible describirlas, ya que se adaptan individualmente al tamaño del volumen correspondiente El Sector de Arranque : Al formatear un volumen, el sector de arranque se crea siempre como primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra información acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de arranque (BOOT). La Tabla de Asignación de Ficheros (File Allocation Table) (FAT) : Si el DOS quiere crear nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente quedan libres, Estas informaciones las toma la llamada FAT. Cada entrada a esta tabla se corresponde con un número determinado de sectores, que son adyacentes lógicamente en el volumen. Cada uno de estos grupos de sectores se llama Cluster. El tamaño de las diferentes entradas de esta tabla en las primeras versiones del DOS era de 12 bits. con lo que se podían gestionar hasta 4.096 Clusters, correspondiente a una capacidad aproximada de 8 Mbytes. En vista del problema que surgió al aparecer discos duros de capacidades más elevadas, se amplió el tamaño a 16 bits, permitiendo el direccionamiento de un máximo de 65.535 Clusters. Actualmente se está creando FAT’s de hasta 32 bits, para discos duros capaces de almacenar Gigas de información. Una o más copias de la FAT : El DOS permite a un programa de formateo crear no sólo una, sino varias copias idénticas de la FAT. Si el DOS encuentra uno de estos medios, cuida todas las copias de la FAT simultáneamente, así que guarda allí los nuevos clusters ocupados o liberados al crear o borrar archivos. Esto ofrece la ventaja de que se puede sustituir la FAT primaria en caso de defecto por una de sus copias, para evitar la pérdida de datos. El directorio Raíz : La cantidad máxima de entradas en el directorio raíz se limita por su tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de datos estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que, dependiendo del tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del directorio raíz en relación al volumen. La Zona de Datos : Es la parte del disco duro en la que se almacena los datos de un archivo. Esta zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS, y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo.


Lic.

Manuel Llerena Silva


. Dispositivos removibles Vamos a comentar ahora los demás dispositivos de almacenamiento que no aparecen de manera estándar en la configuración de un PC... al menos por ahora, porque tal como está el mundo informático nunca se sabe cuándo serán tan comunes como la disquetera o el disco duro. Se denominan removibles no porque se les dé vueltas como a la sopa, sino porque graban la información en soportes (discos o cartuchos) que se pueden remover, extraer. La clasificación hace referencia a su capacidad de almacenamiento, por ser ésta una de las principales características que influyen en la compra o no de uno de estos periféricos, pero para hacer una compra inteligente se deben tener en cuenta otros parámetros que se comentan en la explicación como velocidad, durabilidad, portabilidad y el más importante de todos: su precio.


Grabadoras de CD-ROM - 650 MB Pros: alta seguridad de los datos, compatibilidad, bajo precio de los discos Contras: inversión inicial, capacidad y velocidad relativamente reducidas Lo primero, hacer distinción entre grabadoras (aquellas que sólo permiten grabar la información una vez, sin que luego se pueda volver a escribir en el CD) y regrabadoras (las que, utilizando los discos apropiados, permiten grabarles numerosas veces, en teoría unas mil). De todas formas cada vez quedan menos grabadoras que no sean también regrabadoras, pero conviene que se informe por si acaso, evidentemente no es lo mismo lo uno que lo otro. Las grabadoras son como lectores de CD-ROM pero que permiten grabar además de leer. ¿En cualquier tipo de CD? No, en absoluto, para nada. Los CDs comerciales, de música o datos, son absolutamente inalterables, lo cual es una de sus ventajas. Los CDs grabables son especiales y de dos tipos: CD-R (Recordable, grabable una única vez), y CD-RW (ReWritable, regrabable múltiples veces) Las características de esta tecnología determinan a la vez sus ventajas y sus principales problemas; los CD-ROMs, aunque son perfectos para distribuir datos por estar inmensamente extendidos, nunca han sido un prodigio de velocidad, y las grabadoras acentúan esta carencia. Si en los lectores de CDROM se habla como mínimo de 24x (otra cosa es que eso sea mentira, en realidad la velocidad media pocas veces supera los 1,8 MB/s, los 12x), en estas unidades la grabación se realiza generalmente a 4x (600 Kb/s), aunque algunas ofrecen ya 8x. Para realizar una grabación de cualquier tipo se recomienda poseer un equipo relativamente potente, digamos un Pentium sobrado de RAM (32 MB o más). Para evitar quedarnos cortos (lo que puede impedir llegar a grabar a 4x o estropear el CD por falta de continuidad de datos) podemos comprar una grabadora SCSI, que dan un flujo de datos más estable, tener una fuente de datos (disco duro o CD-ROM) muy rápida, comprar un grabador con un gran buffer de memoria incorporado (más de 1MB) o asegurarnos de que la grabadora cumple la norma IPW o mejor UDF, que facilitan la grabación fluida de datos sin errores. Las cifras de velocidad del Jaz son absolutamente alucinantes, casi indistinguibles de las de un disco duro moderno: poco más de 5 MB/s y menos de 15 ms. La razón de esto es fácil de explicar: cada cartucho Jaz es internamente, a casi todos los efectos, un disco duro al que sólo le falta el elemento lector-grabador, que se encuentra en la unidad. Por ello, atesora las ventajas de los discos duros: gran capacidad a bajo precio y velocidad, junto con sus inconvenientes: información sensible a campos magnéticos, durabilidad limitada en el tiempo, relativa fragilidad. De cualquier forma, y sin llegar a la extrema resistencia de los discos Zip, podemos calificar este soporte de duro y fiable, aunque la información nunca estará tan a salvo como si estuviera guardada en un soporte óptico o magnetoóptico.


¿Aplicaciones? Almacenamiento masivo de datos que deben guardarse y recuperarse con la mayor velocidad posible, lo cual lo hace ideal para la edición de vídeo digital (casi una hora en formato MPEG); en general, sirve para lo mismo que los discos duros, pero con la ventaja de su portabilidad y fácil almacenaje. En cuanto a defectos y críticas, aparte de que los datos no duren "para siempre", sólo tiene un handicap: el precio. Por cierto: la versión de 2 GB, completamente compatible con los cartuchos de 1 GB (pero no los cartuchos de 2 GB con la unidad de 1 GB, mucho ojo). Dispositivos de más de 2 GB de capacidad En general podemos decir que en el mundo PC sólo se utilizan de manera común dos tipos de dispositivos de almacenamiento que alcancen esta capacidad: Ls cintas de datos y los magneto-ópticos de 5,25". Las cintas son dispositivos orientados específicamente a realizar copias de seguridad masivas a bajo coste, mientras que los magneto-ópticos de 5,25" son mucho más versátiles... y muchísimo más caros. Cintas magnéticas de datos - hasta más de 4 GB Pros: precios asequibles, muy extendidas, enormes capacidades Contras: extrema lentitud, útiles sólo para backups Seguro que ha visto más de una vez en una película antigua o en la televisión esa especie de enormes armarios acristalados en los que unos círculos oscuros de más de 30 cm de diámetro giran como locos mientras Sean Connery, encarnando al inefable 007, se enfrenta al científico loco de turno; bueno, pues esos círculos son cintas de datos de ordenador. Afortunadamente los tiempos han cambiado mucho: hoy en día las cintas de datos vienen con funda y no son mayores que las de música o las cintas de vídeo de 8 mm, lo que es un avance evidente; en cambio, sobre si Pierce Brosnan es tan buen 007 como Connery habría opiniones, aunque tampoco lo hace mal. Las cintas magnéticas de datos o streamers presentan muchos problemas como dispositivo de almacenaje de datos: casi todos los tipos son tremendamente lentas (típicamente menos de 250 Kb/s, una velocidad casi ridícula); lo que es peor, los datos se almacenan secuencialmente, por lo que si quiere recuperar un archivo que se encuentra a la mitad de la cinta deberá esperar varias decenas de segundos hasta que la cinta llegue a esa zona; y además, los datos no están en exceso seguros, ya que como dispositivos magnéticos les afectan los campos magnéticos, el calor, etc, además del propio desgaste de las cintas . Copias de seguridad (backups) "ANTE TODO, MANTENGA FICHEROS DE DATOS".

BACKUPS

RECIENTES

DE

SUS

No olvide que un ordenador no es más que un amasijo de cables, plástico y metal, por mucho que me cueste reconocerlo; es una máquina, y como tal no es especialmente interesante en sí misma, sino que lo es sobre


todo por los datos que contiene: las cartas a la novia, los informes del trabajo, las fotos de astronomía, los juegos, las facturas del último trimestre... Eso es lo importante, pero parece que nos olvidamos de ello muy a menudo; confiamos en que como nunca se ha roto, nunca se romperá, olvidando la única ley de la informática, la Ley de Murphy:  Si un archivo puede borrarse, se borrará.  Si dos archivos pueden borrarse, se borrará el más importante.  Si tenemos una copia de seguridad, no estará lo suficientemente actualizada. Y así hasta el infinito. Los discos duros fallan poco, pero más de lo deseable; incluso si no fallan, pueden verse afectados por múltiples causas, desde una subida de tensión eléctrica hasta un tropezón con un cable que nos haga tirar el ordenador al suelo. La única solución es tener copias de seguridad, actualizarlas a menudo y esperar que nunca nos haga falta usarlas; a continuación le presento:

Lectora con

conexión SATA

Los Diez Mandamientos de los Backups:  Haga copias de seguridad de todos los datos importantes.  Haga una copia de seguridad de los discos de instalación de los programas.  Actualice las copias de seguridad tan a menudo como pueda.  Revise el estado de sus copias de seguridad de vez en cuando.  Si le da pereza copiar todo el disco, al menos copie sus archivos de datos.  Si le da pereza copiar todos sus archivos de datos, al menos copie los más recientes o importantes.  No confíe en los disquetes como dispositivo de backup, su fiabilidad es ínfima.  Si no dispone de otra cosa, al menos haga copias en disquete.  Sobre todo si utiliza disquetes o cintas magnéticas, tenga más de un juego de copias, intercámbielos de forma rotatoria y renuévelos de vez en cuando.  Guarde las copias en lugar seguro, si no serán copias de seguridad inseguras.


CUESTIOMARIO

De acuerdo a lo expuesto en clases y utilizando su capacidad investigativa responda las siguientes preguntas: a) Mencione los parametros para determinar la capacidad en los discos duros? R. b) En la estructura lógica del disco duro, que diferencias existe entre FAT de 32 Bits. Y NTFS ? R. c) ¿El sector de arranque de un Disco Duro puede estar ubicado en cualquier pista? ¿Por qué? R. d) A la estructura lógica del disco duro se denomina formato? ¿Por qué? R. e) Cuales las caracteristicas de la interface E-IDE? ¿muestre ejemplos? R. f) Con que tipo de interface se podra instalar más de 3 dispositivos de almacenamiento? ¿Por qué? R.

Lic.

Manuel Llerena Silva


PRACTICA 1.- Configure dos dispositivos (floppy drive) como unidad A y el otro como unidad B La Unidad A serรก un floppy drive de 1.44 MB de 3,5 Pulgadas La unidad B serรก un floppy drive de 1.2 MB de 5,25 Pulgadas 2.- Repita el paso 1, pero en forma invertida 3.- Usando Dos dispositivos (Hard Disk Drive) y un Lector de CDROM, configure de tal manera de que: a) HDD-1 sea Primer Maestro, el CDROM sea Primer Esclavo y HDD-2 se segundo Maestro b) HDD-1 sea Primer Maestro, HDD-2 se primer esclavo y el CDROM sea segundo Maestro c) El CDROM se Primer Maestro, El HDD-2 se el primer esclavo y el HDD-1 sea el Segundo Maestro. Ademรกs modifique la BIOS-SETUP para que arranque el Sistema Operativo por el HDD-1 siendo segundo maestro. d) HDD Sea maestro SATA Y Lectora Maestro IDE1

Lic.

Manuel Llerena Silva


FORMATEO Y PARTICIONAMIENTO DE DISCOS DUROS. Las unidades de almacenamiento permanente, tal como los Discos Duros, deben ser formateadas a la capacidad correcta (actualmente se cuenta con unidades de 20, 30, 40, 60, 80 y hasta 120 Giga Bytes), "FORMATEAR" significa el dar una adecuada organización a una unidad de almacenamiento, de manera que éste tenga una especie de "Indice" similar a la que dispone un libro cualquiera, de modo que el lector pueda ubicar adecuadamente "cualquier capitulo" en dicho libro. Del mismo modo se asigna una organización al Disco Duro creando una FAT (FILE ALLOCATION TABLE, Tabla de Localización de Archivos) durante el formateo, de modo que el cabezal de lectura sepa donde ubicar los archivos respectivos, para realizar luego una grabación o lectura de cualquier tipo de archivos de datos, pues bien sabemos que inicialmente los discos duros vienen de fábrica totalmente "en blanco", sin organización alguna. Los pasos a tomar en cuenta para realizar este proceso los detallaremos en los siguientes puntos a seguir: •

Verificar la correcta instalación física de las unidades de Discos Duros que se dispongan en el computador. De preferencia deberá colocar la unidad principal el cual contendrá su Sistema Operativo (DOS, WINDOWS 9x, etc) en el denominado IDE1 como PRIMARY MASTER. Además verificar que no existan conflictos de configuración con otros discos duros o alguna unidad de CD-ROM de tipo IDE. ( Que las Unidades se encuentren correctamente JUMPEADAS como Maestro-Esclavo, etc).

Ingresar al BIOS del Computador, presionando la tecla DEL o SUPR.


ROM PCI/ISA BIOS (2ª4IBS29) CMOS SETUP UTILITY AWARD SOFTWARE, INC. STANDARD CMOS SETUP BIOS FEATURES SETUP CHIPSET FEATURES SETUP POWER MANAGEMENT SETUP PNP/PCI CONFIGURACION SETUP LOAD SETUP DEFAULTS LOAD TURBO DEFAULTS

Esc : Quit F10 : Save & Exit Setup

INTEGRATED PHERIPHERALS PASSWORD SETTING IDE HDD AUTO DETECTION HDD LOW LEVEL FORMAT SAVE & EXIT SETUP EXIT WITHOUT SAVING

↓ ↑ → ( Shift ) F2

: Select Item : Change Color

Abandon all Datas & Exit SETUP

Utilizar la opción de autodetección de Discos Duros ( IDE HDD AUTO DETECTION ) del menú principal del Bios Setup, una vez detectada las unidades elegir la opción en modo LBA ( LOGICAL BLOCK ADDRESS), Puesto que esta opción tiene mayores ventajas en cuanto a los modos NORMAL o CHS (CLINDROS/CABEZAS /SECTORES). y al modo LARGE. La elección del MODO LBA se la realiza presionando la tecla "Y" (YES) o "2". Para los casos en los cuales no se tenga instalado otros discos duros y estos nos den como una repetición de ceros, presione la tecla "ESC". •

Verificar la correcta detección de los Discos Duros Instalados en la Opción "STANDARD CMOS SETUP" donde también se deberá verificar la correcta configuración de la Unidad A ó Floppy Disk (generalmente 1,44 MB 3,5 plg). Cabe hacer notar que en los BIOS de tipo AWARD no se detectan las unidades de CD-ROM, esto por el tipo de fabricante de Bios, no siendo esto un problema mayor.

• Verificar en la Opción "BIOS FEATURES SETUP", Primero la Opción VIRUS WARNING deberá estar deshabilitada es decir "Disabled", ESTO ES MUY IMPORTANTE PUESTO QUE DE LO CONTRARIO EL ANTIVIRUS QUE SE ENCUENTRA RESIDENTE EL BIOS TOMARA COMO A UN POSIBLE VIRUS NUESTRO INTENTO DE FORMATEO, PRESENTANDO UN MENSAJE DE ADVERTENCIA Y NEGÁNDONOS A REALIZAR LOS CAMBIOS DESEADOS. Otro aspecto Importante es de colocar en la Opción "BOOT SEQUENCE" o secuencia de arranque como primer dispositivo la


Finalmente guardar los cambios realizados con la opción SAVE & EXIT SETUP.

Ahora introduzca el DISCO DE INICIO de cualquier sistema operativo (DOS, WINDOWS9x, etc), en la unidad de Floppy Disk y RE-ARRANQUE el Computador


Capitulo 7

FORMATEO Y PARTICIONAMIENTO DE DISCOS DUROS.

Las unidades de almacenamiento permanente, tal como los Discos Duros, deben ser formateadas a la capacidad correcta (actualmente se cuenta con unidades de 20, 30, 40, 60, 80 y hasta 120 Giga Bytes), "FORMATEAR" significa el dar una adecuada organización a una unidad de almacenamiento, de manera que éste tenga una especie de "Indice" similar a la que dispone un libro cualquiera, de modo que el lector pueda ubicar adecuadamente "cualquier capitulo" en dicho libro. Del mismo modo se asigna una organización al Disco Duro creando una FAT (FILE ALLOCATION TABLE, Tabla de Localización de Archivos) durante el formateo, de modo que el cabezal de lectura sepa donde ubicar los archivos respectivos, para realizar luego una grabación o lectura de cualquier tipo de archivos de datos, pues bien sabemos que inicialmente los discos duros vienen de fábrica totalmente "en blanco", sin organización alguna. Los pasos a tomar en cuenta para realizar este proceso los detallaremos en los siguientes puntos a seguir: •

Verificar la correcta instalación física de las unidades de Discos Duros que se dispongan en el computador. De preferencia deberá colocar la unidad principal el cual contendrá su Sistema Operativo (DOS, WINDOWS 9x, etc) en el denominado IDE1 como PRIMARY MASTER. Además verificar que no existan conflictos de configuración con otros discos duros o alguna unidad de CD-ROM de tipo IDE. ( Que las Unidades se encuentren correctamente JUMPEADAS como Maestro-Esclavo, etc).

Ingresar al BIOS del Computador, presionando la tecla DEL o SUPR. ROM PCI/ISA BIOS (2ª4IBS29) CMOS SETUP UTILITY AWARD SOFTWARE, INC.

STANDARD CMOS SETUP BIOS FEATURES SETUP CHIPSET FEATURES SETUP POWER MANAGEMENT SETUP PNP/PCI CONFIGURACION SETUP LOAD SETUP DEFAULTS LOAD TURBO DEFAULTS

Esc : Quit F10 : Save & Exit Setup

INTEGRATED PHERIPHERALS PASSWORD SETTING IDE HDD AUTO DETECTION HDD LOW LEVEL FORMAT SAVE & EXIT SETUP EXIT WITHOUT SAVING

↓ ↑ → ( Shift ) F2

: Select Item : Change Color

Abandon all Datas & Exit SETUP


Utilizar la opción de autodetección de Discos Duros ( IDE HDD AUTO DETECTION ) del menú principal del Bios Setup, una vez detectada las unidades elegir la opción en modo LBA ( LOGICAL BLOCK ADDRESS), Puesto que esta opción tiene mayores ventajas en cuanto a los modos NORMAL o CHS (CLINDROS/CABEZAS /SECTORES). y al modo LARGE. La elección del MODO LBA se la realiza presionando la tecla "Y" (YES) o "2". Para los casos en los cuales no se tenga instalado otros discos duros y estos nos den como una repetición de ceros, presione la tecla "ESC". •

Verificar la correcta detección de los Discos Duros Instalados en la Opción "STANDARD CMOS SETUP" donde también se deberá verificar la correcta configuración de la Unidad A ó Floppy Disk (generalmente 1,44 MB 3,5 plg). Cabe hacer notar que en los BIOS de tipo AWARD no se detectan las unidades de CD-ROM, esto por el tipo de fabricante de Bios, no siendo esto un problema mayor.

• Verificar en la Opción "BIOS FEATURES SETUP", Primero la Opción VIRUS WARNING deberá estar deshabilitada es decir "Disabled", ESTO ES MUY IMPORTANTE PUESTO QUE DE LO CONTRARIO EL ANTIVIRUS QUE SE ENCUENTRA RESIDENTE EL BIOS TOMARA COMO A UN POSIBLE VIRUS NUESTRO INTENTO DE

FAT 32 NTFS

WINDOWS WINDOWS WINDOWS WINDOWS LINUX

98 / XP MILENIO XP NT / 2000


Como instalar Windows XP desde cero. COMO HACER UNA INSTALACION LIMPIA DE WINDOWS XP. C on este tutorial conseguiremos instalar nuestro Windows XP sin problemas y desde cero. Para ello lo primero que debemos hacer es acudir al Setup de la BIOS, para conseguir que arranque nuestro CD de instalación de Windows una vez que encendamos nuestro PC y coloquemos el C D de instalación en la unidad de C D/DVD. Para entrar en el Setup de la BIOS pulsaremos Supr, F2 o F11 (según el modelo de placa base) nada más encender nuestro PC .

Dentro del Setup de la BIOS buscaremos la opción Advance Bios Features y pulsamos ENTER sobre esta opción. C olocaremos siguientes las opciones:


- First Boot Device – CDROM - Second Boot Device – HDD-0

Volvemos al menú anterior y seleccionamos Save & Exit Setup y aceptamos con una Y y ENTER.

NOTA: La configuración del Setup puede cambiar de uno a otro. En otras BIOS la secuencia de arranque está en la sección Boot Secuence en vez de encontrarse incluida en Advance Bios Features. C on el CDROM en la unidad de CD/DVD reiniciamos el ordenador para comenzar la instalación de Windows XP. Aparecerá un mensaje como el que se muestra en la imagen inferior. Pulsamos cualquier tecla.

La instalación comenzará a copiar archivos y a iniciar los dispositivos, mientras esperaremos.


C uando lleguemos a este punto de la instalaci贸n de presionamos ENTER para confirmar la instalaci贸n de Windows en nuestro disco duro.


A continuación nos mostrará la licencia de Windows que debemos de aceptar pulsando F8 para seguir instalando Windows XP.

Ahora prepararemos el disco duro para instalar los archivos de Windows XP. Seleccionamos una partición si la hubiese y la eliminamos pulsando D.

C onfirmamos su eliminación pulsando L y luego ENTER.

A continuación se nos mostrará el espacio no particionado que será similar al volumen de la partición que acabamos de eliminar. Pulsamos C para crear la partición, y aceptaremos la confirmación con ENTER.


En esta nueva pantalla seleccionaremos un formateo de disco NTFS rápido y pulsamos ENTER. ** Si tenemos cualquier sospecha de fallo en el disco es mejor NO emplear la opción de Formateo rápido y hacer un formateo normal. Esto nos llevará bastante más tiempo, pero nos comprobará la integridad de nuestro disco duro (al menos en esa partición, que es la más importante).

Seguidamente se formateará la partición, se instalarán los archivos básicos y se reiniciará automáticamente el ordenador como muestran estas imágenes. Mientras esperaremos sin pulsar ninguna tecla.


A partir de ahora la instalaciรณn seguirรก de un modo grรกfico y mรกs sencillo.

Lic. Manuel Llerena

Silva


Dejaremos seguir el curso de la instalación esperando a que se requiera que introduzcamos opciones de configuración. Introduciremos los datos referentes al idioma y la situación geográfica cuando veamos esta pantalla.

A continuación nos pedirá el nombre y la organización a la que pertenecemos. Rellenaremos los datos y pulsaremos Siguiente.

Lic. Manuel Llerena

Silva

Seguidamente nos pedirá que introduzcamos la clave de nuestro Windows, que viene en la parte


posterior de la caja. Una vez introducida pulsaremos Siguiente.

Ahora debemos dar un nombre a nuestro ordenador, el que viene por defecto es completamente válido aunque podemos poner otro que sea más fácil de recordar. También escribiremos una contraseña de administrador para proporcionar mayor seguridad a nuestro equipo. Una vez completado pulsamos Siguiente. Lo siguiente es ajustar la fecha y la hora de nuestro sistema, así como la Zona horaria donde nos encontramos. Una vez completado este proceso pulsaremos Siguiente de nuevo.


C uando lleguemos a esta pantalla, introduciremos las opciones de red. Si no disponemos de una red en nuestra casa o no conocemos los parรกmetros de la red, dejaremos los valores por defecto y pulsaremos Siguiente.

Lic. Manuel Llerena

Silva


A partir de este punto la instalación seguirá con la copia de archivos. Ahora el equipo se reiniciará, y no debemos de pulsar ninguna tecla, para que no arranque desde el C D.

La instalación nos pedirá los últimos datos de configuración. C onfiguraremos la pantalla aceptando todos los menús que aparezcan.

Lic. Manuel Llerena

Silva


Aceptamos la primera pantalla de finalizaci贸n de la instalaci贸n de Windows XP.

Lic. Manuel Llerena

Silva


Omitimos la comprobación de la conexión a Internet.

Esta pantalla es para activar la copia de Windows. Si estamos conectados a Internet (por un Router) elegimos la opción Si, activar Windows a través de Internet ahora. En caso contrario seleccionaremos No, recordármelo dentro de unos días.

Lic. Manuel Llerena

Silva


Seguidamente introduciremos los nombres de usuario de las personas que utilizarán el equipo. NOTA: Es te paso es muy importante para una correcta configuración del equipo, ya que es en este punto en el que se vá a definir el usuario que va a hacer las funciones de Administrador (el primero que pongamos). La omisión de este punto es una de las principales causas de fallos posteriores del sistema.

Y así finalizamos la instalación.

Lic. Manuel Llerena

Silva


Ya sólo nos queda comprobar que Windows ha reconocido y cargado todos los drivers que necesitamos. En caso contrario instalaremos los drivers que nos falten (tarjeta gráfica, tarjeta de sonido, etc.). Estos drivers los deberiamos tener en el CD de la placa base (si son integrados) o bien en los CD's correspondientes. * NOTA: C on este tipo de instalación se borrarán todos los archivos de nuestro ordenador, así que, en el caso de que se trate de una reinstalación, debemos guardar todos los datos que tengamos en él en soportes externos como CD's DVD's o dispositivos de memoria USB, antes de comenzar la instalación.

Lic. Manuel Llerena

Silva



INSTALACIÓN DE TARJETAS Introducción. La Instalación de una tarjeta (hardware) implica que para su funcionamiento correcto también se debe instalar el “driver o manejador” (software) que habilite las capacidades de dicha tarjeta.

. La tarjeta de vídeo Es la que transmite al monitor la información gráfica que debe presentar en la pantalla. Se realizan dos operaciones: •

Interpreta los datos que le llegan del procesador, ordenándolos y calculando para poder presentarlos en la pantalla en forma de un rectángulo más o menos grande compuesto de puntos individuales de diferentes colores (pixels). Coge la salida de datos digitales resultante de ese proceso y la transforma en una señal analógica que pueda entender el monitor.

Estos dos procesos suelen ser realizados por uno o más chips: el microprocesador gráfico (el cerebro de la tarjeta gráfica) y el conversor analógico-digital o RAMDAC, aunque en ocasiones existen chips accesorios para otras funciones o bien se realizan todas por un único chip. El microprocesador puede ser muy potente y avanzado, tanto o más que el propio micro del ordenador; por eso algunos tienen hasta nombre propio: Virge, Rage Pro, Voodoo, TNT2... Incluso los hay con arquitecturas de 256 bits, el cuádruple que los Pentium. Historia de las tarjetas de vídeo En el principio, los ordenadores eran ciegos; todas las entradas y salidas de datos se realizaban mediante tarjetas de datos perforadas, o mediante el teclado y primitivas impresoras. Posteriormente surgieron los monitores, que debían recibir su información de cierto hardware especializado: la tarjeta de vídeo.  MDA.- En los primeros ordenadores, los gráficos brillaban... por su ausencia. Las primeras tarjetas de vídeo presentaban sólo texto monocromo, generalmente en un agradable tono ámbar o verde fosforito que dejaba los ojos hechos polvo en cuestión de minutos. De ahí que se las denominase MDA, Monochrome Display Adapter.

CGA


 CGA.Luego, Resolución (horizontal x vertical) Colores con la llegada de los primeros 320x200 4 PCs, surgió una 640x200 2 (monocromo) tarjeta de vídeo capaz de presentar gráficos: la CGA (Computer Graphics Array, dispositivo gráfico para ordenadores). Tan apasionante invento era capaz de presentar gráficos de varias maneras: Lo cual, aunque parezca increíble, resultó toda una revolución. Aparecieron multitud de juegos que aprovechaban al máximo tan exiguas posibilidades, además de programas más serios, y los gráficos se instalaron para siempre en el PC.  Hércules.- Se trataba ésta de una tarjeta gráfica de corte profundamente profesional. Su ventaja, poder trabajar con gráficos a 720x348 puntos de resolución, algo alucinante para la época; su desventaja, que no ofrecía color. Es por esta carencia por la que no se extendió más, porque jugar sin color no es lo mismo, y el mundo PC avanza de la mano de los diseñadores de juegos (y va muy en serio).  EGA.- Otro inventito exitoso de IBM. Una tarjeta capaz de: EGA Estas cifras hacían ya posible que los entornos gráficos se extendieran al Resolución (horizontal x vertical) Colores mundo PC (los Apple llevaban años con ello), y aparecieron 320x200 16 el GEM, el Windows y otros muchos. Sobre las 640x200 16 posibilidades de las pantallas EGA (Extended Graphics 640x350 16 Array, o dispositivo gráfico extendido) una curiosidad: los drivers EGA de Windows 3.1 funcionan sobre Windows 95, y resulta curioso (y sumamente incómodo, la verdad) ver dicha combinación...  VGA.- El estándar, la pantalla de uso obligado desde hace ya 10 años. Tiene multitud de modos de vídeo posibles, aunque el más común es el de 640x480 puntos con 256 colores, conocido generalmente como "VGA estándar" o "resolución VGA".Video Graphics Array, o dispositivo Gráfico de Vídeo.  SVGA, XGA y superiores.- El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones del mismo, siempre centrándose en aumentar la resolución y/o el número de colores disponibles. Entre ellos están: Modo de vídeo Máxima resolución y máximo número de colores


SVGA 800x600 y 256 colores De cualquier 1024x768 y 65.536 colores manera, la XGA frontera entre unos IBM 8514/A 1024x768 y 256 colores (no admite 800x600) estándares y otros es sumamente confusa, puesto que la mayoría de las tarjetas son compatibles con más de un estándar, o con algunos de sus modos. Además, algunas tarjetas ofrecen modos adicionales al añadir más memoria de vídeo. La resolución y el número de colores En el contexto que nos ocupa, la resolución es el número de puntos que es capaz de presentar por pantalla una tarjeta de vídeo, tanto en horizontal como en vertical. Así, "800x600" significa que la imagen está formada por 600 rectas horizontales de 800 puntos cada una. Para que nos hagamos una idea, un televisor (de cualquier tamaño) tiene una resolución equivalente de 800x625 puntos. En present ar a la vez por pantalla la tarjeta.

cuanto al número de colores, resulta casi evidente: los que puede Memoria de vídeo

Máxima resolución (en 2D)

Máximo colores

número

de

512 Kb

1024x768 a 16 colores

256 a 640x480 puntos

1 MB

1280x1024 a 16 colores

16,7 millones a 640x480

L

2 MB 1600x1200 a 256 colores 16,7 millones a 800x600 a combin 4 MB 1600x1200 a 65.536 colores 16,7 millones a 1024x768 ación de estos dos parámetros se denomina modo de vídeo; están estrechamente relacionados: a mayor resolución, menor número de colores representables, y a la inversa. En tarjetas modernas (SVGA y superiores), lo que las liga es la cantidad de memoria de vídeo (la que está presente en la tarjeta, no la memoria general o RAM). Algunas combinaciones posibles son: Se han colocado los modos más comunes, ya que no todas las tarjetas admiten todos los modos, aparte de que muchas no permiten ampliar la memoria de vídeo. Para los curiosos, el cálculo de la memoria necesaria es: (Res. Vert.)x(Res. Horiz.)x(Bits de color)/8. Cabe destacar que el modo de vídeo elegido debe ser soportado por el monitor, ya que si no éste podría dañarse gravemente. Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen necesitar bastante más memoria, en general unas 3 veces más;


por ello, jugar a 800x600 puntos con 16 bits de color (65.536 colores) suele requerir 4 MB de memoria de vídeo. 9.2.3. La velocidad de refresco Es el número de veces que se dibuja la pantalla por segundo (como los fotogramas del cine); evidentemente, cuanto mayor sea menos se nos cansará la vista y trabajaremos más cómodos y con menos problemas visuales. Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el mínimo de fatiga visual, 80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de esta cifra los ojos sufren muchísimo, y unos minutos bastan para empezar a sentir escozor o incluso un pequeño dolor de cabeza. Antiguamente se usaba una técnica horrible denominada entrelazado, que consiste en que la pantalla se dibuja en dos pasadas, primero las líneas impares y luego las pares, por lo que 70 Hz entrelazados equivale a poco más de 35 sin entrelazar, lo que cansa la vista sobremanera. Afortunadamente la técnica está en desuso, pero en los monitores de 14" se ha usado hasta hace menos de un par de años. Tampoco todas las tarjetas de vídeo pueden ofrecer cualquier velocidad de refresco. Esto depende de dos parámetros: • •

La velocidad del RAMDAC, el conversor analógico digital. Se mide en MHz, y debe ser lo mayor posible, preferiblemente entorno a 200 MHz. La velocidad de la memoria de vídeo, preferiblemente de algún tipo avanzado como WRAM, SGRAM o SDRAM.

Memoria de vídeo Su tipo determina si conseguiremos buenas velocidades de refresco de pantalla o no. Los tipos más comunes son: • •

• • •

DRAM: en las tarjetas más antiguas, ya descatalogadas. Malas características; refrescos máximos entorno a 60 Hz. EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad media-baja. Muy variables refrescos dependiendo de la velocidad de la EDO, entre 40 ns las peores y 25 ns las mejores. VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de calidad, muy buenas características. MDRAM: un tipo de memoria no muy común, pero de alta calidad. SDRAM y SGRAM: actualmente utilizadas mayoritariamente, muy buenas prestaciones. La SGRAM es SDRAM especialmente adaptada para uso gráfico, en teoría incluso un poco más rápida. DDR: existen tarjetas de video que usan ya memoria DDR, que es mucho mas rápida.


Conectores: PCI, AGP... La tarjeta gráfica, como añadido que es al PC, se conecta a éste mediante un slot o ranura de expansión. Muchos tipos de ranuras de expansión se han creado precisamente para satisfacer a la ingente cantidad de información que se transmite cada segundo a la tarjeta gráfica. •

ISA: el conector original del PC, poco apropiado para uso gráfico; en cuanto llegamos a tarjetas con un cierto grado de aceleración resulta insuficiente. Usado hasta las primeras VGA "aceleradoras gráficas", aquellas que no sólo representan la información sino que aceleran la velocidad del sistema al liberar al microprocesador de parte de la tarea gráfica mediante diversas optimizaciones. VESA Local Bus: más que un slot un bus, un conector íntimamente unido al microprocesador, lo que aumenta la velocidad de transmisión de datos. Una solución barata usada en muchas placas 486, de buen rendimiento pero tecnológicamente no muy avanzada. PCI: el estándar para conexión de tarjetas gráficas (y otros múltiples periféricos). Suficientemente veloz para las tarjetas actuales, si bien algo estrecho para las 3D que se avecinan. AGP (Advanced Graphics Port): tampoco un slot, sino un puerto (algo así como un bus local), pensado únicamente para tarjetas gráficas que transmitan cientos de MB/s de información, típicamente las 3D. Presenta poca ganancia en prestaciones frente a PCI, pero tiene la ventaja de que las tarjetas AGP pueden utilizar memoria del sistema como memoria de vídeo (lo cual, sin embargo, penaliza el rendimiento). PCI/EXPRESS

(PCIe, PCI-E). Estándar de bus que permite tarjetas de expansión. Es un sistema flexible que reemplazará al PCI, al PCI-X y al AGP. PCI Express tiene el mismo interfaz de software que el PCI, pero las tarjetas son física y electrónicamente incompatibles. Mientras estaba en desarrollo, PCI Express era conocido como Arapaho o 3GIO. Fue desarrollado por Intel en 2004, y transmite datos en forma serial (a diferencia del PC I que es paralelo). PCIe 1.1 puede transferir datos a 250 MB/s en cada dirección por carril. Con un máximo de 32 carriles, PCIe permite una velocidad combinada de transferencia de 8 GB/s en cada dirección. Para poner esto en perspectiva, un sólo carril permite una transferencia del doble de datos que un PCI normal, cuatro carriles permiten la misma velocidad que la versión más rápida del PC I-X 1.0, y ocho carriles permiten una transferencia comparable a versión más rápida de AGP. De todas maneras PCI Express no es todavía lo suficientemente rápido como para funcionar como bus de memoria (desventaja que no tiene el sistema HyperTransport), ni tampoco puede ser usado como bus interno externo (como el InfiniBand).


En cualquier caso, el conector sólo puede limitar la velocidad de una tarjeta, no la eleva, lo que explica que algunas tarjetas PCI sean muchísimo más rápidas que otras AGP más baratas.

Slot PCI EXPRESS (Única para video)

Adecuación al uso del ordenador Evidentemente, no es lo mismo elegir una tarjeta gráfica para trabajar en Word en un monitor de 15" que para hacer CAD en uno de 21". Siempre se debe hacer referencia al monitor con el que se va a trabajar, porque una tarjeta muy buena no puede demostrarlo en un mal monitor, ni a la inversa. Las indicaciones son genéricas;  Ofimática: tarjetas en formato PCI o AGP, con microprocesadores buenos en 2D, sin necesidades 3D específicas; capaces de 1024x768; con unos 2 ó 4 MB; y con buenos refrescos, entorno a 70 u 80 Hz. Un ejemplo típico "de marca" es la Matrox G200, o bien cualquiera basada en el chip i740 o las Trident PCI.  Juegos y CAD en 3D: con micros especiales para 3D, con mucha memoria (entre 8 y 32 MB), generalmente de marca y preferiblemente AGP. Por ejemplo, las tarjetas basadas en chips TNT2 o Voodoo3.  Imágenes y CAD en 2D: con chips de 64 ó 128 bits, memorias ultrarrápidas, capaces de llegar a 1600x1200 puntos a 70 Hz o más, con 4 MB o más. Cualquiera con un superchip, SGRAM/SDRAM y un RAMDAC de 225 MHz o más, actualmente las tarjetas G-Force utilizan memoria DDR. En general, actualmente el tema radica en saber si se necesita o no soporte 3D; la aceleración 2D, es decir, la de Windows, ofimática, Internet, etc, hace mucho que está más que conseguida; casi todas las tarjetas dan cifras espectaculares y casi indistinguibles en cualquier test 2D.


Monitor El monitor es la pieza fundamental del ordenador. Juegos, cartas, presentaciones, modelizados... sea lo que sea siempre va a acabar en la pantalla. Si para comprar un monitor mejor debe sacrificar un buen puñado de MHz, bienvenido sea ese sacrificio; sus ojos lo agradecerán, trabajará más cómodo, más rápido y mejor. Ante todo y para todos: los monitores de 14" han muerto, y los de 15" están moribundos. La diferencia de una sola pulgada es mucho más de lo que se imagina, y dos o tres son un abismo, mucho mejor si es de 17". Las velocidades de refresco las proporciona la tarjeta gráfica, pero el monitor debe ser capaz de soportarlas o se verá dañado. Lo ideal es que su monitor aguante al menos 75 Hz en la resolución que más vaya a usar para trabajar, y unos 60 Hz en la superior (si existe). Por ejemplo, un 17" debe ofrecer al menos 75 Hz en 1024x768 (resolución recomendada) y 60 Hz en 1280x1024. Para ofimática e Internet, un 15" puede ser suficiente. Permite trabajar a 800x600 puntos cómodamente, y si pone las fuentes de pantalla grandes podrá hacerlo hasta en 1024x768, aunque sólo si el monitor es más o menos bueno. Procure escoger uno con garantía de 2 años o más y que ofrezca al menos 80 Hz a 800x600. Para juegos, tres opciones: • • •

un buen 15" de marca; o bien un 17" básico; las dos pulgadas extra hacen que jugar sea una experiencia alucinante. o bien un 15" normal y una tarjeta con salida de vídeo para jugar en el televisor. ¿Se imagina Quake a 800x600 en un 29"?.

Modelos de 17" existen decenas, divididos en general en dos gamas: los "básicos" (que no superan los 1280x1024 a 60 Hz y con un dot pitch de 0,28, por lo que deberían usarse a 1024x768) y los "avanzados" (llegan hasta 75 Hz o más a 1280x1024, con dot pitch de 0,25 o similar). Para CAD y tratamiento de imágenes, prepare la cartera. El monitor debe ser grande, muy bueno, de marca, con garantía de 3 años o más e, inevitablemente, caro. Sólo hay una opción posible: el tamaño. O el mínimo, 19", o el máximo, 21". Por supuesto, que ofrezca como poco 1600x1200 puntos a 60 Hz. Si se trata de un presupuesto pequeño, escoja un 17" muy bueno, y suerte.


TARJETA DE Memoria de vídeo Según la tarjeta gráfica esté integrada en la placa base (bajas prestaciones) o no, utilizará la memoria RAM propia del ordenador o dispondrá de una propia. Dicha memoria es la memoria de vídeo o VRAM. Su tamaño oscila entre 128 MB y 1 GB. La memoria empleada en 2006 estaba basada en tecnología DDR, destacando DDR2, GDDR3,GDDR4 y GDDR5. La frecuencia de reloj de la memoria se encontraba entre 400 MHz y 3,6 GHz.

VIDEO PowerColor Radeon X850XT PE

Tecnología

Frecuencia (MHz)

Ancho de banda (GB/s)

GDDR

166 - 950

1,2 - 30,4

GDDR2

533 - 1000

8,5 - 16

GDDR3

700 - 1700

5,6 - 54,4

GDDR4

1600 - 1800

64 - 86,4

GDDR5

3200 - 7000

24 - 448

Han conseguido hacer memorias GDDR5 a 7GHZ, gracias al proceso de reducción de 50 nm, permitiendo un gran ancho de banda en buses muy pequeños (incluso de 64 bits) Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D. RAMDAC [editar] El RAMDAC es un conversor de digital a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, nunca con menos de 60).10 Dada la creciente popularidad de los monitores digitales y que parte


de su funcionalidad se ha trasladado a la placa base, el RAMDAC está quedando obsoleto. Salidas [editar]

Salidas SVGA, S-Video y DVI de una tarjeta gráfica

Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son: •

SVGA: estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor. DVI: sustituto del anterior, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales como los LCD o proyectores. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo. S-Video: incluido para dar soporte a televisores, reproductores de DVD, vídeos, y videoconsolas.

Otras no tan extendidas en 2007 son: • • •

Vídeo Compuesto: analógico de muy baja resolución mediante conector RCA. Vídeo por componentes: utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr). HDMI: tecnología de audio y vídeo digital cifrado sin compresión en un mismo cable.

La Tarjeta de sonido Un poco de historia El PC (Ordenador Personal) no fue pensado en un principio para manejar sonido, excepto por esa reminiscencia que en algunos ordenadores ya no se instala (o está desconectada) llamada "altavoz interno" o "PC Speaker". Pero entró en escena el software que seguramente MÁS ha hecho evolucionar a los ordenadores desde su aparición: los videojuegos.


Probablemente los programadores pensaron: "¿No sería maravilloso que los muñequitos ésos emitieran sonidos? ¿No sería aún más increíble una banda sonora?". En plena revolución de la música digital (empezaban a popularizarse los instrumentos musicales digitales) apareció en el mercado de los compatibles una tarjeta que lo revolucionó, la tarjeta de sonido SoundBlaster. Por fin era posible convertir sonido analógico a digital para guardarlo en nuestro PC, y también convertir el sonido digital que hay en nuestro PC a analógico y poder escucharlo por nuestros altavoces. Posteriormente aparecieron el resto: SoundBlaster PRO, SoundBlaster 16, Gravis, AWE 32, AWE 64, MAXI Sound... todas más o menos compatibles con la superexitosa SoundBlaster original, que se convirtió en un auténtico estándar.

ADC/DAC Los ordenadores tenían (siguen teniendo) un "problema", sólo saben trabajar con datos digitales (más concretamente binarios, 0s y 1s), por lo que cuando conectamos unos altavoces a nuestra tarjeta de sonido, hay alguien que transforma esos datos digitales en analógicos para que nuestro altavoz los entienda. De eso se encarga el DAC (Conversor Digital-Analógico, ). Y supongo que todo el mundo habrá deducido para qué sirve el ADC (Conversor Analógico-Digital); efectivamente, cuando grabamos desde una fuente externa (por ejemplo desde nuestro equipo musical), deberemos transformar esos datos analógicos que llegan por el cable en muestras digitales que podamos almacenar en nuestro disco duro. Pero a alguien le puede ocurrir que necesite reproducir sonido, tratarlo al mismo tiempo con una fuente externa y volver a grabarlo. O simplemente reproducir y grabar al mismo tiempo. Esta característica se conoce como "fullduplex" y debe estar presente en cualquier tarjeta de sonido medianamente decente (creo que actualmente ya lo está en prácticamente todas). Para ello, los dos conversores ADC-DAC deben trabajar de forma separada. 16 bits Nada de 32, 64, 128 y 256 bits. Las tarjetas de sonido (excepto muy raras excepciones profesionales) toman las muestras de sonido a 16 bits (aunque se llame SoundBlaster 128 PCI o MaxiSound 64). Esto ha llevado a engaño a mas de uno (y de dos) al creer que su tarjeta de sonido trabajaba con más bits que su propio procesador.

8 bits

256 posiciones


La diferencia es apreciable. Y supongo que todo el mundo se puede hacer una idea de qué sonará mejor...

16 bits

65536 posiciones

¿Son necesarios más bits? En principio no; sin embargo, como en todo, cuando el ADC no es excesivamente bueno, los últimos bits captados tienen información que no es demasiado fidedigna. Esto significa que si podemos trabajar con un mayor abanico de bits (20 o más), aunque perdamos calidad el sonido final seguirá siendo igual de bueno. 9.3.4. Calidad de CD significa 44,1 KHz Vamos a explicar esto. Las tarjetas de sonido simplemente transforman una señal continua (el sonido es algo continuo, no va a t-r-o-z-o-s) en una discreta (aunque no lo parezca). En el dibujo apreciáis una línea continua, que representa un sonido. Sin embargo, en realidad cuando la captamos con nuestra tarjeta de sonido no podemos capturar TODA la onda, capturaremos simplemente una serie de puntos (los que están marcados), un punto cada cierto tiempo, es decir, un muestreo de los datos con una determinada frecuencia; la onda que nos quedará será del siguiente estilo: Os podéis imaginar que si en lugar de 44KHz utilizamos 22KHz, en realidad capturaremos la mitad de posiciones: El sonido se degrada rápidamente. La conclusión de este ejercicio de dibujo a mano alzada es muy sencilla: cuanta más resolución tengamos, mejor será la representación del sonido en nuestro ordenador. Algunas tarjetas incorporan interpolación, mediante la que se suavizan los picos y se puede volver a obtener una onda más parecida a la original, mejorando, según los fabricantes, la calidad de sonido. Realmente, aún no conozco a ninguna persona que haya sido capaz de distinguir entre los dos sonidos (con y sin interpolación). ¿Y porqué exactamente 44’1KHz? Por el mismo motivo por el que el VHS emite 24 imágenes por segundo: si el ojo humano es


capaz de reconocer como mucho unas 30 imágenes por segundo, sería un derroche de medios (y dinero) emitir 100 imágenes por segundo, por el simple hecho de que no notaríamos la diferencia. Del mismo modo, el oído humano es capaz de reconocer unos 44.000 sonidos cada segundo (o sea, capta el sonido con esa frecuencia), con lo que la utilización de un mayor muestreo no tiene ningún sentido. Todas las tarjetas de sonido domésticas pueden trabajar con una resolución de 44’1KHz, y muchas incluso lo hacen a 48KHz. Las semiprofesionales trabajan en su mayoría con esos 48KHz y algunas incluso con 50KHz. Las profesionales llegan cerca de los 100KHz. La utilización de este muestreo ampliado se debe al mismo motivo por el que algunas tarjetas utilizan más de 16bits para cada muestra: si los datos de partida no son suficientemente fieles o después nos vamos a dedicar a modificar el sonido, perderemos calidad, así que cuanta más calidad tengamos en un principio, mejores resultados obtendremos al final, es mejor trabajar con un margen de confianza. 9.3.4. MIDI, síntesis FM y tablas de ondas El sonido digital siempre ha tenido diversos formatos (hasta llegar al mp3, el más de moda actualmente). El sonido en formato digital tiene un problema, y es su excesivo espacio para almacenar relativamente poca información. Se pueden hacer los cálculos fácilmente: audio a 44,1KHz, con 16 bits y en estéreo, nos da 172 Kb/segundo (10,3 MB por minuto, una auténtica barbaridad). Este método de almacenar el audio digital "tal cual" es el utilizado en los ficheros .wav o en los CD-Audio. Sin embargo, no resulta útil para los profesionales del sector (sobre todo para los compositores); imaginad la cantidad de disco duro y, sobre todo, memoria que son necesarios para trabajar a pleno rendimiento con el audio digital. ¿Cuál es la posible solución? El formato MIDI (Musical Instrument Data Interface) Al contrario que el audio digital, el formato MIDI no es el sonido grabado, sino principalmente las notas musicales que lo componen. Cualquier fichero MIDI ocupará poquísimo espacio, debido a que tan solo es necesario almacenar las notas que están sonando en cada momento. El formato MIDI nació para estandarizar el comportamiento de los distintos instrumentos digitales, para que las mismas notas sonaran "igual" en los distintos instrumentos. Hoy en día existen teclados MIDI (los archiconocidos sintetizadores), pianos MIDI (como el que tengo en casa), violines MIDI (Celtas Cortos tiene uno, así como The Corrs, que también lo utilizan), flautas MIDI, baterías MIDI, e incluso gaitas MIDI (¿alguien ha escuchado alguna canción de Hevia?).


Pues bien, en el caso del ordenador, alguien tendrá que encargarse de reproducir las composiciones MIDI. Y por supuesto, la solución está en aprovechar nuestra tarjeta de sonido. Como el formato MIDI no son más que notas, tendremos que obtener los sonidos de algún sitio, y existen dos opciones. La síntesis FM es la más económica. Hasta el momento, y desde hace mucho, ha sido la solución más empleada. La síntesis FM no es más que un pequeño procesador que se encarga de imitar el sonido mediante el empleo de fórmulas matemáticas trigonométricas (sí, no estoy bromeando). Y en cierto modo, da mejores resultados de los esperables. Por ejemplo: el sonido de un clásico instrumento de cuerda se representa en el ordenador mediante una onda similar a la siguiente: Se trata de una onda bastante regular, que fácilmente puede ser simulada por una ecuación. Todas las ecuaciones están basadas en senos y cosenos. Por supuesto, las ecuaciones y funciones que utiliza nuestra tarjeta de sonido son mucho más complejas y las ondas mucho más parecidas, excepto en un caso, en el de los instrumentos de percusión, con ondas mucho menos estables, como se aprecia en el siguiente ejemplo: La solución que aportan YA la mayoría de tarjetas domésticas (desde la SoundBlaster AWE 32 y la Gravis UltraSound), es la inclusión de la síntesis por Tabla de Ondas (WaveTable). Esto no es más que el tener los sonidos de los instrumentos grabados (a partir de instrumentos reales) en una memoria incluida en la propia tarjeta (ROM que normalmente se puede ampliar con RAM para añadir nuevos y mejores sonidos) o utilizando la memoria del ordenador, en cuyo caso deberá tener conector PCI en lugar de ISA. Con esto conseguimos una calidad MUCHO mayor en la reproducción de canciones MIDI.


Actualmente sólo la Crystal, SoundBlaster 16 y las compatibles Yamaha OPL3 (así como algunas soluciones integradas en placas base y otras de fabricante desconocido) funcionan sin tabla de ondas. Si queréis apreciar la diferencia de sonido, los siguientes mp3 muestran la diferencia de reproducción de un fichero MIDI entre una tarjeta de sonido Crystal Sound System y lo que cabria esperar de una Yamaha XG. Por cierto, si vuestro software de audio no entiende los archivos .mp3 (he incluso aunque los entienda), os recomiendo que descarguéis la última versión del excelente programa Winamp, que además soporta otros muchos tipos de archivo. Tabla de ondas por software ¿Su tarjeta es de síntesis FM? No todo está perdido, puesto que el segundo mp3 también lo grabé con mi Crystal, pero utilizando un sintetizador virtual de Yamaha. Este sintetizador trabaja como lo haría una tarjeta con tabla de ondas pero utilizando nuestro procesador para utilizar los datos (notas musicales y efectos a aplicar). Para comparar la calidad de vuestra tarjeta de sonido. Por supuesto, podremos usar nuestros juegos con música MIDI y apreciaremos un notable aumento de calidad musical, directamente proporcional a la pérdida de velocidad de las animaciones. Hay que tener en cuenta que estos sintetizadores virtuales tienen el problema de consumir MUCHÍSIMOS recursos de CPU. Sin embargo podremos hacernos una idea de si merece la pena adquirir una tarjeta de sonido que incorpore tabla de ondas (aunque pocas tendrán la calidad de Yamaha en instrumentos de percusión, son realmente increíbles). 9.3.5. Polifonía (voces) La captura de pantalla anterior nos sirve para introducir este nuevo punto. ¿Porqué se llamó SoundBlaster AWE 32? No fue por los bits con los que funcionaba, como ya hemos dicho antes, sino por las 32 voces simultáneas (instrumentos) que era capaz de reproducir. (También pasa lo mismo con la SoundBlaster 64 y la 128, así como con la MaxiSound 64).


Este concepto no es complicado. Con un cuarteto de Jazz se pueden interpretar obras realmente excepcionales, eso sí, sólo con 4 instrumentos. Si el grupo aumenta a 8 personas, podremos tener el doble de instrumentos y el sonido será mucho mejor. En la actualidad podemos encontrar tarjetas de sonido con soporte de 320 voces de la Diamond Monster Sound, pasando por las 256 voces de la SoundBlaster Live!, las 128 de la SoundBlaster PCI 128, o las 64 de las Guillemot ISIS o Home Studio Pro 64. Gracias al uso del conector PCI se han conseguido tarjetas con muchas voces por poco dinero, ya que emplean la memoria del PC para almacenarlos, pero el ordenador deberá ser potente para obtener un rendimiento satisfactorio. Os podéis hacer una idea de la calidad de la música que se puede obtener al componer con tal número de voces. Eso sí, el número de voces será el número de instrumentos MIDI que podremos reproducir en el mismo instante de tiempo. Si reproducimos un CD o un .wav, el número de voces no nos influirá en la calidad de reproducción. En este caso dejamos al MIDI a un lado, estaremos hablando de música grabada en formato digital, y tendremos que referirnos a canales. 9.3.6. DSP Pues bien, tenemos un montón de posibles voces que podremos tratar. En las soluciones más avanzadas tenemos posibilidades de hacer nuestros primeros pinitos en la música. Cuando tratamos con una de las pistas de sonido que tenemos grabada, por ejemplo, tenemos (en muchos casos) la posibilidad de aplicarle efectos, como son el "chorus" o la reverberación. Pero también simular sintetizadores de sonido, realizar "fades" ... Por supuesto, este proceso de modificación de una señal digital requiere potencia de cálculo, pero normalmente se desea saber como afectara la aplicación de un efecto en tiempo real. Es por ello que muchas soluciones, sobre todo a partir de la gama media, incorporan un Procesador Digital de Señales (DSP: Digital Signal Processor) para liberar de trabajo al microprocesador del PC; uno de los más utilizados actualmente es el EMU10K1. 9.3.7. Canales, altavoces y la fiebre 3D Podríamos explicar el concepto de canal o pista de forma sencilla como una pista de sonido diferente para cada altavoz en la que estarán grabados los datos que debe reproducir, para que no le lleguen datos de otros altavoces. Así cada altavoz reproducirá el sonido que le corresponde, logrando el deseado realismo. Cuando apareció la entonces "revolucionaria" ADLIB, era capaz de reproducir el sonido por 1 canal, o sea, hablamos de sonido monoaural en su sentido más estricto. Cuando escuchamos el sonido estéreo, nos llega


mediante 2 canales, el izquierdo y el derecho, mejorando mucho el realismo del sonido. Pero llegó un momento en que esto pareció ser poco, y se desató la fiebre 3D: ¿qué hace el sonido situado delante de nosotros? ¿No sería mejor que nos rodeara? Pues esto van a intentar reproducir los Dolby Surround, AC-3, A3D, THX, DirectSound3D... Para producir sonido envolvente existen multitud de sistemas: Algunas tarjetas de sonido dicen ser capaces de producir sonido 3D con tan sólo 2 altavoces. Estos sistemas, más que sonido envolvente, crean "sonido extraño", pues combinan los 2 canales del estéreo para provocar sensación de profundidad en sonido (nunca sonido "envolvente"). Últimamente, además de los 2 altavoces tradicionales, los vendedores ofrecen un Subwoofer (también conocido como altavoz-enorme-que-no-sédónde-colocar). Este altavoz se utiliza principalmente para la reproducción de los sonidos más graves, pero seguiremos teniendo solamente 2 canales. Otros utilizan 4 altavoces, en tarjetas de sonido cuadrofónicas. Éstas tienen 2 salidas estéreo, para 2 pares de altavoces (un total de 4). La calidad obtenida es bastante buena, ya que, además de los 4 altavoces que hacen que percibamos el sonido desde cualquier dirección, las tarjetas más modernas incorporan software que permite la calibración de nuestra posición con respecto a los altavoces, ajustando automáticamente el volumen para que el sonido se "centre" en nuestra cabeza (aunque suene muy complicado, la verdad es que es de lo más sencillo: si un altavoz está más lejos de nosotros que el otro y por los 2 emitimos el mismo volumen, el sonido lo notaremos desplazado, el reto será ajustar el volumen de cada altavoz para escuchar el sonido lo más centrado posible).


Sistemas más avanzados, aportan al igual que ocurría con los sistemas de 2 altavoces, un subwoofer junto con los 4 altavoces, consiguiendo un mayor realismo en el sonido envolvente. Especificaciones sonido 3D

de

Ya hemos hablado un poco del sonido 3D, sin embargo tenemos pendiente el responder la pregunta de cómo se consigue. Vamos a responderla: del mismo modo que existen juegos con gráficos 3D, también pueden soportar sonido 3D (o ambiental). Si un juego 3D debe estar programado con alguna librería gráfica 3D (léase Glide, Direct 3D o OpenGL), también debe estarlo para soportar el sonido ambiental, mediante el uso de alguna de los formatos existentes. Los más conocidos son Direct Sound, Direct Sound 3D (a partir de DirectX 6), Aureal A3D 1.0 o 2.0, Dolby Surround Prologic o Dolby Digital. Cada uno tiene sus ventajas e inconvenientes. Direct Sound 3D es muy utilizado en juegos en entornos Windows, por lo que su soporte es casi imprescindible para poder disfrutar de los mejores títulos de última generación en todo su esplendor. Aureal A3D ha sido una API propietaria que en un principio se utilizaba porque Direct Sound no soportaba sonido ambiental todo lo bien que debería, sin embargo, con el nuevos Direct Sound 3D, no debería ser necesario. Mención aparte merecen las especificaciones Dolby Surround Prologic y Dolby Digital, competencia directa del THX del archimillonario George Lucas. Con la aparición del DVD se ha revolucionado el sector de entretenimiento. Cuando en nuestro ordenador tengamos un reproductor DVD, podremos, en teoría, disfrutar de los títulos de vídeo en ese formato. Pero si realmente queremos disfrutar a fondo de ellos, serán necesarias 2 cosas. Primero, una tarjeta decodificadora de MPEG2, porque con tan sólo nuestra CPU la calidad que obtendremos no será la óptima; y por otro lado, un sistema de sonido que soporte Dolby Digital, y en ello incluimos la tarjeta de sonido, que debe ofrecer ese soporte, y los altavoces, que deben ser los necesarios.


Dolby Digital o el cine en casa Directamente importado de los cines, así que podéis haceros una idea de la calidad. El formato por excelencia del DVD es el Dolby Digital 5.1 o AC3. Este formato es evolución directa del Dolby Surround Prologic, utiliza 6 pistas, por lo tanto serán necesarios 6 altavoces: 1 central, 1 izquierdo y 1 derecho, 1 altavoz izquierdo y 1 derecho para el sonido ambiente (detrás del espectador) y 1 subwoofer para realzar los graves. También será necesario un amplificador que soporte este formato de sonido, además de nuestra tarjeta. Un buen ejemplo es el Creative Desktop Theater 5.1 en conjunción con una SoundBlaster Live!. 9.3.7. Altavoces autistas y compañía Últimamente se ha puesto de moda reducir costes al mínimo, como con los Winmódems, que utilizaban la potencia de nuestro procesador para suplir varios componentes que sencillamente no tienen. En el caso de los altavoces, se habla con mucha facilidad de potencias de "60W, 120W, 200W..." musicales o PMPO, que en realidad son de 5 a 20W reales. La última apuesta en el ahorro son los altavoces USB. En teoría parece una buena idea, enviamos los datos digitales por el puerto USB y los altavoces se encargan de reproducir el sonido. No hay complicaciones y la calidad de reproducción es bastante elevada. Además todas esas soluciones (como la de Philips o Microsoft) también llegan con un Subwoofer, por lo que su calidad de reproducción es bastante elevada. Además, nos hemos ahorrado el dinero que cuesta una tarjeta de sonido. Como mayor contrapartida, su mejor ventaja: al no incluir ni necesitar tarjeta de sonido, ¿alguien sabe cómo grabarlo? No podremos conectar un micrófono y disfrutar de los divertidos programas de Karaoke. También hay que decir que el precio no es uno de sus mayores fuertes, comparados con


altavoces convencionales de buena calidad, con soluciones de 2, 3 (2 + Subwoofer), 5 (4 + Subwoofer) o 6 (Dolby Digital) altavoces. También como altavoces convencionales (porque tenemos que conectarlos a una tarjeta de sonido) podemos incluir a los monitores con altavoces incorporados, con mucho estilo y una calidad de sonido aceptable (si no se es un purista, claro). Una gran elección para "escritorios con estilo". 9.3.8. Conectando nuestra tarjeta con el exterior (y al revés) Todos tenemos la parte trasera de nuestro ordenador repleta de una maraña de cables. Parte de la culpa la tiene la tarjeta de sonido. Tradicionalmente se han utilizado conectores mini-jack, como los que usamos en nuestro radiocasete portátil. Éstos siguen siendo los más comunes en las soluciones de nivel bajo y medio. Se trata de conexiones analógicas de media calidad, que no es suficiente en muchos casos. La explicación es sencilla; si al grabar el sonido se pierde un poco de calidad, cuando lo tratamos un poquito más y al grabarlo a soporte (al exterior) otro poco, en total hemos perdido 2 pocos y un poquito, mientras que con otras soluciones perderemos sólo un poquito. Conectores tradicionales en las cadenas o minicadenas de sonido domésticas son los RCA. Normalmente cada RCA es un canal independiente (mientras que en el Jack van 2 canales juntos). Por ello siempre van de dos en dos (clásicamente el rojo es el canal derecho y el blanco el izquierdo). Ofrecen mayor calidad que los conectores Jack tradicionales pero son más caros y menos compactos. Si buscamos calidad profesional, deberemos decantarnos por una tarjeta con entradas y salidas S/PDIF o salidas ópticas digitales. Éste ha sido desarrollado por Sony y Philips para diseñar una interface de conexión digital de altas prestaciones. Al tratar al sonido digitalmente, no se producen pérdidas de calidad en ningún momento al pasar de soporte digital al ordenador o viceversa. Por último, las entradas y salidas MIDI. Serán necesarias en caso de que vayamos a trabajar con dispositivos MIDI como pudiera ser un teclado. Con la entrada MIDI, nuestras composiciones serán mucho más sencillas, puesto que tan sólo deberemos conectar nuestro teclado, y la partitura de la


pieza que toquemos aparecerá en la pantalla de nuestro ordenador (si contamos con el software adecuado). Si además de entrada, disponemos de una salida MIDI, cualquier partitura en ese formato podrá ser reproducida por un instrumento conectado, desde un teclado a una caja de ritmos pasando por una guitarra o una batería (siempre que sean MIDI, por supuesto). Además de estos conectores externos, los hay también internos, siendo el más importante el que va al CD-ROM, para poder escuchar los CDs de música. Puede ser digital (sólo en los más modernos) o el típico analógico, del cual hace tiempo había varios formatos (para CDROMs Sony, Mitsumi, IDE...) ahora ya unificados. Y en algunas tarjetas antiguas se incluía un conector IDE de 40 pines para el CD-ROM (cuando los CD-ROMs eran algo "extra" y no existía el EIDE con sus 2 canales). Formatos o la fiebre del MP3 El último punto que vamos a tratar es el de los formatos de audio. Tal vez esto se salga un poco del contexto hardware, pero es interesante conocerlos para saber nuestras necesidades y por tanto encontrar la tarjeta que mejor se adapte a nuestras posibilidades. Audio digital en formato de onda o audio CD o .wav o .au (los wav del UNIX). Era el formato por excelencia para almacenar el sonido digital. Su principal ventaja, su calidad, su principal inconveniente, el espacio que ocupa. Para haceros una idea, en un CD caben "tan sólo" 74 minutos de audio a la máxima calidad: 44,1KHz, 16 bits y estéreo (2 canales). Normalmente, cuando grabamos sonido en el ordenador lo haremos mediante este formato, el formato de onda. Con él, se almacenan sin compresión alguna las posiciones del sonido en cada instante. Sencillo y eficaz, pero con el problema del espacio. Con el formato MIDI se soluciona el problema del espacio. Es totalmente distinto al formato de onda, con él, tan sólo almacenaremos las notas que deberán ser tocadas en cada instante. Por tanto permite gran flexibilidad y es ideal para compositores. Sin embargo, para obtener una calidad aceptable, será necesario que nuestra tarjeta disponga de tabla de ondas o, en su defecto, de un sintetizador virtual como el Yamaha visto anteriormente. Otra carencia importante es que no podremos añadir voces humanas, no se pueden sintetizar tan fácilmente como el sonido de un instrumento. El formato MIDI ya no se utiliza como antes para dar música a juegos y producciones multimedia, puesto que la capacidad de los CDs hace que sea posible incluir las melodías en formato de onda, con la ventaja de poder incluir canciones con voces (de personas).


A caballo entre ambos se encuentran los módulos. Los módulos provienen del mundo Amiga, y tienen características muy interesantes. Por un lado se almacenan las notas, como en los MIDI, y por otro, los instrumentos, como si de una tabla de ondas se tratara. Por tanto, podemos grabar voces como un instrumento más y utilizarlas en nuestras composiciones. Con los módulos se pueden obtener producciones de gran calidad y de los más diversos estilos. Por último, el megafamoso y siempre polémico .mp3. El mp3 no es mas que una especificación para la compresión de ficheros de onda (los .wav). Con él se consigue reducir el tamaño original de los ficheros en unas 10 veces, aunque podemos variar cuánta compresión deseamos. La compresión normalmente es con pérdida, perdiendo parte del sonido, bien por ser datos redundantes o por cortarse de zonas donde apenas llega el oído humano. En la práctica, pocas personas pueden distinguir entre una canción original y una en formato mp3 (personalmente sólo he sido capaz de hacerlo con una canción con un ratio de compresión de 15 a 1 y prestando atención durante varias reproducciones, nunca a la primera). De ahí, de Internet y de excelentes reproductores como el Winamp, gran parte de su éxito.

TARJETA DE RED Introducción En estos precisos momentos mientras usted lee esto están siendo procesados en millones de PCS en todo el mundo múltiples operaciones concernientes al universo de las telecomunicaciones y Networking, estamos viviendo una etapa en donde el mundo se encuentra conectado en todos los niveles, donde la comunicación es la base, la entrega de datos en forma rápida y oportuna, la obtención de información necesaria para que pueda desarrollarse todos los aspectos de nuestra vida diaria, estas conexiones se da en el mundo digital – y aun en al analógico - de muchas formas, conectando


dispositivos unos a otros en diferentes ramas ya sea de la industria, empresarial, educación o de la vida personal, incluido el entretenimiento, pasando desde los hospitales que tienen a los pacientes en historias clínicas computarizadas en un gran servidor de datos e información hasta la Nasa, agencia gubernamental de los EEUU que tienen las computadoras mas potentes y que están conectadas con la tecnología digital de redes y comunicaciones mas moderna conocida, todos los días nos enfrentamos a cosas que tienen que ver con las comunicaciones y las redes de datos - ahora de voz (VOip) - , desde la simple tarea de navegar en Internet, hasta hacer una transacción bancaria o los ya famosos cursos en línea o a distancia si le suena mejor.

Direcciones físicas (MAC) Cada tarjeta de red tiene un número identificativo único de 48 bits, en hexadecimal llamado MAC (Media Access Control) . Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical Engineers (IEEE). Los tres primeros octetos del número MAC conocidos como OUI identifican a proveedores específicos y son designados por la IEEE. lo que permite que no pueda haber errores en la transmisión de los datos en las redes de grandes empresas y en de las oficinas domesticas y en el hogar, imagínese que dos PCS cuentan con la misma direcciónde MAC o dirección física, si un dispositivo quiere mandar un mensaje a otro que tiene duplicada la MAC entonces no sabrá a cual de los dos mandarle el mensaje, esto provocaría un caos enorme en las redes con gran cantidad de colisiones, y lo que es mas, no funcionaria la red por completo, por ese motivo las direcciones MAC nunca deben de repetirse, en la actualidad existe un Estándar que otorga las direcciones MAC o físicas a todas las empresas alrededor del mundo evitando la duplicidad de estas. Pero que es la dirección física de la que hablamos, bueno como se dijo es la identificación única que caracteriza a una tarjeta de red, todo dispositivo tiene solo una dirección física por tarjeta de red, en realidad esa dirección física es la que sen encuentra en el chip NIC, es un chip ROM que solo permite una única escritura por eso no se pude modificar la dirección de la NIC. Cada empresa que fabrica o utiliza NIC en sus productos solicita una identificación dado por la OUI, que es una identificación única.


Por ejemplo la dirección para Xerox en su división de impresoras esta dado por: 00-00-00 (hex) XEROX CORPORATION 000000 (base 16) XEROX CORPORATION M/S 105-50C 800 PHILLIPS ROAD WEBSTER NY 14580 UNITED STATES Este es un formato estándar que garantiza que no puede repetirse la dirección MAC, pero ahora cual es la dirección MAC de la maquina, pues bueno como se dijo son 6 números hexadecimales, para obtener la dirección física de su computadora suponiendo que tenga un Windows estándar moderno como Windows 2000/Xp o 2003 es ejecutar el comando cmd y desde la consola de DOS escribir ipconfig/all y le saldrá la dirección de acuerdo a la PC y tarjeta que tenga.


En esta caso la dirección física esta dada por la dirección 00-0A-5E-30-80-D5 para seguir con el ejemplo y para que no quede dudas los 3 primeros dígitos hexadecimales ósea el 00-0a-5e debe de pertenecer a la división de tarjetas de red 3com que es la que tengo en mi PC, si me voy al OUI chequeare dicha dirección y veré si estoy en lo correcto y así es: 00-0A-5E (hex.) 3COM Corporatión 000A5E (base 16) 3COM Corporation 5400 Bayfront Plaza M/S 5119 Santa Clara CA 95052-8145 UNITED STATES Como se ve si corresponde a una división de tarjetas de 3com ahora una empresa puede haber solicitado varias de estas direcciones así que no le sorprenda si es que encuentre mas de uno ahora, el archivo de OUI lo puede encontrar en el siguiente enlace http://standards.ieee.org/regauth/oui/oui.txt. Ahora las tarjetas NIC no necesariamente deben de ser para ser conectadas físicamente en un dispositivo hay una variedad de estas tarjetas que se diferencian de acuerdo a las velocidades que puedan tener, memoria, capacidad de respuesta, y de la elección de la tarjeta de red y de estas características depende de la velocidad con la que pueda realizar los trabajos tan importantes que quiera realizar, a continuación explicaremos como instalar una tarjeta de red. Funciones de tarjetas de red Son ocho las funciones de la NIC: • • •

Comunicaciones de host a tarjeta, la información que reside en la memoria o en el disco duro pasa a la tarjeta en forma de tramas. Buffering, almacenamiento de la información para el posterior traspaso de esta a travez de los cables de red o mediante medios inalámbricos. Formación de paquetes, agrupar los datos de una forma entendible y transportable.


• • • • •

Conversión serial a paralelo, Codificación y decodificación, codifica las señales de los cables que son bits 1 o 0 a señales entendibles por la tarjeta de red. Acceso al cable, conector que posibilita el acceso al cable de red, estos conectores pueden ser mediante RJ-45 o BNC Saludo, petición de escucha que se hace a la red para proceder a transmitir datos. Transmisión y recepción., envió y recepción de datos.

Estos pasos hacen que los datos de la memoria de una computadora pasen a la memoria de otra. Instalación de una tarjeta de red Para proceder a la instalación de una tarjeta de red debe de seguir unas Serie de pasos: •

Si la tarjeta esta integrada a la placa base debería de tener los drivers de la placa para poder instalar el dispositivo sin ningún problema, si no tiene los drivers entonces debería de buscar la manera de bajarlos desde el fabricante de la placa y hacer una actualización de pasada de los demás drivers. Si la tarjeta no es integrada y ya sea inalámbrica o mediante cables tiene que ser insertada en la ranura de ampliación ya sea PC(que es lo mas común en estos momentos), o ISA (ya no se utilizan).I Si la tarjeta es de otro tipo ya se mediante USB, o tarjeta PCMCIA debe de tener los drivers necesarios para proceder instalarla. Así como contar con los puertos USB necesarios Una vez instalada la tarjeta y los drivers, le debe de aparecer la tarjeta instalada en su sistema. Pruebe dirigiéndose a administrador de dispositivos y en la opción hardware para verificar el correcto funcionamiento de la tarjeta.


En la imagen se puede observar la instalación y correcto funcionamiento de la tarjeta de red, esta tarjeta estará lista para ser usada de acuerdo a los protocolos con los que sea configurada y a la configuración con la que cuente la red. Si la tarjeta no funciona debería descartar algunos de los siguientes errores mas comunes: • • • •

Si no aparece la tarjeta asegúrese que este bien conectada Asegúrese que los drivers fueron instalados correctamente Si es mediante USB asegúrese que el puerto al que conecto el adaptador esta habilitado Verifique que no tiene algún firewall instalado.

Una de las características mas importantes en una tarjeta de red es la capacidad de usar auto negociación esta característica permite sumir la velocidad más alta disponible por ambos extremos del enlace Tipos de tarjetas de red En la actualidad existen una variedad inmensa de tarjetas de red desde las normales que encuentra en cualquier PC en forma integrada o la que se encuentra para ser un dispositivo inalámbrico como una tarjeta PCMCIA, las tarjetas de red que usted elija debe de satisfacer todos los requerimientos que usted desee, es decir si quiere conectarse en la oficina y no se va a mover o su trabajo es en un modulo en donde no necesite desplazamiento entonces debería elegir una tarjeta estándar, si tiene un medio físico que le ofrece velocidades muy altas entonces debería de optar por una NIC que soporte estas velocidades mas altas y así aprovecha el rendimiento de la red, y si su trabajo es estar en varios sitios y necesita conexión permanentes con la red de le empresa o institución entonces una laptop y una red inalámbrica es la mejor opción y por consiguiente debería de usar una tarjeta inalámbrica, existen muchos y miles de casos que se le podría dar para elegir una determinada tarjeta de red, pero lo mas importante es que las conozco y de ahí hacer la elección que usted considere necesaria. Tarjetas inalámbricas En los últimos años las redes de área local inalámbricas (WLAN, Wireless Local Area Network) están ganando mucha popularidad, que se ve acrecentada conforme sus prestaciones aumentan y se descubren nuevas aplicaciones para ellas. Las WLAN permiten a sus usuarios acceder a información y recursos en tiempo real sin necesidad de estar físicamente conectados a un determinado lugar. Con las WLANs la red, por sí misma, es móvil y elimina la necesidad de usar cables y establece nuevas aplicaciones añadiendo flexibilidad a la red, y lo más importante incrementa la productividad y eficiencia en las empresas donde está instalada. Un usuario dentro de una red WLAN puede transmitir y recibir voz, datos y vídeo dentro de edificios, entre edificios o campus universitarios e inclusive sobre áreas metropolitanas a velocidades de 11 Mbit/s, o superiores. Las redes inalámbricas tienen su base en las tarjetas de red sin cables es decir tarjetas inalámbricas, estas tarjetas se conectan mediante señales de frecuencia especificas a otro dispositivo que sirva como concentrador de estas conexiones, en general puede ser un Access Point, estas tarjetas tienen la ventaja de poder reconocer sin necesidad de previa configuración a muchas redes siempre y cuando estén en el rango especificado, la tecnología y las redes inalámbricas están en auge pero aun no llegan a superar la


velocidad de las redes cableadas y la seguridad, en particular es una buena tecnología si es que no le importa sacrificar un poco de velocidad por mas comodidad en el trabajo.

Tarjeta de red inalámbrica

Tarjeta de red inalámbrica PCMCIA Tarjetas Ethernet Es el tipo de tarjeta mas conocido y usado actualmente, la mayoría de las redes en el mundo son del tipo ethernet que usan tarjetas por consiguiente ethernet, la mayoría de tarjetas incluyen un zócalo para un PROM (Memoria programada de solo lectura, FIGURA 7.0) , esta memoria realiza una inicialización remota del computador en donde se encuentra instalada, es decir, que una tarjeta con la memoria PROM puede ser instalada en computadores que no tienen instalado unidades de disco o de almacenamiento masivo, esta alternativa tiene la ventaja de rebajar costos y aumentar la seguridad de acceso a la red, ya que los usuarios no pueden efectuar copias de los archivos importantes, tampoco infectar con virus o utilizar software no autorizado. La memoria es programada para recojer la información de arranque del servidor de archivos en vez de hacerlo desde un disco local, la estación de trabajo efectúa la conexión desde la tarjeta a través de la PROM al servidor de archivos. Las fábricas suministran las tarjetas de red y la PROM (memoria programable de solo lectura) en forma separada, información que se debe tener en cuenta al hacer el pedido. Tarjetas de fibra óptica


Estas tarjetas están teniendo una gran aceptación en la actualidad, por la velocidad en la transmisión de los datos así como en la confiabilidad y seguridad, las tarjetas de fibra óptica difieren en las demás en que las señales se dan mediante impulsos de luz que hacen posible la transmisión de los datos a una mayor distancia, las tarjetas de fibra son mas fáciles de configurar que las normales ya que solo se colocan y ya están en funcionamiento su uso esta destinado a grandes estaciones así como a concentradores de redes backbone, los conectores de las tarjetas son especiales en donde se ingresa el cable de fibra óptica monomodo o multimodo de una o dos vías según el diseño de la red, la de una vía usa solo una conexión para la transmisión y recepción de los datos, por ende solo hay un conector en la tarjeta, la de dos vías tiene dos conectores en la tarjeta uno para la transmito y otro para recepción de datos.

Tarjeta de fibra óptica de dos vías Tipos de conectores y adaptadores Los conectores mas usados en las instalaciones de tarjetas de red son las de RJ-45 usadas mundialmente en las redes ethernet o conectores BNC usadas en tarjetas de red de tipo coaxial, estas ultimas no se usan en la actualidad aunque puede ser que encuentre una instalada en algún antiguo edificio. Los conectores de fibra óptica son de tipo especial ya que permiten e interpretan los haces de luz provenientes de las redes de fibra óptica, tiene la ventaje de funcionar a muy altas velocidad, estos conectores deben de permanecer sellados si es que no son usados ya que ocasionaría deterioros en la señal de la transmisión de los datos. Puede darse el caso que usted no cuenta con una tarjeta de red para esto existen adaptadores de tipo USB o tarjetas de ampliación de tipo PCMCIA que pueden hacer que usted entre a la red de la empresa.


Adaptador de USB-RED

Conectores RJ-45

Cable de Fibra Optica Velocidad de conexión La velocidad es un aspecto importante a la hora de elegir una tarjeta de red en la actualidad hay tarjetas que admiten 10/100/1000/10000 de conexión ya sea ethernet o mediante fibra, las tarjetas inalámbricas son de una velocidad un poco menor ya que el medio no es el mas apropiado para muy altas velocidades. Debe utilizarse una NIC de Ethernet con un concentrador o conmutador Ethernet, y debe utilizarse una NIC de Fast Ethernet con un concentrador o conmutador Fast Ethernet. Si conecta su PC a un dispositivo dual speed que admite ambos valores, 10 y 100Mbps, puede utilizar una NIC de 10Mbps o una NIC de 100Mbps. Un puerto en un dispositivo dual speed ajusta su velocidad automáticamente para que coincida con la velocidad más alta admitida por ambos extremos de la conexión. Por ejemplo, si la NIC soporta solamente 10Mbps, el puerto del concentrador dual speed que está conectado a dicha


NIC pasará a ser un puerto de 10Mbps. Si la NIC soporta 100Mbps, la velocidad del puerto del concentrador será de 100Mbps. De un modo semejante, si tiene una NIC 10/100, podrá conectarla al concentrador Ethernet de 10Mbps o al concentrador Fast Ethernet de 100Mbps. La NIC 10/100 ajustará su velocidad para que coincida con la velocidad más alta soportada por ambos extremos de la conexión. Las tarjetas de red se encuentran en cualquier dispositivo que intente conectarse a una red, a no ser que este use un MODEM para salir a Internet, sin las tarjetas de red nuestros dispositivos serian meras estaciones de trabajo sin ningún valor mas que el domestico, una red de datos y de voy proporciona muchos beneficios a las empresas y en la actualidad grandes satisfacciones a los hogares. A la hora de elegir una tarjeta de red debe de asegurarse de cumplir los siguientes aspectos: o o o o o o o

Que tipo de ranura soporta su PC o dispositivo de red Que medios y que cables e usaran en la transmisión de los datos A que velocidad máxima puede viajar un dato a través de la red Que es lo que se necesitara transmitir, si es video demandara mas velocidad Cuanto esta pensando en gastar, hay marcas que son muy buenas pero tienen precios muy altos. Cual es la garantía que tiene la tarjeta Admite la tarjeta auto negociación,


Sistema Operativo linux - Definición del Sistema operativo linux Linux es un Unix libre, es decir, un sistema operativo, como el Windows o el MS-DOS (sin embargo, a diferencia de estos y otros sistemas operativos propietarios, ha sido desarrollado por miles de usuarios de computadores a través del mundo, y la desventaja de estos es que lo que te dan es lo que tu obtienes, dicho de otra forma no existe posibilidad de realizar modificaciones ni de saber como se realizó dicho sistema.), que fue creado inicialmente como un hobbie por un estudiante joven, Linus Torvalds, en la universidad de Helsinki en Finlandia, con asistencia por un grupo de hackers a través de Internet. Linus tenía un interés en Minix, un sistema pequeño o abreviado del UNIX (desarrollado por Andy Tanenbaum); y decidido a desarrollar un sistema que excedió los estándares de Minix. Quería llevar a cabo un sistema operativo que aprovechase la arquitectura de 32 bits para multitarea y eliminar la barreras del direccionamiento de memoria. Torvalds empezó escribiendo el núcleo del proyecto en ensamblador, y luego comenzó a añadir código en C, lo cual incrementó la velocidad de desarrollo, e hizo que empezara a tomarse en serio su idea. Él comenzó su trabajo en 1991 cuando él realizó la versión 0,02, la cual no la dió a conocer porque ni siquiera tenía drivers de disquete, además de llevar un sistema de almacenamiento de archivos muy defectuoso. Trabajó constantemente hasta 1994 en que la versión 1,0 del núcleo(KERNEL) de Linux se concretó. La versión completamente equipada actual es 2,2 (versión concluída el 25 de enero de 1999), y el desarrollo continúa. Linux tiene todas las prestaciones que se pueden esperar de un Unix moderno y completamente desarrollado: multitarea real, memoria virtual, bibliotecas compartidas, carga de sistemas a-demanda, compartimiento, manejo de debido de la memoria y soporte de redes TCP/IP. La parte central de Linux (conocida como núcleo o kernel) se distribuye a través de la Licencia Pública General GNU, lo que basicamente significa que puede ser copiado libremente, cambiado y distribuído, pero no es posible imponer restricciones adicionales a los productos obtenidos y, adicionalmente, se debe dejar el código fuente disponible, de la misma forma que está disponible el código de Linux. Aún cuando Linux tenga registro de Copyright, y no sea estrictamente de dominio público. La licencia tiene por objeto asegurar que Linux siga siendo gratuito y a la vez estandar. Por su naturaleza Linux se distribuye libremente y puede ser obtenido y utilizado sin restricciones por cualquier persona, organización o empresa que así lo desee, sin necesidad de que tenga que firmar ningún documento ni inscribirse como usuario. Por todo ello, es muy difícil establecer quiénes son los princiales usuarios de Linux. No obstante se sabe que actualmente Linux está


siendo utilizado ampliamente en soportar servicios en Internet, lo utilizan Universidades alrededor del todo el mundo para sus redes y sus clases, lo utilizan empresas productoras de equipamiento industrial para vender como software de apoyo a su maquinaria, lo utilizan cadenas de supermercados, estaciones de servicio y muchas instituciones del gobierno y militares de varios países. Obviamente, también es utilizado por miles de usuarios en sus computadores personales. El apoyo más grande, sin duda, ha sido Internet ya que a través de ella se ha podido demostrar que se puede crear un sistema operativo para todos los usuarios sin la necesidad de fines lucrativos.

Linux tiene una mascota oficial, el pingüino de Linux , que fue seleccionado por Linus Torvalds. Básicamente podemos decir que hoy Linux es un sistema muy completo. El proyecto de Linus Torvalds aún no ha terminado, y se piensa que nunca se terminará por ésta continua evolución de la Informática. Características En líneas generales podemos decir que se dispone de varios tipos de sistema de archivos para poder acceder a archivos en otras plataformas. Incluye un entorno gráfico X window (Interface gráfico estandard para máquinas UNIX), que nada tiene que envidiar a los modernos y caros entornos comerciales. Está orientado al trabajo en red, con todo tipo de facilidades como correo electrónico por ejemplo. Posee cada vez más software de libre distribución, que desarrollan miles de personas a lo largo y ancho del planeta. Linux es ya el sistema operativo preferido por la mayoría de los informáticos. Un ejemplo de la popularidad que ha alcanzado este sistema y la confianza que se puede depositar en él es que incluso la NASA ha encomendado misiones espaciales de control de experimentos a la seguridad y la eficacia de Linux. Por lo tanto, la gran popularidad de Linux incluye los siguientes puntos: • Se distribuye su código fuente, lo cual permite a cualquier persona que así lo desee hacer todos los cambios necesarios para resolver problemas que se puedan presentar, así como también agregar funcionalidad. El único requisito que esto conlleva es poner los cambios realizados a disposición del público. • Es desarrollado en forma abierta por cientos de usuarios distribuídos por todo el mundo, los cuales la red Internet como medio de comunicación y colaboración. Esto permite un rápido y eficiente ciclo de desarrollo. • Cuenta con un amplio y robusto soporte para comunicaciones y redes, lo cual hace que sea una opción atractiva tanto para empresas como para usuarios individuales. • Da soporte a una amplia variedad de hardware y se puede correr en una multitud de plataformas: PC's convencionales, computadoras Macintosh y Amiga, así como costosas estaciones de trabajo Linux y sus Shells


Cada usuario de un sistema Linux tiene su propia interfaz de usuario o Shell. Los usuarios pueden personalizar sus shells adecuándolos a sus propias necesidades específicas. En este sentido, el Shell de un usuario funciona más como un entorno operativo que el usuario puede controlar. Linux permite la utilización de distintos tipos de shell programables. Para aquellos que se pregunten qué es un shell es como el command.com de ms-dos, es decir, un intérprete de comandos. Es básicamente la interfaz, el modo de comunicación, entre el usuario y el sistema. Cada shell tiene sus características propias. La principal diferencia que existe entre los distintos tipos de shell radica en la sintáxis de la linea de comandos. No es necesario aprender a programar con todos los tipos de shell ya que sabiendo uno los conocemos todos, así que es mucho más sencillo de lo que parece. Concluyendo podemos decir que un shell conecta las ordenes de un usuario con el Kernel de Linux (el núcleo del sistema), y al ser programables se puede modificar para adaptarlo a tus necesidades. Por ejemplo, es muy útil para realizar procesos en segundo plano. 12.3 Linux es Multitarea: La multitarea no consiste en hacer que el procesador realize más de un trabajo al mismo tiempo (un solo procesador no tiene esa capacidad), lo único que realiza es presentar las tareas de forma intercalada para que se ejecuten varias simultáneamente. Por lo tanto en Linux es posible ejecutar varios programas a la vez sin necesidad de tener que parar la ejecución de cada aplicación. 12.4 Linux es Multiusuario: Para que pueda desarrollar esta labor (de compartir los recursos de un ordenador) es necesario un sistema operativo que permita a varios usuarios acceder al mismo tiempo a través de terminales, y que distribuya los recursos disponibles entre todos. Así mismo, el sistema debería proporcionar la posibilidad de que más de un usuario pudiera trabajar con la misma versión de un mismo programa al mismo tiempo, y actualizar inmediatamente cualquier cambio que se produjese en la base de datos, quedando reflejado para todos. Pues bien, este sistema operativo no lo tenemos que inventar puesto que yá esta inventado. Pero no todo es tan bonito como se pinta ya que el hecho de que se conecten a tu ordenador más usuarios significa que es más dificil mantener tu seguridad. Otra de las caracteristicas referentes a esta tema es que Linux es multiplataforma. Fue diseñada para plataforma Intel pero ha sido fácilmente exportado a diversos tipos de sistema. En conclusión, en el sistema multiusuario, varios usuarios pueden acceder a las aplicaciones y recursos del sistema Linux al mismo tiempo. Y, por supuesto, cada uno de ellos puede ejecutar varios programas a la vez (multitarea). 12.5 Linux y su Control de Dispositivos Una vez instalado Linux se podrá acceder a un directorio llamado /dev Dentro de él se observa un montón de archivos con nombres tan dispares como hda1(Disco Duro IDE) o mouse. Estos son los controladores de dispositivos del sistema. La mayoría de los sistemas operativos para ordenadores personales, como Ms-Dos, llevaban parcialmente implementadas en el núcleo las facilidades de acceso a los distintos dispositivos, como el disco duro o el ratón, de tal modo que a no ser que se


reescriba el núcleo, dificilmente se podrá tener el control sobre nuevos tipos de dispositivos. Los controladores son tratados de forma independiente al núcleo del sistema, y por lo tanto se podrá añadir tantos controladores como dispositivos nuevos se vayan añadiendo al ordenador. Por otra parte todos los dispositivos son tratados de igual forma, y gracias a ello se podrá redirigir datos de la misma manera al disco duro o a la impresora. Linux y las Redes de Ordenadores Cuando se trabaja con Linux se está ante un sistema operativo orientado al trabajo de redes de ordenadores. Se dice esto porque cuando se trabaja con un sistema como Ms-Dos se sabe que todas las operaciones que conlleva las órdenes ejecutadas se llevan a cabo dentro de la carcasa del ordenador mientras que en Linux no se puede garantizar esta afirmación. Linux dispone de varios protocolos como PPP, SLIP, TCP/IP, PLIP, etc.., para la transferencia de archivos entre plataforma. Tiene a su disposición multitud de aplicaciones de libre distribución que permiten navegar a través de Internet y enviar y recibir correo electrónico. Posee gran variedad de comandos para comunicación interna entre usuarios que se encuentren ubicados en plataformas distintas (gracias a utilidades como telnet). En fin, un universo de posibilidades de comunicación a recopilar las distintas aplicaciones escritas para Linux y ponerlas en uno u otro formato, con diferentes facilidades de instalación, mantenimiento y configuración. La licencia garantiza la libre distribución de las aplicaciones, pero las empresas pueden cobrar por el trabajo de agrupar un determinado conjunto de esas aplicaciones y hacer más sencilla su instalación. Lo único que no varía para nadie es el núcleo del sistema, que se desarrolla de forma coordinada y con actualizaciones sistemáticas. Es por ello que antes de instalar Linux hemos de elegir qué distribución nos interesa más. . Independencia de dispositivos Linux admite cualquier tipo de dispositivo (módems, impresoras) gracias a que cada una vez instalado uno nuevo, se añade al Kernel el enlace o controlador necesario con el dispositivo, haciendo que el Kernel y el enlace se fusionen. Linux posee una gran adaptabilidad y no se encuentra limitado como otros sistemas operativos.

Comunicaciones Linux es el sistema más flexible para poder conectarse a cualquier ordenador del mundo. Internet se creó y desarrollo dentro del mundo de Unix, y por lo tanto Linux tiene las mayores capacidades para navegar, ya que Unix y Linux son sistemas prácticamente idénticos. Con linux podrá montar un servidor en su propia casa sin tener que pagar las enormes cantidades de dinero que piden otros sistemas.


Linux no sacrifica en ningún momento la creatividad, tal y como lo hacen algunas compañías informáticas. Linux es una ventana abierta por la que es posible huir hacia un mundo donde la verdadera informática puede ser disfrutada sin limites ni monopolios. Linux es distribuido mediante una serie de distribuciones como RedHat, Slackware, Debían ... las cuales se diferencian por su método de instalación y por los paquetes (software) que viene incluido. Es posible que encuentre a la venta versiones de Linux y piense: "si, si.... decían que era gratis..." No se asuste, todo el software de Linux esta regido por la licencia de GNU, con la cual cualquier persona puede modificar un programa y venderlo según el desee, con la condición que la persona que compra ese producto puede realizar la misma acción o simplemente hacer copias para todos aquellos que lo quieran sin tener que pagar más (por lo tanto no se extrañe si encuentra distribución comerciales). Esta licencia es la garantía que afirma la absoluta libertad de este sistema operativo. Si no desea ni siquiera pagar esa mísera cantidad puede descargárselo de Internet totalmente gratis ¿Cuál es la ventaja de GNU/Linux? La ventaja de GNU/Linux es que pertenece al desarrollo del software libre. El software libre, a diferencia del software propietario, es desarrollado bajo la premisa de que los programas son una forma de expresión de ideas y que las ideas, como en la ciencia, son propiedad de la humanidad y deben ser compartidas con todo el mundo (como ya se expuso en la licencia del público en general del GNU). Para lograr esto, el software libre expone el código fuente de sus programas a quien desee verlo, modificarlo o copiarlo. El software propietario no permite que nadie vea el código fuente de sus programas, porque eso sería exponer la manera en que estos funcionan. Las empresas creen que si la gente pudiera ver cómo está construido su software, entonces no habría necesidad de comprarlo, ya que la gente construiría el propio - o la competencia se robaría sus ideas. También, al tratar de cubrir el mercado más amplio posible, ignoran las necesidades particulares de las minorías. Con el software libre, la gente no compite entre sí, sino que se ayudan mejorando los programas que ya existen y adaptando el software a sus necesidades, sin importar cuán específicas sean estas. ¿Qué puedo hacer con Linux? Las áreas de aplicabilidad de Linux son varias. En sus inicios fue muy utilizado por personas relacionadas con ciencias de la computación, desde hace algunos años ha sido también adoptado en instalaciones científicas de diversa índole (Física, Biología, Ciencias Espaciales y otras). Son de particular interés los proyectos en el área de Computación de Alto Rendimiento, donde Linux se está utilizando intensiva y extensivamente. Recientemente, también muchas compañías grandes han introducido soporte para Linux en su línea de productos. Un caso ejemplar es Corel, desarrolladores del popular programa de oficina WordPerfect, quienes han venido trabajando de cerca con la comunidad de Linux y ofrecen una versión de WordPefect en forma gratuita para uso personal. Además de WordPerfect hay otros programas de oficina disponibles para Linux, pero haciendo honor a la verdad, las aplicaciones de escritorio son un área con poco desarrollo en


este ambiente. Otras compañías internacionales que utilizan y desarrollan productos para Linux incluyen a IBM, Netscape, Oracle, HP y Dell.

¿Dónde instalo Linux? Linux se puede instalar en cualquier disco que tengas en tu sistema y en cualquier particion del disco duro (Primaria o extendida). ¿Qué es una partición? ¿Cómo creo una partición? Particionar el disco duro es una manera de dividir el disco físico en varios discos lógicos. O lo que es lo mismo, al particionar un disco, dividimos el disco en varias particiones independientes unas de otras, creando la ilusión de que tenemos diferentes discos, cuando en realidad lo que tenemos es un solo disco físico dividido en partes. Una partición es una de estas partes (divisiones) del disco. Existen dos clases de particiones: primarias y extendidas. En un disco solo podrás tener como máximo 4 particiones primaria y 1 extendida. En la partición extendida se podrán definir todas (bueno también existe un limite, pero es alto) las unidades lógicas que queramos. Con este sistema podemos tener una gran cantidad de particiones en nuestro disco. Casi todos los sistemas operativos traen un programa con el que podemos crear, modificar, borrar las particiones de nuestro disco. En MsDos/Windows de llama FDISK, este programa solo puede trabajar con particiones de Ms-Dos/Windows. En Linux también se llama FDISK (/sbin/fdisk), pero es un programa mas potente, capaz de trabajar y crear particiones tanto para Linux como otros sistemas operativos. Si vas a trabajar con Linux, es recomendable el uso del FDISK que viene con tu distribución, para evitar problemas. Al contrario que Ms-Dos, Windows, OS/2, las diferentes particiones en linux no se denominan C:, D:, E:, ...., etc, existe una denominación propia: Si los discos son IDE: • /dev/hda: Disco duro IDE como master en el canal IDE 1. • /dev/hda1: Partición primaria 1 en /dev/hda • /dev/hda2: Partición primaria 2 en /dev/hda • /dev/hda3: Partición primaria 3 en /dev/hda • /dev/hda4: Partición primaria 4 en /dev/hda • /dev/hda5: Partición extendida 1 en /dev/hda • /dev/hda6: Partición extendida 2 en /dev/hda • ..... • ..... • /dev/hda16: Partición extendida 16 en /dev/hda • /dev/hdb: Disco duro IDE como esclavo en el canal IDE 1. • /dev/hdb1: Partición primaria 1 en /dev/hdb • ........ • ........


• • • • • • •

/dev/hdc: Disco duro IDE como master en el canal IDE 2. /dev/hdc1: Partición primaria 1 en /dev/hdc ........ ........ /dev/hdd: Disco duro IDE como esclavo en el canal IDE 2. /dev/hdd1: Partición primaria 1 en /dev/hdd ........

IMPORTANTE: Es muy importante saber lo que se esta haciendo cuando trabajas con programas que modifican la tabla de particiones de un disco. Al cambiar la tabla de particiones de vuestro disco, se pierden los datos contenidos en las particiones afectadas. Realizar copias de seguridad de los datos que quieras mantener antes de usar FDISK.

¿Cuántas particiones necesito para Linux? La respuesta rápida y fácil es: recomendable al menos dos, una para el sistema/datos y otra para Swap. Usualmente se suelen tener tres, una para el sistema/programas (/), otra para los datos (/home) y otra para swap. La respuesta larga y no tan fácil es mas complicada de explicar: Todo dependerá muchisimo del uso que se le vaya a dar al sistema. Para sistemas que se utilicen de forma particular y por uno o pocos usuarios bastara con las dos/tres particiones antes mencionadas, esto evitara los problemas de saber que cantidad de espacio necesitan las diferentes particiones y el quedarnos sin espacio en alguna particion vital, mientras que nos sobra en otras. Para sistemas servidores, con gran cantidad de servicios y usuarios es muy recomendable tener varias particiones / discos. ¿Cómo se puede hacer para que una máquina tengo dos sistemas a la vez? Cuando se trata de otros sistemas operativos, se debe de instalar el sistema operativo que no es GNU/Linux primero. Si es Windows, se debe usar el fdisk de DOS para particionar el disco en dos áreas: la de Windows y la de GNU/Linux. Luego, se instala Windows en modo personalizado, ya que el modo rápido puede regresar al disco a una sola partición. Luego se instala GNU/Linux, borrando la partición que se dejó para GNU/Linux y creando con el espacio libre que queda las particiones nativas y de swap que se necesite. ¿Qué es el "kernel"? Kernel (Núcleo) es el programa que tiene control total de la máquina y administra sus recursos. GNU/Linux, desde un punto estricto es un kernel, no un sistema operativo. El sistema operativo es el kernel junto con todas las


herramientas necesarias para que la computadora pueda operar. De poco sirve un kernel sin un shell, ni ambiente gráfico, ni herramientas de administración. El kernel es el encargado de que el software y el hardware de tu ordenador puedan trabajar juntos. Las funciones mas importantes del mismo, aunque no las únicas, son: • Administración de la memoria, para todos los programas en ejecución. • Administración del tiempo de procesador, que estos programas en ejecución utilizan. • Es el encargado de que podamos acceder a los periféricos/elementos de nuestro ordenador de una manera cómoda. ¿Qué es la swap? La swap es un espacio reservado en tu disco duro para poder usarse como una extensión de memoria virtual de tu sistema. Es una técnica utilizada desde hace tiempo para hacer creer a los programas que existe mas memoria RAM de la que en realidad existe. Es el propio sistema operativo el que se encarga de pasar datos a la swap cuando necesita mas espacio libre en la RAM y viceversa. En Linux, la memoria total disponible por el sistema estará formada por la cantidad de memoria RAM instalada + la swap disponible. El acceso a la swap (disco duro) es mas lento que el acceso a la memoria RAM, por lo que si nuestro ordenador esta muy cargado de trabajo y hace un uso intensivo de la swap, la velocidad del sistema disminuirá. Un uso muy intensivo y continuado de la swap es un indicativo de que necesitamos mas memoria en nuestro sistema para que funcione desahogado con el uso que le estamos dando. En linux generalmente se usa como mínimo una partición dedicada a swap (aunque también se puede tener un fichero swap).

Sistemas de archivos Sistema de ficheros linux Bueno como sabrás el DOS funciona con FAT, File Allocation Table, o sea una tabla a principio del disco duro donde se almacena, la información de cada bloque del disco, de manera que tenemos una lista enlazada para cada fichero. --------- | 2| 0 FICHERO A bloques 0 2 6 --------- | 3| 1 FICHERO B bloques 1 3 4 --------- | 6| 2 --------- | 4| 3 --------- | fin| 4 --------- | | 5 --------- | fin| 6 --------Para leer un fichero A leemos en la fat el bloque 0, vemos donde continua y leemos la fat en el bloque 2, leemos el bloque del disco, y volvemos a leer el bloque de la fat donde esta el bloque 6. Esto parece rápido, y lo es i la FAT esta en memoria, pero si calculamos lo que puede ocupar una FAT de un disco duro de 1Giga donde el disco esta dividido en bloques de pongamos 4024Kb y pongamos 20 bytes por descriptor, tenemos una FAT de 5 megas, (no recuerdo de cuanto era el tamaño de bloque/descriptor en MSDOS), lo cual no se puede tener en memoria y si hay que leer cada vez de disco es muy lento. Cuando


MSDOS funcionaba en disquete no era demasiado problema tener en memoria unos Ks de FAT, pero con los disco de ahora de Giga ya es un problema. ¿Como lo hace UNIX? ¿Y por supuesto ext2 de Linux? Con otra estructura de datos llamada i-nodes, que para cada fichero tiene un array, con las posiciones del disco donde se encuentra este. De esta manera cuando queremos leer un fichero, leemos solo un trozo de disco contiguo, donde encontramos todas las referencias a ése y no toda la FAT que puede ser de mas de un mega. Con los nodos-i (o inodes) no ahorramos espacio de disco (con respecto a FAT), la información de en que bloques esta cada fichero la tenemos igual pero mejor organizada. Las tablas de i-nodes tienen un tamaño limitado, pero en caso de que se llenen con indirecciones se accede a otras tablas de i-nodes, con lo que el limite del tamaño de los ficheros es grande. (bueno esto lo he explicado un poco por encima se podría explicar extensamente). IN> Me imagino que el ext2 es mejor que el modo, pero realmente que IN> diferencias hay entre ellos (menos lo de los permisos y la lon- IN> gitud del nombre de los ficheros). Pues como has visto es mas rápido y eficiente, aparte de no tener las limitaciones de usuario, permisos, nombres largos, etc. El tamaño de bloque de disco, en MS DOS es fijo en función del tamaño de la partición, en linux en el momento en que formateas la partición con mkfs (o mk2efs no recuerdo) puedes elegir el tamaño del bloque según vayas a tener mas ficheros pequeños, o mas ficheros grandes.

Lic. Manuel Llerena Silva


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.