HARDWARE (PARTES DE LA PC). TARJETA MADRE (MOTHERBOARD). La placa base, placa madre, tarjeta madre o board (en inglés motherboard, mainboard) es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de integrados, entre los que se encuentra el Chipset que sirve como centro de conexión entre el procesador, la memoria RAM, los buses de expansión y otros dispositivos.
Tarjeta Madre (Motherboard) marca ASUS.
Va instalada dentro de un gabinete que por lo general está hecho de lámina y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro del gabinete. La placa base además incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas como: pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo. Componentes de la placa base. Una placa base típica admite los siguientes componentes: a) Uno o varios conectores de alimentación: Por estos conectores una alimentación eléctrica proporciona a la placa base los diferentes voltajes necesarios para su funcionamiento; b) El zócalo de CPU (a menudo llamado socket): es un receptáculo que recibe el microprocesador y le conecta con el resto de la microcomputadora; c) Los conectores de RAM (ranura de memoria, en inglés memory slot) en número de 2, 3 o 4 en las placas base comunes e incluso 6; Hardware (Partes de la PC) (Información Recopilada) - Página 1 de 94
d) El chipset: Uno o más circuitos electrónicos, que gestiona las transferencias de datos entre los diferentes componentes de la computadora (microprocesador, memoria, disco duro, etc.); e) Un reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos; f) La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo, fecha y hora), mientras que el equipo no está alimentado por electricidad ; g) La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito; h) La BIOS: un programa registrado en una memoria de solo lectura (ROM). Este programa es específico de la tarjeta y se encarga de la interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR (Master Boot Record), registrados en un disco duro, cuando arranca el equipo; i) El bus (también llamado bus interno o en inglés (Front Side Bus (FSB)): Conecta el microprocesador al chipset; j) El bus de memoria conecta el chipset a la memoria temporal; k) El bus de expansión (también llamado bus I/O): Une el microprocesador a los conectores entrada/salida y a las ranuras de expansión; l) Los conectores de entrada/salida que cumplen normalmente con la norma PC 99. Estos conectores incluyen: Los puertos serie, por ejemplo para conectar dispositivos antiguos, Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras; Los puertos USB (en inglés Universal Serial Bus); por ejemplo para conectar periféricos recientes Los conectores RJ45 para conectarse a una red informática. Los conectores VGA, para la conexión del monitor de la computadora Los conectores IDE o Serial ATA I o II, para conectar dispositivos de almacenamiento tales como discos duros y discos ópticos; Los conectores de audio, para conectar dispositivos de audio tales como altavoces o micrófono; m) Los conectores (slots) de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador, por ejemplo, una tarjeta gráfica se puede añadir a un ordenador para mejorar el rendimiento de la pantalla 3D en el monitor). Estos puertos pueden ser puertos ISA (interfaz antigua), PCI (en inglés Peripheral Component Interconnect) y los más recientes PCI Express.
Hardware (Partes de la PC) (Información Recopilada) - Página 2 de 94
n) Memoria Cache. La memoria cache forma parte de la tarjeta madre y del procesador (Hay dos tipos) y se utiliza para acceder rápidamente a la información que utiliza el procesador. Existen cache primario (L1) y cache secundario (L2). El cache primario está definido por el procesador y no lo podemos quitar o poner. En cambio el cache secundario se puede añadir a la tarjeta madre. La regla de mano es que si se tienen 8 Megabytes (Mb) de memoria RAM se debe tener 128 Kilobytes (Kb) de cache. Si se tiene 16 Mb son 256 Kb y si se tiene 32 Mb son 512 Kb.
Partes de la Tarjeta Madre.
Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como circuitos electrónicos para la gestión del video IGP (en inglés Integrated Graphic Processor), de sonido o de redes (10/100 Mbps/1 Gbps), evitando así la adición de tarjetas de expansión. Los buses. Los buses son espacios físicos que permiten el transporte de información y energía, entre dos puntos de la computadora. Los Buses Generales son los siguientes:
Bus de datos: Son las líneas de comunicación por donde circulan los datos externos e internos del microprocesador. Bus de dirección: Línea de comunicación por donde viaja la información específica sobre la localización de la dirección de memoria del dato o dispositivo al que se hace referencia. Bus de control: Línea de comunicación por donde se controla el intercambio de información con un módulo de la unidad central y los periféricos. Bus de expansión: Conjunto de líneas de comunicación encargada de llevar el bus de datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal. Bus del sistema: Todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos tipos de datos el microprocesador y la memoria principal
Hardware (Partes de la PC) (Información Recopilada) - Página 3 de 94
que también involucra a la memoria cache de nivel 2. La velocidad de transferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del mínimo. Placa multi-procesadores. Este tipo de placa base puede acoger a varios procesadores (generalmente de 2, 4, 8 o más). Estas placas base multiprocesadores tienen varios zócalos de micro-procesador (socket), lo que les permite conectar varios micro-procesadores físicamente distintos (a diferencia de los de procesador de doble núcleo). Cuando hay dos procesadores en una placa base, hay dos formas de manejarlos: El modo asimétrico, donde a cada procesador se le asigna una tarea diferente. Este método no acelera el tratamiento, pero puede asignar una tarea a una CPU, mientras que el otro lleva a cabo a una tarea diferente.
El modo simétrico, llamado PSM (en inglés Symmetric MultiProcessing), donde cada tarea se distribuye de forma simétrica entre los dos procesadores.
Tarjeta Madre de doble Procesador (Dual-Core).
Linux fue el primer sistema operativo en gestionar la arquitectura de doble procesador en x86. Sin embargo, la gestión de varios procesadores existía ya antes en otras plataformas y otros sistemas operativos. Linux 2.6.x maneja multiprocesadores simétricos, y las arquitecturas de memoria no uniformemente distribuida (NUMA). Algunos fabricantes de placas base fabrican placas base que puede acoger hasta 8 procesadores (en el caso de Socket 939 para procesadores AMD Opteron y sobre socket 604 para procesadores Intel Xeon). Tipos de placa base. La mayoría de las placas de PC vendidas después de 2001, se pueden clasificar en 2 grupos: Las placas base para procesadores AMD: o Slot A Duron, Athlon.
Hardware (Partes de la PC) (Información Recopilada) - Página 4 de 94
o o o o o o o o
Socket Socket Socket Socket Socket Socket Socket Socket
A Duron, Athlon, Athlon XP, Sempron. 754 Athlon 64, Mobile Athlon 64, Sempron, Turion. 939 Athlon 64, Athlon FX , Athlon X2, Sempron, Opteron. 940 Opteron y Athlon 64 FX. AM2 Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom. F Opteron. AM2 + Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom. AM3.
Las placas base para procesadores Intel : o Slot 1: Pentium 3, Celeron. o Socket 370: Pentium 3, Celeron. o Socket 423: Pentium 4, Celeron. o Socket 478: Pentium 4, Celeron. o Socket 775: Pentium 4, Celeron, Pentium D (doble núcleo), Core 2 Duo, Core 2 Quad. o Socket 603 Xeon. o Socket 604 Xeon. o Socket 771 Xeon. o LGA1366 Intel Core i7. Formatos. Las tarjetas madre necesitan tener dimensiones compatibles con los gabinetes que las contienen, de manera que desde los primeros computadores personales, se han establecido características mecánicas, llamadas factor de forma. Definen la distribución de diversos componentes y las dimensiones físicas como por ejemplo el largo y ancho de la tarjeta, la posición de agujeros de sujeción y las características de los conectores. Con los años, varias normas se fueron imponiendo:
XT: Es el formato de la placa base de la PC de IBM modelo 5160, lanzada en 1983 con las misma. En este factor de forma se definió un tamaño exactamente igual al de una hoja de papel tamaño carta y un único conector externo para el teclado. 1984 AT 305 × 305 mm (IBM). o Baby AT: 216 × 330 mm AT: Uno de los formatos más grandes de toda la historia del PC (305 × 279–330 mm), definió un conector de potencia formado por dos partes. Fue usado de manera extensa de 1985 a 1995. 1995 ATX 305 × 244 mm (Intel). o MicroATX: 244 × 244 mm. o FlexATX: 229 × 191 mm. o MiniATX: 284 × 208 mm. ATX: Creado por un grupo liderado por Intel en 1995 introdujo las conexiones exteriores en la forma de un panel I/O y definió un conector de 20 pines para la energía. Se usa en la actualidad en la forma de algunas variantes, que incluyen conectores de energía extra o reducciones en el tamaño. 2001 ITX 215 × 195 mm (VIA). o MiniITX: 170 × 170 mm. o NanoITX: 120 × 120 mm. Hardware (Partes de la PC) (Información Recopilada) - Página 5 de 94
PicoITX: 100 × 72 mm. 2005 BTX 325 × 267 mm (Intel). o Micro bTX: 264 × 267 mm. o PicoBTX: 203 × 267 mm. 2007 DTX 248 × 203 mm (AMD). o Mini-DTX: 170 × 203 mm. Formato propietario: Durante la existencia del PC, mucha marcas han intentado mantener un esquema cerrado de hardware, fabricando tarjetas madre incompatibles físicamente con los factores de forma con dimensiones, distribución de elementos o conectores que son atípicos. Entre las marcas más persistentes está Dell que rara vez fábrica equipos diseñados con factores de forma de la industria. o
Escalabilidad Hasta la mitad de la década de 1990, los PC fueron equipados con una placa en la que se soldó el microprocesador (CPU). Luego vinieron las placas base equipadas con soporte de microprocesador (socket) «libre», que permitía acoger el microprocesador de elección (de acuerdo a sus necesidades y presupuesto). Con este sistema (que pronto se hizo más generalizado y no ha sido discutido), es teóricamente posible equipar el PC con una CPU más potente, sin sustituir la placa base, pero a menor costo. De hecho, esta flexibilidad tiene sus límites porque los microprocesadores son cada vez más eficientes, e invariablemente requieren placas madre más eficaces (por ejemplo, capaces de manejar flujos de datos cada vez más importantes). Fabricantes. Varios fabricantes se reparten el mercado de placas base, tales como Abit, Albatron, Aopen, ASUS, ATI, Biostar , Chaintech,Dell, DFO, Elite, Epox, Foxconn, Gigabyte Technology, Intel, MSI, NVIDIA, QDI, Sapphire Technology, Soltek, Super Micro, Tyan, Via , XFX, Pc Chips. Algunos diseñan y fabrican uno o más componentes de la placa base, mientras que otros ensamblar los componentes que otros han diseñado y fabricado.
Hardware (Partes de la PC) (Información Recopilada) - Página 6 de 94
Vista Superior de la Tarjeta Madre.
Puertos de la Tarjeta Madre.
Tarjeta Madre P6X58 Premium, la primera tarjeta que cuenta con el soporte de USB 3.0 (que de acuerdo a varios fabricantes asiáticos estaría disponible antes del 2010). Cuenta con capacidades para procesadores Core i7, 6 ranuras de memoria DDR3, 3 slots para PCI-Express 2.0, 4 puertos USB 2.0, y una interfaz SATA 3.0 con capacidades para una velocidad de transferencia de 6Gbps, mientras que los 2 puertos USB 3.0 a una de hasta 4.8Gbps.
Hardware (Partes de la PC) (Información Recopilada) - Página 7 de 94
Hardware (Partes de la PC) (Informaci贸n Recopilada) - P谩gina 8 de 94
PROCESADOR (MICROPROCESADOR). El microprocesador o simplemente procesador, es el circuito integrado central y más complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar por analogía como el "cerebro" de una computadora. El procesador es un circuito integrado constituido por millones de componentes electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador. Desde el punto de vista funcional es, básicamente, el encargado de realizar toda operación aritmético-lógica, de control y de comunicación con el resto de los componentes integrados que conforman un PC, siguiendo el modelo base de Von Neumann. También es el principal encargado de ejecutar los programas, sean de usuario o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel, realizando operaciones elementales, básicamente, las aritméticas y lógicas, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria. Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control y una unidad aritmético lógica (ALU), aunque actualmente todo microprocesador también incluye una unidad de cálculo en coma flotante, (también conocida como "co-procesador matemático"), que permite operaciones por hardware con números decimales, elevando por ende notablemente la eficiencia que proporciona sólo la ALU con el cálculo indirecto a través de los clásicos números enteros. Aparece en computadoras de cuarta generación.
Procesador AMD Athlon 64 X2 conectado en el zócalo de una placa base.
El microprocesador está conectado, generalmente, mediante un zócalo específico a la placa base. Normalmente para su correcto y estable funcionamiento, se le adosa un sistema de refrigeración, que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que fuerzan la expulsión del calor absorbido por el disipador; entre éste último y la cápsula del microprocesador suele colocarse pasta térmica para mejorar la conductividad térmica. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier
Hardware (Partes de la PC) (Información Recopilada) - Página 9 de 94
para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking. La "velocidad" del microprocesador suele medirse por la cantidad de operaciones por ciclo de reloj que puede realizar y en los ciclos por segundo que este último desarrolla, o también en MIPS. Está basada en la denominada frecuencia de reloj (oscilador). La frecuencia de reloj se mide hercios, pero dada su elevada cifra se utilizan múltiplos, como el megahercio o el gigahercio. Cabe destacar que la frecuencia de reloj no es el único factor determinante en el rendimiento, pues sólo se podría hacer comparativa entre dos microprocesadores de una misma microarquitectura. Es importante notar que la frecuencia de reloj efectiva no es el producto de la frecuencia de cada núcleo físico del procesador por su número de núcleos, es decir, uno de 3 GHz con 6 núcleos físicos nunca tendrá 18 GHz, sino 3 GHz, independientemente de su número de núcleos. Hay otros factores muy influyentes en el rendimiento, como puede ser su memoria caché, su cantidad de núcleos, sean físicos o lógicos, el conjunto de instrucciones que soporta, su arquitectura, etc.; por lo que sería difícilmente comparable el rendimiento de dos procesadores distintos basándose sólo en su frecuencia de reloj. Un computador de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. Estos últimos años ha existido una tendencia de integrar el mayor número de elementos de la PC dentro del propio procesador, aumentando así su eficiencia energética y su rendimiento. Una de las primeras integraciones, fue introducir la unidad de coma flotante dentro del encapsulado, que anteriormente era un componente aparte y opcional situado también en la placa base, luego se introdujo también el controlador de memoria, y más tarde un procesador gráfico dentro de la misma cámara, aunque no dentro del mismo encapsulado. Posteriormente se llegaron a integrar completamente en el mismo encapsulado. Respecto a esto último, compañías tales como Intel ya planean integrar el puente sur dentro del microprocesador, eliminando completamente ambos circuitos auxiliares de la placa. También la tendencia general, más allá del mercado del PC, es integrar varios componentes en un mismo chip para dispositivos tales como Tablet PC, teléfonos móviles, videoconsolas portátiles, etc. A estos circuitos integrados "todo en uno" se los conoce como system on a chip; por ejemplo NVidia Tegra o Samsung Hummingbird, ambos integran microprocesador,
Hardware (Partes de la PC) (Información Recopilada) - Página 10 de 94
unidad de procesamiento gráfico y controlador de memoria dentro de un mismo circuito integrado. Historia de los microprocesadores. La evolución del microprocesador. El microprocesador es producto de la evolución de distintas tecnologías predecesoras, surgido de la computación y la tecnología semiconductora; en los inicios no existían los procesadores tal como los conocemos hoy. El inicio de su desarrollo data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años 70, produciendo el primer microprocesador. Tales tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras específicas para aplicaciones militares. En la posguerra, a mediados de la década de 1940, la computación digital emprendió un fuerte desarrollo también para propósitos científicos y civiles. La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de componentes de estado sólido. En 1948 en los laboratorios Bell crearon el transistor. En los años 1950, aparecieron las primeras computadoras digitales de propósito general. Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos activos. Tarjetas o módulos de tubos al vacío componían circuitos lógicos básicos, tales como compuertas y flip-flops. Ensamblando compuertas y flip-flops en módulos se construyó la computadora electrónica (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras. Para la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción de una computadora digital precisa numerosos circuitos o dispositivos electrónicos. Un paso trascendental en el diseño de la computadora fue hacer que el dato fuera almacenado en memoria, como una forma de palabra digital. La idea de almacenar programas en memoria para luego ejecutarlo fue de fundamental importancia (Arquitectura de von Neumann). La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio, de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital tuvo un gran avance el reemplazo del tubo al vacío por el transistor, a finales de la década de 1950. A principios de la década de 1960, el estado de arte en la construcción de computadoras de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor). A mediados de los años 1960 se producen las familias de circuitos de lógica digital, dispositivos en escala SSI y MSI que corresponden a baja y mediana escala de integración de Hardware (Partes de la PC) (Información Recopilada) - Página 11 de 94
componentes. A finales de los años 1960 y principios de los 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible incrementar la cantidad de componentes en los circuitos integrados. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria eran un buen ejemplo. Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando uno que fue llamado microprocesador, unión de las palabras "Micro" del griego μικρο-, "pequeño", y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micrométrica a nanométrica; y además, es, sin duda, un procesador. El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultó revolucionario para su época. Contenía 2.300 transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo, trabajando a una frecuencia de reloj de alrededor de 700KHz. El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados de 1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300 transistores y podía procesar a frecuencias máximas de 800Khz. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo trabajando a alrededor de 2MHz. Los primeros microprocesadores de 16 bits fueron el 8086 y el 8088, ambos de Intel. Fueron el inicio y los primeros miembros de la popular arquitectura x86, actualmente usada en la mayoría de los computadores. El chip 8086 fue introducido al mercado en el verano de 1978, en tanto que el 8088 fue lanzado en 1979. Llegaron a operar a frecuencias mayores de 4Mhz. El microprocesador elegido para equipar al IBM Personal Computer/AT, que causó que fuera el más empleado en los PC-AT compatibles entre mediados y finales de los años 80 fue el Intel 80286 (también conocido simplemente como 286); es un microprocesador de 16 bits, de la familia x86, que fue lanzado al mercado en 1982. Contaba con 134.000 transistores. Las versiones finales alcanzaron velocidades de hasta 25 MHz. Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de Intel, fabricado a mediados y fines de la década de 1980; en sus diferentes versiones llegó a trabajar a frecuencias del orden de los 40Mhz. El microprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium surgió en 1993 con una frecuencia de trabajo de 66Mhz. El procesador Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito, declarándose como el más rápido del mundo, en su época. Llegó a 1Ghz de frecuencia hacia el año 2001. Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de circulación, el Alpha aun encabezaba la lista de los microprocesadores más rápidos de Estados Unidos. Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de transistores,
Hardware (Partes de la PC) (Información Recopilada) - Página 12 de 94
como es en el caso de las serie Core i7, y pueden operar a frecuencias normales algo superiores a los 3GHz (3000MHz). Breve historia. Seguidamente se expone una lista ordenada cronológicamente de los microprocesadores más populares que fueron surgiendo. 1971: El Intel 4004. El 4004 fue el primer microprocesador del mundo, creado en un simple chip, y desarrollado por Intel. Era un CPU de 4 bits y también fue el primero disponible comercialmente. Este desarrollo impulsó la calculadora de Busicom y dio camino a la manera para dotar de "inteligencia" a objetos inanimados, así como la computadora personal.
El pionero de los actuales microprocesadores: el 4004 de Intel.
1972: El Intel 8008. Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con las expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes. 1974: El SC/MP. El SC/MP desarrollado por National Semiconductor, fue uno de los primeros microprocesadores, y estuvo disponible desde principio de 1974. El nombre SC/MP (popularmente conocido como "Scamp") es el acrónimo de Simple Cost-effective Micro Processor (Microprocesador simple y rentable). Presenta un bus de direcciones de 16 bits y un bus de datos de 8 bits. Una característica, avanzada para su tiempo, es la capacidad de liberar los buses a fin de que puedan ser compartidos por varios procesadores. Este microprocesador fue muy utilizado, por su bajo costo, y provisto en kits, para propósitos educativos, de investigación y para el desarrollo de controladores industriales diversos. 1974: El Intel 8080. EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que ejecutaban el sistema operativo [[CP/M]|CP/M-80]. Los fanáticos de las computadoras
Hardware (Partes de la PC) (Información Recopilada) - Página 13 de 94
podían comprar un equipo Altair por un precio (en aquel momento) de u$s395. En un periodo de pocos meses, se vendieron decenas de miles de estas PC. 1975: Motorola 6800. Se fabrica, por parte de Motorola, el Motorola MC6800, más conocido como 6800. Fue lanzado al mercado poco después del Intel 8080. Su nombre proviene de que contenía aproximadamente 6800 transistores. Varios de los primeras microcomputadoras de los años 1970 usaron el 6800 como procesador. Entre ellas se encuentran la SWTPC 6800, que fue la primera en usarlo, y la muy conocida Altair 680. Este microprocesador se utilizó profusamente como parte de un kit para el desarrollo de sistemas controladores en la industria. Partiendo del 6800 se crearon varios procesadores derivados, siendo uno de los más potentes el Motorola 6809
Motorola 6800.
1976: El Z80. La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits construido en tecnología NMOS, y fue basado en el Intel 8080. Básicamente es una ampliación de éste, con lo que admite todas sus instrucciones. Un año después sale al mercado el primer computador que hace uso del Z80, el Tandy TRS-80 Model 1 provisto de un Z80 a 1,77 MHz y 4 KB de RAM. Es uno de los procesadores de más éxito del mercado, del cual se han producido numerosas versiones clónicas, y sigue siendo usado de forma extensiva en la actualidad en multitud de sistemas embebidos. La compañía Zilog fue fundada 1974 por Federico Faggin, quien fue diseñador jefe del microprocesador Intel 4004 y posteriormente del Intel 8080.
Zilog Z80 A.
1978: Los Intel 8086 y 8088. Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que las PC de IBM dieran un gran golpe comercial con el nuevo producto con el 8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a la lista de las 500 mejores compañías, en la prestigiosa revista Fortune, y la misma nombró la empresa como uno de Los triunfos comerciales de los sesenta. 1982: El Intel 80286. El 80286, popularmente conocido como 286, fue el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de microprocesadores de Intel. Luego de 6 años de su
Hardware (Partes de la PC) (Información Recopilada) - Página 14 de 94
introducción, había un estimado de 15 millones de PC basadas en el 286, instaladas alrededor del mundo.
Intel 80286, más conocido como 286.
1985: El Intel 80386. Este procesador Intel, popularmente llamado 386, se integró con 275000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, con capacidad para multitarea y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que usaran memoria virtual. 1985: El VAX 78032. El microprocesador VAX 78032 (también conocido como DC333), es de único chip y de 32 bits, y fue desarrollado y fabricado por Digital Equipment Corporation (DEC); instalado en los equipos MicroVAX II, en conjunto con su ship coprocesador de coma flotante separado, el 78132, tenían una potencia cercana al 90% de la que podía entregar el minicomputador VAX 11/780 que fuera presentado en 1977. Este microprocesador contenía 125000 transistores, fue fabricado en tecnología ZMOS de DEC. Los sistemas VAX y los basados en este procesador fueron los preferidos por la comunidad científica y de ingeniería durante la década del 1980. 1989: El Intel 80486. La generación 486 realmente significó contar con una computadora personal de prestaciones avanzadas, entre ellas, un conjunto de instrucciones optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria caché unificada, todo ello integrado en el propio chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 - i387 operando a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las operaciones de cálculo. Usando una unidad FPU las operaciones matemáticas más complejas son realizadas por el coprocesador de manera prácticamente independiente a la función del procesador principal.
Intel 80486, conocido también como 486SX de 33Mhz. 1991: El AMD AMx86. Procesadores fabricados por AMD 100% compatible con los códigos de Intel de ese momento, llamados "clones" de Intel, llegaron incluso a superar la frecuencia de reloj de los Hardware (Partes de la PC) (Información Recopilada) - Página 15 de 94
procesadores de Intel y a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586. 1993: PowerPC 601. Es un procesador de tecnología RISC de 32 bits, en 50 y 66MHz. En su diseño utilizaron la interfaz de bus del Motorola 88110. En 1991, IBM busca una alianza con Apple y Motorola para impulsar la creación de este microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo fue quitar el dominio que Microsoft e Intel tenían en sistemas basados en los 80386 y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la familia de procesadores de arquitectura de tipo RISC, que fue desarrollada por la alinza AIM. Los procesadores de esta familia son utilizados principalmente en computadores Macintosh de Apple Computer y su alto rendimiento se debe fuertemente a su arquitectura tipo RISC.
IBM PowerPC 601.
1993: El Intel Pentium. El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez, gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, estaba dotado de un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas, y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no sólo brindaban al usuario un más eficiente manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que también se ofrecían en velocidades de hasta 233 MHz. Se incluyó una versión de 200 MHz y la más básica trabajaba a alrededor de 166 MHz de frecuencia de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción. 1994: EL PowerPC 620. En este año IBM y Motorola desarrollan el primer prototipo del procesador PowerPC de 64 bit, la implementación más avanzada de la arquitectura PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado para su utilización en servidores, y especialmente optimizado para usarlo en configuraciones de cuatro y hasta ocho procesadores en servidores de aplicaciones de base de datos y vídeo. Este procesador incorpora siete millones de transistores y corre a 133 MHz. Es ofrecido como un puente de migración para aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin tener que renunciar a ejecutar aplicaciones de 32 bits.
Hardware (Partes de la PC) (Información Recopilada) - Página 16 de 94
1995: EL Intel Pentium Pro. Lanzado al mercado para el otoño de 1995, el procesador Pentium Pro (profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores y los programas y aplicaciones para estaciones de trabajo (de redes) impulsaron rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo era más lento que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. El procesador Pentium Pro estaba compuesto por alrededor de 5,5 millones de transistores.
Parte posterior de un Pentium Pro. Este chip en particular es de 200 MHz, con 256 KiB de cache L2.
1996: El AMD K5. Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora, transforma todos los comandos x86 (de la aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando con poco éxito, se retrasó 1 año de su salida al mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de la competencia, y por tanto, los fabricantes de PC dieron por sentado que era inferior. 1996: Los AMD K6 y AMD K6-2. Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador casi a la altura del Pentium II pero por un precio muy inferior. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los más de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándares. Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para seguir compitiendo con los Pentium II, siendo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introduce un juego de instrucciones SIMD denominado 3DNow!
Hardware (Partes de la PC) (Información Recopilada) - Página 17 de 94
AMD K6 original.
1997: El Intel Pentium II. Un procesador de 7,5 millones de transistores, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, revisar y compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica; el enviar vídeo a través de las líneas normales del teléfono mediante Internet se convierte en algo cotidiano.
Intel Pentium II; se puede observar su estilo de zócalo diferente.
1998: El Intel Pentium II Xeon. Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo y servidores que utilizan aplicaciones comerciales exigentes, como servicios de Internet, almacenamiento de datos corporativos, creaciones digitales y otros. Pueden configurarse sistemas basados en este procesador para integrar de cuatro o ocho procesadores trabajando en paralelo, también más allá de esa cantidad. 1999: El Intel Celeron. Continuando la estrategia, Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Celeron es el nombre que lleva la línea de de bajo costo de Intel. El objetivo fue poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un
Hardware (Partes de la PC) (Información Recopilada) - Página 18 de 94
bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.
Intel Celeron "Coppermine 128" de 600 MHz.
1999: El AMD Athlon K7 (Classic y Thunderbird). Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, pero se le mejoró substancialmente el sistema de coma flotante (ahora con 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le incrementó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento. El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática. 1999: El Intel Pentium III. El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las extensiones de SIMD que refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (con muchos gráficos), tiendas virtuales y transmitir archivos video de alta calidad. El procesador se integra con 9,5 millones de transistores, y se introdujo usando en él tecnología 250 nanómetros.
Intel Pentium III.
Hardware (Partes de la PC) (Información Recopilada) - Página 19 de 94
1999: El Intel Pentium III Xeon. El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidores, y añade una actuación mejorada en las aplicaciones del comercio electrónico e informática comercial avanzada. Los procesadores incorporan mejoras que refuerzan el procesamiento multimedia, particularmente las aplicaciones de vídeo. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando el desempeño significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador. 2000: EL Intel Pentium 4. Este es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. 2001: El AMD Athlon XP. Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird se puede mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32. 2004: El Intel Pentium 4 (Prescott). A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1 (el doble que los Northwood), prevención de ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64. 2004: El AMD Athlon 64. El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y que el Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, baja la velocidad del mismo y su tensión se reduce.
Hardware (Partes de la PC) (Información Recopilada) - Página 20 de 94
2006: EL Intel Core Duo. Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU Pentium 4/D2. La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPU Core 2, mientras se incrementa la capacidad de procesamiento. Los CPU de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros. 2007: El AMD Phenom. Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPU Phenom poseen características tales como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depende tanto del tiempo de latencia de la RAM), además de compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo. 2008: El Intel Core Nehalem. Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x8664. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.
Hardware (Partes de la PC) (Información Recopilada) - Página 21 de 94
2008: Los AMD Phenom II y Athlon II. Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB. Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el procesador binúcleo del mercado. También se lanzan tres Athlon II con sólo Cache L2, pero con buena relación precio/rendimiento. El Amd Athlon II X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635 continua la misma línea. AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que corre a más de 3,2GHz. También AMD lanza la familia Thurban con 6 núcleos físicos dentro del encapsulado. 2011: El Intel Core Sandy Bridge. Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G. Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits, duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se relacione con operación en multimedia. Llegaron la primera semana de Enero del 2011. Incluye nuevo conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12 unidades de ejecución Ivy Bridge es la mejora de sandy bridge a 22 nm. Se estima su llegada para 2012 y promete una mejora de la GPU, así como procesadores de sexdécuple núcleo en gamas más altas y cuádruple núcleo en las más bajas, abandonándose los procesadores de núcleo doble. 2011: El AMD Fusion. AMD Fusion es el nombre clave para un diseño futuro de microprocesadores Turion, producto de la fusión entre AMD y ATI, combinando con la ejecución general del procesador, el proceso de la geometría 3D y otras funciones de GPUs actuales. La GPU (procesador gráfico) estará integrada en el propio microprocesador. Se espera la salida progresiva de esta tecnología a lo largo del 2011; estando disponibles los primeros modelos (Ontaro y Zacate) para ordenadores de bajo consumo entre últimos meses de 2010 y primeros de 2011, dejando el legado de las gamas medias y altas (Llano, Brazos y Bulldozer para mediados o finales del 2011). Funcionamiento. Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una unidad de control, una unidad aritmético-lógica, y dependiendo del procesador, puede contener una unidad en coma flotante. El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases: Hardware (Partes de la PC) (Información Recopilada) - Página 22 de 94
a) PreFetch, pre lectura de la instrucción desde la memoria principal. b) Fetch, envío de la instrucción al decodificador c) Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer. d) Lectura de operandos (si los hay). e) Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el procesamiento. f) Escritura de los resultados en la memoria principal o en los registros. Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de MHz. Un microprocesador es un sistema abierto con el que puede construirse un computador con las características que se desee acoplándole los módulos necesarios. Rendimiento. El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como "mito de los megahertzios" se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su potencia de cómputo. Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún. Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chips de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas. Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes estructuras internas atendiendo a gamas y extras como podría ser una memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de las bajas que simplemente de su memoria caché. Después de obtener los lotes según su gama, se someten a procesos en un banco de pruebas, y según su soporte a las temperaturas o que vaya mostrando signos de inestabilidad, se le adjudica una frecuencia, con la que vendrá programado de serie, pero con prácticas de overclock se le puede incrementar Hardware (Partes de la PC) (Información Recopilada) - Página 23 de 94
La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por medio de indicadores como la cantidad de operaciones de coma flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación. Arquitectura. El microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un programa de control. Consiguientemente, la historia de la computadora digital ayuda a entender el microprocesador. El hizo posible la fabricación de potentes calculadoras y de muchos otros productos. El microprocesador utiliza el mismo tipo de lógica que es usado en la unidad procesadora central (CPU) de una computadora digital. El microprocesador es algunas veces llamado unidad microprocesadora (MPU). En otras palabras, el microprocesador es una unidad procesadora de datos. En un microprocesador se puede diferenciar diversas partes:
Encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los conectores externos que lo acoplaran a su zócalo a su placa base.
Memoria cache: es una memoria ultrarrápida que emplea el micro para tener a alcance directo a ciertos datos que "predeciblemente" serán utilizados en las siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así el tiempo de espera para adquisición de datos. Todos los micros compatibles con PC poseen la llamada cache interna de primer nivel o L1; es decir, la que está dentro del micro, encapsulada junto a él. Los micros más modernos (Pentium III Coppermine, Athlon Thunderbird, etc.) incluyen también en su interior otro nivel de caché, más grande, aunque algo menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria caché de nivel 3, o L3.
Coprocesador matemático: unidad de coma flotante. Es la parte del micro especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del procesador en otro chip. Esta parte está considerada como una parte "lógica" junto con los registros, la unidad de control, memoria y bus de datos.
Registros: son básicamente un tipo de memoria pequeña con fines especiales que el micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada procesador. Un grupo de registros esta diseñado para control del programador y hay otros que no son diseñados para ser controlados por el procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y dos registros.
Memoria: es el lugar donde el procesador encuentra las instrucciones de los programas y sus datos. Tanto los datos como las instrucciones están almacenados en Hardware (Partes de la PC) (Información Recopilada) - Página 24 de 94
memoria, y el procesador las accede desde allí. La memoria es una parte interna de la computadora y su función esencial es proporcionar un espacio de almacenamiento para el trabajo en curso.
Puertos: es la manera en que el procesador se comunica con el mundo externo. Un puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la computadora con la cual el procesador necesita comunicarse, tiene asignado un "número de puerto" que el procesador utiliza como si fuera un número de teléfono para llamar circuitos o a partes especiales.
Empaquetado. Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas.
Empaquetado de un procesador Intel 80486 en un empaque de cerámica.
En los primeros procesadores el empaque se fabricaba con plásticos epoxicos o con cerámicas en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados.
Empaquetado de un procesador PowerPC con Flip-Chip, se ve el chip de silicio.
En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la ayuda de unas microesferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El sustrato laminado es una especie de circuito impreso que posee pistas
Hardware (Partes de la PC) (Información Recopilada) - Página 25 de 94
conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un zócalo de CPU o una placa base. Antiguamente la conexión del chip con los pines se realizaba por medio de microalambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor. Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores de Intel también se incluye desde el Pentium III de más de 1 Ghz. Disipación de calor. Con el aumento de la cantidad de transistores integrados en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación calórica natural del mismo no es suficiente para mantener temperaturas aceptables y que no se dañe el material semiconductor, de manera que se hizo necesario el uso de mecanismos de enfriamiento forzado, esto es, la utilización de disipadores de calor. Entre ellos se encuentran los sistemas sencillos, tales como disipadores metálicos, que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados. En los procesadores más modernos se aplica en la parte superior del procesador, una lámina metálica denominada IHS que va a ser la superficie de contacto del disipador para mejorar la refrigeración uniforme del die y proteger las resistencias internas de posibles tomas de contacto al aplicar pasta térmica. Varios modelos de procesadores, en especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta aplicación de la pasta térmica. Para las prácticas de overclock extremo, se llegan a utilizar elementos químicos tales como hielo seco, y en casos más extremos, nitrógeno líquido, capaces de rondar temperaturas por debajo de los -190 grados Celsius y el helio líquido capaz de rondar temperaturas muy próximas al cero absoluto. De esta manera se puede prácticamente hasta triplicar la frecuencia de reloj de referencia de un procesador de silicio. El límite físico del silicio es de 10 GHz, mientras que el de otros materiales como el grafeno puede llegar a 1 THz. Conexión con el exterior. El microprocesador posee un arreglo de elementos metálicos que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 2000 elementos metálicos en la superficie de su empaque. El montaje del procesador se realiza con la ayuda de un zócalo de CPU soldado sobre la placa base. Generalmente distinguimos tres tipos de conexión:
PGA: Pin Grid Array: La conexión se realiza mediante pequeños alambres metálicos repartidos a lo largo de la base del procesador introduciéndose en la placa base Hardware (Partes de la PC) (Información Recopilada) - Página 26 de 94
mediante unos pequeños agujeros, al introducir el procesador, una palanca anclará los pines para que haga buen contacto y no se suelten.
BGA: Ball Grid Array: La conexión se realiza mediante bolas soldadas al procesador que hacen contacto con el zócalo
LGA: Land Grid Array: La conexión se realiza mediante superficies de contacto lisas con pequeños pines que incluye la placa base.
Superficies de contacto en un procesador Intel para zócalo LGA 775.
Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al zócalo, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones. Buses del procesador. Todos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bits por segundo. Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control. En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama front-side bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 Mhz haciendo 4 transferencias por ciclo. En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport de AMD, que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas y en el caso de Intel, Quickpath
Hardware (Partes de la PC) (Información Recopilada) - Página 27 de 94
Los microprocesadores de Intel y de AMD (desde antes) poseen además un controlador de memoria de acceso aleatorio en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus está de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 4 buses de memoria. Características de compra. Microprocesador AMD Sempron 140 2.7Ghz s.AM3 Box Microprocesador AMD Sempron 140 ideal para el entretenimiento en Alta Definición e Internet. Cuenta con las Tecnologías AMD HyperTransport, AMD64. Posee 1Mb de Cache L2 y está fabricado en tecnología de 45 nm. Versión Box, incluye Cooler Original. Marca: AMD Modelo: Sempron 140 Velocidad: 2.7 GHz Cantidad de Nucleos: 1 Socket: AM3 Bus: 4000 Mhz Cache L1: 128Kb Cache L2: 1Mb Modo de Operación: 32Bits, 64Bits Proceso Fabricación: 45nm Consumo: 45W Tecnologías: HyperTransport, AMD64 Versión Box, Incluye Cooler Original.
Microprocesador AMD Phenom II X6 Six-Core 1055T 2.8 Ghz Thuban s.AM3 Box Microprocesador AMD Phenom II X6 Six-Core 1055T ideal para el entretenimiento en Alta Definición, Juegos e Internet. Cuenta con las Tecnologías AMD HyperTransport 3.0, AMD Cool'n'Quiet 2.0. Cuenta con 6Mb de Cache L3 y está fabricado en tecnología de 45 nm. Versión Box, incluye Cooler Original. Marca: AMD Modelo: Phenom II X6 Six-Core 1055T Thuban Velocidad: 2.8 GHz Cantidad de Nucleos: 6 Socket: AM3 Bus: 4000 Mhz Cache L1: 6x128Kb Cache L2: 6x512Kb Cache L3: 6144Kb Compartido Modo de Operación: 32Bits, 64Bits Proceso Fabricación: 45nm Consumo: 125W Voltaje: 1.125 - 1.40V Tecnologías: HyperTransport 3.0, AMD Cool'n'Quiet Hardware (Partes de la PC) (Información Recopilada) - Página 28 de 94
2.0, AMD-V (Virtualización) Versión Box, Incluye Cooler Original.
Requiere tarjeta madre con soporte para procesadores de 125 w.
Microprocesador AMD Phenom II X6 Six-Core 1090T 3.2 Ghz Black Edition s.AM3 Box Microprocesador AMD Phenom II X6 Six-Core 1090T ideal para el entretenimiento en Alta Definición, Juegos e Internet. Cuenta con las Tecnologías AMD HyperTransport 3.0, AMD Cool'n'Quiet 2.0. Cuenta con 6Mb de Cache L3 y está fabricado en tecnología de 45 nm. Versión Box, incluye Cooler Original. Marca: AMD Modelo: Phenom II X6 Six-Core 1090T Black Edition Velocidad: 3.2 GHz Cantidad de Nucleos: 6 Socket: AM3 Bus: 4000 MT/s Cache L1: 6x128Kb Cache L2: 6x512Kb Cache L3: 6144Kb Compartido Modo de Operación: 32Bits, 64Bits Proceso Fabricación: 45nm Consumo: 125W Voltaje: 1.125 - 1.40V Tecnologías: HyperTransport 3.0, AMD Cool'n'Quiet 2.0, AMD-V (Virtualización) Requiere tarjeta madre con soporte para Versión Box, Incluye Cooler Original. procesadores de 125 w.
Microprocesador Intel Celeron Dual Core E3400 2,6Ghz 1Mb Cache s.775 BOX Microprocesador Intel Celeron Dual Core E3400 2,60GHz ideal para Internet, aplicaciones de oficina y tareas escolares. Posee una arquitectura doble núcleo y un bus de sistema de 800MHz. Cuenta con las tecnologías Intel Virtualization, Intel 64, Execute Disable Bit e Intel SpeedStep. Marca: Intel Modelo: Celeron Dual Core E3400 Cantidad de Núcleos: 2 Velocidad: 2,60GHz Numero de Modelo: E3400 Socket: 775 Proceso de Fabricación: 45nm Bus del sistema: 800MHz Cache: 1Mb L2 (Nivel 2) Tecnologías: Intel Virtulization / Intel 64 / Execute Disable Bit / Intel SpeedStep / Intel Thermal Monitor 2
Hardware (Partes de la PC) (Información Recopilada) - Página 29 de 94
Microprocesador Intel Core i3 540 3,06Ghz 4Mb Cache s.1156 BOX Microprocesador Intel Core i3 540 3,06GHz, ideal para difrutar de contenidos multimedia en Alta Definición y video juegos de última generación. Cuenta con innovador controlador de Video integrado al procesador ofreciendo una fluida reproducción de medios en HD y capacidades 3D de avanzada. Posee tecnologia Intel Hyper-Threading permitienedo que cada nucleo realice 2 subprocesos simultaneos maximizando la velocidad en tareas multiples. Capacitado con la Tecnología Intel 64 permite ejecutar aplicaciones tanto en 32bits como en 64bits. Su proceso de Fabricación es de 32nm logrando un excelente ahorro de energia, menor ruido y generando menos calor. Marca: Intel Modelo: Core i3 540 3,06Ghz Socket: LGA1156 Cantidad de Núcleos: 2 / 4 Subprocesos utilizando tecnología Hyper-Threading Numero de Modelo: 540 Velocidad: 3,06 GHz Cache Intel Inteligente: 4Mb L3 Controlador de Video Integrado: Intel HD Graphics, Soporte DirectX 10, Open GL 2.1, Decodificador Blu-Ray Intel Express Chipset: Intel 5 Series Soporte de memoria: DDR3 1066/1333Mhz, 2 Canales, Controlador de Memoria Integrado Tecnologías: Intel 64, Intel Virtulization, Intel HyperThreading, Cache Inteligente Arquitectura: 32nm Cabe mencionar que no es adquirir cualquier microprocesador nada más por comprarlo, se debe tomar en cuenta la tarjeta madre, así como otros requerimientos para un buen funcionamiento. ZOCALO DEL CPU (SOCKET DEL CPU). El zócalo (socket en inglés) es un sistema electromecánico de soporte y conexión eléctrica, instalado en la placa base, que se usa para fijar y conectar un microprocesador. Se utiliza en equipos de arquitectura abierta, donde se busca que haya variedad de componentes permitiendo el cambio de la tarjeta o el integrado. En los equipos de arquitectura propietaria, los integrados se sueldan sobre la placa base, como sucede en las videoconsolas. Existen variantes desde 40 conexiones para integrados pequeños, hasta más de 1300 para microprocesadores, los mecanismos de retención del integrado y de conexión dependen de cada tipo de zócalo, aunque en la actualidad predomina el uso de zócalo ZIF (pines) o LGA (contactos).
Hardware (Partes de la PC) (Información Recopilada) - Página 30 de 94
Fotografía ilustrativa de un zócalo LGA1366 para microprocesadores Intel.
Historia. Los primeros procesadores desde el Intel 4004, hasta los de principios de los años 80, se caracterizaron por usar empaque DIP que era un estándar para los circuitos integrados sin importar si eran analógicos o digitales. Para estos empaques de pocos pines (hasta 44) y de configuración sencilla, se usaron bases de plástico con receptores eléctricos, que se usan todavía para otros integrados.
Antiguo Socket |PGA para un procesador Intel 80386.
Debido al aumento en el número de pines, se empezó a utilizar empaques PLCC como en el caso del Intel 80186. Este empaque puede ser instalado directamente sobre la placa base (soldándolo) o con un socket PLCC permitiendo el cambio del microprocesador. Actualmente es usado por algunas placas base para los integrados de memoria ROM. En ese zócalo, el integrado se extrae haciendo palanca con un destornillador de punta plana. En algunos Intel 80386 se usó el empaque PGA en el cual una superficie del procesador tiene un arreglo de pines, y que requiere un zócalo con agujeros sobre su superficie, que retiene el integrado por presión. En la versión para el procesador Intel 80486 SX se implementó el llamado Socket 1 que tenía 169 pines. Según estudios de Intel, la presión requerida para instalar o extraer el integrado es de 100 libras, lo que condujo a la invención de zócalos de baja presión LIF y por último al zócalo de presión nula ZIF. Funcionamiento. El zócalo va soldado sobre la placa base de manera que tiene conexión eléctrica con los circuitos del circuito impreso. El procesador se monta de acuerdo a unos puntos de guía (borde de plástico, indicadores gráficos, pines o agujeros faltantes) de manera que cada pin o contacto quede alineado con el respectivo punto del zócalo. Alrededor del área del zócalo, se definen espacios libres, se instalan elementos de sujeción y agujeros, que
Hardware (Partes de la PC) (Información Recopilada) - Página 31 de 94
permiten la instalación de dispositivos de disipación de calor, de manera que el procesador quede entre el zócalo y esos disipadores. En los últimos años el número de pines ha aumentado de manera substancial debido al aumento en el consumo de energía y a la reducción de voltaje de operación. En los últimos 15 años, los procesadores han pasado de voltajes de 5 V a algo más de 1 V y de potencias de 20 vatios, a un promedio de 80 vatios. Para trasmitir la misma potencia a un voltaje menor, deben llegar más amperios al procesador lo que requiere conductores más anchos o su equivalente: mas pines dedicados a la alimentación. No es extraño encontrar procesadores que requieren de 80 a 120 amperios de corriente para funcionar cuando están a plena carga, lo que resulta en cientos de pines dedicados a la alimentación. En un procesador Socket 775, aproximadamente la mitad de contactos son para la corriente de alimentación.
Adaptador de Socket 423 a 478.
La distribución de funciones de los pines, hace parte de las especificaciones de un zócalo y por lo general cuando hay un cambio substancial en las funciones de los puertos de entrada de un procesador (cambio en los buses o alimentación entre otros), se prefiere la formulación de un nuevo estándar de zócalo, de manera que se evita la instalación de procesadores con tarjetas incompatibles. En algunos casos a pesar de las diferencias entre unos zócalos y otros, por lo general existe retrocompatibilidad (las placas bases aceptan procesadores más antiguos). En algunos casos, si bien no existe compatibilidad mecánica y puede que tampoco de voltajes de alimentación, sí en las demás señales. En el mercado se encuentran adaptadores que permiten montar procesadores en placas con zócalos diferentes, de manera que se monta el procesador sobre el adaptador y éste a su vez sobre el zócalo. Algunos ejemplos de socket. Según la marca, se pueden encontrar diversos tipos de sockets, como son: 1) AMD. o Socket o Socket o Socket o Socket o Socket o Socket
462 F 939 940 AM2 AM2+
Hardware (Partes de la PC) (Información Recopilada) - Página 32 de 94
o Socket AM3 2) Intel. o Socket o Socket o Socket o Socket o Socket o Socket o Socket
423 370 478 775 1155 1156 1366
Existen muchos tipos de zócalos, usados por diferentes CPU. He aquí un listado por orden de antigüedad: PAC611 Intel Itanium. PAC418 Intel Itanium. Socket T (Land Grid Array-775) Intel Pentium 4 & Celeron. Socket 1366 Intel Core i7, Intel Core i9. Socket 1156 Intel Core i5, Intel Core i7. Socket 604 Xeon. Socket 480 Intel Pentium M (Double core). Socket 479 Intel Pentium M (Single core). Socket 775 Intel Pentium 4, Pentium D, Core, Core 2 & Celeron. Socket 478 Intel Pentium 4 & Celeron. Socket 423 Intel Pentium 4 Willamette. Socket 370 Intel Celeron & Pentium III hasta 1.400MHz. Socket AM2 Zócalo de 940 pines, pero incompatible con los primeros Opteron y Athlon64 FX. Socket F AMD Opteron. Socket S1 AMD Turion 64. Socket 939 AMD Athlon 64 / AMD Athlon 64 FX a 1GHz / Sempron. Socket 940 AMD Opteron. Socket 754 AMD Athlon 64 / Sempron / Turion 64. Socket A Últimos AMD Athlon, Athlon XP, Duron y primeros Sempron. Socket 563 Low-power Mobile Athlon XP-M (µ-PGA Socket, Mobile parts ONLY). Slot 1 Intel Pentium II & early Pentium III. Slot A Primeros AMD Athlon y Alpha 21264. Socket 8 Intel Pentium Pro. Super Socket 7 AMD K6-2 & AMD K6-III. Socket 7 Intel Pentium & compatibles de Cyrix, AMD. Socket 6 Intel 486. Socket 5 Intel Pentium 75-133MHz y compatibles Socket 4 Intel Pentium 60/66MHz. Socket 3 Intel 486 (3.3v and 5v) y compatibles. Socket 2 Intel 486. Socket 1 Intel 486. 486 Socket Intel 486.
Hardware (Partes de la PC) (Información Recopilada) - Página 33 de 94
Ejemplos de zócalos (Sockets AMD e Intel). Se presentan algunos zócalos de la marcas AMD e Intel, utilizados en las tarjetas madres. A. Socket AM2 (Marca AMD). El Socket AM2, denominado anteriormente como Socket M2, es un zócalo de CPU diseñado para procesadores AMD en equipos de escritorio. Su lanzamiento se realizó en el segundo trimestre de 2006, como sustituto del Socket 939. Tiene 940 pins y soporta memoria DDR2; sin embargo no es compatible con los primeros procesadores de 940 pins (como, por ejemplo, los procesadores Opteron Sledgehammer).
Los primeros procesadores para el zócalo AM2 fueron los nuevos Opteron serie 100. El zócalo está también diseñado para los siguientes núcleos: Windsor (AMD Athlon 64 X2 4200+ - 5000+, AMD Athlon 64 FX-62), Orleans (AMD Athlon 64 3500+ - 4000+) y Manila (AMD Sempron 3000+ - 3600+) - todos construidos con tecnología de 90 nm. Su rendimiento es similar al del zócalo 939, en comparación con los núcleos Venice. Socket AM2 es parte de la próxima generación de zócalos, junto con Socket F (servidores) y Socket S1 (portátiles). B. Socket AM2+ (Marca AMD). El Socket AM2+, es un zócalo de CPU diseñado para microprocesadores AMD en equipos de escritorio. Su lanzamiento, el tercer trimestre del 2007, sucedió en la misma fecha en que estaba programado el lanzamiento del Socket AM3, sustituto del Socket AM2. En cambio se optó por vender una transición entre este último y el Socket AM3. Los procesadores diseñados para trabajar con el AM2 podrán hacerlo con placas madres de Socket AM2+ y vice versa. Sin embargo, cabe aclarar que los procesadores con socket AM2, y AM2+ no son compatibles con una placa base con socket AM3.
Hardware (Partes de la PC) (Información Recopilada) - Página 34 de 94
C. Socket AM3 (Marca AMD). El Socket AM3 es el zócalo de CPU sucesor del Socket AM2+, el cual cuenta con 941 pines para el zócalo y 938 pines para la CPU. Tiene soporte HT (Hyper Transport) 4.0 y muchos más beneficios. Está hecho para la nueva gama de procesadores de AMD, los K11, lanzados en marzo de 2009.
El socket AM3 será compatible con los dos tipos de memoria doble canal PC2-8500 (DDR2 1.066 MHz) y PC3-1066 (DDR3 1.333 MHz); le será añadido una interfaz térmica (TSI) y una interfaz vid serie reguladora de voltaje (SVI). El sensor térmico será muy exacto presumiendo que pueda ser digital, un diodo térmico que podría permitir al monitor de temperaturas ser más preciso, el cual actualmente significa mejor control para la estabilidad y durabilidad al hacer overclocking. La interfaz serial VID permitira ajustar de forma más precisa los voltajes de la CPU. Asimismo los procesadores con socket AM3 son compatibles con placas base que posean el socket anterior de AMD, AM2+ (fuente: AMD Support Socket AM2+ (en inglés)). De esta forma un procesador como el AMD Athlon II X2 250 que posee socket AM3 puede funcionar en una placa base que posea socket AM2+. No así a la inversa, es decir, un procesador con socket AM2+ no puede ser colocado en una placa base con socket AM3. Los procesadores compatibles con AM3 son los AMD Phenom II X4, de la familia Deneb y Propus, que salieron en marzo de 2009. Seguido a esto han sido lanzados otros procesadores de más bajo rendimiento, basados en el chipset California, los cuales tienen los nombres en clave de: Heka (Triple núcleo), Rana (Triple núcleo) y Regor (Doble núcleo) diseñados con arquitectura de 45 nm. Algunas de las empresas productoras de placas madre ya tienen sus nuevas placas listas para ser lanzadas, entre ellas Asus, Gigabyte y MSI; las cuales están basadas en los chipsets AMD 790GX y 790FX. Estas tienen soporte Crossfire hasta para cuatro tarjetas de video en sus modelos de gama alta. Este zócalo cuenta con tecnologías de procesadores de 45 nm. Rivaliza contra los 45 nm de Intel. AMD junto a IBM investigaron y diseñando la nueva tecnología 32 nm. También AMD tiene HT 4.0 que se espera que sea 4 veces más veloz que HT 3.0 (AM2+). Si bien este HT se especula una velocidad aproximada a los 8.200 MT/s, y acaerra una mejor apertura de aplicaciones. También se espera la nueva paralelización avanzada para procesadores de más de 4 núcleos, ésta sacara mayor provecho de los 4 núcleos. Hardware (Partes de la PC) (Información Recopilada) - Página 35 de 94
El zócalo AM3 cuenta con soporte para procesadores de 45nm en los cuales se encuentran: Athlon II X2-240. Athlon II X2-245. Athlon II X2-250. Athlon II x3-445. Athlon II X4-630. Phenom II X2-545. Phenom II X2-550 BE. Phenom II X3-710. Phenom II X3-720 BE. Phenom II X4-805. Phenom II X4-810. Phenom II X4-910. Phenom II X4-945. Phenom II X4-955 BE. Phenom II X4-965 BE. Phenom II X6-1055T. Phenom II X6-1065T. Phenom II X6-1075T. Phenom II X6-1090T BE. Phenom II X6-1100T BE. Sempron 140. Sempron 145. Este nuevo zócalo cuenta con tecnología HT 4.0 (HyperTrasport) y soporte 64bits. Tiene soporte para DDR3 1333MHz. Los nuevos chipsets para AM3 son: 890FX. 890GX. 880G. 870. 790GX. 790FX. 790X. Todos con soporte AM3 y DDR3 nativo. D. LGA 775 (Marca Intel). El zócalo LGA 775, también conocido como Socket T o Socket 775, es uno de los zócalos utilizados por Intel para dar soporte a los microprocesadores Pentium 4. Entre otros aspectos, se diferencia de los anteriores 370 (para Pentium III) y del Socket 423 y 478 (para los primeros Pentium 4) en que carece de pines. Las velocidades de bus disponibles para esta arquitectura van desde 533Mhz hasta 1600MHz. Este tipo de zócalo es el "estándar" para casi todos los procesadores de consumo de Intel para equipos sobremesa y algunos portátiles. Desde los "Celeron D" hasta los "Core 2 Duo", pasando por los "Pentium D", su principal atractivo es que los procesadores para LGA 775 carecen de pines; es decir que la placa base es la que contiene los contactos para comunicarse con el procesador. Con esto se consigue que los procesadores sean menos Hardware (Partes de la PC) (Información Recopilada) - Página 36 de 94
frágiles a nivel físico. Al tomar esta medida, Intel traspasa el problema de la rotura de pines a los fabricantes de placas base. Así, los procesadores se "anclan" a la placa base con una pletina metálica que los fuerza sobre los pines.
Las placas base para el LGA 775 para Pentium 4 incluyen soporte para memoria RAM del tipo DDR2 y ranuras de expansión PCI Express. Debido a la cantidad de zócalos disponibles, las posibilidades para construir un sistema basado en este microprocesador son bastante amplias. AMD actualmente también fabrica procesadores sin pines, con una superficie plana y puntos de contactos para los pines de la placa base. Sin embargo, Intel y AMD utilizan placas exclusivas y no compatibles entre sí. Es preciso resaltar que AMD utiliza zócalos diferentes. Actualmente los AMD Athlon 64 X2 (también conocidos como AMD 2) utilizan el zócalo AM2. Sin embargo, AMD sigue utilizando (en los procesadores que no son AMD 2) el Socket 939, el 940 y el 754. Actualmente el zócalo LGA 775 ha sido superado por los zócalos LGA 1156 (Socket H) y LGA 1366 (Socket B). Los cambios de zócalos se producen ya que Pentium 4, tras varios años de permanencia en el mercado, tiene que adaptarse a la revolución constante en otros componentes del PC, como son las memorias soportadas, el BUS del sistema y demás. E. Socket 1156 (Marca Intel). LGA 1156, también conocido como Socket H, es un socket de CPU Intel de sobremesa. LGA significa Land Grid Array. El LGA 1156, junto con el LGA 1366, fueron diseñados para sustituir a LGA 775.
LGA 1156 es muy diferente de LGA 775. Los Procesadores LGA 775 estaban conectados a un puente norte con el bus frontal. Con LGA 1156, las funciones que tradicionalmente eran de Hardware (Partes de la PC) (Información Recopilada) - Página 37 de 94
un puente norte se han integrado en el procesador. El socket LGA 1156 permite las siguientes conexiones que se realizará mediante el procesador con el resto del sistema:
PCI-Express 2.0 x16 para la comunicación con una tarjeta gráfica. Algunos procesadores permiten que esta conexión esté dividida en dos carriles x8 para conectar dos tarjetas gráficas. Algunos fabricantes de placas base usan Nvidia NF200, un chip para permitir utilizar aún más tarjetas gráficas. DMI para la comunicación con el concentrador controlador de la plataforma. Este consiste en una tarjeta PCI-Express 2.0 x4 conexión. Dos canales para la comunicación con la memoria SDRAM DDR3. La velocidad de reloj de la memoria que con el apoyo dependerá del procesador.
F. Socket 1366 (Marca Intel). El Socket LGA 1366 es una implementación de zócalo para procesadores Intel Core i7, que se caracteriza por presentar una arquitectura muy distinta a las anteriores líneas de procesadores para socket 775 y anteriores.
Entre las novedades están, el puerto de comunicación directa entre el procesador y la memoria RAM y la eliminación del FSB a favor del Quickpath. MEMORIA RAM (MEMORIA DE ACCESO ALEATORIO). La memoria de acceso aleatorio (en inglés: Random Access Memory cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados.
Hardware (Partes de la PC) (Información Recopilada) - Página 38 de 94
La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, los módulos de memoria contienen un tipo, entre varios de memoria de acceso aleatorio, ya que las ROM, memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados soldados sobre un circuito impreso, en otros dispositivos como las consolas de videojuegos, esa misma memoria va soldada sobre la placa principal. Historia La historia está marcada por la necesidad del volumen de datos. Originalmente, los datos eran programados por el usuario con movimientos de interruptores. Se puede decir que el movimiento de datos era bit a bit. Las necesidades apuntaron a una automatización y se crearon lo que se denomina byte de palabra. Desde una consola remota, se trasladaban los interruptores asignándoles valores de letra, que correspondían a una orden de programación al microprocesador. Así, si se deseaba programar una orden NOT con dos direcciones distintas de memoria, solo se tenía que activar el grupo de interruptores asociados a la letra N, a la letra O y a la letra T. Seguidamente, se programaban las direcciones de memoria sobre las cuales recibirían dicho operador lógico, para después procesar el resultado. Los interruptores evolucionaron asignándoles una tabla de direccionamiento de 16x16 bytes, en donde se daban 256 valores de byte posibles (la actual tabla ASCII). En dicha tabla, se traducen lo que antes costaba activar 8 interruptores por letra, a una pulsación por letra (de cara al recurso humano, un ahorro en tiempos. Una sola pulsación, predisponía 1 byte en RAM... o en otras palabras, cambiaba la posición de 8 interruptores con una sola pulsación). Se usó el formato de máquina de escribir, para representar todo el alfabeto latino, necesario para componer palabras en inglés; así como los símbolos aritméticos y lógicos que permitían la escritura de un programa directamente en memoria RAM a través de una consola o teclado. En origen, los programadores no veían en tiempo real lo que tecleaban, teniendo que imprimir de cuando en cuando el programa residente en memoria RAM y haciendo uso del papel a la hora de ir modificando o creando un nuevo programa. Dado que el papel era lo más accesible, los programas comenzaron a imprimirse en un soporte de celulosa más resistente, creando lo que se denominó Tarjeta perforada. Así pues, los programas constaban de una o varias tarjetas perforadas, que se almacenaban en archivadores de papel con las típicas anillas de sujeción. Dichas perforaciones, eran leídas por un dispositivo de entrada, que no era muy diferente al teclado y que constaba de pulsadores que eran activados o desactivados, dependiendo de si la tarjeta en la posición de byte, contenía una perforación o no. Cada vez que se encendía la máquina, requería de la carga del programa que iba a ejecutar. Dado que los datos en memoria son de 0 o 1, que esas posiciones físicamente representan el estado de un conmutador, que la estimulación del conmutador evolucionó a pulsos electromagnéticos, el almacenamiento de los programas era cuestión de tiempo que su almacenamiento pasara del papel a un soporte lógico, tal como las cintas de almacenamiento. Las cintas eran secuenciales, y la composición de la cinta era de un material magnetoestático; bastaba una corriente Gauss para cambiar las polaridades del Hardware (Partes de la PC) (Información Recopilada) - Página 39 de 94
material. Dado que el material magnético puede tener polaridad norte o sur, era ideal para representar el 0 o el 1. Así, ahora, cargar un programa no era cuestión de estar atendiendo un lector de tarjetas en el cual se debían de ir metiendo de forma interminable tarjetas perforadas que apenas podían almacenar apenas unos bytes. Ahora, los dispositivos electromagnéticos secuenciales requerían la introducción de la cinta y la pulsación de una tecla para que se cargara todo el programa de inicio a fin, de forma secuencial. Los accesos aleatorios no aparecieron hasta la aparición del disco duro y el Floppy. Con estos medios, un cabezal lector se deslizaba por la superficie en movimiento, si dicho movimiento tenía como consecuencia la lectura de un valor N-N (norte-norte) no generaba corriente, tampoco si era S-S (Sur-Sur), por el contrario, si era N-S o S-N sí creaba una corriente, que era captada por el circuito que mandaba el dato a la memoria RAM. Toda esta automatización requiso del diseño de un sistema operativo, o de un área de gestión del recurso para su automatización. Estos sistemas requerían de un área de memoria reservada, en origen de 64 Kb (Capacidades de representación de texto en monitor monocromo), para irse ampliando a 128 Kb (Monocromo con capacidades gráficas), 256 (Texto y gráficos a dos colores), 512 (Texto y gráficos a 4 colores) y los tradicionales 640 Kb (Texto y gráficos a 16 colores). Esa memoria se denominó memoria base. Es en esta parte del tiempo, en donde se puede hablar de un área de trabajo para la mayor parte del software de un computador. La RAM continua siendo volátil por lo que posee la capacidad de perder la información una vez que se agote su fuente de energía. Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una copia (de acceso rápido) de la memoria principal (típicamente discos duros) almacenada en los módulos de RAM La denominación “de Acceso aleatorio” surgió para diferenciarlas de las memoria de acceso secuencial, debido a que en los comienzos de la computación, las memorias principales (o primarias) de las computadoras eran siempre de tipo RAM y las memorias secundarias (o masivas) eran de acceso secuencial (cintas o tarjetas perforadas). Es frecuente pues que se hable de memoria RAM para hacer referencia a la memoria principal de una computadora, pero actualmente la denominación no es precisa. Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas con tubos de vacío para implementar las funciones de memoria principal con o sin acceso aleatorio. En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1 Kibibyte, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.
Hardware (Partes de la PC) (Información Recopilada) - Página 40 de 94
En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4Kb en un empaque de 16 pines, mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización, entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines. A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie de mejoras en el direccionamiento como las siguientes: FPM-RAM (Fast Page Mode RAM). Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel 486, se implantó un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primera vez no sería necesario decir el número de la calle únicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium. EDO-RAM (Extended Data Output RAM). Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el buffer de salida hasta que comienza el próximo ciclo de lectura. BEDO-RAM (Burst Extended Data Output RAM). Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a mas de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj. Arquitectura base. En origen, la memoria RAM se componía de hilos de cobre que atravesaban toroides de ferrita, la corriente polariza la ferrita. Mientras esta queda polarizada, el sistema puede Hardware (Partes de la PC) (Información Recopilada) - Página 41 de 94
invocar al procesador accesos a partes del proceso que antes (en un estado de reposo) no es posible acceder. En sus orígenes, la invocación a la RAM, producía la activación de contactores, ejecutando instrucciones del tipo AND, OR y NOT. La programación de estos elementos, consistía en la predisposición de los contactores para que, en una línea de tiempo, adquiriesen las posiciones adecuadas para crear un flujo con un resultado concreto. La ejecución de un programa, provocaba un ruido estruendoso en la sala en la cual se ejecutaba dicho programa, por ello el área central de proceso estaba separada del área de control por mamparas insonorizadas. Con las nuevas tecnologías, las posiciones de la ferrita se ha ido sustituyendo por, válvulas de vacío, transistores y en las últimas generaciones, por un material sólido dieléctrico. Dicho estado “estado sólido dieléctrico” tipo DRAM permite que se pueda tanto leer como escribir información. Uso por el sistema. Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Módulos de memoria RAM. Los módulos de memoria RAM son tarjetas de circuito impreso que tienen soldados integrados de memoria DRAM por una o ambas caras. La implementación DRAM se basa en una topología de Circuito eléctrico que permite alcanzar densidades altas de memoria por cantidad de transistores, logrando integrados de decenas o cientos de Megabits. Además de DRAM, los módulos poseen un integrado que permiten la identificación de los mismos ante el computador por medio del protocolo de comunicación SPD. La conexión con los demás componentes se realiza por medio de un área de pines en uno de los filos del circuito impreso, que permiten que el modulo al ser instalado en un zócalo apropiado de la placa base, tenga buen contacto eléctrico con los controladores de memoria y las fuentes de alimentación. Los primeros módulos comerciales de memoria eran SIPP de formato propietario, es decir no había un estándar entre distintas marcas. Otros módulos propietarios bastante conocidos fueron los RIMM, ideados por la empresa RAMBUS. La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al establecimiento de estándares de la industria como los JEDEC. Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus de datos de 16 o 32 bits Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits. Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM. Relación con el resto del sistema. Dentro de la jerarquía de memoria la RAM se encuentra en un nivel después de los registros del procesador y de las cachés. Es una memoria relativamente rápida y de una capacidad Hardware (Partes de la PC) (Información Recopilada) - Página 42 de 94
media: sobre el año 2010), era fácil encontrar memorias con velocidades de más de 1 Ghz, y capacidades de hasta 8 GB por módulo, llegando a verse memorias pasando la barrera de los 3 Ghz por esa misma fecha mediante overclock. La memoria RAM contenida en los módulos, se conecta a un controlador de memoria que se encarga de gestionar las señales entrantes y salientes de los integrados DRAM. Algunas señales son las mismas que se utilizan para utilizar cualquier memoria: Direcciones de las posiciones, datos almacenados y señales de control. El controlador de memoria debe ser diseñado basándose en una tecnología de memoria, por lo general soporta solo una, pero existen excepciones de sistemas cuyos controladores soportan dos tecnologías (por ejemplo SDR y DDR o DDR1 y DDR2), esto sucede en las épocas transitorias de una nueva tecnología de RAM. Los controladores de memoria en sistemas como PC y servidores se encuentran embebidos en el llamado "North Bridge" o "Puente Norte" de la placa base; o en su defecto, dentro del mismo procesador (en el caso de los procesadores desde AMD Athlon 64 e Intel Core i7) y son los encargados de manejar la mayoría de información que entra y sale del procesador. Las señales básicas en el módulo están divididas en dos buses y un conjunto misceláneo de líneas de control y alimentación. Entre todas forman el bus de memoria:
Bus de datos: Son las líneas que llevan información entre los integrados y el controlador. Por lo general están agrupados en octetos siendo de 8, 16, 32 y 64 bits, cantidad que debe igualar el ancho del bus de datos del procesador. En el pasado, algunos formatos de modulo, no tenían un ancho de bus igual al del procesador. En ese caso había que montar módulos en pares o en situaciones extremas, de a 4 módulos, para completar lo que se denominaba banco de memoria, de otro modo el sistema no funciona. Esa es la principal razón de haber aumentar el número de pines en los módulos, igualando el ancho de bus de procesadores como el Pentium de 64 bits a principios de los 90.
Bus de direcciones: Es un bus en el cual se colocan las direcciones de memoria a las que se requiere acceder. No es igual al bus de direcciones del resto del sistema, ya que está multiplexado de manera que la dirección se envía en dos etapas.Para ello el controlador realiza temporizaciones y usa las líneas de control. En cada estándar de módulo se establece un tamaño máximo en bits de este bus, estableciendo un límite teórico de la capacidad máxima por módulo.
Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss) que se encargan de entregar potencia a los integrados. Están las líneas de comunicación para el integrado de presencia que da información clave acerca del módulo. También están las líneas de control entre las que se encuentran las llamadas RAS (row address strobe) y CAS (column address strobe) que controlan el bus de direcciones y las señales de reloj en las memorias sincrónicas SDRAM.
Entre las características sobresalientes del controlador de memoria, está la capacidad de manejar la tecnología de canal doble (Dual Channel), tres canales, o incluso cuatro para los procesadores venideros; donde el controlador maneja bancos de memoria de 128 bits. Aunque el ancho del bus de datos del procesador sigue siendo de 64 bits, el controlador de Hardware (Partes de la PC) (Información Recopilada) - Página 43 de 94
memoria puede entregar los datos de manera intercalada, optando por uno u otro canal, reduciendo las latencias vistas por el procesador. La mejora en el desempeño es variable y depende de la configuración y uso del equipo. Esta característica ha promovido la modificación de los controladores de memoria, resultando en la aparición de nuevos chipsets (la serie 865 y 875 de Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal doble, reemplazo el 754 de canal sencillo). Los equipos de gama media y alta por lo general se fabrican basados en chipsets o zócalos que soportan doble canal o superior. Tecnologías de memoria. La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia superior a 66 Mhz (A día de hoy, se han superado con creces los 1600 Mhz). SDR SDRAM. Memoria síncrona, con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos. Fue utilizada en los Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos disponibles son: PC100: SDR SDRAM, funciona a un máx de 100 MHz. PC133: SDR SDRAM, funciona a un máx de 133 MHz. DDR SDRAM. Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos. Los tipos disponibles son: PC2100 o DDR 266: funciona a un máx de 133 MHz. PC2700 o DDR 333: funciona a un máx de 166 MHz. PC3200 o DDR 400: funciona a un máx de 200 MHz. DDR2 SDRAM. Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Se presentan en módulos DIMM de 240 contactos. Los tipos disponibles son: PC2-4200 o DDR2-533: funciona a un máx de 533 MHz. PC2-5300 o DDR2-667: funciona a un máx de 667 MHz. PC2-6400 o DDR2-800: funciona a un máx de 800 MHz. PC2-8600 o DDR2-1066: funciona a un máx de 1066 MHz. DDR3 SDRAM. Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo una disminución Hardware (Partes de la PC) (Información Recopilada) - Página 44 de 94
del gasto global de consumo. Los módulos DIMM DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles, debido a una ubicación diferente de la muesca. Los tipos disponibles son: PC3-8600 o DDR3-1066: funciona a un máx de 1066 MHz. PC3-10600 o DDR3-1333: funciona a un máx de 1333 MHz. PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz. RDRAM (Rambus DRAM). Memoria de gama alta basada en un protocolo propietario creado por la empresa Rambus, lo cual obliga a sus compradores a pagar regalías en concepto de uso. Esto ha hecho que el mercado se decante por la tecnología DDR, libre de patentes, excepto algunos servidores de grandes prestaciones (Cray) y la consola PlayStation 3. La RDRAM se presenta en módulos RIMM de 184 contactos. Detección y corrección de errores. Existen dos clases de errores en los sistemas de memoria, las fallas (Hard fails) que son daños en el hardware y los errores (soft errors) provocados por causas fortuitas. Los primeros son relativamente fáciles de detectar (en algunas condiciones el diagnóstico es equivocado), los segundos al ser resultado de eventos aleatorios, son más difíciles de hallar. En la actualidad la confiabilidad de las memorias RAM frente a los errores, es suficientemente alta como para no realizar verificación sobre los datos almacenados, por lo menos para aplicaciones de oficina y caseras. En los usos más críticos, se aplican técnicas de corrección y detección de errores basadas en diferentes estrategias: La técnica del bit de paridad consiste en guardar un bit adicional por cada byte de datos, y en la lectura se comprueba si el número de unos es par (paridad par) o impar (paridad impar), detectándose así el error. Una técnica mejor es la que usa ECC, que permite detectar errores de 1 a 4 bits y corregir errores que afecten a un sólo bit esta técnica se usa sólo en sistemas que requieren alta fiabilidad. Por lo general los sistemas con cualquier tipo de protección contra errores tiene un costo más alto, y sufren de pequeñas penalizaciones en desempeño, con respecto a los sistemas sin protección. Para tener un sistema con ECC o paridad, el chipset y las memorias deben tener soportar esas tecnologías. La mayoría de placas base no poseen dicho soporte. Para los fallos de memoria se pueden utilizar herramientas de software especializadas que realizan pruebas integrales sobre los módulos de memoria RAM. Entre estos programas uno de los más conocidos es la aplicación Memtest86+ que detecta fallos de memoria. Memoria RAM registrada. Es un tipo de módulo usado frecuentemente en servidores y equipos especiales. Poseen circuitos integrados que se encargan de repetir las señales de control y direcciones. Las señales de reloj son reconstruidas con ayuda del PLL que está ubicado en el módulo mismo. Las señales de datos pasan directamente del bus de memoria a los CI de memoria DRAM. Estas características permiten conectar múltiples módulos de memoria (más de 4) de alta capacidad sin que haya perturbaciones en las señales del controlador de memoria, haciendo Hardware (Partes de la PC) (Información Recopilada) - Página 45 de 94
posible sistemas con gran cantidad de memoria principal (8 a 16 GiB). Con memorias no registradas, no es posible, debido a los problemas surgen de sobrecarga eléctrica a las señales enviadas por el controlador, fenómeno que no sucede con las registradas por estar de algún modo aisladas. Entre las desventajas de estos módulos están el hecho de que se agrega un ciclo de retardo para cada solicitud de acceso a una posición no consecutiva y por supuesto el precio, que suele ser mucho más alto que el de las memorias de PC. Este tipo de módulos es incompatible con los controladores de memoria que no soportan el modo registrado, a pesar de que se pueden instalar físicamente en el zócalo. Se pueden reconocer visualmente porque tienen un integrado mediano, cerca del centro geométrico del circuito impreso, además de que estos módulos suelen ser algo más altos
Hardware (Partes de la PC) (Información Recopilada) - Página 46 de 94
Hardware (Partes de la PC) (Informaci贸n Recopilada) - P谩gina 47 de 94
DISCO DURO (HARD DRIVE). Se llama disco duro, disco solido o disco rígido (en inglés hard disk, "hard drive" o "fixed disk drive", abreviado con frecuencia HD o HDD) al dispositivo encargado de almacenar información de forma permanente en un equipo informático. Su capacidad oscila entre 40 GB y 2 TB en sus versiones comerciales. Actualmente ya existen de 5 TB o 5000 GB Inventado por un grupo de desarrollo de IBM liderado Rey Johnson el 13 de Septiembre de 1956.
Los discos duros utilizan un sistema de grabación magnética digital. En este tipo de disco encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares a la hora de comunicar un disco duro con la computadora. Existen distintos tipo de interfaces las más comunes son: Integrated Drive Electronics (IDE, también llamado PATA), SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores. Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes tenemos que definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema. También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 64 GB) para el uso en ordenadores personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido. Estructura física. Dentro de un disco duro hay varios platos (entre 2 y 4), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco. Hardware (Partes de la PC) (Información Recopilada) - Página 48 de 94
Cada plato tiene dos caras, y es necesaria una cabeza de lectura/escritura para cada cara (no es una cabeza por plato, sino una por cara). Si se mira el esquema Cilindro-CabezaSector (más abajo), a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros) ó 3 millonésimas de milímetro. Si alguna llega a tocarlo, causaría muchos daños en el disco, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 120 km/h en el borde).
Direccionamiento. Hay varios conceptos para referirse a zonas del disco: Plato: Cada uno de los discos que hay dentro del disco duro. Cara: Cada uno de los dos lados de un plato. Cabeza: Número de cabezales. Pista: Una circunferencia dentro de una cara; la pista 0 está en el borde exterior. Cilindro: Conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara). Sector: Cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y usa más eficientemente el disco duro. El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Este es el que actualmente se usa. Si hablamos de disco rígido podemos citar a los distintos tipos de conexión que poseen los mismos con la placa madre, es decir pueden ser SATA, IDE o SCSI.
Hardware (Partes de la PC) (Información Recopilada) - Página 49 de 94
IDE: Integrated Device Electronics, "Dispositivo con electrónica integrada" o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta hace bien poco, el estándar principal por su versatilidad y relación calidad/precio. SCSI: Son discos duros de gran capacidad de almacenamiento (desde 5 GB hasta 23 GB). Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que los vuelve más rápidos. SATA (Serial ATA): Nuevo estándar de conexión que utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. En la actualidad hay dos versiones, SATA 1 de hasta 150 MB/s y SATA 2 de hasta 300 MB/s de velocidad de transferencia.
Estructura lógica. Dentro del disco se encuentran: El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones. Las particiones, necesarias para poder colocar los sistemas de archivos. Funcionamiento mecánico. Un disco duro suele tener: Platos en donde se graban los datos, Cabezal de lectura/escritura, Motor que hace girar los platos, Electroimán que mueve el cabezal, Circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché, Bolsita desecante (gel de sílice) para evitar la humedad, Caja, que ha de proteger de la suciedad (aunque a veces no está al vacío) Tornillos, a menudo especiales.
Hardware (Partes de la PC) (Información Recopilada) - Página 50 de 94
Partes de un Disco Duro.
Historia. El primer disco duro 1956 fue el IBM 3501, con una capacidad alta de concentrar los bytes de manera que la placa base se convierte en algo más. Entre el primer disco duro, el Ramac I, introducido por IBM en 1956, y los minúsculos discos duros actuales, la evolución ha sido hasta más dramática que en el caso de la densidad creciente de los transistores, gobernada por la ley de Moore.
Uno de los primeros discos duros de IBM.
El Ramac I pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas al vacío y requería una consola separada para su manejo. Su gran mérito consistía en el que el tiempo requerido para el acceso a un dato no dependía de la ubicación física del mismo. En las cintas magnéticas, en cambio, para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado. La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario Hardware (Partes de la PC) (Información Recopilada) - Página 51 de 94
de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos por años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta. El mérito del francés Albert Fert y al alemán Peter Grunberg (ambos premio Nobel de Física, por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, permitió construir cabezales de lectura y grabación más sensitivos, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento vigoroso en la capacidad de almacenamiento en los discos duros, que se elevó a 60% anual en la década de 1990. En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado los 40.000 MB o 40 gigabytes (GB). En la actualidad, ya nos acercamos al uso cotidiano de los discos duros con más de un terabyte (TB) o millón de megabytes. Es notable que los modelos más recientes del iPod de Apple ya incorpore un disco duro de 160 GB, capaz de alojar unas 40.000 melodías digitales.
Disco duro de baja capacidad (1 GB) Vintage 1988.
Características de un disco duro. Las características que se deben tener en cuenta en un disco duro son: a) Tiempo medio de acceso: Tiempo medio que tarda en situarse la aguja en el cilindro deseado; es la suma de la Latencia y el Tiempo medio de Búsqueda. b) Tiempo medio de Búsqueda (seek): Es la mitad del tiempo que tarda la aguja en ir de la periferia al centro del disco. c) Latencia: Tiempo que tarda el disco en girar media vuelta, que equivale al promedio del tiempo de acceso (tiempo medio de acceso). Una vez que la aguja del disco duro se sitúa en el cilindro el disco debe girar hasta que el dato se sitúe bajo la cabeza; el tiempo en que esto ocurre es, en promedio, el tiempo que tarda el disco en dar medio giro; por este motivo la latencia es diferente a la velocidad de giro, pero es aproximadamente proporcional a ésta. d) Tiempo de acceso máximo: Tiempo máximo que tarda la aguja en situarse en el cilindro deseado. Es el doble del Tiempo medio de acceso. e) Tiempo pista a pista: Tiempo de saltar de la pista actual a la adyacente. f) Tasa de transferencia: Velocidad a la que puede transferir la información al ordenador. Puede ser velocidad sostenida o de pico. Hardware (Partes de la PC) (Información Recopilada) - Página 52 de 94
g) Caché de pista: Es una memoria de estado sólido, tipo RAM, dentro del disco duro de estado sólido. Los discos duros de estado sólido utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limita a las supercomputadoras, por su elevado precio. h) Interfaz: Medio de comunicación entre el disco duro y el ordenador. Puede ser IDE/ATA, SCSI, SATA, USB, Firewire, SAS. i) Velocidad de rotación: Número de revoluciones por minuto del/de los plato/s. Ejemplo: 7200rpm. Presente y Futuro. Actualmente la nueva generación de discos duros utilizan la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), lo cuales hacen un uso más eficiente de la energía.
Tipos de disco duro. ¿Qué tecnología de disco es la más conveniente para nuestra empresa? Hoy en día no hay más que los siguientes tipos de discos duros y debería ser fácil elegir. IDE. Es el disco duro de siempre, el que está (todavía) en una gran cantidad de ordenadores de sobremesa y en unos pocos servidores. No es una buena elección para Hardware (Partes de la PC) (Información Recopilada) - Página 53 de 94
un servidor dado que, aunque se están quedando obsoletos, no están pensados para estar trabajando en un RAID. Es cierto que hay controladoras RAID para discos duros IDE, pero su fiabilidad es más que discutible. Su velocidad llegó hasta 133 MB/s. SATA. Son los sucesores del IDE (o también llamado PATA). Se están implantando rápidamente en todos los ordenadores de sobremesa y en muchos servidores de nueva generación. Tienen un precio asequible y por cantidades módicas de dinero podemos tener un servidor con una gran capacidad de almacenamiento; y si añadimos el hecho de que hay una gran cantidad de controladoras RAID para estos discos, nuestro servidor podrá almacenar todos los datos que necesitemos. Y crecer si en un futuro necesitamos más espacio de almacenamiento. La velocidad actual de los discos SATA es de 3 Gb/s, que son los discos conocidos como SATA II. Hay que aclarar que, aunque están entrando fuertemente en el mercado de los servidores, no se pueden comparar en fiabilidad con el tipo de disco del siguiente párrafo, los SCSI. SCSI. El disco para RAID por excelencia. Se puede utilizar como discos independientes – en una controladora SCSI, pero sin posibilidades de hacer RAID – pudiéndose utilizar hasta 15 discos por cada canal SCSI que disponga la controladora. Si la controladora tiene dos canales puede controlar hasta 30 discos. En caso de que los utilicemos en una controladora RAID el principio es el mismo: se podrán enchufar hasta 15 discos por cada canal que tenga la controladora RAID. Después como agrupemos los discos físicos para obtener discos lógicos variará según las necesidades de la empresa en particular. Su velocidad actual es de 320 MB/s (anteriores modelos iban a 160 MB/s, 80 MB/s, 40 MB/s,…), aunque esa velocidad disminuye cuantos más discos conectamos al canal de la controladora SCSI ya que son mas datos por el mismo cable. SAS. Es una evolución de los discos SCSI. La tecnología es prácticamente la misma, pero han variado el tipo de conector trasero del disco, es decir, el conector por el que se “enchufa” a la controladora. Las controladora SAS pueden ser de un tipo que lleva varios conectores, y por cada conector se puede enchufar un único disco (sas o sata)… y de otro tipo que llevan uno o dos conectores (incluso mas), pero con unos cables que permiten conectar varios discos a la controladora. SDD. Son las denominadas Unidades de Estado Solido y que, a diferencia de los demás discos, no tiene partes móviles en su interior (los típicos “platos” giratorios donde se lee/escribe/borra la información ni ningún brazo con cabezal moviéndose a toda velocidad). La mejor analogía que se puede hacer es que en su interior hay módulos de memoria, mucho más rápido que un disco tradicional. El problema es que a fecha de hoy son caros y con muy poca capacidad de almacenamiento. Fibra Óptica. Los discos de Fibra óptica son los más rápidos y seguros. Se utilizan principalmente en sistemas de almacenamiento masivo externo, de muchos Terabytes de capacidad. Suelen ser chasis enracables (que están pensados para ser colocados en el interior de armarios rack de 19″) y su capacidad de albergar discos rondan entre los 10 y 16 discos por chasis, incluso más. Si ese número de discos se revela insuficiente para nuestras necesidades, los chasis vienen preparados para ser ampliados mediante otros chasis, que permiten conectar nuevos discos rápida y Hardware (Partes de la PC) (Información Recopilada) - Página 54 de 94
eficazmente, sin detener en ningún momento el servidor. Por supuesto, es el sistema más caro.
Discos duros externos (Diversas capacidades y marcas).
Discos duros multimedia (Diversas capacidades y marcas).
Hardware (Partes de la PC) (Información Recopilada) - Página 55 de 94
Mitos sobre discos duros. Existen diversos mitos acerca del disco duro, a continuación se presentan algunos de ellos.
a) Mito 1: Formatear un disco duro muchas veces puede dañarlo. En pocas palabras, formatear el disco duro NO reduce su vida útil. Sí, mucha gente asegura que formatear el disco duro reduce su expectativa de vida, pero es un mito. La operación de formateo NO supone un esfuerzo especial para el disco duro. Las cabezas de lectura/escritura NO tocan la superficie magnética, por lo que los platos sólo se pueden dañar si la unidad sufre una fuerte vibración o sacudida durante la operación. Se puede formatear el disco duro 20 veces diarias, todos los días, y la probabilidad de que falle seguirá siendo la misma que la de cualquier otra unidad. Este mito puede que venga de los disquetes flexibles, en donde la cabeza sí toca la superficie magnética y, por tanto, las operaciones de lectura, escritura y formateo degradaban paulatinamente el medio. b) Mito 2: Formatear un disco duro hace que se deposite una capa de algo sobre la superficie del plato, lo que, a la larga, hace aparecer sectores defectuosos. El formateo no deposita ninguna capa de nada en el plato. El disco duro es un entorno sellado, por lo que en su interior prácticamente no hay polvo. Y aunque lo hubiese ¿por qué debería la operación de formateo depositarlo sobre el plato? c) Mito 3: Formatear el disco duro sobrecarga el brazo móvil que porta los cabezales. El formateo es una operación que se realiza en sectores contiguos. Esto significa que el formateado se realiza secuencialmente: sector 500, sector 501, sector 502... En esta operación el movimiento del brazo es minúsculo, frente a otras operaciones, como un acceso aleatorio a un archivo, que mueve las cabezas de una parte a otra del plato. Por tanto, el formateo no sobrecarga el brazo.
d) Mito 4: Desfragmentar el disco duro sobrecarga el brazo móvil. En realidad hace justo lo contrario. Aunque la operación en sí supone un gran movimiento de la cabeza, al tener que mover los datos de un lado a otro del disco duro, el resultado es que estos datos quedan organizados de forma secuencial en el disco. Esto permite que Hardware (Partes de la PC) (Información Recopilada) - Página 56 de 94
sucesivas operaciones de lectura/escritura se puedan realizar sin tener que moverse prácticamente sobre los platos, lo que reduce el movimiento del brazo e incrementa notablemente el rendimiento del disco duro. Por tanto, aunque la operación en si sí puede sobrecargar el brazo de los cabezales, esto se ve sobradamente compensado por el esfuerzo que se ahorra en las sucesivas lecturas y escrituras. e) Mito 5: Si un disco duro tiene sectores defectuosos, formatearlo hará que aparezcan más. Si un disco duro tiene sectores defectuosos por culpa de una serie de aterrizajes de los cabezales (cuando, por un golpe o vibración, los cabezales llegan a tocar la superficie), su número aumentará indefectiblemente con el tiempo, se formatee o no se formatee. La razón para que el número de sectores defectuosos aumente al formatear es que dicha operación es la que descubre los sectores defectuosos. No olvidemos que, al formatear un disco, el sistema operativo comprueba cada sector para detectar los que están en mal estado. (Y los marca en cierta forma para que no se usen). Por tanto, el formatear un disco no aumentará el número de sectores defectuosos, tan sólo revelará lo que, de hecho, está ocurriendo. f) Mito 6: Descargar mucho "material" desde Internet reduce la vida del disco duro. Descargar "material" al disco duro constantemente no reduce su vida útil. El disco está girando constantemente, tanto si está leyendo o escribiendo como si permanece inactivo. Y mientras esté girando se morirá al mismo ritmo, tanto si está inactivo como leyendo o escribiendo datos. g) Mito 7: La poca potencia en la alimentación eléctrica del disco duro provoca la aparición de sectores defectuosos. La poca potencia o los cortes de alimentación no provocan la aparición de sectores defectuosos en un disco duro. Cuando la potencia recibida no es suficiente, o cuando hay un corte de energía, el brazo de las cabezas las aparca automáticamente, por lo que no hay riesgo de que golpeen los platos.
h) Mito 8: Una fuente de alimentación barata "mata lentamente" al disco duro. Una fuente de alimentación barata NO "mata lentamente" los discos duros. Si una fuente de alimentación barata se avería y manda una sobre tensión al disco duro, éste morirá instantáneamente, mientras que si no puede ofrecer suficiente potencia, el disco no funcionará adecuadamente o, simplemente, no funcionará en absoluto.
Hardware (Partes de la PC) (Información Recopilada) - Página 57 de 94
i) Mito 9: Si el disco duro acelera y decelera de vez en cuando, se debe a que la fuente, de vez en cuando, no ofrece suficiente potencia como para que el disco duro gire a la velocidad correcta. Si hay una pérdida de potencia eléctrica en el disco duro, éste se apagará y hará que el ordenador se cuelgue. Incluso aunque la energía se restablezca, el disco duro no volverá a funcionar como si nada hubiera pasado: es necesario reiniciar el ordenador. El acelerado y decelerado del disco duro es, simplemente, una consecuencia del proceso de recalibrado del disco duro. j) Mito 10: El aparcado de las cabezas es la causa de los débiles clicks que se oyen en el disco duro. Los clicks pueden deberse al proceso de recalibrado térmico del disco duro, o bien a aterrizajes de las cabezas sobre los platos. k) Mito 11: El brazo de las cabezas se mueve mediante un motor que puede fallar por un uso excesivo. Aunque en el pasado, el brazo era movido mediante un motor paso-a-paso, los actuales usan un sistema de bobina, que emplea la fuerza electromagnética para mover los cabezales. Así pues, si las cabezas no se mueven mediante un motor ¿cómo puede "este motor" fallar?
l) Mito 12: Aparcar constantemente las cabezas puede hacer que el motor del brazo falle antes. Ver el mito anterior, además de esto, hay que recordar que el aparcado de las cabezas es algo que ocurre automáticamente, por diseño, cada vez que se corta la energía o cuando el disco duro se apaga. No es un proceso activo. El brazo dispone de una serie de muelles para mantenerlo en posición. Cuando hay que moverlo, el actuador empuja en sentido opuesto a la tensión de los muelles. Cuando se corta la corriente, el actuador deja de trabajar y los muelles desplazan el brazo automáticamente hasta la posición de aparcado. Por tanto, aún si el brazo fuese activado por un motor, el aparcado de cabezas jamás podría provocar un fallo. m) Mito 13: Los platos del disco duro sólo giran cuando hay que grabar o leer datos, y se paran cuando está inactivo. Los platos están girando en todo momento, a menos que se haya configurado el sistema de ahorro de energía para que apague el disco duro después de unos minutos de inactividad.
Hardware (Partes de la PC) (Información Recopilada) - Página 58 de 94
n) Mito 14: Es mejor parar el disco duro siempre que se pueda para reducir la sobrecarga del motor de giro. Normalmente, los platos comienzan a girar nada más encender el disco duro, y siguen girando hasta que se apaga el equipo. El proceso de arranque es el que más sobrecarga al motor de giro, mientras que mantener la velocidad estable precisa de mucho menos esfuerzo. Por otro lado, si los platos están detenidos y se quiere leer/grabar algo, es necesario esperar a que alcancen la velocidad nominal antes de poder realizar la operación. Por tanto, es mejor mantener el disco duro girando, tanto para mejorar el rendimiento como para reducir la carga sobre el motor de giro. o) Mito 15: Los cortes súbitos de energía pueden provocar sectores defectuosos. Los sectores defectuosos no surgen por apagar de golpe el ordenador. Esto podía ocurrir en los viejos, MUY VIEJOS, tiempos en los que era preciso aparcar las cabezas de los discos antes de apagarlos. Desde hace años, los actuadores magnéticos aparcan automáticamente las cabezas cada vez que se corta la energía de alimentación del disco duro. p) Mito 16: Algunos sectores defectuosos son "virtuales", y se pueden reparar formateando el disco duro. No existen "sectores defectuosos virtuales" y "sectores defectuosos físicos". Un sector defectuoso es un sector que no se puede leer o escribir, el cual no puede ser reparado por ningún software, ni formatear el disco lo restaurará. Ver también el siguiente mito.
q) Mito 17: No hay por qué preocuparse por los sectores defectuosos, pues se pueden "borrar" formateando el disco duro. Es cierto que el formateo a bajo nivel puede sustituir sectores defectuosos por otros sanos situados en las pistas "extra" que forman parte de todo disco duro. Por desgracia, el rendimiento disminuye porque las cabezas han de buscar dicho sector en otra pista. Además, el número de sectores contenidos en dichas pistas "extra" son limitados. Por otro lado, los sectores defectuosos son un síntoma de que algo va mal en el disco duro. Aunque fuese debido a un único aterrizaje de cabezas, tan traumático evento puede haber creado residuos (por el desgaste sufrido en ese instante) en el compartimiento de los platos y dañar la cabeza. Los residuos pueden provocar gradualmente rayazos y erosión en otras partes del plato, mientras que una cabeza dañada no será estable aerodinámicamente, por lo que será más probable que se produzcan futuros aterrizajes. Hardware (Partes de la PC) (Información Recopilada) - Página 59 de 94
En otras palabras: si un disco duro contiene datos críticos, una medida inteligente consiste en sacar una copia de seguridad de éstos y sustituir el disco al primer síntoma de sectores defectuosos. La unidad puede que siga trabajando bien durante mucho tiempo sin que aparezcan nuevos sectores en mal estado, pero el riesgo de una muerte será real y no debería ser ignorado. r) Mito 18: Se debe formatear el disco duro regularmente para mejorar el rendimiento. Esta es otra falacia. El formatear el disco duro regularmente NO mejora el rendimiento. Cuando se aprecia una degradación en el rendimiento del disco duro tras varios meses de uso, esto se debe a que los datos se han fragmentado tanto que las cabezas de lectura/escritura tienen que saltar de un lado a otro del disco duro para poder leer o escribir los datos. La solución consiste en desfragmentar el disco duro, en vez de formatearlo. s) Mito 19: Los discos duros sólo se pueden instalar en posición horizontal. Los discos duros se pueden instalar en cualquier posición: horizontal, vertical, incluso boca abajo. Lo que no se debe hacer es girarlos mientras estén en funcionamiento, pues se puede producir un aterrizaje de cabezas. t) Mito 20: Para poder usar un disco duro en posición vertical, es preciso formatearlo en posición vertical. Los discos duros pueden trabajar en cualquier posición. NO es necesario reformatearlos al cambiar la orientación.
Hardware (Partes de la PC) (Información Recopilada) - Página 60 de 94
TARJETA GRAFICA (TARJETA DE VIDEO). Inicialmente los ordenadores solo se limitaban a ingresar y mostrar datos por tarjetas perforadas, mediante teclado o primitivas impresoras, que aburrido!, hasta que un día alguien pensó : ¿Por qué no juntamos de manera alguna especie de televisor al computador? para observar la evolución de los procesos y es así que surgen los monitores, pero estos debían recibir la información de un dispositivo llamado: tarjeta de video.
Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos. Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-2 y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.
Hardware (Partes de la PC) (Información Recopilada) - Página 61 de 94
Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.
Características. Procesador Gráfico: El encargado de hacer los cálculos y las figuras, debe tener potencia para que actúe más rápido y de mejor rendimiento. Disipador: Muy importante para no quemar el procesador, ya que es necesario un buen sistema de disipación del calor. Sin un buen disipador el procesador gráfico no aguantaría las altas temperaturas y perdería rendimiento incluso llegando a quemarse. Memoria de video: La memoria de video, es lo que almacena la información de lo que se visualiza en la pantalla. Depende de la resolución que queramos utilizar y de la cantidad de colores que deseemos presentar en pantalla, a mayor resolución y mayor número de colores más memoria es necesaria. RAMDAC: Conversor analógico-digital (DAC) de la memoria RAM, empleado en las tarjetas gráficas para transformar la señal digital con que trabaja el ordenador en una salida analógica que pueda entender el monitor. Historia. La historia de las tarjetas gráficas da comienzo a finales de los años 1960, cuando se pasa de usar impresoras como elemento de visualización a utilizar monitores. Las primeras tarjetas sólo eran capaces de visualizar texto a 40x25 u 80x25, pero la aparición de los primeros chips gráficos como el Motorola 6845 permiten comenzar a dotar a los equipos basados en bus S-100 o Eurocard de capacidades gráficas. Junto con las tarjetas que añadían un modulador de televisión fueron las primeras en recibir el término tarjeta gráfica. El éxito del ordenador doméstico y las primeras videoconsolas hacen que por abaratamiento de costos (principalmente son diseños cerrados), esos chips vayan integrados en la placa base. Incluso en los equipos que ya vienen con un chip gráfico se comercializan tarjetas de 80 columnas, que añadían un modo texto de 80x24 u 80x25 caracteres, principalmente para ejecutar soft CP/M (como las de los Apple II y Spectravideo SVI-328).
Hardware (Partes de la PC) (Información Recopilada) - Página 62 de 94
Curiosamente la tarjeta gráfica que viene con el IBM PC, que con su diseño abierto herencia de los Apple II popularizará el concepto de tarjeta gráfica intercambiable, es una tarjeta de sólo texto. La MDA (Monochrome Display Adapter), desarrollada por IBM en 1981, trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria VRAM de 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde. A partir de ahí se sucedieron diversas controladoras para gráficos: Año
Modo texto
Modo gráficos Colores Memoria
MDA
1981
80*25
-
1
4 KB
CGA
1981
80*25
640*200
4
16 KB
HGC
1982
80*25
720*348
1
64 KB
EGA
1984
80*25
640*350
16
256 KB
IBM 8514
1987
80*25
1024*768
256
-
MCGA
1987
80*25
320*200
256
-
VGA
1987
720*400
640*480
256
256 KB
SVGA
1989
80*25
1024*768
256
1 MB
XGA
1990
80*25
1024*768
65K
2 MB
VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super VGA). Con dicho estándar se alcanzaron los 2 MB de memoria VRAM, así como resoluciones de 1024 x 768 pixels a 256 colores. La competencia de los PC, Commodore Amiga 2000 y Apple Macintosh reservaron en cambio esa posibilidad a ampliaciones profesionales, integrando casi siempre la GPU (que batía en potencia con total tranquilidad a las tarjetas gráficas de los PC del momento) en sus placas base. Esta situación se perpetúa hasta la aparición del Bus PCI, que sitúa a las tarjetas de PC al nivel de los buses internos de sus competidores, al eliminar el cuello de botella que representaba el Bus ISA. Aunque siempre por debajo en eficacia (con la misma GPU S3 ViRGE, lo que en un PC es una tarjeta gráfica avanzada deviene en acelerador 3D profesional en los Commodore Amiga con ranura Zorro III), la fabricación masiva (que abarata sustancialmente los costes) y la adopción por otras plataformas del Bus PCI hace que los chips gráficos VGA comiencen a salir del mercado del PC. La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el Hardware (Partes de la PC) (Información Recopilada) - Página 63 de 94
chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal, que el puerto PCI donde se conectaban se quedó corto de ancho de banda. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (comprando incluso la mayoría de bienes de 3dfx) con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4.
Tarjetas gráficas marca NVIDIA y ATI.
La mayoría de videoconsolas de sexta generación y sucesivos utilizan chips gráficos derivados de los más potentes aceleradores 3D de su momento. Los Apple Macintosh incorporan chips de NVIDIA y ATI desde el primer iMac, y los modelos PowerPC con bus PCI o AGP pueden usar tarjetas gráficas de PC con BIOS no dependientes de CPU. En 2006, NVIDIA y ATI (ese mismo año comprada por AMD) se repartían el liderazgo del mercado con sus series de chips gráficos GeForce y Radeon, respectivamente. Componentes. GPU. La GPU, —acrónimo de «graphics processing unit», que significa «unidad de procesamiento gráfico»— es un procesador (como la CPU) dedicado al procesamiento de gráficos; su razón de ser es aligerar la carga de trabajo del procesador central y, por ello, está optimizada para el cálculo en coma flotante, predominante en las funciones 3D. La mayor parte de la información ofrecida en la especificación de una tarjeta gráfica se refiere a las características de la GPU, pues constituye la parte más importante de la tarjeta. Tres de las más importantes de dichas características son la frecuencia de reloj del núcleo, que en 2010 oscilaba entre 500 MHz en las tarjetas de gama baja y 850 MHz en las de gama alta, el numero de procesadores
Hardware (Partes de la PC) (Información Recopilada) - Página 64 de 94
shaders y el número de pipelines (vertex y fragment shaders), encargadas de traducir una imagen 3D compuesta por vértices y líneas en una imagen 2D compuesta por píxeles. Memoria RAM Gráfica. Según la tarjeta gráfica está integrada en la placa base (normalmente de bajas prestaciones) o no, utilizará la memoria RAM propia del ordenador o dispondrá de una dedicada. Dicha memoria es la memoria de vídeo o VRAM. Su tamaño oscila actualmente entre 256 MB y 4 GB. La memoria empleada en 2010 estaba basada en tecnología DDR, destacando GDDR2, GDDR3,GDDR4 y GDDR5, en especial GDDR2, GDDR3 y GDDR5. La frecuencia de reloj de la memoria se encontraba entre 400 MHz y 4,5 GHz (efectivos). Samsung ha conseguido desarrollar memorias GDDR5 a 7GHZ, gracias al proceso de reducción de 50 nm, permitiendo un gran ancho de banda en buses muy pequeños (incluso de 64 bits). Una parte importante de la memoria de un adaptador de vídeo es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D. RAMDAC. El RAMDAC es un conversor de señal digital a analógico de memoria RAM. Se encarga de transformar las señales digitales producidas en el ordenador en una señal analógica que sea interpretable por el monitor. Según el número de bits que maneje a la vez y la velocidad con que lo haga, el conversor será capaz de dar soporte a diferentes velocidades de refresco del monitor (se recomienda trabajar a partir de 75 Hz, nunca con menos de 60).[9] Dada la creciente popularidad de los monitores digitales el RAMDAC está quedando obsoleto, puesto que no es necesaria la conversión analógica si bien es cierto que muchos conservan conexión VGA por compatibilidad. Salidas. Los sistemas de conexión más habituales entre la tarjeta gráfica y el dispositivo visualizador (como un monitor o un televisor) son: o DA-15 conector RGB usado mayoritariamente en los Apple Macintosh. o Digital TTL DE-9 : usado por las primitivas tarjetas de IBM (MDA, CGA y variantes, EGA y muy contadas VGA). o SVGA/Dsub-15: estándar analógico de los años 1990; diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión por la conversión de digital a analógico y el error de muestreo al evaluar los píxeles a enviar al monitor. o DVI: sustituto del anterior, fue diseñado para obtener la máxima calidad de visualización en las pantallas digitales como los LCD o proyectores. Evita la distorsión y el ruido al corresponder directamente un píxel a representar con uno del monitor en la resolución nativa del mismo. o S-Video: incluido para dar soporte a televisores, reproductores de DVD, vídeos, y videoconsolas. Otras no tan extendidas en 2010 son: o S-Video implementado sobre todo en tarjetas con sintonizador TV y/o chips con soporte de video NTSC/PAL
Hardware (Partes de la PC) (Información Recopilada) - Página 65 de 94
o Vídeo Compuesto: Es bastante antiguo y equiparable al euroconector, es analógico de muy baja resolución mediante conector RCA. o Vídeo por componentes: utilizado también para proyectores; de calidad comparable a la de SVGA, dispone de tres clavijas (Y, Cb y Cr). o HDMI: tecnología de audio y vídeo digital cifrado sin compresión en un mismo cable. o Display Port: Puerto para Tarjetas gráficas creado por VESA y rival del HDMI, transfiere video a alta resolución y audio. Sus ventajas son que está libre de patentes, y por ende de regalías para incorporarlo a los aparatos, también dispone de unas pestañitas impidiendo que se desconecte el cable accidentalmente. Dispositivos refrigerantes. Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor generado puede hacer fallar, bloquear o incluso averiar el dispositivo. Para evitarlo, se incorporan dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta. Se distinguen dos tipos:
Disipador: dispositivo pasivo (sin partes móviles y, por tanto, silencioso); compuesto de material conductor del calor, extrae este de la tarjeta. Su eficiencia va en función de la estructura y la superficie total, por lo que son bastante voluminosos. Ventilador: dispositivo activo (con partes móviles); aleja el calor emanado de la tarjeta al mover el aire cercano. Es menos eficiente que un disipador y produce ruido al tener partes móviles.
Aunque diferentes, ambos tipos de dispositivo son compatibles entre sí y suelen ser montados juntos en las tarjetas gráficas; un disipador sobre la GPU (el componente que más calor genera en la tarjeta) extrae el calor, y un ventilador sobre él aleja el aire caliente del conjunto. Alimentación. Hasta ahora la alimentación eléctrica de las tarjetas gráficas no había supuesto un gran problema, sin embargo, la tendencia actual de las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son cada día más potentes, el cuello de botella se encuentra en el puerto PCIe que sólo es capaz de aportar una potencia de 150 W. Por este motivo, las tarjetas gráficas con un consumo superior al que puede suministrar PCIe incluyen un conector (PCIe power connector) que permite una conexión directa entre la fuente de alimentación y la tarjeta, sin tener que pasar por la placa base, y, por tanto, por el puerto PCIe. Aun así, se pronostica que no dentro de mucho tiempo las tarjetas gráficas podrían necesitar una fuente de alimentación propia, convirtiéndose dicho conjunto en dispositivos externos. Tipos de tarjetas gráficas. 1. Tarjeta MDA. "Monochrome Display Adapter" o Adaptador monocromo. Fue lanzada por IBM como una memoria de 4 KB de forma exclusiva para monitores TTL (que representaban los clásicos caracteres en ámbar o verde). No disponía de gráficos y su única resolución era la
Hardware (Partes de la PC) (Información Recopilada) - Página 66 de 94
presentada en modo texto (80x25) en caracteres de 14x9 puntos, sin ninguna posibilidad de configuración. Básicamente esta tarjeta usa el controlador de vídeo para leer de la ROM la matriz de puntos que se desea visualizar y se envía al monitor como información serie. No debe sorprender la falta de procesamiento gráfico, ya que, en estos primeros PC no existían aplicaciones que realmente pudiesen aprovechar un buen sistema de vídeo. Prácticamente todo se limitaba a información en modo texto. Este tipo de tarjeta se identifica rápidamente ya que incluye (o incluía en su día) un puerto de comunicación para la impresora. 2. Tarjeta CGA. "Color Graphics Array" o "Color graphics adapter" según el texto al que se recurra. Aparece en el año 1981 también de la mano de IBM y fue muy extendida. Permitía matrices de caracteres de 8x8 puntos en pantallas de 25 filas y 80 columnas, aunque solo usaba 7x7 puntos para representar los caracteres. Este detalle le imposibilitaba el representar subrayados, por lo que los sustituía por diferentes intensidades en el caracter en cuestión.En modo gráfico admitía resoluciones de hasta 640x200. La memoria era de 16 KB y solo era compatible con monitores RGB y Compuestos. A pesar de ser superior a la MDA, muchos usuarios preferían esta última dado que la distancia entre puntos de la rejilla de potencial en los monitores CGA era mayor. El tratamiento del color, por supuesto de modo digital, se realizaba con tres bits y uno más para intensidades. Así era posible lograr 8 colores con dos intensidades cada uno, es decir, un total de 16 tonalidades diferentes pero no reproducibles en todas las resoluciones tal y como se muestra en el cuadro adjunto. Esta tarjeta tenía un fallo bastante habitual y era el conocido como "snow". Este problema era de caracter aleatorio y consistía en la aparición de "nieve" en la pantalla (puntos brillantes e intermitentes que distorsionaban la imagen). Tanto era así que algunas BIOS de la época incluían en su SETUP la opción de eliminación de nieve ("No snow"). 3. Tarjeta HGC. "Hercules Graphics Card" o más popularmente conocida como Hércules (nombre de la empresa productora), aparece en el año 1982, con gran éxito convirtiéndose en un estándar de vídeo a pesar de no disponer del soporte de las rutinas de la BIOS por parte de IBM. Su resolución era de 720x348 puntos en monocromo con 64 KB de memoria. Al no disponer de color, la única misión de la memoria es la de referenciar cada uno de los puntos de la pantalla usando 30,58 KB para el modo gráfico (1 bit x 720 x 348)y el resto para el modo texto y otras funciones. Las lecturas se realizaban a una frecuencia de 50 HZ, gestionadas por el controlador de vídeo 6845. Los caracteres se dibujaban en matrices de 14x9 puntos. Fabricantes. En el mercado de las tarjetas gráficas hay que distinguir dos tipos de fabricantes: 1. De chips, generan exclusivamente la GPU. Los dos más importantes son ATI y NVIDIA. 2. GPU integrado en el chipset de la placa base: también destaca Intel además de los antes citados NVIDIA y ATI. Otros fabricantes como Matrox o S3 Graphics tienen una cuota de mercado muy reducida. 1. De tarjetas: integran los chips adquiridos de los anteriores con el resto de la tarjeta, de diseño propio. De ahí que tarjetas con el mismo chip den resultados diferentes según la marca. Hardware (Partes de la PC) (Información Recopilada) - Página 67 de 94
API para gráficos. A nivel de programador, trabajar con una tarjeta gráfica es complicado; por ello, surgieron interfaces que abstraen la complejidad y diversidad de las tarjetas gráficas. Los dos más importantes son: Direct3D: lanzada por Microsoft en 1996, forma parte de la librería DirectX. Funciona sólo para Windows, ya que es privativa. Utilizado por la mayoría de los videojuegos comercializados para Windows. OpenGL: creada por Silicon Graphics a principios de los años 1990; es gratuita, libre y multiplataforma. Utilizada principalmente en aplicaciones de CAD, realidad virtual o simulación de vuelo. Actualmente está disponible la versión 4.0. OpenGL está siendo desplazada del mercado de los videojuegos por Direct3D, aunque haya sufrido muchas mejoras en los últimos meses. Efectos gráficos. Algunas de las técnicas o efectos habitualmente empleados o generados mediante las tarjetas gráficas pueden ser: a. Antialiasing: retoque para evitar el aliasing, efecto que aparece al representar curvas y rectas inclinadas en un espacio discreto y finito como son los píxeles del monitor. b. Shader: procesado de píxeles y vértices para efectos de iluminación, fenómenos naturales y superficies con varias capas, entre otros. c. HDR: técnica novedosa para representar el amplio rango de niveles de intensidad de las escenas reales (desde luz directa hasta sombras oscuras). Es una evolución del efecto Bloom, aunque a diferencia de éste, no permite Antialiasing. d. Mapeado de texturas: técnica que añade detalles en las superficies de los modelos, sin aumentar la complejidad de los mismos. e. Motion Blur: efecto de emborronado debido a la velocidad de un objeto en movimiento. f. Depth Blur: efecto de emborronado adquirido por la lejanía de un objeto. g. Lens flare: imitación de los destellos producidos por las fuentes de luz sobre las lentes de la cámara. h. Efecto Fresnel (reflejo especular): reflejos sobre un material dependiendo del ángulo entre la superficie normal y la dirección de observación. A mayor ángulo, más reflectante. i. Teselado: Consiste en multiplicar el número de polígonso para representar ciertas figuras geométricas y no se vean totalmente planas. Esta característica fue incluida en la API DirectX 11. Errores comunes. 1. Confundir a la GPU con la tarjeta gráfica. Aunque muy importante, no todas las GPUs y adaptadores de gráficos van en tarjeta ni son el único determinante de su calidad y rendimiento. Es decir, las GPUs sí determinan el rendimiento máximo de la tarjeta, pero su rendimiento puede ser capado por tener otros elementos que no estén a su altura, por ejemplo un ancho de banda pequeño. 2. Considerar el término tarjeta de video como privativo del PC y compatibles. Esas tarjetas se usan en equipos no PC e incluso sin procesador Intel o AMD y sus chips en videoconsolas.
Hardware (Partes de la PC) (Información Recopilada) - Página 68 de 94
3. Confundir al fabricante de la GPU con la marca de la tarjeta. Actualmente los mayores fabricantes de chip gráficos de PC en el mercado son NVIDIA y AMD (Antiguamente ATi Tecnologies). Esto se debe a que se encargan solamente, de diseñar los chips gráficos (GPU). Luego, empresas como TSMC o Global Fundities fabrican las GPUs y más tarde son ensambladas en PCBs con memorias por ASUS, POV, XFX, Gigabyte, Shapphire y demás ensambladoras para su venta al público. 4. Saliendo del círculo de PCs, para otros dispositivos como Smartphones, la mayoría de las GPUs vienen integradas en "System on Chip" junto al procesador y el controlador de memoria. La resolución y el número de colores. La resolución es el número de puntos que es capaz de presentar por pantalla una tarjeta de vídeo, tanto en horizontal como en vertical. Así, "800x600" significa que la imagen está formada por 600 rectas horizontales de 800 puntos cada una. Para que nos hagamos una idea, un televisor (de cualquier tamaño) tiene una resolución equivalente de 800x625 puntos.
En cuanto al número de colores, resulta evidente: los que puede presentar a la vez por pantalla la tarjeta. Así aunque las tarjetas EGA sólo representan a la vez 16 colores, los eligen de una paleta de 64 colores. La combinación de estos dos parámetros se denomina modo de vídeo; están estrechamente relacionados: a mayor resolución, menor número de colores representables, y a la inversa. En tarjetas modernas (SVGA y superiores), lo que las liga es la cantidad de memoria de vídeo (la que está presente en la tarjeta, no la memoria general o RAM). Algunas combinaciones posibles son: Memoria de vídeo Máxima resolución (en 2D) Máximo número de colores 512 Kb
1024x768 a 16 colores
256 a 640x480 puntos
1 MB
1280x1024 a 16 colores
16,7 millones a 640x480
2 MB
1600x1200 a 256 colores
16,7 millones a 800x600
4 MB
1600x1200 a 65.536 colores 16,7 millones a 1024x768
Hardware (Partes de la PC) (Información Recopilada) - Página 69 de 94
Se han colocado los modos más comunes, ya que no todas las tarjetas admiten todos los modos, aparte de que muchas no permiten ampliar la memoria de vídeo. El cálculo de la memoria necesaria es: (Res. Vert.) x (Res. Horiz.) x (Bits de color)/8. Cabe destacar que el modo de vídeo elegido debe ser soportado por el monitor, ya que si no éste podría dañarse gravemente. Esto depende de las características del mismo, en concreto de la Frecuencia Horizontal, como se explica en el apartado dedicado al monitor. Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen necesitar bastante más memoria, en general unas 3 veces más; por ello, jugar a 800x600 puntos con 16 bits de color (65.536 colores) suele requerir al menos 4 MB de memoria de vídeo. La velocidad de refresco. El refresco, es el número de veces que se dibuja la pantalla por segundo (como los fotogramas del cine); evidentemente, cuanto mayor sea menos se nos cansará la vista y trabajaremos más cómodos y con menos problemas visuales. Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, con el mínimo de fatiga visual, 75-80 Hz o más. El mínimo absoluto son 60 Hz; por debajo de esta cifra los ojos sufren, y unos minutos bastan para empezar a sentir escozor o incluso un pequeño dolor de cabeza. Antiguamente se usaba una técnica horrible denominada entrelazado, que consiste en que la pantalla se dibuja en dos pasadas, primero las líneas impares y luego las pares, por lo que 70 Hz entrelazados equivale a poco más de 35 sin entrelazar, lo que cansa la vista sobremanera. Afortunadamente la técnica está en desuso, pero en los monitores de 14" se ha usado hasta hace un par de años. El motivo de tanto entrelazado y no entrelazado es que construir monitores que soporten buenas velocidades de refresco a alta resolución es bastante caro, por lo que la tarjeta de vídeo empleaba estos truquitos para ahorrar a costa de la vista del usuario. Sin embargo, tampoco todas las tarjetas de vídeo pueden ofrecer cualquier velocidad de refresco. Esto depende de dos parámetros: La velocidad del RAMDAC, el conversor analógico digital. Se mide en MHz, y debe ser lo mayor posible, preferiblemente superior a 200 MHz. La velocidad de la memoria de vídeo, preferiblemente de algún tipo avanzado como WRAM, SGRAM o SDRAM. Memoria de vídeo. Como hemos dicho, su tamaño influye en los posibles modos de vídeo (cuanta más exista, más opciones tendremos); además, su tipo determina si conseguiremos buenas velocidades de refresco de pantalla o no. Los tipos más comunes son: DRAM: en las tarjetas más antiguas, ya descatalogadas. Malas características; refrescos máximos entorno a 60 Hz.
Hardware (Partes de la PC) (Información Recopilada) - Página 70 de 94
EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad media-baja. Muy variables refrescos dependiendo de la velocidad de la EDO, entre 40 ns las peores y 25 ns las mejores. VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de calidad, muy buenas características. MDRAM: un tipo de memoria no muy común, pero de alta calidad. SDRAM y SGRAM: actualmente utilizadas mayoritariamente, muy buenas prestaciones. La SGRAM es SDRAM especialmente adaptada para uso gráfico, en teoría incluso un poco más rápida.
Conectores: PCI, AGP. La tarjeta gráfica, como añadido que es al PC, se conecta a éste mediante un slot o ranura de expansión. Muchos tipos de ranuras de expansión se han creado precisamente para satisfacer a la ingente cantidad de información que se transmite cada segundo a la tarjeta gráfica. ISA: el conector original del PC, poco apropiado para uso gráfico; en cuanto llegamos a tarjetas con un cierto grado de aceleración resulta insuficiente. Usado hasta las primeras VGA " aceleradoras gráficas", aquellas que no sólo representan la información sino que aceleran la velocidad del sistema al liberar al microprocesador de parte de la tarea gráfica mediante diversas optimizaciones. VESA Local Bus: más que un slot un bus, un conector íntimamente unido al microprocesador, lo que aumenta la velocidad de transmisión de datos. Una solución barata usada en muchas placas 486, de buen rendimiento pero tecnológicamente no muy avanzada. PCI: el estándar para conexión de tarjetas gráficas (y otros múltiples periféricos). Suficientemente veloz para las tarjetas actuales, si bien algo estrecho para las 3D que se avecinan. AGP: tampoco un slot, sino un puerto (algo así como un bus local), pensado únicamente para tarjetas gráficas que transmitan cientos de MB/s de información, típicamente las 3D. Presenta poca ganancia en prestaciones frente a PCI, pero tiene la ventaja de que las tarjetas AGP pueden utilizar memoria del sistema como memoria de vídeo (lo cual, sin embargo, penaliza mucho el rendimiento). En cualquier caso, el conector sólo puede limitar la velocidad de una tarjeta, no la eleva, lo que explica que algunas tarjetas PCI sean muchísimo más rápidas que otras AGP más baratas o peor fabricadas. Adecuación al uso del ordenador. Evidentemente, no es lo mismo elegir una tarjeta gráfica para trabajar en Word en un monitor de 15" que para hacer CAD en uno de 21". Nótese que siempre hago referencia al monitor con el que van a trabajar, porque una tarjeta muy buena no puede demostrarlo en un mal monitor, ni a la inversa. Ofimática: tarjetas en formato PCI o AGP, con microprocesadores buenos en 2D, sin necesidades 3D específicas; capaces de 1024x768; con unos 2 ó 4 MB; y con buenos refrescos, entorno a 70 u 80 Hz. Un ejemplo típico "de marca" es la Matrox G200, o bien cualquiera basada en el chip i740.
Hardware (Partes de la PC) (Información Recopilada) - Página 71 de 94
Juegos y CAD en 3D: con micros especiales para 3D, con mucha memoria (entre 8 y 32 MB), generalmente de marca y preferiblemente AGP. Por ejemplo, las tarjetas basadas en chips TNT2 o Voodoo3. Imágenes y CAD en 2D: con chips de 64 ó 128 bits, memorias ultrarrápidas, capaces de llegar a 1600x1200 puntos a 70 Hz o más, con 4 MB o más. Cualquiera con un superchip, SGRAM/SDRAM y un RAMDAC de 225 MHz o más.
Algunas aplicaciones de las tarjetas gráficas en los videojuegos.
Tarjteas gráficas NVIDIA y ATI.
Hardware (Partes de la PC) (Información Recopilada) - Página 72 de 94
Tarjetas NVIDIA PCI Express.
Tarjetas ATI PCI Express.
Hardware (Partes de la PC) (Informaci贸n Recopilada) - P谩gina 73 de 94
TARJETA DE SONIDO (TARJETA DE AUDIO). Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite la entrada y salida de audio bajo el control de un programa informático llamado controlador (en inglés driver).
El típico uso de las tarjetas de sonido consiste en proveer mediante un programa que actúa de mezclador, que las aplicaciones multimedia del componente de audio suenen y puedan ser gestionadas. Estas aplicaciones multimedia engloban composición y edición de video o audio, presentaciones multimedia y entretenimiento (videojuegos). Algunos equipos tienen la tarjeta ya integrada, mientras que otros requieren tarjetas de expansión. En el 2010 el hecho de que un equipo no incorpore tarjeta de sonido, puede observarse en computadores que por circunstancias profesionales no requieren de dicho servicio. Características generales. Una tarjeta de sonido típica, incorpora un chip de sonido que por lo general contiene el Conversor digital-analógico, el cual cumple con la importante función de "traducir" formas de ondas grabadas o generadas digitalmente en una señal analógica y viceversa. Esta señal es enviada a un conector (para auriculares) en donde se puede conectar cualquier otro dispositivo como un amplificador, un altavoz, etc. Para poder grabar y reproducir audio al mismo tiempo con la tarjeta de sonido debe poseer la característica "full-duplex" para que los dos conversores trabajen de forma independiente. Los diseños más avanzados tienen más de un chip de sonido, y tienen la capacidad de separar entre los sonidos sintetizados (usualmente para la generación de música y efectos especiales en tiempo real utilizando poca cantidad de información y tiempo del microprocesador y quizá compatibilidad MIDI) y los sonidos digitales para la reproducción. Esto último se logra con DACs (por sus siglas en inglés Digital-Analog-Conversor o ConversorDigital-Analógico), que tienen la capacidad de reproducir múltiples muestras digitales a diferentes tonos e incluso aplicarles efectos en tiempo real como el filtrado o distorsión. Algunas veces, la reproducción digital de multi-canales puede ser usado para sintetizar música si es combinado con un banco de instrumentos que por lo general es una pequeña cantidad de memoria ROM o flash con datos sobre el sonido de distintos instrumentos musicales. Otra forma de sintetizar música en las PC es por medio de los "códecs de audio" los cuales son programas diseñados para esta función pero consumen mucho tiempo de microprocesador. Esta también nos sirve para teléfonos móviles en la tecnología celular del mundo moderno de tal modo que estos tengan una mayor capacidad de bulla. La mayoría Hardware (Partes de la PC) (Información Recopilada) - Página 74 de 94
de las tarjetas de sonido también tienen un conector de entrada o "Line In" por el cual puede entrar cualquier tipo de señal de audio proveniente de otro dispositivo como micrófonos, reproductores de casetes entre otros y luego así la tarjeta de sonido puede digitalizar estas ondas y guardarlas en el disco duro del computador. Otro conector externo que tiene una tarjeta de sonido típica es el conector para micrófono. Este conector está diseñado para recibir una señal proveniente de dispositivos con menor voltaje al utilizado en el conector de entrada "Line-In". Funcionalidades. Las operaciones básicas que permiten las tarjetas de sonido convencionales son las siguientes: Grabación: La señal acústica procedente de un micrófono u otras fuentes se introduce en la tarjeta por los conectores. Esta señal se transforma convenientemente y se envía al computador para su almacenamiento en un formato específico. Reproducción: La información de onda digital existente en la máquina se envía a la tarjeta. Tras cierto procesado se expulsa por los conectores de salida para ser interpretada por un altavoz u otro dispositivo. Síntesis: El sonido también se puede codificar mediante representaciones simbólicas de sus características (tono, timbre, duración...), por ejemplo con el formato MIDI. La tarjeta es capaz de generar, a partir de esos datos, un sonido audible que también se envía a las salidas. Aparte de esto, las tarjetas suelen permitir cierto procesamiento de la señal, como compresión o introducción de efectos. Estas opciones se pueden aplicar a las tres operaciones. Componentes. a) Interfaz con placa madre. Sirve para transmitir información entre la tarjeta y el computador. Puede ser de tipo PCI, ISA, PCMCIA, USB, etc. b) Buffer. La función del buffer es almacenar temporalmente los datos que viajan entre la máquina y la tarjeta, lo cual permite absorber pequeños desajustes en la velocidad de transmisión. Por ejemplo, si la CPU no envía un dato a tiempo, la tarjeta puede seguir reproduciendo lo que tiene en el buffer; si lo datos llegan demasiado rápido, se van guardando. Lo mismo pasa en sentido inverso. Muchos ordenadores realizan la transmisión por DMA. Esto permite transportar los datos entre la tarjeta y la memoria directamente, sin la intervención de la CPU, lo cual le ahorra trabajo. c) DSP (Procesador de señal digital). Procesador de señal digital. Es un pequeño microprocesador que efectúa cálculos y tratamientos sobre la señal de sonido, liberando así a la CPU de ese trabajo. Entre las tareas que realiza se incluye compresión (en la grabación) y descompresión (en la reproducción) de la señal digital. También puede introducir efectos acústicos tales como coros, reverberación, etc., a base de algoritmos. Los DSP suelen disponer de múltiples canales para
Hardware (Partes de la PC) (Información Recopilada) - Página 75 de 94
procesar distintos flujos de señal en paralelo. También pueden ser full-duplex, lo que les permite manipular datos en ambos sentidos simultáneamente. d) ADC (Conversor analógico-digital). Se encarga de transformar la señal de sonido analógica en su equivalente digital. Esto se lleva a cabo mediante tres fases: muestreo, cuantificación y codificación. Como resultado se obtiene una secuencia de valores binarios que representan el nivel de tensión en un momento concreto. El número de bits por muestra es fijo, y suele ser 16. La frecuencia de muestreo se puede controlar desde el PC, y normalmente es una fracción de 44.1kHz. e) DAC (Conversor digital-analógico). Su misión es reconstruir una señal analógica a partir de su versión digital. Para ello el circuito genera un nivel de tensión de salida de acuerdo con los valores que recibe, y lo mantiene hasta que llega el siguiente. En consecuencia se produce una señal escalonada, pero con la suficiente frecuencia de muestreo puede reproducir fielmente la original. f) Sintetizador FM (modulación de frecuencia). La síntesis por modulación de frecuencias implementa uno de los métodos de sintetizar sonido a partir de información simbólica (MIDI). Su funcionamiento consiste en variar la frecuencia de una onda portadora sinusoidal en función de una onda moduladora. Con esto se pueden conseguir formas de onda complejas con múltiples armónicos, que son lo que define el timbre. El tono y volumen del sonido deseado los determinan la frecuencia fundamental y la amplitud de la onda. Los primeros sintetizadores FM generaban una señal analógica. Sin embargo, posteriormente se han desarrollado versiones que trabajan digitalmente. Esto da más flexibilidad y por tanto más expresividad a la generación de ondas, a la vez que permite someter la señal a tratamiento digital. g) Sintetizador por Tabla de Ondas. La síntesis mediante tabla de ondas es un método alternativo al FM. En vez de generar sonido de la nada, utiliza muestras grabadas de los sonidos de instrumentos reales. Estas muestras están almacenadas en formato digital en una memoria ROM incorporada, aunque también pueden estar en memoria principal y ser modificables. El sintetizador busca en la tabla el sonido que más se ajusta al requerido en cada momento. Antes de enviarlo realiza algunos ajustes sobre la muestra elegida, como modificar el volumen, prolongar su duración mediante un bucle, o alterar su tono a base de aumentar o reducir la velocidad de reproducción. Este componente puede tener una salida analógica o digital, aunque es preferible la segunda. En general el sonido resultante es de mayor calidad que el de la síntesis FM. Alternativamente, este proceso puede ser llevado a cabo enteramente por software, ejecutado por la CPU con muestras almacenadas en disco. h) Mezclador. El mezclador tiene como finalidad recibir múltiples entradas, combinarlas adecuadamente, y encaminarlas hacia las salidas. Para ello puede mezclar varias señales (por ejemplo, sacar por el altavoz sonido reproducido y sintetizado) o seleccionar alguna de ellas (tomar como entrada el micrófono ignorando el Line-In). Este comportamiento se puede configurar por software. Tanto las entradas como las salidas pueden proceder de la tarjeta o del exterior. El mezclador suele trabajar con señales analógicas, aunque también puede manejar digitales (S/PDIF).
Hardware (Partes de la PC) (Información Recopilada) - Página 76 de 94
i) Conectores. Son los elementos físicos en los que deben conectarse los dispositivos externos, los cuales pueden ser de entrada o de salida. Casi todas las tarjetas de sonido se han adaptado al estándar PC 99 de Microsoft que consiste en asignarle un color a cada conector externo, de este modo: Color
Función
Rosa
Entrada analógica para micrófono.
Azul
Entrada analógica "Line-In"
Verde
Salida analógica para la señal estéreo principal (altavoces frontales).
Negro
Salida analógica para altavoces traseros.
Plateado Salida analógica para altavoces laterales. Naranja
Salida Digital SPDIF (que algunas veces es utilizado como salida analógica para altavoces centrales).
Los conectores más utilizados para las tarjetas de sonido a nivel de usuario son los minijack al ser los más económicos. Con los conectores RCA se consigue mayor calidad ya que utilizan dos canales independientes, el rojo y el blanco, uno para el canal derecho y otro para el izquierdo. A nivel profesional se utilizan las entradas y salidas S/PDIF, también llamadas salidas ópticas digitales, que trabajan directamente con sonido digital eliminando las pérdidas de calidad en las conversiones. Para poder trabajar con dispositivos MIDI se necesita la entrada y salida MIDI. Aspectos de la señal. Muestreo de sonido. Para producir un sonido el altavoz necesita una posición donde golpear, que genera, dependiendo del lugar golpeado, una vibración del aire diferente que es la que capta el oído humano. Para determinar esa posición se necesita una codificación. Por lo tanto cuanto mayor número de bits se tenga, mayor número de posiciones diferentes se es capaz de representar. Por ejemplo, si la muestra de sonido se codifica con 8 bits se tienen 256 posiciones diferentes donde golpear. Sin embargo con 16 bits se conseguirían 65536 posiciones. No se suelen necesitar más de 16 bits, a no ser que se quiera trabajar con un margen de error que impida que la muestra cambie significativamente. Hardware (Partes de la PC) (Información Recopilada) - Página 77 de 94
Frecuencia de muestreo. Las tarjetas de sonido y todos los dispositivos que trabajan con señales digitales lo pueden hacer hasta una frecuencia límite, mientras mayor sea esta mejor calidad se puede obtener. Las tarjetas de sonido que incluían los primeros modelos de Apple Macintosh tenían una frecuencia de muestreo de 22050 Hz (22,05 KHz) de manera que su banda de frecuencias para grabar sonido y reproducirlo estaba limitada a 10 KHz con una precisión de 8 bits que proporciona una relación señal sobre ruido básica de solo 40 dB, las primeras tarjetas estereofónicas tenían una frecuencia de muestreo de 44100 Hz (igual que los reproductores de CD) con lo que la banda útil se extendió hasta los 20 KHz (alta calidad) pero se obtiene un sonido más claro cuando se eleva un poco esta frecuencia pues hace que los circuitos de filtrado funcionen mejor, por lo que los DAT (digital audio tape) tienen una frecuencia de conversión en sus convertidores de 48 KHz, con lo cual la banda se extiende hasta los 22 KHz. Debe recordarse que la audición humana está limitada a los 16 ó 17 KHz, pero si los equipos se extienden más allá de este límite se tiene una mejor calidad, también que la frecuencia de muestreo (del convertidor) debe ser de más del doble que la banda que se pretende utilizar (teorema de Nyquist en la práctica). Finalmente los nuevos formatos de alta definición usan frecuencias de muestreo de 96 KHz (para tener una banda de 40 KHz) y hasta 192 KHz, no porque estas frecuencias se puedan oír, sino porque así es más fácil reproducir las que si se oyen. Canales de sonido y polifonía. Otra característica importante de una tarjeta de sonido es su polifonía. Es el número de distintas voces o sonidos que pueden ser tocados simultánea e independientemente. El número de canales se refiere a las distintas salidas eléctricas, que corresponden a la configuración del altavoz, como por ejemplo 2.0 (estéreo), 2.1 (estéreo y subwoofer), 5.1, etc. En la actualidad se utilizan las tarjetas de sonido envolvente (surround), principalmente Dolby Digital 8.1 o superior. El número antes del punto (8) indica el número de canales y altavoces satélites, mientras que el número después del punto (1) indica la cantidad de subwoofers. En ocasiones los términos voces y canales se usan indistintamente para indicar el grado de polifonía, no la configuración de los altavoces. Historia de las tarjetas de sonido para la arquitectura del IBM PC. Las tarjetas de sonido eran desconocidas para los ordenadores basados en el IBM PC hasta 1988, siendo el altavoz interno del PC el único medio para producir sonido del que se disponía. El altavoz estaba limitado a la producción de ondas cuadradas, que generaba sonidos descritos como "beeps". Algunas compañías, entre las que destacaba Access Software, desarrollaron técnicas para la reproducción del sonido digital en el altavoz del PC. El audio resultante, aunque funcional, sufría distorsiones, tenía un volumen bajo y normalmente requería de los recursos destinados al resto de procesos mientras los sonidos eran reproducidos. Otros modelos de ordenadores domésticos de los años 80 incluían soporte hardware para la reproducción de sonido digital y/o síntesis musical, dejando al IBM PC en desventaja cuando aparecieron las aplicaciones multimedia como la composición de música o los juegos. Es importante destacar que el diseño inicial y el planteamiento de marketing de las tarjetas de sonido de la plataforma IBM PC no estaban dirigidas a los juegos, pero sí que se Hardware (Partes de la PC) (Información Recopilada) - Página 78 de 94
encontraban en aplicaciones de audio específicas como composición de música o reconocimiento de voz. Esto llevó al entorno de Sierra y otras compañías en 1988 a cambiar el enfoque de las tarjetas hacia los videojuegos.
Tarjetas de sonido de diversas marcas.
Hardware (Partes de la PC) (Información Recopilada) - Página 79 de 94
GABINETE DE LA COMPUTADORA (CARCASA). En informática, las carcasas, torres, gabinetes, cajas o chasis de ordenador, son el armazón del equipo que contiene los componentes del ordenador, normalmente construidos de acero, plástico o aluminio. También podemos encontrarlas de otros materiales como madera o polimetilmetacrilato para cajas de diseño. A menudo de metal electrogalvanizado. Su función es la de proteger los componentes del ordenador.
Historia. En 1972 Intel fabricó el primer microprocesador, el 4004 abriendo el camino a los ordenadores en los hogares, vía en la que se comprometerán Apple (1976) y más tarde Commodore y Tandy (1977). La historia de la carcasa comienza pues con ellos. Commodore dotó a sus ordenadores de un único bloque en el que se encontraba el teclado y el lector de cintas magnéticas, así como el TRS-80 de Tandy añadió una televisión con un cable separada. Apple fue comercializado en pequeñas cantidades y sin caja. Después de esta primera tentativa la mayoría de los ordenadores siguieron la línea de incluir el teclado en la caja. Commodore y Thomson abrieron las puertas en 1982 con el Commodore VIC 20 y el famoso Thomson TO7. Surgieron otras celebridades como Oric, Amstrad y más tarde Amiga. Solo el Apple Macintosh 128k continuó en la misma línea de incluir el monitor en la caja. En la tercera generación de la evolución, con la intervención de la Amiga 1000 en 1985, se inauguraron las cajas de escritorio. Este nuevo tipo de diseño duraría mucho tiempo ya que se encontraría en la mayoría de los equipos hasta 1992-1993. Se presenta como una carcasa separada del teclado por un cable así como del monitor. Concebida para reposar sobre el escritorio y colocar la pantalla sobre ella y acoger los dispositivos extraíbles (disquetes de 5'25” y de 3'5”). La siguiente evolución, que perdura en la actualidad, se hizo ha mediado de los años 1990; se trató de colocar la carcasa en modo vertical: la torre. Esto permitió aumentar el tamaño considerablemente y colocar los dispositivos de lectura perpendiculares a la carcasa aprovechando más el espacio para su colocación. Alrededor de los años 1990 las cajas solían tener todas, una forma rectangular y normalmente de color beige. En 1998 Apple apostó por carcasas con diseños y colores más Hardware (Partes de la PC) (Información Recopilada) - Página 80 de 94
estéticos incluso llegando a reducir su tamaño. Desde entonces las compañías fabrican carcasas que tienen una vista más agradable. Desde 2007 las cajas más vendidas eran de un color negro o gris metalizado. Una nueva óptica en la evolución de las carcasas fue la de la ventilación y el ruido. En la caja se fue añadiendo espacio para agregar ventiladores, cada vez más y más grandes. El modding es un estilo más artístico de las carcasas, frecuentemente con accesorios innovadores para llamar la atención. Desde el principio del 2000 se han añadido paneles transparentes o ventanas para poder ver el interior del PC. Los aficionados al modding incluyen LED internos, colores llamativos o incluso refrigeración por agua a sus equipos. Las pegatinas son comunes en las carcasas mostrando el procesador interno o el sistema operativo para el que fueron diseñadas.
Tamaños. El tamaño de las carcasas viene dado por el factor de forma de la placa base. Sin embargo el factor de forma solo especifica el tamaño interno de la caja. Barebone: Gabinetes de pequeño tamaño cuya función principal es la de ocupar menor espacio y crea un diseño más agradable. Son útiles para personas que quieran dar buena impresión como una persona que tenga un despacho en el que reciba a mucha gente. Los barebone tienen el problema de que la expansión es complicada debido a que admite pocos (o ningún) dispositivos. Otro punto en contra es el calentamiento al ser de tamaño reducido aunque para una persona que no exija mucho trabajo al ordenador puede estar bien. Este tipo de cajas tienen muchos puertos USB para compensar la falta de dispositivos, como una disquetera (ya obsoleta), para poder conectar dispositivos externos como un disco USB o una memoria. Minitorre: Dispone de una o dos bahías de 5 ¼ y dos o tres bahías de 3 ½. Dependiendo de la placa base se pueden colocar bastantes tarjetas. No suelen tener problema con los USB y se venden bastantes modelos de este tipo de torre ya que es pequeña y a su vez hace las paces con la expansión. Su calentamiento es normal y no tiene el problema de los barebone.
Hardware (Partes de la PC) (Información Recopilada) - Página 81 de 94
Sobremesa: No se diferencian mucho de las minitorres, a excepción de que en lugar de estar en vertical se colocan en horizontal sobre el escritorio. Antes se usaban mucho pero ahora están cada vez más en desuso. Se solían colocar sobre ella el monitor. Mediatorre o semitorre: La diferencia de ésta es que aumenta su tamaño para poder colocar más dispositivos. Normalmente son de 4 bahías de 5 ¼ y 4 de 3 ½ y un gran número de huecos para poder colocar tarjetas y demás aunque esto depende siempre de la placa base. Torre: Es el más grande. Puedes colocar una gran cantidad de dispositivos y es usado cuando se precisa una gran cantidad de dispositivos.
Servidor: Suelen ser gabinetes más anchos que los otros y de una estética inexistente debido a que van destinadas a lugares en los que no hay mucho tránsito de clientes como es un centro de procesamiento de datos. Su diseño está basado en la eficiencia donde los periféricos no es la mayor prioridad sino el rendimiento y la ventilación. Suelen tener más de una fuente de alimentación de extracción en caliente para que no se caiga el servidor en el caso de que se estropee una de las dos y normalmente están conectados a un SAI que protege a los equipos de los picos de tensión y consigue que en caso de caída de la red eléctrica el servidor siga funcionando por un tiempo limitado. Rack: Son otro tipo de servidores. Normalmente están dedicados y tienen una potencia superior que cualquier otro ordenador. Los servidores rack se atornillan a un mueble que tiene una medida especial: la "U". Una "U" es el ancho de una ranura del mueble. Este tipo de servidores suele colocarse en salas climatizadas debido a la temperatura que alcanza.
Hardware (Partes de la PC) (Información Recopilada) - Página 82 de 94
Modding: El modding es un tipo de gabinete que es totalmente estético incluso se podría decir en algunos casos que son poco funcionales. Normalmente este tipo de gabinetes lleva incorporado un montón de luces de neón, ventiladores, dibujos y colores extraños pero también los hay con formas extravagantes que hacen que muchas veces sea difícil la expansión (como una torre en forma de pirámide en la que colocar componentes se complica.
Portátiles: Son equipos ya definidos. Poco se puede hacer para expandirlos y suelen calentarse mucho si son muy exigidos. El tamaño suele depender del monitor que trae incorporado y con los tiempos son cada vez más finos. Su utilidad se basa en que tenemos todo el equipo integrado en el gabinete: Teclado, monitor, y mouse, y por lo tanto lo hacen portátil.
Distribución. Normalmente una carcasa contiene cajas para las fuentes de alimentación y bahías de unidades. En el panel trasero se puede localizar conectores para los periféricos procedentes de la placa base y de las tarjetas de expansión. En el panel frontal encontramos, en muchos casos, botones de encendido y reinicio y LED que indican el estado de encendido de la máquina, el uso del disco duro y la actividad de red. En algunas carcasas antiguas podíamos ver botones de turbo que limitaban el uso de la CPU y que fueron desapareciendo con el tiempo. En las nuevas podemos ver paneles en el que podemos conectar dispositivos más modernos como USB, Firewire, auriculares y micrófonos. También podemos ver pantallas LCD que indican la velocidad del microprocesador, la Hardware (Partes de la PC) (Información Recopilada) - Página 83 de 94
temperatura, la hora del sistema, etcétera. Todos estos dispositivos han de conectarse a la placa base para obtener la información. Componentes mayores. Las placas bases suelen estar atornilladas al fondo o a un lado de la parte interna del gabinete, dependiendo del factor de forma y la orientación. Algunos formatos, como el ATX, vienen con ranuras que hay que destapar para colocar los dispositivos de entrada/salida que vienen integrados en la placa base para los periféricos, así como ranuras para las tarjetas de expansión. Las fuentes de alimentación suelen estar colocadas en la parte superior trasera sujeta por tornillos. En el panel frontal los formatos como ATX disponen de bahías de 5¼” pulgadas (utilizado por ejemplo por unidades de discos ópticos) y de 3½” pulgadas (utilizado por ejemplo por disqueteras, discos duros o lectores de tarjetas). Los dispositivos de entrada/salida opcionales suelen estar en la parte frontal abajo, mismo lugar donde se ubican los LED. Acceso interior. Los gabinetes más modernos tienen un único panel desmontable que está fijado con tornillos a la carcasa y que al retirarlo podemos acceder a la placa base, las tarjetas de expansión y los dispositivos de almacenamiento de datos fácilmente. Las carcasas más antiguas tenían que desmontar la chapa con múltiples tornillos que hacían más difícil de manipular por dentro. Hoy día existen carcasas en las que se puede operar sin herramientas ya que sustituyen los tornillos por carriles de plástico y corchetes que facilitan el trabajo de manipulación.
¿Qué es el modding? El "modding" es el arte o técnica de modificar estética o funcionalmente partes de un ordenador, ya sea la torre, mouse, teclado o monitor. A todo el que practica o hace el modding se le llama "modder". Sin embargo, la palabra modding se suele usar frecuentemente para las modificaciones realizadas a un ordenador o a algo relacionado con él, como son los periféricos, accesorios e incluso muebles que lo rodean. Esto significa es personalizar los PC's añadiéndole, modificando o en muy raras ocasiones, sacándole partes, modificando la estructura de la caja, añadiendo componentes, Hardware (Partes de la PC) (Información Recopilada) - Página 84 de 94
modificando la forma de estos para obtener mayor espectacularidad y diseño, en definitiva es el arte de darle forma y color al PC poniendo en ello toda la imaginación que se pueda tener. El modding es modificar. No significa que si tomamos un teclado y le cambiamos las lucecitas o lo pintamos de dorado seremos expertos del modding. Este arte lleva su tiempo, es difícil decidir lo que uno va a hacer con el PC. He aquí algunos ejemplos de modding:
Hardware (Partes de la PC) (Información Recopilada) - Página 85 de 94
Hardware (Partes de la PC) (Informaci贸n Recopilada) - P谩gina 86 de 94
FUENTE DE PODER (ALIMENTACION ELECTRICA). La fuente de alimentación (Power supply en inglés) es como su nombre indica, la encargada de suministrar energía eléctrica a los distintos elementos que componen nuestro sistema informático.
La electricidad que llega hasta nuestros hogares u oficinas es del tipo conocido como "corriente alterna" y nos es suministrada habitualmente con una tensión (o voltaje) que suele ser de alrededor de 115 o 230 voltios. Este tipo de corriente no es en absoluto adecuada para alimentar equipos electrónicos, y más concretamente dispositivos informáticos, en dónde es necesario trabajar con "corriente continua" y voltajes mucho más bajos. Por tanto, este dispositivo es el que se encarga de "reducir" el voltaje (mediante un transformador) y posteriormente convertir la corriente alterna en continua (con un puente de diodos) para finalmente filtrarla (mediante condensadores electrolíticos). Evidentemente el esquema es mucho más complejo que el comentado, ya que en su interior se encuentran muchos otros componentes. Uno de los aspectos mesurables de una fuente de alimentación es su potencia. Esta viene expresada en vatios e indica la capacidad para alimentar más dispositivos o de mayor consumo. Suele ser habitual encontrar modelos entre 200 y 300 w (vatios), aunque también existen otros, sobre todo los que siguen el estándar MicroATX o FlexATX que ofrecen potencias menores. Otra característica bastante obvia es la tensión soportada, así como la frecuencia de la misma. Existen modelos que sólo funcionan con un tipo determinado, y otros, normalmente bitensión que permiten ser utilizados prácticamente en cualquier zona del mundo. De éstos, la mayoría incluyen un pequeño conmutador para pasar de una a otra o incluso algunos más sofisticados realizan esta misma tarea automáticamente. Es muy importante que si compramos un modelo en una zona geográfica que no sea la nuestra tengamos mucha precaución con este aspecto, ya que conectar un equipo a una tensión más alta de la permitida puede ocasionar grandes daños en él. Otros aspectos a tener en cuenta son la protección contra cortocircuitos y subidas de tensión, aunque en la práctica, sin un buen estabilizador de tensión es difícil obtener una buena protección.
Hardware (Partes de la PC) (Información Recopilada) - Página 87 de 94
En la parte trasera encontraremos el típico conector que utilizaremos para enchufar la fuente a la red eléctrica, y también es corriente encontrar otro del mismo tipo pero "hembra" al que podemos conectar el monitor en el caso de que tengamos el cable adecuado (no es lo habitual). En todo caso, siempre podremos adquirir uno (ver foto). La principal ventaja es que al apagar el ordenador (y en las placas ATX esto se puede hacer por software) también cortamos la alimentación del monitor. También encontraremos los cables de alimentación para las unidades de almacenamiento tales como discos, CD-ROM, etc. En general suelen ser 4 conectores. También encontraremos uno o dos para la disquetera y por último el que alimenta la placa base, que en las placas ATX es un único conector y en las AT son dos conectores, normalmente marcados como P8 y P9. En este último caso es muy importante no confundirse, pues ambos son físicamente iguales. Una forma de comprobar que los estamos conectando de forma correcta es comprobar que los cables de color negro estén juntos y en el centro de ambos.
¿Qué es la Power Supply (Fuente de poder)? La Power supply es el otro nombre que se le da a la fuente de poder, la cual es la encargada de suministrar energía a todos los dispositivos internos de la computadora e inclusive, a algunos externos (como el teclado o el mouse). Actualmente existen dos tecnologías en fuentes de poder, las cuales definen las características de cada una: AT y ATX. Básicamente, son el mismo circuito, pero en la fuente ATX tenemos una etapa de control más complicada, además de tener otras tensiones de salida y señales que no se tenía en las fuentes AT. La fuente de poder es un componente fundamental en una PC, ya que suministra la energía eléctrica a cada uno de los componentes del sistema. La función básica de la fuente de poder consiste en convertir el tipo de energía disponible en la toma de corriente de pared a aquellos que sea utilizable por los circuitos de la computadora. La fuente de poder además de generar –5v y -12v estos voltajes casi no se usa para nada. Estos voltajes negativos, se requieren por compatibilidad de sistemas modernos. Los voltajes –5v y –12v son suministrados a la tarjeta madre por la fuente de poder. La señal de –5v se dirigen al bus ISA en el pin 25 y no se emplea en ninguna forma en la tarjeta madre. Tampoco las señales –12v como +12v son utilizadas por la tarjeta adaptadora, estas señales simplemente son dirigidas hacia los píns B9 y B7 del bus ISA. Estos voltajes pueden ser empleados por cualquier tarjeta adaptadora en un bus. Pero lo más notable es que lo usan Hardware (Partes de la PC) (Información Recopilada) - Página 88 de 94
los circuitos transmisor/receptor de los puertos seriales integrados sobre ella, las señales de +12v y –12v podrían usarse para estos puertos. Los circuitos más recientes de puertos seriales ya no usan circuitos transmisor/receptor de +12v pero en su lugar emplean circuitos que operan sobre solo 5v o incluso 3.3v si sucede este caso es probable que la señal de –12v de la fuente de poder no se use en lo absoluto. La función principal de la energía de +12v consiste en operar los motores de unidades de disco. También esta energía de +12v es utilizada por cualquier ventilador del sistema. En los sistemas portátiles operan con +5v o +3v.
Además de suministrar la energía para operar la computadora, la fuente de poder también asegura que estos no opere a menos que la corriente que se suministre sea suficiente para que funciones en forma adecuada. En otras palabras, la fuente de poder en realidad evita que la computadora arranque u opera hasta que estén presentes todos los niveles conectados de energía. Cada fuente de poder realiza verificaciones y pruebas internas antes de permitir que el sistema inicie. La fuente de poder envía a la tarjeta madre una señal especial denominada Power-Good. Si no está presente la señal, la tarjeta no opera. El efecto de esta configuración es que cuando baja el voltaje de corriente alterna y la fuente de poder se somete a un mayor esfuerzo o se sobre caliente, la señal Power-Good disminuye obligando a reiniciar el sistema o apagarlo por completo. Cómo funciona la fuente de poder. Para empezar, cabe aclarar que la fuente de poder no es un transformador. Tiene dentro un transformador encargado de disminuir la tensión de entrada a los valores de trabajo de la fuente (los que va a entregar) y uno o dos más de acople, pero no constituyen TODA la fuente. Ésta es un dispositivo netamente electrónico (bastante complejo, por cierto); y como todo dispositivo electrónico, está constituido por etapas. A continuación, se va a describir cada una de las etapas de la fuente de poder: Etapa de Protección, Filtro de Línea, Rectificadora de Entrada, Etapa Conmutadora, Etapa Transformadora, Rectificadora de Salida, Filtro de Salida y Etapa de Control. a) Etapa de Protección. Está constituida por un fusible y un termistor (en algunos casos, el termistor -que se asemeja a una lenteja grande de color verde, negro o marrón Hardware (Partes de la PC) (Información Recopilada) - Página 89 de 94
oscuro- es reemplazada por una resistencia cementada de bajo ohmiaje (0,4 - 0,2 ohmios)). Teóricamente, esta etapa (especialmente el fusible) debería ser lo primero que debería volar, pero no siempre sucede así.... si no creen, vayan a cualquier servicio técnico y pregunten; hay casos en los que vuela media fuente y el fusible sigue "bien, gracias...". El termistor es bastante difícil que vuele, y en caso de hacerlo, es fácil de detectar, ya que literalmente hablando, revienta. b) Etapa de Filtro de Línea. Esta etapa la constituye un filtro LC (bobina condensador). Su función es eliminar el "ruido" en la red eléctrica (no se trata de que haga bulla; recuerdas lo que pasa cuando estás viendo televisión y tu mamá usa la licuadora... ESO es ruido eléctrico). Esta etapa normalmente no da problemas. c) Rectificadora de Entrada. La conforma lo que se conoce como un puente de diodos (un circuito conformado por cuatro diodos, el cual se utiliza como rectificador). Este componente (que también puede estar como cuatro diodos sueltos) convierte la onda alterna de entrada en una señal positiva pulsante; este es el primer paso para obtener una señal continua a partir de una alterna. d) Filtro de Entrada. La conforman dos capacitores (o condensadores) electrolíticos; normalmente 200V/220mf. Estos se encargan de disminuir el rizado de la señal proveniente de la etapa rectificadora, obteniendo una señal casi continua (¿cómo lo hacen: almacenando carga eléctrica y entregándola cuando es necesario). Cerca de los condensadores encontramos una resistencia de potencia, a la cual se le conoce como resistencia "bleeder". Cuando apagas la PC, esta resistencia descarga lentamente los condensadores. e) Etapa Conmutadora. Aquí encontramos los dos dispositivos que le confieren a la fuente el sobrenombre de Switching o conmutada: dos transistores de potencia. Estos dispositivos se encargan de convertir la señal casi continua proveniente de los condensadores nuevamente en una señal alterna, pero con una frecuencia mayor (pudiendo estar ésta entre los 40 a 70 KHz) y distinta forma de onda: cuadrada. Ambos transistores trabajan en modo corte-saturación, y nunca ambos a la vez; es decir que mientras uno está conduciendo, el otro se encuentra en corte. Estos transistores son comandados por la etapa de control, a través de un pequeño transformador de acople. Entre el emisor y el colector de estos transistores encontramos un diodo, el cual sirve de protección contra corrientes reactivas que pudieran dañar al transistor. f) Etapa Transformadora. El transformador que encontramos en esta etapa no es como los que conocemos. Su núcleo no es de hierro silicoso como en los transformadores comunes, sino más bien de ferrita, debido a que el hierro silicoso se satura a altas frecuencias, y peor si se trata de señal cuadrada. A su vez, también permite que este transformador pueda ser de menor tamaño al disminuir las pérdidas por histéresis y en el núcleo. Otra función que cumple es la de separar eléctricamente a las etapas de entrada de las de salida (para ser más exactos, las etapas que manejan alta tensión de las que manejan baja tensión; esto por cuestiones de SEGURIDAD) siendo el acople de estas etapas del tipo magnético.
Hardware (Partes de la PC) (Información Recopilada) - Página 90 de 94
g) Rectificadora de Salida. Debido a las características de la señal proveniente del transformador, aquí ya no se usa un puente de diodos sino unos dispositivos conocidos como "doble diodo". Aquí existe en realidad dos etapas: una para 12V y otra para 5V (tanto positivos como negativos). El valor de -5V se obtiene utilizando un regulador LM7905 y en algunos modelos, el de -12V con un LM7912. La salida de esta etapa es casi una señal continua pura. h) Filtro de Salida. A diferencia del filtro de entrada, aquí no se utilizan solamente condensadores, sino también bobinas (filtro LC) debido a que tiene una mejor respuesta en el manejo de grandes corrientes (cercanas a los 12 - 15 Amperios). Su implementación se hace necesaria debido a los tiempos de recuperación de los diodos utilizados en la etapa anterior, los cuales impiden obtener una salida continua perfecta en la etapa anterior, cosa que sí se logra en esta etapa. De aquí salen ya las tensiones de trabajo de la fuente de poder (±5 y ±12V) i) Etapa de Control. Por último, tenemos la etapa que se encarga de verificar el trabajo de la fuente. Esta etapa tienen su centro en el circuito integrado (chip) TL494 (o DBL494) el cual es un modulador de ancho de pulso (PWM: Pulse Width Modulation) Este integrado regula la velocidad de conmutación de los transistores switching, de acuerdo a la corriente que se exija a la fuente en un momento dado; asimismo, de esta etapa, sale una señal denominada "Power Good" (el cable naranja - algo así como "Potencia OK") cuyo valor normal es 5V. Esta señal va directamente a la mainboard. En caso de ocurrir alguna falla (ya sea una sobrecarga, un corto circuito o una mala conexión) su valor desciende a casi 0V; esta señal es el "pulso" de la fuente: la mainboard lo toma como referencia y corta automáticamente el suministro de energía a todos los dispositivos conectados a ella, para evitar un posible daño a los mismos. En algunos casos, en esta etapa también encontramos el chip LM339, el cual es un comparador.
Sistemas de protección de corriente. Los sistemas de protección de corriente hacen exactamente lo que su nombre implica: protegen el equipo de los efectos de sobrecarga y fallas en la corriente. En particular los picos y sobrecargas de corriente que pueden dañar la computadora, y una pérdida de energía puede dar como resultado pérdida de datos. Entre estos sistemas de protección están: a) Supresiones de pico (protectores). b) Protectores de pico en la línea telefónica. Hardware (Partes de la PC) (Información Recopilada) - Página 91 de 94
c) Acondicionadores de línea. d) Corriente de respaldo (SPS). e) Sistema de alimentación Ininterrumpibles (UPS). A continuación se presenta una breve descripción de los sistemas de protección: A. Supresores de picos (protectores). Son dispositivos que se insertan entre el sistema y la línea de corriente. Pueden absorber los altos voltajes transitorios producidos por rayos que caen cerca y por las variaciones de voltaje que en algunas ciudades son muy fuertes. Los supresores de picos emplean varios dispositivos, por lo regular MOV,s (Varistores de Oxido de Metal), que pueden tomar y desviar todos los voltajes por arriba de un cierto nivel. Los MOVs están diseñados para aceptar voltajes tan altos como 6,000v y desviar a tierra cualquier corriente por arriba de los 200v. Los MOVs pueden manejar picos normales, pero los picos poderosos como la caída directa de un rayo pueden sobrepasarlos. Los MOVs no están diseñados para manejar un nivel de corriente muy alta y se autodestruyen al desviar un pico grande. Por lo tanto dejan de funcionar ya sea después de un pico grande o de una serie de picos más pequeños. El verdadero problema es que no puede precisarse cuando ya no son funcionales. B. Protectores de pico en la línea telefónica. Si utiliza un módem o una tarjeta de fax que esté conectada al sistema telefónico, cualquier sobrecarga o pico que viaje por la línea telefónica puede, potencialmente, dañar su sistema. En muchos casos, las líneas telefónicas son en especial susceptibles a la caída de rayos, que son la causa principal de los modems quemados y de cualquier equipo de cómputo conectado a ellos. C. Acondicionares de línea. Además de las condiciones de alto voltaje y corriente, pueden ocurrir otros problemas con la señal de alimentación del sistema. El voltaje puede caer por debajo del nivel necesario para operar el sistema y dar como resultado un apagón parcial. Otras formas de ruido eléctrico distintas a las simples variaciones o picos de voltaje podrían estar en la línea de corriente, como la interferencia de radiofrecuencia o el ruido eléctrico ocasionado por motores u otras cargas inductivas. Recuerde dos cosas al conectar dos los dispositivos digitales (como las computadoras y sus periféricos): Cualquier alambre puede actuar como una antena y hará que se le induzca voltaje de los campos electromagnéticos cercanos, que pueden provenir de otros alambres, teléfonos, monitores, motores, accesorios fluorescentes estáticas y, desde luego, transmisores de radio. Los circuitos digitales también responden con sorprendente eficiencia al ruido de incluso un voltio o dos, haciendo que estos voltajes inducidos sean en particular problemáticos. El cableado eléctrico en su edificio puede actuar como una antena y recoger todo tipo de ruido y perturbaciones.
Hardware (Partes de la PC) (Información Recopilada) - Página 92 de 94
Un acondicionador de línea puede manejar muchos de estos tipos de problemas. Un acondicionador de línea está diseñado para remediar diversos problemas. Filtra la corriente, hace puentes en los apagones parciales, suprime condiciones de voltaje y corriente elevados, y actúa en general como un búfer entre la línea de corriente y el sistema. Un acondicionador de línea realiza el trabajo de un supresor de picos y mucho más. Es más bien un dispositivo que funciona en forma continua y no un dispositivo pasivo que sólo se activa cuando se presenta un pico. Un acondicionador de línea proporciona un verdadero acondicionamiento de la señal de alimentación y puede manejar infinidad de problemas. Contiene transformadores, capacitores y otros circuitos que pueden temporalmente establecer un puente en un apagón parcial o en condiciones de bajo voltaje. D. Sistema de Alimentación de Reserva (SPS). Al SPS se le conoce como un dispositivo fuera de línea: sólo funciona cuando se interrumpe la energía normal. Un sistema SPS emplea un circuito especial que puede detectar la línea de corriente alterna. Si el sensor detecta una pérdida de energía en la línea, el sistema se cambia con rapidez a una batería e inversor de señal sustitutos. El inversor de señal convierte la corriente de la batería a una corriente alterna de 110 voltios, la cual se suministra al sistema. Los sistemas SPS sí funcionan, aunque en ocasiones ocurre un problema con el cambio a la corriente de la batería. Si el cambio no es lo suficientemente rápido, la unidad del sistema se apaga o se reinicializa de todos modos, lo cual anula la finalidad de tener un sistema de alimentación de respaldo. Un SPS en verdad sobresaliente agrega al circuito un transformador ferro-sonante, un gran transformador con la capacidad de almacenar una pequeña cantidad de energía y liberarla durante el momento del cambio. Tener este dispositivo es similar a tener un búfer en la línea de corriente que se agrega a un SPS para dar la capacidad ininterrumpible en forma casi real. E. Sistemas de alimentación ininterrumpibles (UPS). A los UPS se les conoce como sistema en línea, ya que continuamente funcionan y suministran energía a la computadora. Un sistema UPS verdadero está construido en forma muy similar a un sistema SPS; sin embargo, como siempre se opera desde la batería, no hay un circuito para el cambio. En un UPS verdadero, su sistema siempre opera desde la batería, con un nversor de voltaje para convertir corriente directa de 12v a corriente alterna de 110v. En esencia, tiene su propio sistema de alimentación privado que genera energía en forma independiente a la línea de corriente alterna. Un cargador de batería conectado a la línea o corriente de pared mantiene cargada la batería en una proporción igual o mayor a la que consume la computadora. Cuando se desconecta la corriente, el UPS verdadero continúa funcionando sin conmutación porque lo único que se pierde es la función de carga de la batería. Como ya estaba operando a partir de la batería, no se lleva a cabo algún cambio y no hay conmutación posible de energía. La batería comienza entonces a descargarse en una proporción que dicta la cantidad de carga que su sistema coloca en la unidad, la cual (con base en el Hardware (Partes de la PC) (Información Recopilada) - Página 93 de 94
tamaño de la batería) le da suficiente tiempo para ejecutar el apagado del sistema en forma ordenada. Basándose en una batería con una capacidad de almacenamiento apropiada, el UPS funciona de manera continua, generando energía y evitando sorpresas desagradables. Cuando vuelve la línea de energía, el cargador comienza otra vez a cargar la batería, de nuevo sin interrupción.
Hardware (Partes de la PC) (Información Recopilada) - Página 94 de 94