Componentes de una PC
Edici贸n: Nancy Grossi
PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor informaci贸n. PDF generated at: Sun, 06 Mar 2011 21:29:45 UTC
Contenidos Artículos Unidad central de procesamiento
1
Fuente de alimentación
15
Placa base
17
Memoria de acceso aleatorio
23
Disco duro
32
Dispositivos de almacenamiento de datos
43
Dispositivo de almacenamiento de datos
43
Circuito integrado auxiliar
48
BIOS
51
Tarjeta de expansión
53
Bus (informática)
54
Referencias Fuentes y contribuyentes del artículo
58
Fuentes de imagen, Licencias y contribuyentes
59
Licencias de artículos Licencia
60
Unidad central de procesamiento
Unidad central de procesamiento La unidad central de procesamiento o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el Oblea de un microprocesador Intel 80486DX2 (tamaño: CPU que es manufacturado con circuitos integrados. 12×6,75 mm) en su empaquetado. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores. La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar. Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.
1
Unidad central de procesamiento
Historia Casi todos los CPU tratan con estados discretos, y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo.[1] Generalmente, cuando un tubo ha fallado, la CPU tendría que ser diagnosticada para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, El EDVAC, uno de los primeros computadores de programas (basados en tubos de vacío), generalmente eran más almacenados electrónicamente. rápidos pero menos confiables que las computadoras electromecánicas, (basadas en relés). Las computadoras de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallas, mientras que las computadoras de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente . Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estos tempranos CPU síncronos corrían en frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos, (ver más abajo para una exposición sobre la frecuencia de reloj). Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.
2
Unidad central de procesamiento
3
CPU de transistores y de circuitos integrados discretos La complejidad del diseño de los CPU se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del transistor. Los CPU transistorizados durante los años 1950 y los años 1960 no tuvieron que ser construidos con elementos de conmutación abultados, no fiables, y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidos CPU más complejos y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales).
CPU, memoria de núcleo, e interfaz de bus externo de un MSI PDP-8/I.
Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron miniaturizados en IC. Los CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de IC individuales necesarios para un CPU completo. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos, y luego a miles. En 1964, IBM introdujo su arquitectura de computador System/360, que fue usada en una serie de computadores que podían ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de las computadoras electrónicas eran incompatibles entre sí, incluso las hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo", ampliamente usado aún en los CPU modernos . La arquitectura System/360 era tan popular que dominó el mercado del mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en las computadoras modernas, como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro computador que sería muy influyente, dirigido a los mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la muy popular línea del PDP-11, que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contenía un CPU integrado únicamente por cuatro circuitos integrados LSI . Los computadores basados en transistores tenían varias ventajas frente a sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los transistores también permitían al CPU operar a velocidades
Unidad central de procesamiento
4
mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, se fueron alcanzando frecuencias de reloj del CPU de decenas de megahertz. Además, mientras que los CPU de transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de las supercomputadoras especializadas, como los hechos por Cray Inc.
Microprocesadores Desde la introducción del primer microprocesador, el Intel 4004, en 1971, y del primer microprocesador ampliamente usado, el Intel 8080, en 1974, esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas arquitecturas de computador, y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal, el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores.
Microprocesador Intel 80486DX2 en un paquete PGA de cerámica
Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPUs fabricados con un número muy pequeño de IC; usualmente solo uno. El tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia parásita de las puertas. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios. Adicionalmente, como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC, la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Esta tendencia ampliamente observada es descrita por la ley de Moore, que ha demostrado hasta la fecha, ser una predicción bastante exacta del crecimiento de la complejidad de los CPUs y otros IC. Mientras que, en los pasados sesenta años han cambiado drásticamente, la complejidad, el tamaño, la construcción, y la forma general del CPU, es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de programa almacenado de von Neumann. A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos, como la electromigración, y el subumbral de pérdida. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la computadora cuántica, así como ampliar el uso de paralelismo, y otros métodos que extienden la utilidad del modelo clásico de von Neumann.
Unidad central de procesamiento
Operación del CPU La operación fundamental de la mayoría de los CPU, es ejecutar una secuencia de instrucciones almacenadas llamadas "programa". El programa es representado por una serie de números que se mantentienen en una cierta clase de memoria de computador. Hay cuatro pasos que casi todos los CPU de arquitectura de von Neumann usan en su operación: fetch, decode, execute, y writeback, (leer, decodificar, ejecutar, y escribir). El primer paso, leer (fetch), implica el recuperar una instrucción, (que es representada por un número o una secuencia de números), de la memoria de programa. La localización en la memoria del programa es determinada por un contador de programa (PC), que almacena un número que identifica la posición actual en el programa. Diagrama mostrando como es decodificada una instrucción del MIPS32. (MIPS Technologies 2005) En otras palabras, el contador de programa indica al CPU, el lugar de la instrucción en el programa actual. Después de que se lee una instrucción, el Contador de Programa es incrementado por la longitud de la palabra de instrucción en términos de unidades de memoria.[2] Frecuentemente la instrucción a ser leída debe ser recuperada de memoria relativamente lenta, haciendo detener al CPU mientras espera que la instrucción sea retornada. Este problema es tratado en procesadores modernos en gran parte por los cachés y las arquitecturas pipeline (ver abajo). La instrucción que el CPU lee desde la memoria es usada para determinar qué deberá hacer el CPU. En el paso de decodificación, la instrucción es dividida en partes que tienen significado para otras unidades del CPU. La manera en que el valor de la instrucción numérica es interpretado está definida por la arquitectura del conjunto de instrucciones (el ISA) del CPU.[3] A menudo, un grupo de números en la instrucción, llamados opcode, indica qué operación realizar. Las partes restantes del número usualmente proporcionan información requerida para esa instrucción, como por ejemplo, operandos para una operación de adición. Tales operandos se pueden dar como un valor constante (llamado valor inmediato), o como un lugar para localizar un valor, que según lo determinado por algún modo de dirección, puede ser un registro o una dirección de memoria. En diseños más viejos las unidades del CPU responsables de decodificar la instrucción eran dispositivos de hardware fijos. Sin embargo, en CPUs e ISAs más abstractos y complicados, es frecuentemente usado un microprograma para ayudar a traducir instrucciones en varias señales de configuración para el CPU. Este microprograma es a veces reescribible de tal manera que puede ser modificado para cambiar la manera en que el CPU decodifica instrucciones incluso después de que haya sido fabricado.
5
Unidad central de procesamiento
Después de los pasos de lectura y decodificación, es llevado a cabo el paso de la ejecución de la instrucción. Durante este paso, varias unidades del CPU son conectadas de tal manera que ellas pueden realizar la operación deseada. Si, por ejemplo, una operación de adición fue solicitada, una unidad aritmético lógica (ALU) será conectada a un conjunto de entradas y un conjunto de salidas. Las entradas proporcionan los números a ser sumados, y las salidas contendrán la suma final. La ALU contiene la circuitería para realizar operaciones simples de aritmética y lógica en las entradas, como adición y operaciones de bits (bitwise). Si la operación de adición produce un resultado demasiado grande para poder ser manejado por el CPU, también puede ser ajustada una bandera (flag) de desbordamiento aritmético localizada en un registro de banderas (ver abajo la sección sobre rango de números enteros). El paso final, la escritura (writeback), simplemente "escribe" los resultados del paso de ejecución a una cierta forma de memoria. Muy a menudo, los resultados son escritos a algún Diagrama de bloques de un CPU simple registro interno del CPU para acceso rápido por subsecuentes instrucciones. En otros casos los resultados pueden ser escritos a una memoria principal más lenta pero más barata y más grande. Algunos tipos de instrucciones manipulan el contador de programa en lugar de directamente producir datos de resultado. Éstas son llamadas generalmente "saltos" (jumps) y facilitan comportamientos como |bucles (loops), la ejecución condicional de programas (con el uso de saltos condicionales), y funciones en programas.[4] Muchas instrucciones también cambiarán el estado de dígitos en un registro de "banderas". Estas banderas pueden ser usadas para influenciar cómo se comporta un programa, puesto que a menudo indican el resultado de varias operaciones. Por ejemplo, un tipo de instrucción de "comparación" considera dos valores y fija un número, en el registro de banderas, de acuerdo a cuál es el mayor. Entonces, esta bandera puede ser usada por una posterior instrucción de salto para determinar el flujo de programa. Después de la ejecución de la instrucción y la escritura de los datos resultantes, el proceso entero se repite con el siguiente ciclo de instrucción, normalmente leyendo la siguiente instrucción en secuencia debido al valor incrementado en el contador de programa. Si la instrucción completada era un salto, el contador de programa será modificado para contener la dirección de la instrucción a la cual se saltó, y la ejecución del programa continúa normalmente. En CPUs más complejos que el descrito aquí, múltiples instrucciones pueden ser leídas, decodificadas, y ejecutadas simultáneamente. Esta sección describe lo que es referido generalmente como el "entubado RISC clásico" (Classic RISC pipeline), que de hecho es bastante común entre los CPU simples usados en muchos dispositivos electrónicos, a menudo llamados microcontroladores.[5]
6
Unidad central de procesamiento
7
Diseño e implementación Prerrequisitos Arquitectura informática Circuitos digitales
Rango de enteros La manera en que un CPU representa los números es una opción de diseño que afecta las más básicas formas en que el dispositivo funciona. Algunas de las primeras calculadoras digitales usaron, para representar números internamente, un modelo eléctrico del sistema de numeración decimal común (base diez). Algunas otras computadoras han usado sistemas de numeración más exóticos como el ternario (base tres). Casi todos los CPU modernos representan los números en forma binaria, en donde cada dígito es representado por una cierta cantidad física de dos valores, como un voltaje "alto" o "bajo".[6] Con la representación numérica están relacionados el tamaño y la precisión de los números que un CPU puede representar. En el caso de un CPU binario, un bit se refiere a una posición significativa en los números con que trabaja un CPU. El número de bits (o de posiciones numéricas, o dígitos) que un CPU usa para representar los números, a menudo se llama "tamaño de Microprocesador MOS 6502 en un dual in-line package (encapasulado en doble línea), un diseño extremadamente popular de la palabra", "ancho de bits", "ancho de ruta de datos", o 8 bits. "precisión del número entero" cuando se ocupa estrictamente de números enteros (en oposición a números de coma flotante). Este número difiere entre las arquitecturas, y a menudo dentro de diferentes unidades del mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de números que pueden ser representados por ocho dígitos binarios, cada dígito teniendo dos valores posibles, y en combinación los 8 bits teniendo 28 ó 256 números discretos. En efecto, el tamaño del número entero fija un límite de hardware en el rango de números enteros que el software corre y que el CPU puede usar directamente.[7] El rango del número entero también puede afectar el número de posiciones en memoria que el CPU puede direccionar (localizar). Por ejemplo, si un CPU binario utiliza 32 bits para representar una dirección de memoria, y cada dirección de memoria representa a un octeto (8 bits), la cantidad máxima de memoria que el CPU puede direccionar es 232 octetos, o 4 GB. Ésta es una vista muy simple del espacio de dirección del CPU, y muchos diseños modernos usan métodos de dirección mucho más complejos como paginación para localizar más memoria que su rango entero permitiría con un espacio de dirección plano. Niveles más altos del rango de números enteros requieren más estructuras para manejar los dígitos adicionales, y por lo tanto, más complejidad, tamaño, uso de energía, y generalmente costo. Por ello, no es del todo infrecuente, ver microcontroladores de 4 y 8 bits usados en aplicaciones modernas, aun cuando están disponibles CPU con un rango mucho más alto (de 16, 32, 64, e incluso 128 bits). Los microcontroladores más simples son generalmente más baratos, usan menos energía, y por lo tanto disipan menos calor. Todo esto pueden ser consideraciones de diseño importantes para los dispositivos electrónicos. Sin embargo, en aplicaciones del extremo alto, los beneficios producidos por el rango adicional, (más a menudo el espacio de dirección adicional), son más significativos y con frecuencia afectan las opciones del diseño. Para ganar algunas de las ventajas proporcionadas por las longitudes de bits tanto más bajas, como más altas, muchas CPUs están diseñadas con anchos de bit diferentes para diferentes unidades del dispositivo. Por ejemplo, el IBM System/370 usó un CPU que fue sobre todo de 32 bits, pero usó precisión de 128 bits dentro de sus unidades de coma flotante para facilitar mayor exactitud y rango de números de
Unidad central de procesamiento coma flotante . Muchos diseños posteriores de CPU usan una mezcla de ancho de bits similar, especialmente cuando el procesador está diseñado para usos de propósito general donde se requiere un razonable equilibrio entre la capacidad de números enteros y de coma flotante.
Frecuencia de reloj La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de lógica secuencial, son de naturaleza síncrona.[8] Es decir, están diseñados y operan en función de una señal de sincronización. Esta señal, conocida como señal de reloj, usualmente toma la forma de una onda cuadrada periódica. Calculando el tiempo máximo en que las señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU, los diseñadores pueden seleccionar un período apropiado para la señal del reloj. Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse, o propagarse, en el peor de los casos. Al fijar el período del reloj a un valor bastante mayor sobre el retardo de la propagación del peor caso, es posible diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes" de la subida y bajada de la señal del reloj. Esto tiene la ventaja de simplificar el CPU significativamente, tanto en una perspectiva de diseño, como en una perspectiva de cantidad de componentes. Sin embargo, esto también tiene la desventaja que todo el CPU debe esperar por sus elementos más lentos, aun cuando algunas unidades de la misma son mucho más rápidas. Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU (ver abajo). Sin embargo, las solamente mejoras arquitectónicas no solucionan todas las desventajas de CPUs globalmente síncronas. Por ejemplo, una señal de reloj está sujeta a los retardos de cualquier otra señal eléctrica. Velocidades de reloj más altas en CPUs cada vez más complejas hacen más difícil de mantener la señal del reloj en fase (sincronizada) a través de toda la unidad. Esto ha conducido que muchos CPU modernos requieran que se les proporcione múltiples señales de reloj idénticas, para evitar retardar una sola señal lo suficiente significativamente como para hacer al CPU funcionar incorrectamente. Otro importante problema cuando la velocidad del reloj aumenta dramáticamente, es la cantidad de calor que es disipado por el CPU. La señal del reloj cambia constantemente, provocando la conmutación de muchos componentes (cambio de estado) sin importar si están siendo usados en ese momento. En general, un componente que está cambiando de estado, usa más energía que un elemento en un estado estático. Por lo tanto, a medida que la velocidad del reloj aumenta, así lo hace también la disipación de calor, causando que el CPU requiera soluciones de enfriamiento más efectivas. Un método de tratar la conmutación de componentes innecesarios se llama el clock gating, que implica apagar la señal del reloj a los componentes innecesarios, efectivamente desactivándolos. Sin embargo, esto es frecuentemente considerado como difícil de implementar y por lo tanto no ve uso común afuera de diseños de muy baja potencia.[9] Otro método de tratar algunos de los problemas de una señal global de reloj es la completa remoción de la misma. Mientras que quitar la señal global del reloj hace, de muchas maneras, considerablemente más complejo el proceso del diseño, en comparación con diseños síncronos similares, los diseños asincrónicos (o sin reloj) tienen marcadas ventajas en el consumo de energía y la disipación de calor. Aunque algo infrecuente, CPUs completas se han construido sin utilizar una señal global de reloj. Dos notables ejemplos de esto son el AMULET, que implementa la arquitectura del ARM, y el MiniMIPS, compatible con el MIPS R3000. En lugar de remover totalmente la señal del reloj, algunos diseños de CPU permiten a ciertas unidades del dispositivo ser asincrónicas, como por ejemplo, usar ALUs asincrónicas en conjunción con pipelining superescalar para alcanzar algunas ganancias en el desempeño aritmético. Mientras que no está completamente claro si los diseños totalmente asincrónicos pueden desempeñarse a un nivel comparable o mejor que sus contrapartes síncronas, es evidente que por lo menos sobresalen en las más simples operaciones matemáticas. Esto, combinado con sus excelentes características de consumo de energía y disipación de calor, los hace muy adecuados para sistemas embebidos .
8
Unidad central de procesamiento
9
Paralelismo La descripción de la operación básica de un CPU ofrecida en la sección anterior describe la forma más simple que puede tomar un CPU. Este tipo de CPU, usualmente referido como subescalar, opera sobre y ejecuta una sola instrucción con una o dos piezas de datos a la vez.
Modelo de un CPU subescalar. Note que toma quince ciclos para terminar tres instrucciones.
Este proceso da lugar a una ineficacia inherente en CPUs subescalares. Puesto que solamente una instrucción es ejecutada a la vez, todo el CPU debe esperar que esa instrucción se complete antes de proceder a la siguiente instrucción. Como resultado, el CPU subescalar queda "paralizado" en instrucciones que toman más de un ciclo de reloj para completar su ejecución. Incluso la adición de una segunda unidad de ejecución (ver abajo) no mejora mucho el desempeño. En lugar de un camino quedando congelado, ahora dos caminos se paralizan y aumenta el número de transistores no usados. Este diseño, en donde los recursos de ejecución del CPU pueden operar con solamente una instrucción a la vez, solo puede, posiblemente, alcanzar el desempeño escalar (una instrucción por ciclo de reloj). Sin embargo, el desempeño casi siempre es subescalar (menos de una instrucción por ciclo). Las tentativas de alcanzar un desempeño escalar y mejor, han resultado en una variedad de metodologías de diseño que hacen comportarse al CPU menos linealmente y más en paralelo. Cuando se refiere al paralelismo en los CPU, generalmente son usados dos términos para clasificar estas técnicas de diseño. • El paralelismo a nivel de instrucción, en inglés Instruction Level Parallelism (ILP), busca aumentar la tasa en la cual las instrucciones son ejecutadas dentro de un CPU, es decir, aumentar la utilización de los recursos de ejecución en la pastilla • El paralelismo a nivel de hilo de ejecución, en inglés thread level parallelism (TLP), que se propone incrementar el número de hilos (efectivamente programas individuales) que un CPU pueda ejecutar simultáneamente. Cada metodología se diferencia tanto en las maneras en las que están implementadas, como en la efectividad relativa que producen en el aumento del desempeño del CPU para una aplicación.[10] ILP: Entubado de instrucción y arquitectura superescalar Artículo principal: Entubado de instrucción y superescalar Uno de los más simples métodos usados para lograr incrementar el paralelismo es comenzar los primeros pasos de leer y decodificar la instrucción antes de que la instrucción anterior haya terminado de ejecutarse. Ésta es la forma más simple de Tubería básica de cinco etapas. En el mejor de los casos, esta tubería puede una técnica conocida como instruction sostener un ratio de completado de una instrucción por ciclo. pipelining (entubado de instrucción), y es utilizada en casi todos los CPU de propósito general modernos. Al dividir la ruta de ejecución en etapas discretas, la tubería permite que más de una instrucción sea ejecutada en cualquier tiempo. Esta separación puede ser comparada a una línea de ensamblaje, en la cual una instrucción es hecha más completa en cada etapa hasta que sale de la tubería de ejecución y es retirada. Sin embargo, la tubería introduce la posibilidad de una situación donde es necesario terminar el resultado de la operación anterior para completar la operación siguiente; una condición llamada a menudo como conflicto de dependencia de datos. Para hacer frente a esto, debe ser tomado un cuidado adicional para comprobar estas clases de condiciones, y si esto ocurre, se debe retrasar una porción de la tubería de instrucción. Naturalmente, lograr esto
Unidad central de procesamiento requiere circuitería adicional, los procesadores entubados son más complejos que los subescalares, pero no mucho. Un procesador entubado puede llegar a ser casi completamente escalar, solamente inhibido por las abruptas paradas de la tubería (una instrucción durando más de un ciclo de reloj en una etapa). Una mejora adicional sobre la idea del entubado de instrucción (instruction pipelining) condujo al desarrollo de un método que disminuye incluso más el tiempo ocioso de los componentes del CPU. Diseños que se dice que son superescalares incluyen una larga tubería de instrucción y múltiples unidades de ejecución idénticas. En una tubería superescalar, múltiples instrucciones son leídas y pasadas a un despachador, que decide si las instrucciones Tubería superescalar simple. Al leer y despachar dos instrucciones a la vez, un se pueden o no ejecutar en paralelo máximo de dos instrucciones por ciclo pueden ser completadas. (simultáneamente). De ser así, son despachadas a las unidades de ejecución disponibles, dando por resultado la capacidad para que varias instrucciones sean ejecutadas simultáneamente. En general, cuanto más instrucciones un CPU superescalar es capaz de despachar simultáneamente a las unidades de ejecución en espera, más instrucciones serán completadas en un ciclo dado. La mayor parte de la dificultad en el diseño de una arquitectura superescalar de CPU descansa en crear un despachador eficaz. El despachador necesita poder determinar rápida y correctamente si las instrucciones pueden ejecutarse en paralelo, tan bien como despacharlas de una manera que mantenga ocupadas tantas unidades de ejecución como sea posible. Esto requiere que la tubería de instrucción sea llenada tan a menudo como sea posible y se incrementa la necesidad, en las arquitecturas superescalares, de cantidades significativas de caché de CPU. Esto también crea técnicas para evitar peligros como la predicción de bifurcación, ejecución especulativa, y la ejecución fuera de orden, cruciales para mantener altos niveles de desempeño. • La predicción de bifurcación procura predecir qué rama (o trayectoria) tomará una instrucción condicional, el CPU puede minimizar el número de tiempos que toda la tubería debe esperar hasta que sea completada una instrucción condicional. • La ejecución especulativa frecuentemente proporciona aumentos modestos del desempeño al ejecutar las porciones de código que pueden o no ser necesarias después de que una operación condicional termine. • La ejecución fuera de orden cambia en algún grado el orden en el cual son ejecutadas las instrucciones para reducir retardos debido a las dependencias de los datos. En el caso donde una porción del CPU es superescalar y una parte no lo es, la parte que no es superescalar sufre en el desempeño debido a las paradas de horario. El Intel Pentium original (P5) tenía dos ALUs superescalares que podían aceptar, cada una, una instrucción por ciclo de reloj, pero su FPU no podía aceptar una instrucción por ciclo de reloj. Así el P5 era superescalar en la parte de números enteros pero no era superescalar de números de coma (o punto [decimal]) flotante. El sucesor a la arquitectura del Pentium de Intel, el P6, agregó capacidades superescalares a sus funciones de coma flotante, y por lo tanto produjo un significativo aumento en el desempeño de este tipo de instrucciones. El entubado simple y el diseño superescalar aumentan el ILP de un CPU al permitir a un solo procesador completar la ejecución de instrucciones en ratios que sobrepasan una instrucción por ciclo (IPC).[11] La mayoría de los modernos diseños de CPU son por lo menos algo superescalares, y en la última década, casi todos los diseños de CPU de propósito general son superescalares. En los últimos años algo del énfasis en el diseño de computadores de alto ILP se ha movido del hardware del CPU hacia su interface de software, o ISA. La estrategia de la muy larga
10
Unidad central de procesamiento palabra de instrucción, very long instruction word (VLIW), causa a algún ILP a ser implícito directamente por el software, reduciendo la cantidad de trabajo que el CPU debe realizar para darle un empuje significativo al ILP y por lo tanto reducir la complejidad del diseño. TLP: ejecución simultánea de hilos Otra estrategia comúnmente usada para aumentar el paralelismo de los CPU es incluir la habilidad de correr múltiples hilos (programas) al mismo tiempo. En general, CPUs con alto TLP han estado en uso por mucho más tiempo que los de alto ILP. Muchos de los diseños en los que Seymour Cray fue pionero durante el final de los años 1970 y los años1980 se concentraron en el TLP como su método primario de facilitar enormes capacidades de computación (para su tiempo). De hecho, el TLP, en la forma de mejoras en múltiples hilos de ejecución, estuvo en uso tan temprano como desde los años 1950 . En el contexto de diseño de procesadores individuales, las dos metodologías principales usadas para lograr el TLP son, multiprocesamiento a nivel de chip, en inglés chip-level multiprocessing (CMP), y el multihilado simultáneo, en inglés simultaneous multithreading (SMT). En un alto nivel, es muy común construir computadores con múltiples CPU totalmente independientes en arreglos como multiprocesamiento simétrico (symmetric multiprocessing (SMP)) y acceso de memoria no uniforme (Non-Uniform Memory Access (NUMA)).[12] Aunque son usados medios muy diferentes, todas estas técnicas logran la misma meta: incrementar el número de hilos que el CPU(s) puede correr en paralelo. Los métodos de paralelismo CMP y de SMP son similares uno del otro y lo más directo. Éstos implican algo más conceptual que la utilización de dos o más CPU completos y CPU independientes. En el caso del CMP, múltiples "núcleos" de procesador son incluidos en el mismo paquete, a veces en el mismo circuito integrado.[13] Por otra parte, el SMP incluye múltiples paquetes independientes. NUMA es algo similar al SMP pero usa un modelo de acceso a memoria no uniforme. Esto es importante para los computadores con muchos CPU porque el tiempo de acceso a la memoria, de cada procesador, es agotado rápidamente con el modelo de memoria compartido del SMP, resultando en un significativo retraso debido a los CPU esperando por la memoria. Por lo tanto, NUMA es considerado un modelo mucho más escalable, permitiendo con éxito que en un computador sean usados muchos más CPU que los que pueda soportar de una manera factible el SMP. El SMT se diferencia en algo de otras mejoras de TLP en que el primero procura duplicar tan pocas porciones del CPU como sea posible. Mientras es considerada una estrategia TLP, su implementación realmente se asemeja más a un diseño superescalar, y de hecho es frecuentemente usado en microprocesadores superescalares, como el POWER5 de IBM. En lugar de duplicar todo el CPU, los diseños SMT solamente duplican las piezas necesarias para lectura, decodificación, y despacho de instrucciones, así como cosas como los registros de propósito general. Esto permite a un CPU SMT mantener sus unidades de ejecución ocupadas más frecuentemente al proporcionarles las instrucciones desde dos diferentes hilos de software. Una vez más esto es muy similar al método superescalar del ILP, pero ejecuta simultáneamente instrucciones de múltiples hilos en lugar de ejecutar concurrentemente múltiples instrucciones del mismo hilo.
Procesadores vectoriales y el SIMD Artículos principales: Procesador vectorial y SIMD Un menos común pero cada vez más importante paradigma de CPU (y de hecho, de computación en general) trata con vectores. Los procesadores de los que se ha hablado anteriormente son todos referidos como cierto tipo de dispositivo escalar.[14] Como implica su nombre, los procesadores vectoriales se ocupan de múltiples piezas de datos en el contexto de una instrucción, esto contrasta con los procesadores escalares, que tratan una pieza de dato por cada instrucción. Estos dos esquemas de ocuparse de los datos son generalmente referidos respectivamente como SISD (Single Instruction, Single Data|) (Simple Instrucción, Simple Dato) y SIMD (Single Instruction, Multiple Data) (Simple Instrucción, Múltiples Datos). La gran utilidad en crear CPUs que se ocupen de vectores de datos radica en la optimización de tareas que tienden a requerir la misma operación, por ejemplo, una suma, o un producto escalar, a ser realizado en un gran conjunto de datos. Algunos ejemplos clásicos de este tipo de tareas son las aplicaciones multimedia (imágenes, vídeo, y sonido), así como muchos tipos de tareas científicas y de ingeniería. Mientras que un
11
Unidad central de procesamiento CPU escalar debe completar todo el proceso de leer, decodificar, y ejecutar cada instrucción y valor en un conjunto de datos, un CPU vectorial puede realizar una simple operación en un comparativamente grande conjunto de datos con una sola instrucción. Por supuesto, esto es solamente posible cuando la aplicación tiende a requerir muchos pasos que apliquen una operación a un conjunto grande de datos. La mayoría de los primeros CPU vectoriales, como el Cray-1, fueron asociados casi exclusivamente con aplicaciones de investigación científica y criptografía. Sin embargo, a medida que la multimedia se desplazó en gran parte a medios digitales, ha llegado a ser significativa la necesidad de una cierta forma de SIMD en CPUs de propósito general. Poco después de que comenzara a ser común incluir unidades de coma flotante en procesadores de uso general, también comenzaron a aparecer especificaciones e implementaciones de unidades de ejecución SIMD para los CPU de uso general. Algunas de estas primeras especificaciones SIMD, como el MMX de Intel, fueron solamente para números enteros. Esto demostró ser un impedimento significativo para algunos desarrolladores de software, ya que muchas de las aplicaciones que se beneficiaban del SIMD trataban sobre todo con números de coma flotante. Progresivamente, éstos primeros diseños fueron refinados y rehechos en alguna de las comunes, modernas especificaciones SIMD, que generalmente están asociadas a un ISA. Algunos ejemplos modernos notables son el SSE de Intel y el AltiVec relacionado con el PowerPC (también conocido como VMX).[15]
Véase también • • • • • • • • • • • •
Arquitectura de CPU Unidad de control Unidad aritmético lógica Unidad de punto flotante Coprocesador Bus interface unit Unidad de gestión de memoria Unidad de ejecución Unidad de proceso Registro (hardware) Microcódigo Barrel shifter
• Microprocesador • CISC • RISC • • • •
Bus de computadora Bus de datos Bus de direcciones Bus de control
• Conjunto de instrucciones • Diseño de CPU • • • • •
Estado de espera Ingeniería de computación Lista de procesadores AMD Athlon 64 Tipos de datos máquina Socket de CPU
• Voltaje del núcleo del CPU • Enfriamiento del CPU
12
Unidad central de procesamiento
Referencias [1] Vacuum tubes eventually stop functioning in the course of normal operation due to the slow contamination of their cathodes that occurs when the tubes are in use. Additionally, sometimes the tube's vacuum seal can form a leak, which accelerates the cathode contamination. See vacuum tube. [2] Since the program counter counts memory addresses and not instructions, it is incremented by the number of memory units that the instruction word contains. In the case of simple fixed-length instruction word ISAs, this is always the same number. For example, a fixed-length 32-bit instruction word ISA that uses 8-bit memory words would always increment the PC by 4 (except in the case of jumps). ISAs that use variable length instruction words, such as x86, increment the PC by the number of memory words corresponding to the last instruction's length. Also, note that in more complex CPU, incrementing the PC does not necessarily occur at the end of instruction execution. This is especially the case in heavily pipelined and superescalar architectures (see the relevant sections below). [3] Because the instruction set architecture of a CPU is fundamental to its interface and usage, it is often used as a classification of the "type" of CPU. For example, a "PowerPC CPU" uses some variant of the PowerPC ISA. Some CPU, like the Intel Itanium, can actually interpret instructions for more than one ISA; however this is often accomplished by software means rather than by designing the hardware to directly support both interfaces. (See emulator) [4] Some early computers like the Harvard Mark I did not support any kind of "jump" instruction, effectively limiting the complexity of the programs they could run. It is largely for this reason that these computers are often not considered to contain a CPU proper, despite their close similarity as stored program computers. [5] This description is, in fact, a simplified view even of the Classic RISC pipeline. It largely ignores the important role of CPU cache, and therefore the access stage of the pipeline. See the respective articles for more details. [6] The physical concept of voltage is an analog one by its nature, practically having an infinite range of possible values. For the purpose of physical representation of binary numbers, set ranges of voltages are defined as one or zero. These ranges are usually influenced by the operational parameters of the switching elements used to create the CPU, such as a transistor's threshold level. [7] While a CPU's integer size sets a limit on integer ranges, this can (and often is) overcome using a combination of software and hardware techniques. By using additional memory, software can represent integers many magnitudes larger than the CPU can. Sometimes the CPU's ISA will even facilitate operations on integers larger that it can natively represent by providing instructions to make large integer arithmetic relatively quick. While this method of dealing with large integers is somewhat slower than utilizing a CPU with higher integer size, it is a reasonable trade-off in cases where natively supporting the full integer range needed would be cost-prohibitive. See Arbitrary-precision arithmetic for more details on purely software-supported arbitrary-sized integers. [8] In fact, all synchronous CPU use a combination of sequential logic and combinatorial logic. (See boolean logic) [9] One notable late CPU design that uses clock gating is that of the IBM PowerPC-based Xbox 360. It utilizes extensive clock gating in order to reduce the power requirements of the aforementioned videogame console it is used in. [10] It should be noted that neither ILP nor TLP is inherently superior over the other; they are simply different means by which to increase CPU parallelism. As such, they both have advantages and disadvantages, which are often determined by the type of software that the processor is intended to run. High-TLP CPU are often used in applications that lend themselves well to being split up into numerous smaller applications, so-called "embarrassingly parallel problems." Frequently, a computational problem that can be solved quickly with high TLP design strategies like SMP take significantly more time on high ILP devices like superescalar CPU, and vice versa. [11] Best-case scenario (or peak) IPC rates in very superscalar architectures are difficult to maintain since it is impossible to keep the instruction pipeline filled all the time. Therefore, in highly superscalar CPU, average sustained IPC is often discussed rather than peak IPC. [12] Even though SMP and NUMA are both referred to as "systems level" TLP strategies, both methods must still be supported by the CPU's design and implementation. [13] While TLP methods have generally been in use longer than ILP methods, Chip-level multiprocessing is more or less only seen in later IC-based microprocessors. This is largely because the term itself is inapplicable to earlier discrete component devices and has only come into use recently. For several years during the late 1990s and early 2000s, the focus in designing high performance general purpose CPU was largely on highly superescalar IPC designs, such as the Intel Pentium 4. However, this trend seems to be reversing somewhat now as major general-purpose CPU designers switch back to less deeply pipelined high-TLP designs. This is evidenced by the proliferation of dual and multi core CMP designs and notably, Intel's newer designs resembling its less superescalar P6 architecture. Late designs in several processor families exhibit CMP, including the x86-64 Opteron and Athlon 64 X2, the SPARC UltraSPARC T1, IBM POWER4 and POWER5, as well as several video game console CPU like the Xbox 360's triple-core PowerPC design. [14] Earlier the term scalar was used to compare most the IPC (instructions per cycle) count afforded by various ILP methods. Here the term is used in the strictly mathematical sense to contrast with vectors. See scalar (mathematics) and vector (spatial). [15] Although SSE/SSE2/SSE3 have superseded MMX in Intel's general purpose CPU, later IA-32 designs still support MMX. This is usually accomplished by providing most of the MMX functionality with the same hardware that supports the much more expansive SSE instruction sets.
• a b Amdahl, G. M., Blaauw, G. A., & Brooks, F. P. Jr.(1964)." Architecture of the IBM System/360 (http:// www.research.ibm.com/journal/rd/441/amdahl.pdf)". IBM Research.
13
Unidad central de procesamiento • a Brown, Jeffery (2005). « Application-customized CPU design (http://www-128.ibm.com/developerworks/ power/library/pa-fpfxbox/?ca=dgr-lnxw07XBoxDesign)». IBM developerWorks. Consultado el 17-12-2005. • a Digital Equipment Corporation (November de 1975). « LSI-11 Module Descriptions (http://www.classiccmp. org/bitsavers/pdf/dec/pdp11/1103/EK-LSI11-TM-002.pdf)». LSI-11, PDP-11/03 user's manual (2nd edition edición). Maynard, Massachusetts: Digital Equipment Corporation. pp. 4-3. • a Garside, J. D., Furber, S. B., & Chung, S-H(1999)." AMULET3 Revealed (http://www.cs.manchester.ac.uk/ apt/publications/papers/async99_A3.php)". University of Manchester Computer Science Department. • Hennessy, John A.; Goldberg, David (1996). Computer Architecture: A Quantitative Approach. Morgan Kaufmann Publishers. ISBN 1-55860-329-8. • a MIPS Technologies, Inc.(2005)." MIPS32® Architecture For Programmers Volume II: The MIPS32® Instruction Set (http://www.mips.com/content/Documentation/MIPSDocumentation/ProcessorArchitecture/ doclibrary)". MIPS Technologies, Inc.. • a Smotherman, Mark (2005). « History of Multithreading (http://www.cs.clemson.edu/~mark/multithreading. html)». Consultado el 19-12-2005. • a von Neumann, John(1945)." First Draft of a Report on the EDVAC (http://www.virtualtravelog.net/entries/ 2003-08-TheFirstDraft.pdf)". Moore School of Electrical Engineering, University of Pennsylvania. • a b Weik, Martin H.(1961)." A Third Survey of Domestic Electronic Digital Computing Systems (http:// ed-thelen.org/comp-hist/BRL61.html)". Ballistic Research Laboratories.
Enlaces externos Diseños de microprocesador • Advanced Micro Devices (http://www.amd.com/) - Advanced Micro Devices, a designer of primarily x86-compatible personal computer CPU. • ARM Ltd (http://www.arm.com/) - ARM Ltd, one of the few CPU designers that profits solely by licensing their designs rather than manufacturing them. ARM architecture microprocessors are among the most popular in the world for embedded applications. • Freescale Semiconductor (http://www.freescale.com/) (formerly of Motorola) - Freescale Semiconductor, designer of several embedded and SoC PowerPC based processors. • IBM Microelectronics (http://www-03.ibm.com/chips/) - Microelectronics division of IBM, which is responsible for many POWER and PowerPC based designs, including many of the CPU utilized in late video game consoles. • Intel Corp (http://www.intel.com/) - Intel, a maker of several notable CPU lines, including IA-32, IA-64, and XScale. Also a producer of various peripheral chips for use with their CPU. • MIPS Technologies (http://www.mips.com/) - MIPS Technologies, developers of the MIPS architecture, a pioneer in RISC designs. • Sun Microsystems (http://www.sun.com/) - Sun Microsystems, developers of the SPARC architecture, a RISC design. • Texas Instruments (http://www.ti.com/home_p_allsc) - Texas Instruments semiconductor division. Designs and manufactures several types of low power microcontrollers among their many other semiconductor products. • Transmeta (http://www.transmeta.com/) - Transmeta Corporation. Creators of low-power x86 compatibles like Crusoe and Efficeon. Lectura adicional • Processor Design: An Introduction (http://www.gamezero.com/team-0/articles/math_magic/micro/index. html) - Detailed introduction to microprocessor design. Somewhat incomplete and outdated, but still worthwhile. • How Microprocessors Work (http://computer.howstuffworks.com/microprocessor.htm)
14
Unidad central de procesamiento
15
• Pipelining: An Overview (http://arstechnica.com/articles/paedia/cpu/pipelining-2.ars/2) - Good introduction to and overview of CPU pipelining techniques by the staff of Ars Technica • SIMD Architectures (http://arstechnica.com/articles/paedia/cpu/simd.ars/) - Introduction to and explanation of SIMD, especially how it relates to personal computers. Also by Ars Technica • Listado de procesadores (http://users.erols.com/chare/current_cpus.htm) - Nombres de CPUs y principales características
Fuente de alimentación En electrónica, una fuente de alimentación es un dispositivo que convierte la tensión alterna de la red de suministro, en una o varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.).
Clasificación Las fuentes de alimentación, para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de las misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.
Fuente de alimentación para PC formato ATX (sin cubierta superior, para mostrar su interior y con el ventilador a un lado).
Fuentes de alimentación lineales Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida. En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en continua se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión. La salida puede ser simplemente un condensador. Esta Fuentes de alimentación externas. corriente abarca toda la energía del circuito,esta fuente de alimentación deben tenerse en cuenta unos puntos concretos a la hora de decidir las características del transformador.
Fuentes de alimentación conmutadas Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100
Fuente de alimentación Kilociclos típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante es aplicada a transformadores con núcleo de ferrita (Los núcleos de hierro no son adecuados para estas altas frecuencias) para obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados (Con diodos rápidos) y filtrados (Inductores y capacitores) para obtener los voltajes de salida de corriente continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son mas complejas y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas fuentes. Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida. La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC. Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.
Especificaciones Una especificación fundamental de las fuentes de alimentación es el rendimiento, que se define como la potencia total de salida entre la potencia activa de entrada. Como se ha dicho antes, las fuentes conmutadas son mejores en este aspecto. El factor de potencia es la potencia activa entre la potencia aparente de entrada. Es una medida de la calidad de la corriente. Aparte de disminuir lo más posible el rizado, la fuente debe mantener la tensión de salida al voltaje solicitado independientemente de las oscilaciones de la línea, regulación de línea o de la carga requerida por el circuito, regulación de carga.
Fuentes de alimentación especiales Entre las fuentes de alimentación alternas, tenemos aquellas en donde la potencia que se entrega a la carga está siendo controlada por transistores, los cuales son controlados en fase para poder entregar la potencia requerida a la carga. Otro tipo de alimentación de fuentes alternas, catalogadas como especiales son aquellas en donde la frecuencia es variada, manteniendo la amplitud de la tensión logrando un efecto de fuente variable en casos como motores y transformadores de tensión...
Véase también • • • • • • •
Fuente eléctrica Pila eléctrica Electrónica de potencia Filtro de condensador Sistema de alimentación ininterrumpida Regulador Rectificador
• Transformador •
Wikimedia Commons alberga contenido multimedia sobre Fuente de alimentación.Commons
16
Fuente de alimentación
17
Enlaces externos • Explicación de los circuitos que forman un Fuente de alimentación [1]
Referencias [1] http:/ / www. ifent. org/ lecciones/ CAP16. htm
Placa base La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una placa de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos. Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja. La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.
Placa base formato MicroATX para PC de sobremesa (desnuda, sin ningún componente enchufado).
Placa base
18
Componentes de la placa base Una placa base típica admite los siguientes componentes: • Uno o varios conectores de alimentación: por estos conectores, una alimentación eléctrica proporciona a la placa base los diferentes voltajes e intensidades necesarios para su funcionamiento. • El zócalo de CPU es un receptáculo que recibe el microprocesador y lo conecta con el resto de componentes a través de la placa base. • Las ranuras de memoria RAM, en número de 2 a 6 en las placas base comunes. • El chipset: una serie de circuitos electrónicos, que gestionan las transferencias de datos entre los diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica,unidad de almacenamiento secundario, etc.). Se divide en dos secciones, el puente norte (northbridge) y el puente sur (southbridge). El primero gestiona la interconexión entre el microprocesador, la memoria RAM y la unidad de procesamiento gráfico; y el segundo entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de disco óptico. Las nuevas líneas de procesadores de escritorio tienden a integrar el propio controlador de memoria en el interior del procesador. • Un reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.
Diagrama de una placa base típica.
• La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo, fecha y hora), mientras el equipo no está alimentado por electricidad. • La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste último no se apague perdiendo la serie de configuraciones guardadas. • La BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR (Master Boot Record), registradas en un disco duro o SSD, cuando arranca el sistema operativo. • El bus (también llamado bus interno o en inglés front-side bus'): conecta el microprocesador al chipset, está cayendo en desuso frente a HyperTransport y Quickpath. • El bus de memoria conecta el chipset a la memoria temporal. • El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida y a las ranuras de expansión. • Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores incluyen: • • • •
Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor del USB Los puertos serie, por ejemplo para conectar dispositivos antiguos. Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras. Los puertos USB (en inglés Universal Serial Bus), por ejemplo para conectar periféricos recientes.
• Los conectores RJ45, para conectarse a una red informática. • Los conectores VGA, DVI, HDMI o Displayport para la conexión del monitor de la computadora.
Placa base
19
• Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros, unidades de estado sólido y unidades de disco óptico. • Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos. • Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, un tarjeta gráfica se puede añadir a un ordenador para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA (interfaz antigua), PCI (en inglés Peripheral Component Interconnect) y, los más recientes, PCI Express. Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como circuitos electrónicos para la gestión del vídeo IGP (en inglés Integrated Graphic Processor), de sonido o de redes (10/100 Mbps/1 Gbps), evitando así la adición de tarjetas de expansión.
Tipos de bus Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la computadora. Los buses generales son los siguientes: • Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del microprocesador. • Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la dirección de memoria del dato o dispositivo al que se hace referencia. • Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la unidad central y los periféricos. • Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal. • Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2. La velocidad de tranferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del mínimo.
Placa multiprocesador Este tipo de placa base puede acoger a varios procesadores (generalmente de 2, 4, 8 o más). Estas placas base multiprocesador tienen varios zócalos de microprocesador, lo que les permite conectar varios microprocesadores físicamente distintos (a diferencia de los de procesador de doble núcleo). Cuando hay dos procesadores en una placa base, hay dos formas de manejarlos: • El modo asimétrico, donde a cada procesador se le asigna una tarea diferente. Este método no acelera el tratamiento, pero puede asignar una tarea a una unidad central de procesamiento, mientras que la otra lleva a cabo a una tarea diferente. • El modo simétrico, llamado multiprocesamiento simétrico, donde cada tarea se distribuye de forma simétrica entre los dos procesadores. Una placa con dos procesadores.
Placa base
20
Linux fue el primer sistema operativo en gestionar la arquitectura de doble procesador en x86.[cita requerida] Sin embargo, la gestión de varios procesadores existía ya antes en otras plataformas y otros sistemas operativos. Linux 2.6.x maneja multiprocesadores simétricos, y las arquitecturas de memoria no uniformemente distribuida Algunos fabricantes proveen placas base que pueden acoger hasta 8 procesadores (en el caso de socket 939 para procesadores AMD Opteron y sobre socket 604 para procesadores Intel Xeon).
Tipos La mayoría de las placas de PC vendidas después de 2001 se pueden clasificar en dos grupos: • Las placas base para procesadores AMD • • • • • • •
Slot A Duron, Athlon Socket A Duron, Athlon, Athlon XP, Sempron Socket 754 Athlon 64, Mobile Athlon 64, Sempron, Turion Socket 939 Athlon 64, Athlon FX , Athlon X2, Sempron, Opteron Socket 940 Opteron y Athlon 64 FX Socket AM2 Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom Socket F Opteron
• Socket AM2 + Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom • Socket AM3 Phenom II X2/X3/X4. • Socket AM4 Phenom III X3/X4/X5 • Las placas base para procesadores Intel • • • • • • • • • • • • •
Socket 7: Pentium I, Pentium MMX Slot 1: Pentium II, Pentium III, Celeron Socket 370: Pentium III, Celeron Socket 423: Pentium 4 Socket 478: Pentium 4, Celeron Socket 775: Pentium 4, Celeron, Pentium D (doble núcleo), Core 2 Duo, Core 2 Quad Core 2 Extreme, Xeon Socket 603 Xeon Socket 604 Xeon Socket 771 Xeon LGA1366 Intel Core i7, Xeon (Nehalem) LGA1156 Intel Core i3, Intel Core i5, Intel Core i7 (Nehalem) LGA 2011 Intel Core i7 (Sandy Bridge) LGA 1155 Intel Core i7, Intel Core i5 y Intel Core i3 (Sandy Bridge)
Placa base
21
Formatos Las tarjetas madre necesitan tener dimensiones compatibles con las cajas que las contienen, de manera que desde los primeros computadores personales se han establecido características mecánicas, llamadas factor de forma. Definen la distribución de diversos componentes y las dimensiones físicas, como por ejemplo el largo y ancho de la tarjeta, la posición de agujeros de sujeción y las características de los conectores. Con los años, imponiendo:
varias
normas
se
fueron
• XT: es el formato de la placa base del PC de IBM modelo 5160, lanzado en 1983. En este factor de forma se definió un tamaño exactamente igual al de una hoja de papel tamaño carta y un único conector externo para el teclado. • 1984 AT 305 × 305 mm ( IBM) • Baby AT: 216 × 330 mm • AT: uno de los formatos más grandes de toda la historia del PC (305 × 279–330 mm), definió un conector de potencia formado por dos partes. Fue usado de manera extensa de 1985 a 1995. • 1995 ATX 305 × 244 mm (Intel) • MicroATX: 244 × 244 mm • FlexATX: 229 × 191 mm • MiniATX: 284 × 208 mm • ATX: creado por un grupo liderado por Intel, en 1995 introdujo las conexiones exteriores en la forma de un panel I/O y definió un conector de 20 pines para la energía. Se usa en la actualidad en la forma de algunas variantes, que incluyen conectores de energía extra o reducciones en el tamaño. • 2001 ITX 215 × 195 mm (VIA) • MiniITX: 170 × 170 mm • NanoITX: 120 × 120 mm • PicoITX: 100 × 72 mm • ITX: con rasgos procedentes de las especificaciones microATX y FlexATX de Intel, el diseño de VIA se centra en la integración en placa base del mayor número posible de componentes, además de la inclusión del hardware gráfico en el propio chipset del equipo, siendo innecesaria la instalación de una tarjeta gráfica en la ranura AGP. • 2005 [BTX] 325 × 267 mm (Intel) • Micro bTX: 264 × 267 mm • PicoBTX: 203 × 267 mm • RegularBTX: 325 × 267 mm • BTX: retirada en muy poco tiempo por la falta de aceptación, resultó prácticamente incompatible con ATX, salvo en la fuente de alimentación. Fue creada para intentar solventar los problemas de ruido y refrigeración, como evolución de la ATX. • 2007 DTX 248 × 203 mm ( AMD) • Mini-DTX: 170 × 203 mm
Placa base • Full-DTX: 243 × 203 mm • DTX: destinadas a PCs de pequeño formato. Hacen uso de un conector de energía de 24 pines y de un conector adicional de 2x2. • Formato propietario: durante la existencia del PC, mucha marcas han intentado mantener un esquema cerrado de hardware, fabricando tarjetas madre incompatibles físicamente con los factores de forma con dimensiones, distribución de elementos o conectores que son atípicos. Entre las marcas mas persistentes está Dell, que rara vez fabrica equipos diseñados con factores de forma de la industria.
Escalabilidad Hasta la mitad de la década de 1990, los PC fueron equipados con una placa en la que se soldó el microprocesador (CPU). Luego vinieron las placas base equipadas con zócalo de microprocesador «libre», que permitía acoger el microprocesador de elección (de acuerdo a sus necesidades y presupuesto). Con este sistema (que pronto se hizo más generalizado y no ha sido discutido), es teóricamente posible equipar el PC con una CPU más potente, sin sustituir la placa base, pero a menor costo. De hecho, esta flexibilidad tiene sus límites porque los microprocesadores son cada vez más eficientes, e invariablemente requieren placas madre más eficaces (por ejemplo, capaces de manejar flujos de datos cada vez más importantes).
Fabricantes Varios fabricantes se reparten el mercado de placas base, tales como Abit, Albatron, Aopen, ASUS, ASRock, Biostar, Chaintech, Dell, DFI, ECS EliteGroup, Epox, Foxconn, Gigabyte Technology, Intel, MSI, QDI, Sapphire Technology, Soltek, Super Micro, Tyan, Via, XFX, Pc Chips. Algunos diseñan y fabrican uno o más componentes de la placa base, mientras que otros ensamblan los componentes que terceros han diseñado y fabricado.
Véase también • • • • • •
Portal:Informática. Contenido relacionado con Informática. Backplane Chipset Memoria de acceso aleatorio Doble canal Tarjeta gráfica
22
Memoria de acceso aleatorio
Memoria de acceso aleatorio La memoria de acceso aleatorio (en inglés: random-access memory, cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados.
Nomenclatura La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, los módulos de memoria contienen un tipo, entre varios de memoria de acceso aleatorio, ya que las ROM, DIMM normal y corriente de memoria RAM tipo DDR2 de 240 contactos, presente mayoritariamente en PC de sobremesa de gama baja y media memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados soldados sobre un circuito impreso, en otros dispositivos como las consolas de videojuegos, esa misma memoria va soldada sobre la placa principal. Su capacidad se mide en bytes, y dada su naturaleza siempre binaria, sus múltiplos serán representados en múltiplos binarios tales como Kibibyte, Mebibyte, Gibibyte...
Historia
23
Memoria de acceso aleatorio
La historia está marcada por la necesidad del volumen de datos. Originalmente, los datos eran programados por el usuario con movimientos de interruptores. Se puede decir que el movimiento de datos era bit a bit. Las necesidades apuntaron a una automatización y se crearon lo que se denomina byte de palabra. Desde una consola remota, se trasladaban los interruptores asignándoles valores de letra, que correspondían a una orden de programación al microprocesador. Así, si se deseaba programar una orden NOT con dos direcciones distintas de memoria, solo se tenía que activar el grupo de interruptores asociados a la letra N, a la letra O y a la letra T. Seguidamente, se Integrado de silicio de 64 bits sobre un sector de memoria de núcleo (finales de programaban las direcciones de memoria los 60). sobre las cuales recibirían dicho operador lógico, para después procesar el resultado. Los interruptores evolucionaron asignándoles una tabla de direccionamiento de 16x16 bytes, en donde se daban 256 valores de byte posibles (la actual tabla ASCII). En dicha tabla, se traducen lo que antes costaba activar 8 interruptores por letra, a una pulsación por letra (de cara al recurso humano, un ahorro en tiempos. Una sola pulsación, predisponía 1 byte en RAM... o en otras palabras, cambiaba la posición de 8 interruptores con una sola pulsación). Se usó el formato de máquina de escribir, para representar todo el alfabeto latino, necesario para componer palabras en inglés; así como los símbolos aritméticos y lógicos que permitían la escritura de un programa directamente en memoria RAM a través de una consola o teclado. En origen, los programadores no veían en tiempo real lo que tecleaban, teniendo que imprimir de cuando en cuando el programa residente en memoria RAM y haciendo uso del papel a la hora de ir modificando o creando un nuevo programa. Dado que el papel era lo más accesible, los programas comenzaron a imprimirse en un soporte de celulosa más resistente, creando lo que se denominó Tarjeta perforada. Así pues, los programas constaban de una o varias tarjetas perforadas, que se almacenaban en archivadores de papel con las típicas anillas de sujeción. Dichas perforaciones, eran leídas por un dispositivo de entrada, que no era muy diferente al teclado y que constaba de pulsadores que eran activados o desactivados, dependiendo de si la tarjeta en la posición de byte, contenía una perforación o no. Cada vez que se encendía la máquina, requería de la carga del programa que iba a ejecutar. Dado que los datos en memoria son de 0 o 1, que esas posiciones físicamente representan el estado de un conmutador, que la estimulación del conmutador evolucionó a pulsos electromagnéticos, el almacenamiento de los programas era cuestión de tiempo que su almacenamiento pasara del papel a un soporte lógico, tal como las cintas de almacenamiento. Las cintas eran secuenciales, y la composición de la cinta era de un material magnetoestático; bastaba una corriente Gauss para cambiar las polaridades del material. Dado que el material magnético puede tener polaridad norte o sur, era ideal para representar el 0 o el 1. Así, ahora, cargar un programa no era cuestión de estar atendiendo un lector de tarjetas en el cual se debían de ir metiendo de forma interminable tarjetas perforadas que apenas podían almacenar apenas unos bytes. Ahora, los dispositivos electromagnéticos secuenciales requerían la introducción de la cinta y la pulsación de una tecla para que se cargara todo el programa de inicio a fin, de forma secuencial. Los accesos aleatorios no aparecieron hasta la aparición del disco duro y el Floppy. Con estos medios, un cabezal lector se deslizaba por la superficie en movimiento, si dicho movimiento tenía como consecuencia la lectura de un valor N-N (norte-norte) no generaba corriente, tampoco si era S-S (Sur-Sur), por el contrario, si era N-S o S-N sí creaba una corriente, que era captada por el circuito que mandaba el dato a la memoria RAM.
24
Memoria de acceso aleatorio
25
Toda esta automatización requiso del diseño de un sistema operativo, o de un área de gestión del recurso para su automatización. Estos sistemas requerían de un área de memoria reservada, en origen de 64 Kb (Capacidades de representación de texto en monitor monocromo), para irse ampliando a 128 Kb (Monocromo con capacidades gráficas), 256 (Texto y gráficos a dos colores), 512 (Texto y gráficos a 4 colores) y los tradicionales 640 Kb (Texto y gráficos a 16 colores). Esa memoria se denominó memoria base. Es en esta parte del tiempo, en donde se puede hablar de un área de trabajo para la mayor parte del software de un computador. La RAM continua siendo volátil por lo que posee la capacidad de perder la información una vez que se agote su fuente de energía.[1] Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una copia (de acceso rápido) de la memoria principal (típicamente discos duros) almacenada en los módulos de RAM.[1]
4MiB de memoria RAM para un computador VAX de finales de los 70. Los integrados de memoria DRAM están agrupados arriba a derecha e izquierda.
La denominación “de Acceso aleatorio” surgió para diferenciarlas de las memoria de acceso secuencial, debido a que en los comienzos de la computación, las memorias principales (o primarias) de las computadoras eran siempre de tipo RAM y las memorias secundarias (o masivas) eran de acceso secuencial (unidades de cinta o tarjetas perforadas). Es frecuente pues que se hable de memoria RAM para hacer referencia a la memoria principal de una computadora, pero actualmente la denominación no es precisa. Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas con tubos de vacío para implementar las funciones de memoria principal con o sin acceso aleatorio.
En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1 Kibibyte, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos. Módulos de memoria tipo SIPP instalados directamente sobre la placa base.
En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4 Kb en un empaque de 16 pines,[2] mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento[3] se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la
Memoria de acceso aleatorio
26
miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines. A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie de mejoras en el direccionamiento como las siguientes: • FPM-RAM (Fast Page Mode RAM) Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel 486,[4] se implantó un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primera vez no seria necesario decir el número de la calle únicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium. • EDO-RAM (Extended Data Output RAM)
Módulos formato SIMM de 30 y 72 pines, los últimos fueron utilizados con integrados tipo EDO-RAM.
Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el búffer de salida hasta que comienza el próximo ciclo de lectura. • BEDO-RAM (Burst Extended Data Output RAM) Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a mas de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj.
Arquitectura base En origen, la memoria RAM se componía de hilos de cobre que atravesaban toroides de ferrita, la corriente polariza la ferrita. Mientras esta queda polarizada, el sistema puede invocar al procesador accesos a partes del proceso que antes (en un estado de reposo) no es posible acceder. En sus orígenes, la invocación a la RAM, producía la activación de contactores, ejecutando instrucciones del tipo AND, OR y NOT. La programación de estos elementos, consistía en la predisposición de los contactores para que, en una línea de tiempo, adquiriesen las posiciones adecuadas para crear un flujo con un resultado concreto. La ejecución de un programa, provocaba un ruido estruendoso en la sala en la cual se ejecutaba dicho programa, por ello el área central de proceso estaba separada del área de control por mamparas insonorizadas. Con las nuevas tecnologías, las posiciones de la ferrita se ha ido sustituyendo por, válvulas de vacío, transistores y en las últimas generaciones, por un material sólido dieléctrico. Dicho estado estado sólido dieléctrico tipo DRAM permite que se pueda tanto leer como escribir información.
Memoria de acceso aleatorio
27
Uso por el sistema Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.
Módulos de la memoria RAM Los módulos de memoria RAM son tarjetas de circuito impreso que tienen soldados integrados de memoria DRAM por una o ambas caras. La implementación DRAM se basa en una topología de Circuito eléctrico que permite alcanzar densidades altas de memoria por cantidad de transistores, logrando integrados de decenas o cientos de Megabits. Además de DRAM, los módulos poseen un integrado que permiten la identificación de los mismos ante el computador por medio del protocolo de comunicación SPD. La conexión con los demás componentes se realiza por medio de un área de pines en uno de los filos del circuito impreso, que permiten que el modulo al ser instalado en un zócalo apropiado de Formato SO-DIMM. la placa base, tenga buen contacto eléctrico con los controladores de memoria y las fuentes de alimentación. Los primeros módulos comerciales de memoria eran SIPP de formato propietario, es decir no había un estándar entre distintas marcas. Otros módulos propietarios bastante conocidos fueron los RIMM, ideados por la empresa RAMBUS. La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al establecimiento de estándares de la industria como los JEDEC. • Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus de datos de 16 o 32 bits • Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits. • Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM.
Relación con el resto del sistema Dentro de la jerarquía de memoria la RAM se encuentra en un nivel después de los registros del procesador y de las cachés. Es una memoria relativamente rápida y de una capacidad media: sobre el año 2010), era fácil encontrar memorias con velocidades de más de 1 Ghz, y capacidades de hasta 8 GB por módulo, llegando a verse memorias pasando la barrera de los 3 Ghz por esa misma fecha mediante prácticas de overclock extremo. La memoria RAM contenida en los módulos, se conecta a un controlador de memoria que se encarga de gestionar las señales entrantes y salientes de los integrados DRAM. Algunas señales son las mismas que se utilizan para utilizar cualquier memoria: Direcciones de las posiciones, datos almacenados y señales de control. El controlador de memoria debe ser diseñado basándose en una tecnología de memoria, por lo general soporta solo una, pero existen excepciones de sistemas cuyos controladores soportan dos tecnologías (por ejemplo SDR y DDR o DDR1 y DDR2), esto sucede en las
Diagrama de la arquitectura de un ordenador.
Memoria de acceso aleatorio épocas transitorias de una nueva tecnología de RAM. Los controladores de memoria en sistemas como PC y servidores se encuentran embebidos en el llamado "North Bridge" o "Puente Norte" de la placa base; o en su defecto, dentro del mismo procesador (en el caso de los procesadores desde AMD Athlon 64 e Intel Core i7) y posteriores; y son los encargados de manejar la mayoría de información que entra y sale del procesador. Las señales básicas en el módulo están divididas en dos buses y un conjunto misceláneo de líneas de control y alimentación. Entre todas forman el bus de memoria: • Bus de datos: Son las líneas que llevan información entre los integrados y el controlador. Por lo general están agrupados en octetos siendo de 8,16,32 y 64 bits, cantidad que debe igualar el ancho del bus de datos del procesador. En el pasado, algunos formatos de modulo, no tenían un ancho de bus igual al del procesador.En ese caso había que montar módulos en pares o en situaciones extremas, de a 4 módulos, para completar lo que se denominaba banco de memoria, de otro modo el sistema no funciona. Esa es la principal razón de haber aumentar el número de pines en los módulos, igualando el ancho de bus de procesadores como el Pentium de 64 bits a principios de los 90. • Bus de direcciones: Es un bus en el cual se colocan las direcciones de memoria a las que se requiere acceder. No es igual al bus de direcciones del resto del sistema, ya que está multiplexado de manera que la dirección se envía en dos etapas.Para ello el controlador realiza temporizaciones y usa las líneas de control. En cada estándar de módulo se establece un tamaño máximo en bits de este bus, estableciendo un límite teórico de la capacidad máxima por módulo. • Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss) que se encargan de entregar potencia a los integrados. Están las líneas de comunicación para el integrado de presencia que da información clave acerca del módulo. También están las líneas de control entre las que se encuentran las llamadas RAS (row address strobe) y CAS (column address strobe) que controlan el bus de direcciones y las señales de reloj en las memorias sincrónicas SDRAM. Entre las características sobresalientes del controlador de memoria, está la capacidad de manejar la tecnología de canal doble (Dual Channel), tres canales, o incluso cuatro para los procesadores venideros; donde el controlador maneja bancos de memoria de 128 bits. Aunque el ancho del bus de datos del procesador sigue siendo de 64 bits, el controlador de memoria puede entregar los datos de manera intercalada, optando por uno u otro canal, reduciendo las latencias vistas por el procesador. La mejora en el desempeño es variable y depende de la configuración y uso del equipo. Esta característica ha promovido la modificación de los controladores de memoria, resultando en la aparición de nuevos chipsets (la serie 865 y 875 de Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal doble , reemplazo el 754 de canal sencillo). Los equipos de gama media y alta por lo general se fabrican basados en chipsets o zócalos que soportan doble canal o superior.
28
Memoria de acceso aleatorio
29
Tecnologías de memoria La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia superior a 66 MHz (A día de hoy, se han superado con creces los 1600 Mhz). Módulos de memoria instalados de 256 MiB cada uno en un sistema con doble canal.
SDR SDRAM Memoria síncrona, con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos. Fue utilizada en los Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no Memorias RAM con tecnologías usadas en la actualidad. es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos disponibles son: • PC100: SDR SDRAM, funciona a un máx de 100 MHz. • PC133: SDR SDRAM, funciona a un máx de 133 MHz.
DDR SDRAM Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos en el caso de ordenador de escritorio y en módulos de 144 contactos para los ordenadores portátiles. Los tipos disponibles son: • PC2100 o DDR 266: funciona a un máx de 133 MHz. • PC2700 o DDR 333: funciona a un máx de 166 MHz. • PC3200 o DDR 400: funciona a un máx de 200 MHz.
Memoria de acceso aleatorio
30
DDR2 SDRAM Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Se presentan en módulos DIMM de 240 contactos. Los tipos disponibles son: • • • •
PC2-4200 o DDR2-533: funciona a un máx de 533 MHz. PC2-5300 o DDR2-667: funciona a un máx de 667 MHz. PC2-6400 o DDR2-800: funciona a un máx de 800 MHz. PC2-8600 o DDR2-1066: funciona a un máx de 1066 MHz.
SDRAM DDR2.
DDR3 SDRAM Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles, debido a una ubicación diferente de la muesca. Los tipos disponibles son: • PC3-8600 o DDR3-1066: funciona a un máx de 1066 MHz. • PC3-10600 o DDR3-1333: funciona a un máx de 1333 MHz. • PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.
RDRAM (Rambus DRAM) Memoria de gama alta basada en un protocolo propietario creado por la empresa Rambus, lo cual obliga a sus compradores a pagar regalías en concepto de uso. Esto ha hecho que el mercado se decante por la tecnología DDR, libre de patentes, excepto algunos servidores de grandes prestaciones (Cray) y la consola PlayStation 3. La RDRAM se presenta en módulos RIMM de 184 contactos.
Detección y corrección de errores Existen dos clases de errores en los sistemas de memoria, las fallas (Hard fails) que son daños en el hardware y los errores (soft errors) provocados por causas fortuitas. Los primeros son relativamente fáciles de detectar (en algunas condiciones el diagnóstico es equivocado), los segundos al ser resultado de eventos aleatorios, son más difíciles de hallar. En la actualidad la confiabilidad de las memorias RAM frente a los errores, es suficientemente alta como para no realizar verificación sobre los datos almacenados, por lo menos para aplicaciones de oficina y caseras. En los usos más críticos, se aplican técnicas de corrección y detección de errores basadas en diferentes estrategias: • La técnica del bit de paridad consiste en guardar un bit adicional por cada byte de datos, y en la lectura se comprueba si el número de unos es par (paridad par) o impar (paridad impar), detectándose así el error. • Una técnica mejor es la que usa ECC, que permite detectar errores de 1 a 4 bits y corregir errores que afecten a un sólo bit esta técnica se usa sólo en sistemas que requieren alta fiabilidad. Por lo general los sistemas con cualquier tipo de protección contra errores tiene un costo más alto, y sufren de pequeñas penalizaciones en desempeño, con respecto a los sistemas sin protección. Para tener un sistema con ECC o paridad, el chipset y las memorias debe tener soportar esas tecnologías. La mayoría de placas base no poseen dicho soporte. Para los fallos de memoria se pueden utilizar herramientas de software especializadas que realizan pruebas integrales sobre los módulos de memoria RAM. Entre estos programas uno de los más conocidos es la aplicación Memtest86+
Memoria de acceso aleatorio
31
que detecta fallos de memoria.
Memoria RAM registrada Es un tipo de módulo usado frecuentemente en servidores y equipos especiales. Poseen circuitos integrados que se encargan de repetir las señales de control y direcciones. Las señales de reloj son reconstruidas con ayuda del PLL que está ubicado en el módulo mismo. Las señales de datos pasan directamente del bus de memoria a los CI de memoria DRAM. Estas características permiten conectar múltiples módulos de memoria (más de 4) de alta capacidad sin que haya perturbaciones en las señales del controlador de memoria, haciendo posible sistemas con gran cantidad de memoria principal (8 a 16 GiB). Con memorias no registradas, no es posible, debido a los problemas surgen de sobrecarga eléctrica a las señales enviadas por el controlador, fenómeno que no sucede con las registradas por estar de algún modo aisladas. Entre las desventajas de estos módulos están el hecho de que se agrega un ciclo de retardo para cada solicitud de acceso a una posición no consecutiva y por supuesto el precio, que suele ser mucho más alto que el de las memorias de PC. Este tipo de módulos es incompatible con los controladores de memoria que no soportan el modo registrado, a pesar de que se pueden instalar físicamente en el zócalo. Se pueden reconocer visualmente porque tienen un integrado mediano, cerca del centro geométrico del circuito impreso, además de que estos módulos suelen ser algo más altos.[5]
Véase también • • •
Circuito integrado Circuito impreso JEDEC
• • •
DRAM SRAM Acceso aleatorio
• • •
Memoria principal Memoria ROM FB-DIMM Nuevo formato de memoria
• • •
SPD Serial Presence Detect FRAM Memoria Ram Ferromagnetica VRAM Memoria Ram de Video
• • •
Dual Channel Memoria (informática) Memoria volátil
Referencias [1] [ |Mueller, Scott (http:/ / www. informit. com/ authors/ bio. aspx?a=96F57ED8-2FAA-4E08-BD72-5DCACD2B103A)] (2005). Upgrading and Reparing PC (http:/ / books. google. com/ books?id=E1p2FDL7P5QC& dq=Scott+ mueller& printsec=frontcover& source=bl& ots=M1niG634hB& sig=oYl9HC5uOjVNkZfcgFAd33xu2rw& hl=en& sa=X& oi=book_result& resnum=25& ct=result) (13 edición). QUE. . [2] « Mostek Firsts (http:/ / www. mindspring. com/ ~mary. hall/ mosteklives/ history/ 10Ann/ firsts. html)». [3] « Datasheet & Application Note Database, PDF, Circuits, Datasheets (http:/ / www. datasheetarchive. com/ pdf-datasheets/ DataBooks/ Book273-277. html)». [4] « The HP Vectra 486 memory controller (http:/ / findarticles. com/ p/ articles/ mi_m0HPJ/ is_/ ai_11405923)». [5] http:/ / download. micron. com/ pdf/ datasheets/ modules/ ddr2/ HTJ_S36C512_1Gx72. pdf
Enlaces externos • Wikimedia Commons alberga contenido multimedia sobre Memoria RAM.Commons • Explícame: ¿Para qué sirve la memoria RAM? (http://www.explicame.org/content/view/50/1/) • Tomshardware: Tutorial sobre RAM de 1998 (http://www.tomshardware.com/reviews/ram-guide,89-14.html) (en inglés)
Disco duro
32
Disco duro Disco Duro
Interior de un disco duro; se aprecian dos platos con sus respectivos cabezales. Conectado a: •
controlador de disco; en los actuales ordenadores personales, suele estar integrado en la placa madre mediante uno de estos sitemas Interfaz IDE / PATA Interfaz SATA Interfaz SAS Interfaz SCSI (popular en servidores) Interfaz FC (exclusivamente en servidores) Interfaz USB NAS mediante redes de cable / inalámbricas • • • • • •
•
Fabricantes comunes: • • • • •
Western Digital Seagate Samsung Hitachi Fujitsu
En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.[1] Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.[1] Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PCs y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hoy día son IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo), Serial ATA y FC (empleado exclusivamente en servidores). Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, SSD y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en algunos sistemas operativos sea representado
Disco duro como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 465 GB. Existe otro tipo de almacenamiento que recibe el nombre de Unidades de estado sólido; aunque tienen el mismo uso y emplean las mismas interfaces, no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.[2]
Estructura física Dentro de un disco duro hay uno o varios platos (entre 2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco. Cada plato posee dos caras, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el Componentes de un disco duro. De izquierda a derecha, fila esquema Cilindro-Cabeza-Sector de más abajo, a superior: tapa, carcasa, plato, eje; fila inferior: espuma aislante, circuito impreso de control, cabezal de lectura / escritura, actuador e primera vista se ven 4 brazos, uno para cada plato. En imán, tornillos. realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la Interior de un disco duro; se aprecia la superfície de un plato y el formación de esta película). Si alguna de las cabezas cabezal de lectura/escritura retraído, a la izquierda. llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).
33
Disco duro
34
Direccionamiento Hay varios conceptos para referirse a zonas del disco: • Plato: cada uno de los discos que hay dentro del disco duro. • Cara: cada uno de los dos lados de un plato. • Cabeza: número de cabezales. • Pista: una circunferencia dentro de una cara; la pista 0 está en el borde exterior. • Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara). • Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes, aunque próximamente serán 4 KiB. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro.
Cilindro, Cabeza y Sector
El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Éste es el que actualmente se usa.
Tipos de conexión Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE, SCSI o SAS:
Pista (A), Sector (B), Sector de una pista (C), Clúster (D)
• IDE: Integrated Device Electronics ("Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados. • SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador,
Disco duro lo que posibilita una mayor velocidad de transferencia. • SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente. • SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.
Factor de forma El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos FDD "floppy-disk drives" (en inglés). La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado otros tipos de disquetes con unas dimensiones más pequeñas. • 8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas). En 1979, Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las mismas dimensiones y siendo compatible con la interfaz de 8 pulgadas de las disqueteras. Había dos versiones disponibles, la de la misma altura y la de la mitad (58,7mm). • 5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo: 82,5 mm máximo. Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64 pulgadas). La mayoría de los modelos de unidades ópticas (DVD/CD) de 120 mm usan el tamaño del factor de forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó a finales de los 90'. • 3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas). Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4mm (1 pulgada), o "low-profile" que es usado en la mayoría de los discos duros. • 2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas). Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor capacidad tienen una altura de 12,5 mm. • 1,8 pulgadas: 54×8×71 mm. Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las dimensiones indicadas y su uso se incrementa en reproductores de audio digital y su subnotebook. La variante
35
Disco duro
36
original posee de 2GB a 5GB y cabe en una ranura de expansión de tarjeta de ordenador personal. Son usados normalmente en iPods y discos duros basados en MP3. • 1 pulgadas: 42,8×5×36,4 mm. Este factor de forma se introdujo en 1999 por IBM y Microdrive, apto para los slots tipo 2 de compact flash, Samsung llama al mismo factor como 1,3 pulgadas. • 0,85 pulgadas: 24×5×32 mm. Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares, incluyendo SD/MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micromóviles de 4G. Toshiba actualmente vende versiones de 4GB (MK4001MTD) y 8GB (MK8003MTD) 5 [3] y tienen el Record Guinness del disco duro más pequeño. Los principales fabricantes suspendieron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85 pulgadas en 2007, debido a la caída de precios de las memorias flash, aunque Samsung introdujo en el 2008 con el SpidPoint A1 otra unidad de 1,3 pulgadas. El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del disco, para interés de la continuidad histórica.
Estructura lógica Dentro del disco se encuentran: • El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones. • Las particiones, necesarias para poder colocar los sistemas de archivos.
Integridad Debido a la distancia extremadamente pequeña entre los cabezales y la superficie del disco, cualquier contaminación de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la pérdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre fabricación.
Cabezal del disco duro
El eje del sistema del disco duro depende de la presión del aire dentro del recinto para sostener los cabezales y su correcta altura mientras el disco gira. Un disco duro requiere un cierto rango de presiones de aire para funcionar correctamente. La conexión al entorno exterior y la presión se produce a través de un pequeño agujero en el recinto (cerca de 0,5 mm de diámetro) normalmente con un filtro en su interior (filtro de respiración, ver abajo). Si la presión del aire es demasiado baja, entonces no hay suficiente impulso para el cabezal, que se acerca demasiado al disco, y se da el riesgo de fallos y pérdidas de datos. Son necesarios discos fabricados especialmente para operaciones de gran altitud, sobre 3.000 m. Hay que tener en cuenta que los aviones modernos tienen una cabina presurizada cuya presión interior equivale normalmente a una altitud de 2.600 m como máximo. Por lo tanto los discos
Disco duro
37
duros ordinarios se pueden usar de manera segura en los vuelos. Los discos modernos incluyen sensores de temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos (normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero. El aire dentro del disco operativo está en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de recirculación interna para quitar cualquier contaminante que se hubiera quedado de su fabricación, alguna partícula o componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos. Para los cabezales resistentes al magnetismo grandes (GMR) en particular, un incidente minoritario debido a la contaminación (que no se disipa la superficie magnética del disco) llega a dar lugar a un sobrecalentamiento temporal en el cabezal, debido a la fricción con la superficie del disco, y puede hacer que los datos no se puedan leer durante un periodo corto de tiempo hasta que la temperatura del cabezal se estabilice (también conocido como “aspereza térmica”, un problema que en parte puede ser tratado con el filtro electrónico apropiado de la señal de lectura). Cabezal de disco duro IBM sobre el plato del disco
Los componentes electrónicos del disco duro controlan el movimiento del accionador y la rotación del disco, y realiza lecturas y escrituras necesitadas por el controlador de disco. El firmware de los discos modernos es capaz de programar lecturas y escrituras de forma eficiente en la superficie de los discos y de reasignar sectores que hayan fallado.
Funcionamiento mecánico Un disco duro suele tener: • • • • • • •
Platos en donde se graban los datos. Cabezal de lectura/escritura. Motor que hace girar los platos. Electroimán que mueve el cabezal. Circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché. Bolsita desecante (gel de sílice) para evitar la humedad. Caja, que ha de proteger de la suciedad, motivo por el cual suele traer algún filtro de aire.
Disco duro
Historia Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire). El primer disco duro, aparecido en 1956, fue el IBM 350 modelo 1, presentado con la computadora Ramac I: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo. Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente Antiguo disco duro de IBM (modelo 62PC, «Piccolo»), de 64,5 MB, fabricado en constante entre algunas posiciones de 1979 memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición. La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta. El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60% anual en la década de 1990. En 1992, los discos duros de 3,5 pulgadas alojaban 250 Megabytes, mientras que 10 años después habían superado 40 Gigabytes (40000 Megabytes). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 2 terabytes (TB), (2000000 Megabytes) En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad.
38
Disco duro
Características de un disco duro Las características que se deben tener en cuenta en un disco duro son: • Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector). • Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco. • Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista. • Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco. • Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media. • Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico. Otras características son: • Caché de pista: Es una memoria tipo Flash dentro del disco duro. • Interfaz: Medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB, Firewire, Serial Attached SCSI • Landz: Zona sobre las que aparcan las cabezas una vez se apaga la computadora.
Presente y futuro Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los cuales hacen un uso más eficiente de la energía.
Unidades de Estado sólido Las unidades de estado sólido son dispositivos electrónicos, construidos únicamente con chips de memoria flash, por ello, no son discos, pero juegan el mismo papel a efectos prácticos con todas las mejoras que ello conlleva. Se viene empezando a observar que es posible que las unidades de estado sólido terminen sustituyendo al disco duro por completo a largo plazo. Son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos esto les hace muy fiables y físicamente casi indestructibles. Sin embargo su costo por GB es aún muy elevado ya que el coste de un disco duro común de 1 TB es equivalente a un SSD de 40 GB, 70 € aproximadamente. Los discos que no son discos: Las Unidades de estado sólido han sido categorizadas repetidas veces como "discos", cuando es totalmente incorrecto denominarlas así, puesto que a diferencia de sus predecesores, sus datos no se almacenan sobre superficies cilíndricas ni platos. Esta confusión conlleva habitualmente a creer que "SSD" significa Solid State Disk, en vez de Solid State Drive
39
Disco duro
40
Fabricantes Los recursos tecnológicos y el saber hacer requeridos para el desarrollo y la producción de discos modernos implica que desde 2007, más del 98% de los discos duros del mundo son fabricados por un conjunto de grandes empresas: Seagate (que ahora es propietaria de Maxtor), Western Digital, Samsung e Hitachi (que es propietaria de la antigua división de fabricación de discos de IBM). Fujitsu sigue haciendo discos portátiles y discos de servidores, pero dejó de hacer discos para ordenadores de escritorio en 2001, y el resto lo vendió a Western Digital. Toshiba es uno de los principales fabricantes de discos duros para portátiles de 2,5 pulgadas y 1,8 pulgadas. ExcelStor es un pequeño fabricante de discos duros.
Un Western Digital 3.5 pulgadas 250 GB SATA HDD.
Decenas de ex-fabricantes de discos duros han terminado con sus empresas fusionadas o han cerrado sus divisiones de discos duros, a medida que la capacidad de los dispositivos y la demanda de los productos aumentó, los beneficios eran menores y el mercado sufrió un significativa consolidación a finales de los 80 y finales de los 90. La primera víctima en el mercado de los PC fue Computer Memories Inc.; después de un incidente con 20 MB defectuosos en discos en 1985, la reputación de CMI nunca se recuperó, y salieron del mercado de los discos duros en 1987. Otro notable fracaso fue el de MiniScribe, quien quebró en 1990: después se descubrió que tenía en marcha un fraude e inflaba el número de ventas durante varios años. Otras muchas pequeñas compañías (como Kalok, Microscience, LaPine, Areal, Priam y PrairieTek) tampoco sobrevivieron a la expulsión, y habían desaparecido para 1993; Micropolis fue capaz de aguantar hasta 1997, y JTS, un recién llegado a escena, duró sólo unos años y desapareció hacia 1999, aunque después intentó fabricar discos duros en India. Su vuelta a la fama se debió a la creación de un nuevo formato de tamaño Un Seagate 3.5 pulgadas 1 TB SATA HDD. de 3” para portátiles. Quantum e Integral también investigaron el formato de 3”, pero finalmente se dieron por vencidos. Rodime fue también un importante fabricante durante la década de los 80, pero dejó de hacer discos en la década de los 90 en medio de la reestructuración y ahora se concentra en la tecnología de la concesión de licencias; tienen varias patentes relacionadas con el formato de 3,5“. • 1988: Tandon vendió su división de fabricación de discos duros a Western Digital, que era un renombrado diseñador de controladores. • 1989: Seagate compró el negocio de discos de alta calidad de Control Data, como parte del abandono de Control Data en la creación de hardware. • 1990: Maxtor compró MiniScribe que estaba en bancarrota, haciéndolo el núcleo de su división de discos de gama baja. • 1994: Quantum compró la división de almacenamiento de Digital Equipment otorgando al usuario una gama de discos de alta calidad llamada ProDrive, igual que la gama tape drive de Digital Linear Tape • 1995: Conner Peripherals, que fue fundada por uno de los cofundadores de Seagate junto con personal de MiniScribe, anunciaron un fusión con Seagate, la cual se completó a principios de 1996. • 1996: JTS se fusionó con Atari, permitiendo a JTS llevar a producción su gama de discos. Atari fue vendida a Hasbro en 1998, mientras que JTS sufrió una bancarrota en 1999.
Disco duro • 2000: Quantum vendió su división de discos a Maxtor para concentrarse en las unidades de cintas y los equipos de respaldo. • 2003: Siguiendo la controversia en los fallos masivos en su modelo Deskstar 75GXP, pioneer IBM vendió la mayor parte de su división de discos a Hitachi, renombrándose como Hitachi Global Storage Technologies, Hitachi GST. • 2003: Western Digital compró Read-Rite Corp., quien producía los cabezales utilizados en los discos duros, por 95,4 millones de dólares en metálico. • 2005: Seagate y Maxtor anuncian un acuerdo bajo el que Seagate adquiriría todo el stock de Maxtor. Esta adquisición fue aprobada por los cuerpos regulatorios, y cerrada el 19 de mayo de 2006. • 2007: Western Digital adquiere Komag U.S.A., un fabricante del material que recubre los platos de los discos duros.
Recuperación de datos de discos duros estropeados En casos en los que no es posible acceder a la información almacenada en el disco duro, y no disponemos de copia de seguridad o no podemos acceder a ella, existen empresas especializadas en la recuperación de la información de discos duros dañados. Estas empresas reparan el medio con el fin de extraer de él la información y después volcarla a otro medio en correcto estado de funcionamiento.
Véase también • • • • •
Unidad de estado sólido Jumper (informática) Partición de disco Periférico Disco dinámico
Principales fabricantes de discos duros • • • • • • • •
Western Digital Seagate Maxtor que pasa a ser de Seagate. Samsung Hitachi Fujitsu Quantum Corp. Toshiba
Referencias [1] C. Dennis Mee, Eric D. Daniel (1996). McGraw-Hill. ed. Magnetic Storage Handbook 2nd Ed. (http:/ / books. google. es/ books?id=O6ccTe28iAcC& printsec=frontcover& dq=Magnetic+ Storage+ Handbook+ 2nd+ Ed. & source=bl& ots=mgwlS5U_pq& sig=BK5mk1iK3my1VN6LG3fsN87iRB4& hl=ca& ei=MoScTLOlGci54AbplY27DQ& sa=X& oi=book_result& ct=result& resnum=1& ved=0CBgQ6AEwAA#v=onepage& q=Magnetic Storage Handbook 2nd Ed. & f=false). ISBN 0070412758. . [2] Toshiba America Electronic Components, Inc. « Solid State Drives Memory Products (http:/ / www. toshiba. com/ taec/ Catalog/ Family. do?familyid=7& subfamilyid=900314)». Consultado el 17-07-2009. [3] http:/ / www3. toshiba. co. jp/ storage/ english/ spec/ hdd/ mk4001. htm
41
Disco duro
Enlaces externos • Wikimedia Commons alberga contenido multimedia sobre Disco duro. Commons • http://www.youtube.com/watch?v=9eMWG3fwiEU Video de un disco duro destapado y funcionando. • El disco duro en el futuro será SSD, sin partes mecánicas (http://www.tecnologiaslibres.net/2007/12/06/ ssd-los-discos-duros-del-futuro/) • Consejos básicos antes de instalar un disco duro (http://www.hard-h2o.com/vertema/57173/ l-antes-de-instalar-un-disco-duro-leer-esto.html) (en español) • El disco duro por dentro (http://www.pcdoctor-guide.com/wordpress/?p=595) (en inglés) • Video de su funcionamiento (http://video.google.com/videoplay?docid=-744683267829297106&q=hard+ drive+in+action&pl=true) (en inglés) • Estructura en sectores del disco duro (http://www.dewassoc.com/kbase/hard_drives/ hard_disk_sector_structures.htm) (en inglés) • Todo sobre el disco duro (http://www.monografias.com/trabajos14/discosduros/discosduros.shtml) (en español) • Primer disco duro de la historia (http://www.abadiadigital.com/articulo/el-primer-disco-duro-de-la-historia/) (en español) • Disco duro y particiones (http://www.saulo.net/pub/ddypart) (en español) • Historia del disco duro (http://www.virtuaside.com/docs/historia-hds.php) (en español) • Sonidos de discos duros defectuosos (http://datacent.com/hard_drive_sounds.php) (en inglés)
42
43
Dispositivos de almacenamiento de datos Dispositivo de almacenamiento de datos Los dispositivos o unidades de almacenamiento de datos son dispositivos que leen o escriben datos en medios o soportes de almacenamiento, y juntos conforman la memoria secundaria o almacenamiento secundario de la computadora. Estos dispositivos realizan las operaciones de lectura o escritura de los medios o soportes donde se almacenan o guardan, lógica y físicamente, los archivos de un sistema informático.
Terminología Los dispositivos que no se utilizan exclusivamente para grabación (por ejemplo manos, bocas, instrumentos musicales) y dispositivos que son intermedios en el proceso de almacenamiento / recuperación (por ejemplo, ojos, oídos, cámaras, escáneres, micrófonos, altavoces, monitores, proyectores de vídeo) no son por lo general considerados como dispositivos de almacenamiento. Los dispositivos usados exclusivamente para grabación (por ejemplo impresoras), exclusivamente para lectura (por ejemplo lectores de códigos de barras), o los dispositivos que procesan solamente una forma de información (por ejemplo fonógrafos) pueden o no considerarse dispositivos de almacenamiento. En computación éstos se conocen como dispositivos de entrada-salida. Un cerebro orgánico puede o no considerarse un dispositivo de almacenamiento de datos. Toda la información es datos. Sin embargo, no todos los datos son información.
Dispositivo de almacenamiento de datos
Dispositivos de almacenamiento de datos Disco duro Los discos duros tienen una gran capacidad de almacenamiento de información, pero al estar alojados normalmente dentro del armazón de la computadora (discos internos), no son extraíbles fácilmente. Para intercambiar información con otros equipos (si no están conectados en red) necesitamos utilizar unidades de disco, como los disquetes, los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB, memorias flash, etc. El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, archivos de texto, imagen, vídeo, etc. Dicha unidad puede ser interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el gabinete o caja de computadora. Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información. Este componente, al contrario que el micro o los Gabinete para disco duro con interfaz USB. módulos de memoria, no se pincha directamente en la placa, sino que se conecta a ella mediante un cable. También va conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar. Además, una sola placa puede tener varios discos duros conectados. Las características principales de un disco duro son: • Capacidad: Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta constantemente desde cientos de MB, decenas de GB, cientos de GB y hasta TB. • Velocidad de giro: Se mide en revoluciones por minuto (RPM). Cuanto más rápido gire el disco, más rápido podrá acceder a la información la cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 RPM, dependiendo del tipo de ordenador al que estén destinadas. • Capacidad de transmisión de datos: De poco servirá un disco duro de gran capacidad si transmite los datos lentamente. Los discos actuales pueden alcanzar transferencias de datos de más de 400 MB por segundo. También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB. Cuando el disco duro está leyendo, se enciende en la carcasa un LED (de color rojo, verde u otro). Esto es útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está procesando datos.
44
Dispositivo de almacenamiento de datos
45
Disquetera La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 MB de capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las necesidades de las aplicaciones actuales se siguen utilizando para intercambiar archivos pequeños, pues pueden borrarse y reescribirse cuantas veces se desee de una manera muy cómoda, aunque la transferencia de información es bastante lenta si la comparamos con otros soportes, como el disco duro o un CD-ROM. Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para expulsarlo se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna acción en el entorno gráfico con el que trabajamos (por ejemplo, se arrastra el símbolo del disquete hasta un icono representado por una papelera).
Representación gráfica de un disquete.
La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y también va conectada mediante un cable a la placa base. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro. En los disquetes solo se puede escribir cuando la pestaña esta cerrada. Cabe destacar que el uso de este soporte en la actualidad es escaso o nulo, puesto que se ha vuelto obsoleto teniendo en cuenta los avances que en materia de tecnología se han producido.
Unidad de CD-ROM o "lectora" La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas: hasta 700 MB. Ésta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc. El uso de estas unidades está muy extendido, ya que también permiten leer los discos compactos de audio. Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que salga una especie de bandeja donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce. En estas unidades, además, existe una toma para auriculares, y también pueder estar presentes los controles de navegación y de volumen típicos de los equipos de audio para saltar de una pista a otra, por ejemplo.
Representación gráfica de un disco compacto.
Una característica básica de las unidades de CD-ROM es la velocidad de lectura que normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128 kB/s. Así, una unidad de 52x lee información de 128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.
Dispositivo de almacenamiento de datos
Unidad de CD-RW (regrabadora) o "grabadora" Las unidades de CD-ROM son de sólo lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él. Una regrabadora puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En los discos regrabables es normalmente menor que en los discos que sólo pueden ser grabados una vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 o más megabytes (hasta 900 MB) de un disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx cx (a:velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación).
Unidad de DVD-ROM o "lectora de DVD" Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s. Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados si disponemos de una buena tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco satélites).
Unidad de DVD-RW o "grabadora de DVD" Puede leer y grabar y regrabar imágenes, sonido y datos en discos de varios gigabytes de capacidad, de una capacidad de 650 MB a 9 GB.
Unidad de disco magneto-óptico La unidad de discos magneto-ópticos permiten el proceso de lectura y escritura de dichos discos con tecnología híbrida de los disquetes y los discos ópticos, aunque en entornos domésticos fueron menos usadas que las disqueteras y las unidades de CD-ROM, pero tienen algunas ventajas en cuanto a los disquetes: • Por una parte, admiten discos de gran capacidad: 230 MB, 640 Mb o 1,3 GB. • Además, son discos reescribibles, por lo que es interesante emplearlos, por ejemplo, para realizar copias de seguridad.
Lector de tarjetas de memoria El lector de tarjetas de memoria es un periférico que lee o escribe en soportes de memoria flash. Actualmente, los instalados en computadores (incluidos en una placa o mediante puerto USB), marcos digitales, lectores de DVD y otros dispositivos, suelen leer varios tipos de tarjetas. Una tarjeta de memoria es un pequeño soporte de almacenamiento que utiliza memoria flash para guardar la información que puede requerir o no baterías (pilas), en los últimos modelos la batería no es requerida, la batería era utilizada por los primeros modelos. Estas memorias son resistentes a los rasguños externos y al polvo que han afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes.
46
Dispositivo de almacenamiento de datos
Otros dispositivos de almacenamiento Otros dispositivos de almacenamiento son las memorias flash o los dispositivos de almacenamiento magnéticos de gran capacidad. • Memoria flash: Es un tipo de memoria que se comercializa para el uso de aparatos portátiles, como cámaras digitales o agendas electrónicas. El aparato correspondiente o bien un lector de tarjetas, se conecta a la computadora a través del puerto USB o Firewire. • Discos y cintas magnéticas de gran capacidad: Son unidades especiales que se utilizan para realizar copias de seguridad o respaldo en empresas y centros de investigación. Su capacidad de almacenamiento puede ser de cientos de gigabytes. • Almacenamiento en línea: Hoy en día también debe hablarse de esta forma de almacenar información. Esta modalidad permite liberar espacio de los equipos de escritorio y trasladar los archivos a discos rígidos remotos provistos que garantizan normalmente la disponibilidad de la información. En este caso podemos hablar de dos tipos de almacenamiento en línea: un almacenamiento de corto plazo normalmente destinado a la transferencia de grandes archivos vía web; otro almacenamiento de largo plazo, destinado a conservar información que normalmente se daría en el disco rígido del ordenador personal.
Restauración de datos La información almacenada en cualquiera de estos dispositivos debe de disponer de algún mecanismo para restaurar la información, es decir restaurar la información a su estado original en caso de que algún evento no nos permita poder acceder a la información original, siendo necesario acudir a la copia que habíamos realizado anteriormente. Para esta restauración de datos existen diferentes métodos, desde un simple copiar pasando por comandos como el "copy" de DOS, el "cp" de sistemas Linux y Unix, o herramientas de diversos fabricantes..
Recuperación de datos En casos en los que no es posible acceder a la información original, y no disponemos de copia de seguridad o no podemos acceder a ella, existen empresas especializadas que pueden rescatarnos la información de nuestros dispositivos de almacenamiento de información dañados. Estas empresas reparan el medio con el fin de extra de el la información y después volcarla a otro medio en correcto estado de funcionamiento.
47
Circuito integrado auxiliar
48
Circuito integrado auxiliar Circuito integrado auxiliar o chipset es el conjunto de circuitos integrados diseñados con base a la arquitectura de un procesador (en algunos casos diseñados como parte integral de esa arquitectura), permitiendo que ese tipo de procesadores funcionen en una placa base. Sirven de puente de comunicación con el resto de componentes de la placa, como son la memoria, las tarjetas de expansión, los puertos USB, ratón, teclado, etc. Las placas base modernas suelen incluir dos integrados, denominados Norte y Sur, y suelen ser los circuitos integrados más grandes después del microprocesador.
Integrado de un conjunto Nvidia, no tiene su disipador.
El chipset determina muchas de las características de una placa base y por lo general la referencia de la misma está relacionada con la del chipset. A diferencia del microcontrolador, el procesador no tiene mayor funcionalidad sin el soporte de un chipset: la importancia del mismo ha sido relegada a un segundo plano por las estrategias de marketing.
Historia Desde los comienzos de la fabricación de los primeros procesadores, se pensó en un conjunto de integrados de soporte, de hecho el primer microprocesador de la historia, el Intel 4004 formaba parte de un conjunto de integrados numerados 4001,4002 y 4003 que tenían todos una apariencia física similar y que formaban la base de un sistema de cómputo cualquiera. Mientras que otras plataformas usaban muy variadas combinaciones de chips de propósito general, los empleados en el Commodore 64 y la Familia Atari de 8 bits, incluso sus CPUs, solían ser diseños especializados para la plataforma, que no se encontraban en otros equipos electrónicos, por lo que se les comenzó a llamar chipsets. Este término se generalizó en la siguiente generación de ordenadores domésticos : el Commodore Amiga y el Atari ST son los equipos más potentes de los años 90, y ambos tenían multitud de chips auxiliares que se encargaban del manejo de la memoria, el sonido, los gráficos o el control de unidades de almacenamiento masivo dejando a la CPU libre para otras tareas. En el Amiga sobre todo se diferenciaban las generaciones por el chipset utilizado en cada una. Tanto los chips de los Atari de 8 bits como los del Amiga tenían como diseñador a Jay Miner, por lo que algunos lo consideran el precursor de la moderna arquitectura utilizada en la actualidad. Apple Computer comienza a utilizar chips diseñados por la compañía o comisionados expresamente a otras en su gama Apple Macintosh, pero pese a que irá integrando chips procedentes del campo PC, nunca se usa el término chipset para referirse al juego de chips empleado en cada nueva versión de los Mac, hasta la llegada de los equipos G4. Mientras tanto el IBM PC ha optado por usar chips de propósito general (IBM nunca pretendió obtener el éxito que tuvo) y sólo el subsistema gráfico tiene una ligera independencia de la CPU. Hasta la aparición de los IBM Personal System/2 no se producen cambios significativos, y el término chipset se reserva para los conjuntos de chips de una placa de ampliación (o integrada en placa madre, pero con el mismo bus de comunicaciones) dedicada a un único
Circuito integrado auxiliar propósito como el sonido o el subsistema SCSI. Pero la necesidad de ahorrar espacio en la placa y abaratar costes trae primero la integración de todos los chips de control de periféricos (las llamadas placas multi-IO pasan de tener hasta 5 chips a integrar más funciones en uno sólo) y con la llegada del bus PCI y las especificaciones ATX de los primeros chipsets tal y como los conocemos ahora.
Funcionamiento El Chipset es el que hace posible que la placa base funcione como eje del sistema, dando soporte a varios componentes e interconectándolos de forma que se comuniquen entre ellos haciendo uso de diversos buses. Es uno de los pocos elementos que tiene conexión directa con el procesador, gestiona la mayor parte de la información que entra y sale por el bus principal del procesador, del sistema de vídeo y muchas veces de la memoria RAM. En el caso de los computadores PC, es un esquema de arquitectura abierta que establece modularidad: el Chipset debe tener interfaces estándar para los demás dispositivos. Esto permite Chipset 875 de Intel, usado con procesadore Pentium 4 en encapsulado de pines. escoger entre varios dispositivos estándar, por ejemplo en el caso de los buses de expansión, algunas tarjetas madre pueden tener bus PCI-Express y soportar diversos tipos de tarjetas con de distintos anchos de bus (1x, 8x, 16x). En el caso de equipos portátiles o de marca, el chipset puede ser diseñado a la medida y aunque no soporte gran variedad de tecnologías, presentará alguna interfaz de dispositivo. La terminología de los integrados ha cambiado desde que se creó el concepto del chipset a principio de los años 90, pero todavía existe equivalencia haciendo algunas aclaraciones: • El NorthBridge, puente norte, MCH (Memory Controller Hub), GMCH (Graphic MCH), se usa como puente de enlace entre el microprocesador y la memoria. Controla las funciones de acceso hacia y entre el microprocesador, la memoria RAM, el puerto gráfico AGP o el PCI-Express de gráficos, y las comunicaciones con el puente sur. Al principio tenía también el control de PCI, pero esa funcionalidad ha pasado al puente sur. • El SouthBridge o puente sur, ICH (Input Controller Hub), controla los dispositivos asociados como son la controladora de discos IDE, puertos USB, FireWire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos infrarrojos, disquetera, LAN, PCI-Express 1x y una larga lista de todos los elementos que podamos imaginar integrados en la placa madre. Es el encargado de comunicar el procesador con el resto de los periféricos. En la actualidad los principales fabricantes de chipsets son AMD, ATI Technologies (comprada en 2006 por AMD), Intel, NVIDIA, Silicon Integrated Systems y VIA Technologies
49
Circuito integrado auxiliar
50
El termino chipset en la electrónica También en electrónica se utiliza el termino chipset para referirnos al circuito integrado o conjunto de ellos que fueron diseñados específicamente para un equipo electrónico, siendo imposible su utilización para otro propósito que no fuese el planificado por sus fabricantes. Estos circuitos integrados albergan en su interior prácticamente la totalidad de los componentes del dispositivo, requiriendo de unos pocos componentes adicionales en el circuito impreso, difíciles o imposibles de integrar, como condensadores, cristales de cuarzo, inductores o memorias RAM que ocupan una gran superficie del chip y tienen una alta tasa de fallos en la fabricación. Tampoco se suelen integrar las memorias flash donde se almacena el firmware.
Circuito impreso de un DVD Philips, se puede apreciar el chipset MT1389 del fabricante Mediatek y los pocos componentes auxiliares como el controlador de servos (abajo a la izquierda) y la memoria flash (derecha).
Véase también • Puente norte • Puente sur
Enlaces externos • La importancia del Chipset [1] blogs.intel.com. • Via Chipsets [2] via.com.tw (en inglés). • Chipset en Elektronik-Kompendium [3] (en alemán)
Referencias [1] http:/ / blogs. intel. com/ latininsights/ 2007/ 07/ cual_es_la_importancia_del_chi. html [2] http:/ / www. via. com. tw/ en/ products/ chipsets/ [3] http:/ / www. elektronik-kompendium. de/ sites/ com/ 0403311. htm
BIOS
51
BIOS {{{nombre}}}
Clases del producto: • • •
PROM EPROM Memoria Flash
Fabricantes comunes: • • •
American Megatrends Phoenix Technologies Otros
El BIOS (sigla en inglés de basic input/output system) es un código de software que localiza y reconoce todos los dispositivos necesarios para cargar el sistema operativo en la memoria RAM; es un software muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona una salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador. El primer uso del término "BIOS" se dio en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la memoria de solo lectura, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al BIOS de CP/M. El BIOS es un sistema básico de entrada/salida que normalmente pasa inadvertido para el usuario final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en la memoria RAM. Posee un componente de hardware y otro de software; este último brinda una interfaz generalmente de texto que permite configurar varias opciones del hardware instalado en el PC, como por ejemplo el reloj, o desde qué dispositivos de almacenamiento iniciará el sistema operativo (Microsoft Windows, GNU/Linux, Mac OS X, etc.). El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una salida bastante básica en forma de sonidos por el altavoz incorporado en la placa base cuando hay algún error, como por ejemplo un dispositivo que falla o debería ser conectado. Estos mensajes de error son utilizados por los técnicos para encontrar soluciones al momento de armar o reparar un equipo. El BIOS reside en una memoria EPROM. Es un programa tipo firmware. El BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la configuración de aspectos importantes de la máquina.
BIOS
52
Firmware en tarjetas adaptadoras Tener diversos chips con firmware BIOS. Además del BIOS de arranque situado en la unidad de almacenamiento secundario y la placa base.
El mercado de los BIOS La gran mayoría de los proveedores de placas madre de computadoras personales delega a terceros la producción del BIOS y un conjunto de herramientas. madre. El fabricante puede publicar actualizaciones del firmware por medio de su sitio web, pero una mala compatibilidad con el hardware puede provocar que el sistema no vuelva a arrancar inutilizándolo hasta reescribir el BIOS directamente en el circuito integrado donde se almacena con un programador de memorias. Los principales proveedores de BIOS son American Megatrends (AMI), General Software, Insyde Software, y Phoenix Technologies (que compró Award Software International en 1998).
Véase también • Placa base • Firmware • Open Firmware • • • • •
Coreboot Extensible Firmware Interface OpenBIOS OpenBook Project LinuxBIOS
Enlaces externos • del BIOS [1] • Ayuda para la configuración del BIOS [2] • Como programar tu propio Boot loader [3]
Referencias [1] http:/ / reparesupc. com/ Setup [2] http:/ / www. red-atlantic. com/ TXT/ ARTICULOS/ bios_19_11_2002. html [3] http:/ / code. google. com/ p/ akernelloader/
Tarjeta de expansión
53
Tarjeta de expansión Las tarjetas de expansión son dispositivos con diversos circuitos integrados y controladores que, insertadas en sus correspondientes ranuras de expansión, sirven para ampliar las capacidades de un ordenador. Las tarjetas de expansión más comunes sirven para añadir memoria, controladoras de unidad de disco, controladoras de vídeo, puertos serie o paralelo y dispositivos de módem internos. Por lo general, se suelen utilizar indistintamente los términos «placa» y «tarjeta» para referirse a todas las tarjetas de expansión. Instalación de una tarjeta de expansión.
En la actualidad las tarjetas suelen ser de tipo PCI, PCI Express o AGP. Como ejemplo de tarjetas que ya no se utilizan tenemos la de tipo Bus ISA.
Gracias al avance en la tecnología USB y a la integración de audio, video o red en la placa base, hoy en día son menos imprescindibles para tener un PC completamente funcional.
La historia de la tarjeta de expansión El primer microordenador en ofrecer un bus de tarjeta tipo ranura fue el Altair 8800, desarrollado en 1974-1975. Inicialmente, las implementaciones de este bus eran de marca registrada (como Apple II y Macintosh), pero en 1982 fabricantes de computadoras basadas en el Intel 8080/Zilog Z80 que ejecutaban CP/M ya habían adoptado el estándar S-100. IBM lanzó el bus XT, con el primer IBM PC en 1981; se llamaba entonces el bus PC, ya que el IBM XT, que utilizaba el mismo bus (con una leve excepción) no se lanzó hasta 1983. XT (también denominado ISA de 8 bits) fue reemplazado por ISA (también denominado ISA de 16 bits), conocido originalmente como el bus AT, en 1984. El bus MCA de IBM, desarrollado para el PS/2 en 1987, competía con ISA, pero cayó en desgracia debido a la aceptación general de ISA de parte de la industria, y la licencia cerrada que IBM mantenía sobre MCA. EISA, la versión extendida de 32 bits abogada por Compaq, era común en las placas base de los PC hasta 1997, cuando Microsoft lo declaró un «subsistema heredado» en el libro blanco industrial PC 97. VESA Local Bus, un bus de expansión al principio de los 1990 que estaba ligado intrínsecamente a la CPU 80486, se volvió obsoleto (además del procesador) cuando Intel lanzó la CPU Pentium en 1993. El bus PCI se lanzó en 1991 para reemplazar a ISA. El estándar (ahora en la versión 3.0) se encuentra en las placas base de los PC aun hoy en día. Intel lanzó el bus AGP en 1997 como una solución dedicada de aceleración de video. Aunque se denominaba un bus, AGP admite una sola tarjeta a la vez. A partir de 2005, PCI Express ha estado reemplazando a PCI y a AGP. Este estándar, aprobado en 2004, implementa el protocolo lógico PCI a través de una interfaz de comunicación en serie. Después del bus S-100, este artículo sólo menciona buses empleados en PCs compatibles con IBM/Windows-Intel. La mayoría de las otras líneas de computadoras que no eran compatibles con IBM, inclusive las de Tandy, Commodore, Amiga y Atari, ofrecían sus propios buses de expansión. Aun muchas consolas de videojuegos, tales como el Sega Genesis, incluían buses de expansión; al menos en el caso del Genesis, el bus de expansión era de marca registrada, y de hecho las ranuras de cartucho de la muchas consolas que usaban cartuchos (excepto el Atari
Tarjeta de expansión
54
2600) calificarían como buses de expansión, ya que exponían las capacidades de lectura y escritura del bus interno del sistema. No obstante, los módulos de expansión conectados a esos interfaces, aunque eran funcionalmente iguales a las tarjetas de expansión, no son técnicamente tarjetas de expansión, debido a su forma física. Para sus modelos 1000 EX y 1000 HX, Tandy Computer diseñó la interfaz de expansión PLUS, una adaptación de las tarjetas del bus XT con un factor de forma más pequeño. Porque es eléctricamente compatible con el bus XT (también denominado ISA de 8 bits o XT-ISA), un adaptador pasivo puede utilizarse para conectar tarjetas XT a un conector de expansión PLUS. Otra característica de tarjetas PLUS es que se pueden apilar. Otro bus que ofrecía módulos de expansión capaces de ser apilados era el bus «sidecar» empleado por el IBM PCjr. Éste pudo haber sido eléctricamente igual o similar al bus XT; seguramente poseía algunas similitudes ya que ambos esencialmente exponían los buses de dirección y de datos de la CPU 8088, con búferes y preservación de estado, la adición de interrupciones y DMA proveídos por chips complementarios de Intel, y algunas líneas de detección de fallos (corriente idónea, comprobación de Memoria, comprobación de Memoria E/S). Otra vez, PCjr sidecars no son técnicamente tarjetas de expansión, sino módulos de expansión, con la única diferencia siendo que el sidecar es una tarjeta de memoria envuelta en una caja de plástico (con agujeros que exponen los conectores).
Tipos de tarjetas de expansión • Capturadora de televisión • • • •
Módem interno Tarjeta gráfica Tarjeta de red Tarjeta de sonido
Bus (informática) En arquitectura de computadores, el bus es un sistema digital que transfiere datos entre los componentes de una computadora o entre computadoras. Está formado por cables o pistas en un circuito impreso, dispositivos como resistencias y condensadores además de circuitos integrados. En los primeros computadores electrónicos, todos los buses eran de tipo paralelo, de manera que la comunicación entre las partes del computador se hacía por medio de cintas o muchas pistas en el circuito impreso, en los cuales cada conductor tiene una función fija y la conexión es sencilla requiriendo únicamente puertos de entrada y de salida para cada dispositivo.
Buses de comunicación en un circuito impreso.
La tendencia en los últimos años es el uso de buses seriales como el USB, Custom Firewire para comunicaciones con periféricos y el reemplazo de buses paralelos para conectar toda clase de dispositivos, incluyendo el microprocesador con el chipset en la propia placa base. Son conexiones con lógica compleja que requieren en algunos casos gran poder de cómputo en los propios dispositivos, pero que poseen grandes ventajas frente al bus paralelo que es menos inteligente.
Bus (informática)
55
Existen diversas especificaciones de bus que definen un conjunto de características mecánicas como conectores, cables y tarjetas, además de protocolos eléctricos y de señales.
Funcionamiento La función del MICROBus es la de permitir la conexión lógica entre distintos subsistemas de un sistema digital, enviando datos entre dispositivos de distintos órdenes: desde dentro de los mismos circuitos integrados, hasta equipos digitales completos que forman parte de supercomputadoras. La mayoría de los buses están basados en conductores metálicos por los cuales se trasmiten señales eléctricas que son enviadas y recibidas con la ayuda de integrados que poseen una interfaz del bus dado y se encargan de manejar las señales y entregarlas como datos útiles. Las señales digitales que se trasmiten son de datos, de direcciones o señales de control. Los buses definen su capacidad de acuerdo a la frecuencia máxima de envío y al ancho de los datos. Por lo general estos valores son inversamente proporcionales: si se tiene una alta frecuencia, el ancho de datos debe ser pequeño. Esto se debe a que la interferencia entre las señales (crosstalk) y la dificultad de sincronizarlas, crecen con la frecuencia, de manera que un bus con pocas señales es menos susceptible a esos problemas y puede funcionar a alta velocidad. Todos los buses de computador tienen funciones especiales como las interrupciones y las DMA que permiten que un dispositivo periférico acceda a una CPU o a la memoria usando el mínimo de recursos.
Primera Generación Los primeros computadores tenían 2 sistemas de buses, uno para la memoria y otro para los demás dispositivos. La CPU tenía que acceder a dos sistemas con instrucciones para cada uno, protocolos y sincronizaciones diferentes. La empresa DEC notó que el uso de dos buses no era necesario si se combinaban las direcciones de memoria con las de los periféricos en un solo espacio de memoria (mapeo), de manera que la arquitectura se simplificaba ahorrando costos de fabricación en equipos fabricados en masa, como eran los primeros minicomputadores. Bus Backplane del PDP-11 junto con algunas tarjetas.
Los primeros microcomputadores se basaban en la conexión de varias tarjetas de circuito impreso a un bus Backplane pasivo que servía de eje al sistema. En ese bus se conectaba la tarjeta de CPU que realiza las funciones de arbitro de las comunicaciones con las demás tarjetas de dispositivo conectadas; las tarjetas incluían la memoria, controladoras de diskette y disco, adaptadores de vídeo. La CPU escribía o leía los datos apuntando a la dirección que tuviera el dispositivo buscado en el espacio único de direcciones haciendo que la información fluyera a través del bus principal. Entre las implementaciones más conocidas, están los buses Bus S-100 y el Bus ISA usados en varios microcomputadores de los años 70 y 80. En ambos, el bus era simplemente una extensión del bus del procesador de manera que funcionaba a la misma frecuencia. Por ejemplo en los sistemas con procesador Intel 80286 el bus ISA tenia 6 u 8 Mhz de frecuencia dependiendo del procesador.[1]
Bus (informática)
56
Segunda generación El hecho de que el bus fuera pasivo y que usara la CPU como control, representaba varios problemas para la ampliación y modernización de cualquier sistema con esa arquitectura. Además que la CPU utilizaba una parte considerable de su potencia en controlar el bus. Desde que los procesadores empezaron a funcionar con frecuencias más altas, se hizo necesario jerarquizar los buses de acuerdo a su frecuencia: se creó el concepto de bus de sistema (conexión entre el procesador y la RAM) y de buses de expansión, haciendo necesario el uso de un chipset. El bus ISA utilizado como backplane en el PC IBM original pasó de ser un bus de sistema a uno de expansión, dejando su arbitraje a un integrado del chipset e implementando un bus a una frecuencia más alta para conectar la memoria con el procesador.
Jerarquía de diversos buses en un equipo relativamente moderno: SATA, FSB, AGP, USB entre otros.
En cambio, el bus Nubus era independiente desde su creación, tenía un controlador propio y presentaba una interfaz estándar al resto del sistema, permitiendo su inclusión en diferentes arquitecturas. Fue usado en diversos equipos, incluyendo algunos de Apple y se caracterizaba por tener un ancho de 32 bits y algunas capacidades Plug and Play (autoconfiguración), que lo hacían muy versátil y adelantado a su tiempo. Entre otros ejemplos de estos buses autónomos, están el AGP y el bus PCI.
Tercera generación Los buses de tercera generación se caracterizan por tener conexiones punto a punto, a diferencia de los buses arriba nombrados en los que se comparten señales de reloj. Esto se logra reduciendo fuertemente el número de conexiones que presenta cada dispositivo usando interfaces seriales. Entonces cada dispositivo puede negociar las características de enlace al inicio de la conexión y en algunos casos de manera dinámica, al igual que sucede en las redes de comunicaciones. Entre los ejemplos más notables, están los buses PCI-Express, el Infiniband y el HyperTransport.
Tipos de Bus Existen dos grandes tipos clasificados por el método de envío de la información: bus paralelo o bus serie. Hay diferencias en el desempeño y hasta hace unos años se consideraba que el uso apropiado dependía de la longitud física de la conexión: para cortas distancias el bus paralelo, para largas el serial.
Bus paralelo Es un bus en el cual los datos son enviados por bytes al mismo tiempo, con la ayuda de varias líneas que tienen funciones fijas. La cantidad de datos enviada es bastante grande con una frecuencia moderada y es igual al ancho de los datos por la frecuencia de funcionamiento. En los computadores ha sido usado de manera intensiva, desde el bus del procesador, los buses de discos duros, tarjetas de expansión y de vídeo, hasta las impresoras.
Bus (informática)
57
El Front Side Bus de los procesadores Intel es un bus de este tipo y como cualquier bus presenta unas funciones en líneas dedicadas: • Las Líneas de Dirección son las encargadas de indicar la posición de memoria o el dispositivo con el que se desea establecer comunicación.
Diagrama de un Bus Backplane como extensión del bus de procesador.
• Las Líneas de Control son las encargadas de enviar señales de arbitraje entre los dispositivos. Entre las más importantes están las líneas de interrupción, DMA y los indicadores de estado. • Las Líneas de Datos trasmiten los bits de forma aleatoria de manera que por lo general un bus tiene un ancho que es potencia de 2. Un bus paralelo tiene conexiones físicas complejas, pero la lógica es sencilla, que lo hace útil en sistemas con poco poder de cómputo. En los primeros microcomputadores, el bus era simplemente la extensión del bus del procesador y los demás integrados "escuchan" las línea de direcciones, en espera de recibir instrucciones. En el PC IBM original, el diseño del bus fue determinante a la hora de elegir un procesador con I/O de 8 bits (Intel 8088), sobre uno de 16 (el 8086), porque era posible usar hardware diseñado para otros procesadores, abaratando el producto.
Bus serie En este los datos son enviados, bit a bit y se reconstruyen por medio de registros o rutinas de software. Está formado por pocos conductores y su ancho de banda depende de la frecuencia. Es usado desde hace menos de 10 años en buses para discos duros, unidades de estado sólido, tarjetas de expansión y para el bus del procesador.
Referencias [1] « PC Architecture. Chapter 17. The CPU’s immediate surroundings. A book by Michael B. Karbo (http:/ / www. karbosguide. com/ books/ pcarchitecture/ chapter17. htm)».
Véase también • • • • • •
Chipset HyperTransport Front Side Bus Bus de direcciones Bus de datos Bus de control
Enlaces externos • PDF IEMicro y repaso a otros modelos (http://www.dte.us.es/personal/barbancho/AeIDiseñoBusCampo. pdf) • IEmicro (http://www.dte.us.es/personal/barbancho/IEuBusCampoBajoConsumo.pdf)
Fuentes y contribuyentes del artículo
Fuentes y contribuyentes del artículo Unidad central de procesamiento Fuente: http://es.wikipedia.org/w/index.php?oldid=44577046 Contribuyentes: A ver, Airunp, Almiux2009, Alvaro qc, Antur, Antón Francho, Biasoli, Bucephala, Camilo, Claudio Segovia, Cobalttempest, Cratón, Cronos x, Dagavi, Dangarcia, Dario nar, Dark Bane, David0811, Diegusjaimes, Dreitmen, Edmenb, Egaida, Elabra sanchez, Eligna, Elisardojm, Er Komandante, Er conde, Esoya, Fanattiq, Fcosegura, Fernando Rosso R, Fibonacci, FolkenX, Gabriel Fernando Rosso R., Galindojotaka, Gargula, GermanX, Humberto, Instigate cjsc (Narine), Isha, Isra00, Jarisleif, Jarke, Javierito92, Javiermhlo, Jesuja, Joseaperez, Juanito1, Jugones55, Julio Cardmat, King of Hearts, Kotxe, Leitzaran, M S, Makahaxi, Marcavia, Marianox, Matdrodes, McMalamute, Mercenario97, Muro de Aguas, Mushii, Nixón, Olea, Oscar ., PabloCastellano, Pan con queso, Piero71, PoLuX124, Poco a poco, Prietoquilmes, Queninosta, RGLago, Raiden32, RaizRaiz, Retama, Rimac, Roberto Fiadone, RoyFocker, Sabbut, Santiperez, Satin, Shooke, Snakefang, Speedplus, Sr Beethoven, Super braulio, The worst user, Tirithel, Tonyslash60, TorQue Astur, Tostadora, TraveHacks, Txo, Vatelys, Vitamine, Wewe, Wilfredor, Willi4m, Willigulip, Yeza, Yrithinnd, Ál, 406 ediciones anónimas Fuente de alimentación Fuente: http://es.wikipedia.org/w/index.php?oldid=44494165 Contribuyentes: Airunp, Andreasmperu, Axxgreazz, Baiji, Bernard77, BuenaGente, Canssa, Chico512, Cobalttempest, Danielectrico, David0811, Davius, Death Master, Diegusjaimes, Digigalos, Dyvci, Eamezaga, Egaida, Elaficionado, Er Komandante, Espartera, FAR, Furrykef, Gafotas, GermanX, Gsrdzl, Guerrero4, Gusgus, Götz, Humberto, Isha, Iulius1973, Janee, JaviMad, Javierito92, Jesing, Jkbw, Johncaranton, Jyon, Kved, Laura Fiorucci, Leonpolanco, Luis1970, Magister Mathematicae, Mansoncc, Manuel Trujillo Berges, Marifernan, Marvelshine, Matdrodes, Mortadelo2005, Mpeinadopa, Muro de Aguas, Murphy era un optimista, Mushii, NicolasAlejandro, Ortisa, Paintman, Pan con queso, Pitialonso, PoLuX124, Poco a poco, Roberpl, RoyFocker, Rαge, Shooke, Shuuji Takahashi, Snakefang, Solaria, Switcher6746, Taichi, Tano4595, Technopat, Tirithel, TorQue Astur, Tortillovsky, Treiper, Triku, Truor, Ugly, Vitamine, Xuankar, Yosri, 326 ediciones anónimas Placa base Fuente: http://es.wikipedia.org/w/index.php?oldid=44537654 Contribuyentes: 142857, AStela2, Aelo, Airunp, Ale flashero, Aleator, Alexan, Alexav8, Alexhe20, Alexisybañez, Alexquendi, Alhen, Aloriel, Alvaro qc, Andreasmperu, Angel GN, Antur, AstroNomo, Avm, Axxgreazz, Açigni-Lovrij, Banfield, Baranda, Barcex, BeaKManiak, Bedwyr, Belb, Biasoli, BlackBeast, Bucephala, C h a n-Wiki, Cadavera, Cansado, Centeno, Chalisimo5, Chico512, Chrihern, Ciencia Al Poder, Cobalttempest, ColdWind, Comae, CommonsDelinker, Corrector1, CristianGomez2304, DJ Nietzsche, David0811, Dferg, Diegusjaimes, Docst3, Dodo, Dorieo, ECAM, Eamezaga, Eduardosalg, Edub, Egaida, Eligna, Elisardojm, Ensada, Equi, Eva.Blop, FeRodil, Fmariluis, FranciscoPadilla, FrancoGG, Furti, Galandil, GermanX, Gh05t2k, Greek, Guerrero4, Gusgus, HECTOR ARTURO AZUZ SANCHEZ, Haku, Humberto, Ialad, Icvav, Irbian, Isha, Jakeukalane, Javi pk, JavierCantero, Javierito92, Jjvaca, Jkbw, Joaquincabezas, JorgeGG, Josmanbernal, Juan Quisqueyano, Juanfran GG, Jurock, Jynus, Kadellar, Kevyn.ry2, Khany, Kved, Lasusirexula, Lazomicro, Legh, Leugim1972, Lew XXI, Liza druetta, Lucien leGrey, Lukiduki, Maldoror, Maleiva, Manolovar2, Mansoncc, Manuel Trujillo Berges, Manwë, Masilicondrio, Matdrodes, Mecamático, Mgf85, Milias, Millars, Misterequis, Moriel, Mortadelo2005, Mpeinadopa, Museo8bits, Mushii, Mutari, Napoleón333, Narutouchiha97, Nejasul, Neodop, Netito777, Nihilo, Nioger, Nixón, Nizampop, No sé qué nick poner, Ortisa, Oscar ., Pablimbig, Piero71, PoLuX124, Poco a poco, Pondus45, Porao, Queninosta, Raiden32, Raystorm, Roberpl, Ronaldo16, RoyFocker, Rrmsjp, SPZ, Sa, Satin, Sergio Andres Segovia, Shooke, Siabef, Stela riera2, Superzerocool, Taichi, Tano4595, The worst user, Tirithel, Tomatejc, TorQue Astur, Tostadora, Triku, Vatelys, Vic Fede, Vitamine, Wesisnay, Wx wuerox, Yoques, ZrzlKing, Zufs, 826 ediciones anónimas Memoria de acceso aleatorio Fuente: http://es.wikipedia.org/w/index.php?oldid=44550966 Contribuyentes: .José, 2009yac, Aadrover, Adriansm, Airunp, Alakasam, Alhen, Alitagm, Alvaro qc, Amadohc, Angel GN, Angus, Antur, Ascánder, Astonbreak, Baiji, BeaKManiak, Bee Geesfan, Beto29, BetoCG, Biasoli, Bifus, BlackBeast, Bryant1410, Camilo, Carlosblh, Centeno, Chrihern, Cinabrium, CommonsDelinker, Cookie, Cousteau, Cristian Chávez Ramos, Crokett, DJ Nietzsche, Daaxe, Dangarcia, David0811, Death Master, Delphidius, Dferg, Dibujon, Diego López, Diego bf109, Diegusjaimes, Diosa, Dnu72, Dodo, Dorieo, Dvelasquez, ECAM, Edgemaster, Edisonbeta, Eduardosalg, Edub, El duende alegre, Eli22, Elisardojm, Eloy, Elwikipedista, Equi, Er Komandante, Eric, Esoya, Estoymuybueno, Ezarate73, FAR, Fcosegura, Felviper, Fergarci, Fieruky, Filipo, Fvene002, FyLoX, Galio, GermanX, Goica, Goofys, Gothmog, Greek, Guillermoster, Góngora, HUB, Haku, Hari Seldon, Hernanbarbosa, Hispa, Humberto, Icvav, Isha, Itnas19, JMPerez, JOKblogger, Javierito92, Jcentel, Jdelrio, Joanumbert, Joarobles, JorgeGG, Joseaperez, Josell2, Jsanchezes, Jtico, Juandiegocano, Jugones55, Julio Cardmat, Kekkyojin, Kexedo, Kordas, Kuronokoneko, Kved, Laura Fiorucci, Limo, Llfernandoll, Lobo, Locos epraix, Lourdes Cardenal, Lucasjk23, Lucien leGrey, Luigidakid, LuisArmandoRasteletti, MILTONPATO, Magister Mathematicae, Maldoror, Manuegonzalez, Manuel Trujillo Berges, Manwë, Maokoto, Marcecoro, Matdrodes, Matiasasb, Maugemv, MeNtOrX, Miguel.lima, Miktam, Moriel, Mortadelo, Mortadelo2005, Mr. Benq, Muro de Aguas, Murphy era un optimista, Museo8bits, Netito777, Nicop, Niko guti2006, Nixón, Ornitododo, Oscar ., Pabloab, Pablomdo, Pan con queso, Parras, Patxi Aguado, Paz.ar, Pedro GarNic, Penesauro, Perquisitore, Phirosiberia, Pilaf, Platonides, PoLuX124, Poco a poco, Ppja, Prietoquilmes, Qwertyytrewqqwerty, Rabid Fish, Rastrojo, Redmind007, Retama, Richy, Roberpl, RoyFocker, RubiksMaster110, STARPLAYER, Savh, Sebado, Sejorera, Shooke, Sms, Snakeyes, Soowly, Stinger1, Superchoto, Superzerocool, TArea, Taichi, Tano4595, Tantan1985, Taragui, Taty2007, Technopat, The worst user, Thunderbird2, Tico, Tolitose, Tomatejc, TorQue Astur, Tortillovsky, Triku, Truor, Txo, Unificacion, Uny, Varano, Vic Fede, Vitamine, Votinus, Víctor Antonio Torres Torres, Wilfredor, Will vm, Xqno, Yeza, Yio, Yrithinnd, Yubel, ZrzlKing, 1275 ediciones anónimas Disco duro Fuente: http://es.wikipedia.org/w/index.php?oldid=44559973 Contribuyentes: .Sergio, 142857, 191-VIGO-X9.libre.retevision.es, 1dai, @IE, Abece, Abgenis, Abuitrago81, Adriv145, Airunp, Albasmalko, Albus Dumbledore, Alejandro54, Aleposta, Alexav8, AlfaBeta0104, Alhen, Aliman5040, Aloriel, Andreasmperu, Andrezitofer, Angel GN, Antur, Arredobayin, Arredobayo, Avsurrutia, Bedwyr, Belgrano, Belial Returns, BetoCG, Biasoli, Bigsus, BlackBeast, Bodhost, Bucephala, CERVANTES JACP, Camilo, Carlos Humberto, Carlosblh, Carmin, Chakal256, ChemoWeb, Chilreu, Chrihern, Chvsanchez, Ciberrojopower, Ciencia Al Poder, Cinabrium, Cobalttempest, CommonsDelinker, Corbacho, Cratón, Cronos x, Ctrl Z, Damifb, David copperfield, David0811, DayL6, Deleatur, Diegusjaimes, Dionisio, Dodo, Dorieo, Dossier2, Echani, Edmenb, Edtruji, Eduardosalg, Edub, El loko, El mago de la Wiki, ElOtroJuanjo, Eligna, Emijrp, Ensada, Equi, Estoymuybueno, Ezarate, Eze91, Ficenix, Filipo, Fjjf, Fofo, FrancoGG, Gaius iulius caesar, Galaxy4, Galio, GermanX, Googleador, Greek, Grillitus, Groucho Marx, Guibujitos, Gustronico, Götz, HAMM, HECTOR ARTURO AZUZ SANCHEZ, HUB, Haitike, Heavyrock, Hispa, Humbefa, Humberto, Ialad, Ignacio Icke, Isha, Ivan rome, J aroche, J.M.Domingo, J.delanoy, JMCC1, Jamrojo, Jarke, Javierchiclana, Jcprietoc, Jim88Argentina, Jiuck, Jjvaca, Jondel, Josell2, Josmanbernal, Juanan Ruiz, Kizar, Kokoo, Kordas, Krous, Kved, Laura Fiorucci, Lechpe, Leugim1972, Lewis.skolnik, Limbo@MX, Linktroid, Llfernandoll, Lobillo, Locovich, Lopezpablo 87, Lp-spain, Lucien leGrey, MRK2001, Ma259, Magister Mathematicae, Mahadeva, Maldoror, Maleiva, Mann138, Mansoncc, Manuel Trujillo Berges, ManuelGR, Manwë, Marb, Marcecoro, Marinna, Martincarr, Matdrodes, MatiasBellone, Maxi martin9101, Mercenario97, Millars, Mizukane203, Mnts, Moriel, Mortadelo2005, Mpeinadopa, Muro de Aguas, Murphy era un optimista, Museo8bits, Mushii, Netito777, Nicop, Oblongo, Oliverasm, Oscar ., Pableo, Palica, Pan con queso, Pandalive, PatricioAlexanderWiki, PeiT, Petronas, Phirosiberia, Piero71, Pincho76, Platonides, Pmontaldo, PoLuX124, Poco a poco, Prietoquilmes, Queninosta, Qwertyytrewqqwerty, Racso, Ramon00, Ratchet, Ravave, Raystorm, ReNaiXeR, Reginocova, Reygecko, Ricardoramirezj, Richy, Richzendy, Robenauta, Rodolfo cea, RoyFocker, Rsg, Saloca, Sanbec, Santiperez, Satin, Sauron, Segedano, Sergio.1312, Shooke, Snakeeater, Snakefang, Snakeyes, Sonett72, Spirit-Black-Wikipedista, Stifax, Super braulio, Superzerocool, Symonblade, Taichi, Technopat, TheNava00, Thekinglink, Thunderbird2, Tigerfenix, Tomatejc, Toncec, TorQue Astur, Tostadora, Triku, Tripy, Tropick 100, Tuxisuau, Txo, Versageek, Viejalala, Vitamine, XIXO123, Xoneca, Yeza, Zendel, Zerosxt, conversion script, 1164 ediciones anónimas Dispositivo de almacenamiento de datos Fuente: http://es.wikipedia.org/w/index.php?oldid=44545739 Contribuyentes: Amanuense, Andres rojas22, BL, Bachi 2805, Banfield, BetoCG, Biasoli, Dferg, Diegoescuela, Diegusjaimes, Don Samuel, Dreitmen, Efegé, Eric, Espilas, Fonsi80, Gelou, Hprmedina, Humberto, Javierito92, Jbcaffe, Larober, Manfredi-manfredi, Marcecoro, Matdrodes, Mecamático, Nixón, PoLuX124, Poco a poco, Prometheus, Rαge, SamyMan, Siger, Snakeyes, Tano4595, Tirithel, Vitamine, 175 ediciones anónimas Circuito integrado auxiliar Fuente: http://es.wikipedia.org/w/index.php?oldid=44178707 Contribuyentes: Avm, BlackBeast, Carhur61, Chrihern, Crisneda2000, Diegusjaimes, Dreitmen, Farisori, Fcosegura, FrancoGG, GermanX, HECTOR ARTURO AZUZ SANCHEZ, Hispa, Jakeukalane, JavierCantero, Javierito92, Jean Victor Bernier, Juckar, LordT, Lotesse, Lucien leGrey, Matdrodes, Mortadelo2005, Museo8bits, NZ, Nejasul, Neodop, NicolasAlejandro, Ortisa, Pablimbig, PepeMtz, Pertile, Petronas, PoLuX124, Rafiko77, Rbroceno, Retama, Rjelves, Shooke, Supergalle, Vbenedetti, 138 ediciones anónimas BIOS Fuente: http://es.wikipedia.org/w/index.php?oldid=44438728 Contribuyentes: 16JAE, 333, AS990, Acamposg71, Alejandro Dekauve, Alhen, Alkex, Alonsojpd, Andreasmperu, Angelarmandol, Berfito, Biasoli, BlackBeast, Bormann, Bucho, Chrihern, Chusete, Cookie, Crespo Oscar, David0811, Deephouser, Dferg, Diegusjaimes, Diosa, Disbrai, Dodo, Drjackzon, Ebano07, Emillan, Er Komandante, Ernesto Graf, Fran89, Gabriel Fernando Rosso R., Galaxy4, Gerkijel, GermanX, Gizmo II, Greek, Groucho NL, Gsrdzl, HAMM, HUB, Humberto, Icvav, Iranzop, Isha, Jamm2005us, Javierito92, Jjvaca, JoaquinFerrero, Josmanbernal, Jsanchezes, Juanan Ruiz, Juckar, Jynus, Klondike, Kotasso, Kved, Lanteanchico, Lasusirexula, Laura Fiorucci, Madalberta, Mafores, Magister Mathematicae, Mahadeva, Maleiva, Mansoncc, Manuelt15, Marcecoro, Mardred, Marialys1505, Matdrodes, Mdiagom, Moriel, Morph87, Mortadelo2005, Moskera100, Muro de Aguas, Mushii, Neodop, Netito777, Nioger, Nuen, Oscar ., Oscareduardocrespo, Oszi3L, PACO, Paintman, Pandachinoman, Petruss, Piero71, Platonides, Pmontaldo, RICARDOSA, Raul al16, Retama, Rolod, RoyFocker, Sanbec, Satin, Sauron, Shooke, Superzerocool, Taichi, Tirithel, Tomatejc, TorQue Astur, Tostadora, Txo, Vic Fede, Vitamine, Webfuhrer, Wpuv0012, Ying, Yio, Zuirdj, conversion script, Ál, 391 ediciones anónimas Tarjeta de expansión Fuente: http://es.wikipedia.org/w/index.php?oldid=44511954 Contribuyentes: 3coma14, Asfarer, Bedwyr, Cinabrium, Diegusjaimes, Edupedro, Gabriel Fernando Rosso R., GermanX, Gustronico, Jcprietoc, Joaquincabezas, Jugones55, LMLM, Laura Fiorucci, Lucien leGrey, Mansoncc, Matdrodes, McMalamute, New traffic pattern, Tirithel, TorQue Astur, Vic Fede, Vivero, Wilfredor, Yrithinnd, 62 ediciones anónimas Bus (informática) Fuente: http://es.wikipedia.org/w/index.php?oldid=42065802 Contribuyentes: Alejandrocaro35, Alone DJ, Aloriel, Amanita, Andreasmperu, Anibalsalazar, Antur, Antón Francho, Arklad, Ascánder, Cacique500, Camilo, Chrihern, Cratón, Daniel G., Daveyba, David0811, DayL6, Death Master, Diegospina, Diegusjaimes, Digigalos, Egaida, Ejmeza, Emijrp, Enric Naval, Er Komandante, FAR, Fcosegura, Fran Ara, Furti, Gaabu, Galandil, GermanX, GuillermoP, HECTOR ARTURO AZUZ SANCHEZ, HUB, Humberto, Io6000, Irbian, Isha, Javier Carro, Javierito92, Jcapel, Jdelariva, LarA, Laura Fiorucci, Lautaro2k, Lobillo, Lucien leGrey, ManuelGR, Manuelt15, Marcelo Huerta, Mario modesto, Matdrodes, Mel 23, Moriel, Mortadelo2005, Morza, MsArnaldoL, Murphy era un optimista, Museo8bits, Nixón, OMenda, Ortisa, Pacoperez6, PoLuX124, Rayearth, Raystorm, RoyFocker, Sabbut, Santiagocapel, Superzerocool, The worst user, TorQue Astur, Triku, Victormahuel, Wilfredor, Xavigivax, Xuankar, Ál, 328 ediciones anónimas
58
Fuentes de imagen, Licencias y contribuyentes
Fuentes de imagen, Licencias y contribuyentes Archivo:80486dx2-large.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:80486dx2-large.jpg Licencia: desconocido Contribuyentes: A23cd-s, Adambro, Admrboltz, Artnnerisa, CarolSpears, Denniss, Greudin, Kozuch, Martin Kozák, Mattbuck, Rjd0060, Rocket000, 11 ediciones anónimas Archivo:Edvac.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Edvac.jpg Licencia: Public Domain Contribuyentes: User Matt Britt on en.wikipedia Archivo:PDP-8i cpu.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:PDP-8i_cpu.jpg Licencia: Public Domain Contribuyentes: Robert Krten Archivo:Intel 80486DX2 bottom.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Intel_80486DX2_bottom.jpg Licencia: desconocido Contribuyentes: Denniss, Solipsist Archivo:Mips32 addi.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Mips32_addi.svg Licencia: GNU Free Documentation License Contribuyentes: German, Nachcommonsverschieber Archivo:CPU block diagram.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:CPU_block_diagram.svg Licencia: GNU Free Documentation License Contribuyentes: R. S. Shaw (PNG version), and (conversion to SVG) Archivo:MOS 6502AD 4585 top.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:MOS_6502AD_4585_top.jpg Licencia: GNU Free Documentation License Contribuyentes: EugeneZelenko, German, Idrougge, Morkork Archivo:Nopipeline.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Nopipeline.png Licencia: GNU Free Documentation License Contribuyentes: User:Poil Archivo:Fivestagespipeline.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Fivestagespipeline.png Licencia: GNU Free Documentation License Contribuyentes: User:Poil Archivo:Superscalarpipeline.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Superscalarpipeline.png Licencia: GNU Free Documentation License Contribuyentes: User:Poil Archivo:Fuente_Alimentación.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Fuente_Alimentación.JPG Licencia: GNU Free Documentation License Contribuyentes: User:TorQue Astur Archivo:AC adapters.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:AC_adapters.jpg Licencia: GNU Free Documentation License Contribuyentes: User:Qurren Imagen:Commons-logo.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Commons-logo.svg Licencia: logo Contribuyentes: User:3247, User:Grunt Archivo:Placa_Base_MicroATX.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Placa_Base_MicroATX.JPG Licencia: Creative Commons Attribution-Sharealike 3.0 Contribuyentes: User:TorQue Astur Archivo:placa-madre.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Placa-madre.jpg Licencia: Creative Commons Attribution-Sharealike 2.5 Contribuyentes: User:Ortisa, user:Gribeco Archivo:Dual processor.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Dual_processor.jpg Licencia: GNU Free Documentation License Contribuyentes: self Archivo:Motherboards form factors.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Motherboards_form_factors.svg Licencia: Creative Commons Attribution-Sharealike 2.5 Contribuyentes: User:GreyCat Imagen:Computer-aj aj ashton 01.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Computer-aj_aj_ashton_01.svg Licencia: Public Domain Contribuyentes: Abu badali, CyberSkull, Ed g2s, Holder, Ironbrother, Juliancolton, Kierancassel, Kozuch, MergeMacm, Msgj, Sassospicco, Wknight94, Wst, 6 ediciones anónimas Archivo:RAMDDR2.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:RAMDDR2.JPG Licencia: GNU Free Documentation License Contribuyentes: User:TorQue Astur Archivo:Electronic Memory.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Electronic_Memory.jpg Licencia: Creative Commons Attribution 2.0 Contribuyentes: Steve Jurvetson from Menlo Park, USA Archivo:4mbramvax.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:4mbramvax.jpg Licencia: GNU Free Documentation License Contribuyentes: User:Poil Archivo:SIPP-Modul.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SIPP-Modul.jpg Licencia: Creative Commons Attribution-Sharealike 2.0 Contribuyentes: User Smial on de.wikipedia Archivo:SIMM-muistikampoja.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SIMM-muistikampoja.jpg Licencia: GNU Free Documentation License Contribuyentes: J-P Kärnä Archivo:BGA RAM.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:BGA_RAM.jpg Licencia: Creative Commons Attribution-Sharealike 2.0 Contribuyentes: User Smial on de.wikipedia Archivo:Motherboard diagram.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Motherboard_diagram.jpg Licencia: GNU Free Documentation License Contribuyentes: Alexandre.mbm, Mdd Archivo:Memoria RAM.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Memoria_RAM.JPG Licencia: Public Domain Contribuyentes: User:Chrihern Archivo:RamTypes.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:RamTypes.JPG Licencia: Creative Commons Attribution 3.0 Contribuyentes: User:KB Alpha Archivo:RAM.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:RAM.jpg Licencia: Creative Commons Attribution 2.0 Contribuyentes: Rogelio Miranad Imagen:Hard disk platters and head.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hard_disk_platters_and_head.jpg Licencia: Creative Commons Attribution-Sharealike 3.0 Contribuyentes: User:Mfield Archivo:Festplatte.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Festplatte.JPG Licencia: Public Domain Contribuyentes: Afrank99, Boffy b, Dmitry G, Krinkle, Rednammoc, 8 ediciones anónimas Archivo:Hard disk platter reflection.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hard_disk_platter_reflection.jpg Licencia: desconocido Contribuyentes: Dave Indech Archivo:Cilindro Cabeza Sector.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Cilindro_Cabeza_Sector.svg Licencia: desconocido Contribuyentes: Clemente, Helix84, NaSH, 1 ediciones anónimas Archivo:Disk-structure.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Disk-structure.svg Licencia: Public Domain Contribuyentes: MistWiz Archivo:Hard disk head.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hard_disk_head.jpg Licencia: Creative Commons Attribution 2.0 Contribuyentes: Ahellwig, FlickreviewR, Riflemann, Str4nd, 2 ediciones anónimas Archivo:Hdhead.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hdhead.jpg Licencia: desconocido Contribuyentes: Original uploader was Alexdi at en.wikipedia Archivo:IBM old hdd mod.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:IBM_old_hdd_mod.jpg Licencia: GNU Free Documentation License Contribuyentes: User:Appaloosa Archivo:Hdd.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Hdd.jpg Licencia: Creative Commons Attribution 3.0 Contribuyentes: User:Asim18 Archivo:RyanHDD2.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:RyanHDD2.jpg Licencia: Creative Commons Attribution 3.0 Contribuyentes: User:Pbsryan Archivo:Commons-logo.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Commons-logo.svg Licencia: logo Contribuyentes: User:3247, User:Grunt Archivo:Circuito Rack Disco Duro.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Circuito_Rack_Disco_Duro.JPG Licencia: Creative Commons Attribution 3.0 Contribuyentes: User:Diegoescuela Archivo:Crystal floppy icon.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Crystal_floppy_icon.svg Licencia: desconocido Contribuyentes: User:Ysangkok Archivo:CD icon.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:CD_icon.svg Licencia: desconocido Contribuyentes: Abu badali, Augiasstallputzer, Ysangkok, Óðinn, 1 ediciones anónimas Archivo:Nvidia chipset (north and south bridge all in one methinks)..jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Nvidia_chipset_(north_and_south_bridge_all_in_one_methinks)..jpg Licencia: Creative Commons Attribution 2.0 Contribuyentes: Richard Lewis Archivo:Chipset 875 Intel.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Chipset_875_Intel.JPG Licencia: Public Domain Contribuyentes: User:Chrihern Archivo:Chipset_DVD_philips.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Chipset_DVD_philips.JPG Licencia: Public Domain Contribuyentes: User:Pablimbig Imagen:Phoenix bios.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Phoenix_bios.jpg Licencia: GNU Free Documentation License Contribuyentes: User:Audriusa Archivo:Fitting-expansion-card.JPG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Fitting-expansion-card.JPG Licencia: Public Domain Contribuyentes: User:Norm Archivo:Motherboard bus.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Motherboard_bus.jpg Licencia: Public Domain Contribuyentes: User:Chrihern Archivo:Unibus.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Unibus.jpg Licencia: Public Domain Contribuyentes: User:Chrihern Archivo:Computer buses.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Computer_buses.svg Licencia: Public Domain Contribuyentes: User:German
59
Licencia
Licencia Creative Commons Attribution-Share Alike 3.0 Unported http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/
60