2012 Modmex
©
Internet: http://www.modmex.com.mx Email: modmex@modmex.com.mx
Libro diseñado para distribución electrónica México ,D.F 2012
ISBN: 978-607-00-6683-2
© Breve introducción al hardware: Quedan prohibidos, dentro de los límites establecidos en la ley y bajo los apercibimientos legalmente previstos, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, así como el alquiler o cualquier otra forma de cesión de la obra sin la autorización previa y por escrito de los titulares del copyright. Diríjase, http://www.modmex.com.mx, (modmex@modmex.com)
Nota Importante. ® En el libro se ha distinguido algunas marca e imágenes comerciales de los términos descriptivos, siguiendo el estilo que utiliza el fabricante, sin ninguna intención de infringir la marca o logo y solo en beneficio del propietario de la mismas. La información contenida en esta obra tiene un fin exclusivamente cultural, educativo y didáctico y por lo tanto, no está previsto su aprovechamiento a nivel profesional o industrial. Esta obra es un compendio de varias obras que cumplen los requisitos pedagógicos para la enseñanza para todo aquel quiera aprender temas informáticos. Su publicación NO tiene fines de lucro, estrictamente educativo, por lo que se agradece su comprensión, Gracias. Duda y aclaraciones: editecnologicas@gmail.com
3
A.
ALFONSO GOMEZ HERRERA
S. MARINA
PRÓLOGO
El objetivo de este libro es explayar, de manera sencilla, como sea posible, el entendimiento y los principios básicos los conceptos del Hardware. En todo momento se trato de dar un antecedente, y así determinar el desarrollo que se ha tenido de los dispositivos más vigentes, la mejor manera de intuir nuestro presente es conociendo su origen. Iniciando por decirnos; ¿qué es el hardware?, podemos definirlo como; el conjunto de los componentes que integran la parte material de una computadora, es la parte que permite que el sistema funcione. Todos aquellos elementos físicos, tangibles, que se pueden intercambiar de un espacio a otro, manipular, etc. Por lo contrario, el software es el conjunto de instrucciones que dirigen a los componentes. No es la intención profundizar en los contenidos, siendo estos muy vasto, cualquier que fuere, es una referencia de consulta rauda e inmediata, e inicio a un estudio más detallado y profundo por parte del lector interesado. La obra es básicamente un compendio de trabajos realizados a sapiencia en cada tema, reemprendiendo las parte medulares, para que el lector pueda tener un punto de vista objetivo de; ¿qué es?, ¿para qué sirve?, y ¿cómo funciona? los elemento llamado hardware. El tratamiento de la obra fue con la intención en su entendimiento para personas que aun con no contar con muchos conocimientos en electrónica, electricidad o computación, e informática; elucidar en muchos casos los fundamentos técnicos. La primer parte, son las partes básicas del gabinete o carcasa, así como el mismo, sabemos que el desarrollo tecnológico es muy ágil en esta área, sin embargo esta obra por partir de lo más primordial servirá de consulta de manera constante. Se han tocado algunos periféricos (parte 1,2) en desuso o caducos, considerando que es importante conocerlos, siendo esta manera, la forma de percibir los periféricos actuales, como ya se menciono. Este libro tiene el fin de incentivar la cultura de la lectura, así como un estimulante a la investigación, la técnica y el pesquis científico. Se da mil gracias a toda persona que se interese, y no por leer intrínsecamente esta obra, (se agradece) también a todos los que hacen posible, la divulgación científica, técnica y la lectura.
Alfonso Gómez Herrera
Contenido 1.- INTRODUCCIÓN.........................................8 1.1 Hardware característico..................................8 1.2 Clasificación del Hardware.............................8 1.3 Definición........................................................9 1.4 Evolución de los Sistemas Informáticos.........9 1.4.1 Primera etapa: Sistema.Mecánico.................9 1.4.2 Segunda etapa: Sistema Electrónico..........10 1.5 Sus Generaciones..........................................10 2.- GABINETES EN PC.......................................12 2.1 Antecedentes.................................................12 2.2 Tipos..............................................................13 3.-MOTHERBOARD.......................................14 3.1 Las funciones básica del Motherboards........14 3.2 Partes.............................................................15 3.3 Tamaños.........................................................16 3.4 Conectores.....................................................17 3.5 FireWire.........................................................17 3.6 BIOS..............................................................18 3.7 CMOS............................................................18 3.8 EL POST........................................................19 3.8.1 CHIPSET.....................................................19 3.8.2 Northbridge.................................................19 3.8.3 Southbridge.................................................20 4.- CPU (Unidad Central de Proceso).................21 4.1 Antecedente..........................................................21 4.2 Aplicación del CPU.......................................21 4.3 Componenentes internos................................21 4.4 Tipos..............................................................22 4.5 Tipos de sockets o zócalos............................22 5.- LA MEMORIA.............................................25 5.1 Que son las memorias....................................25 5.2 Teoría de Funcionamiento.............................25 5.3 Jerarquía de memoria.....................................26 5.4 Clasificación de memorias.............................27 6.- BUSES..........................................................28 6.1 Función.........................................................28 6.2 Estructuras de interconexión........................29 6.3 Tipos de Buses...............................................29 6.3.1 Bus ISA 8/16..............................................29 6.3.2 Bus Micro Channel (MCA)........................30 6.3.3 Bus EISA...................................................31 6.3.4 VLB (Vesa Local Bus.).............................31 6.3.5 PCI (Peripheral Component Interconnect)........32 6.3.6 AGP (Accelerated Graphics Port)..............33 7.- ENTRADA/SALIDA (E/S).........................34 7.1 Sus funciones................................................34 7.2 Interrupciones (IRQ).....................................35 7.3 Dispositivos de entrada.................................36 2da PARTE..........................................................38 PERIFERICOS 1...............................................38
8.- TECLADOS...........................................39 8.1 Antecedente.............................................39 8.2 Funcionamiento.......................................40 8.3 Tipos........................................................41 9.- JOYSTICK.............................................41 9.1 Antecedentes...........................................41 9.2 Tipos........................................................42 10.- MOUSE.................................................43 10.1 Antecedentes..........................................43 10.2 Tipos o modelos de mouse...................43 10.3 Funcionamiento.....................................44 10.4 Mousepad...............................................45 11.- SCANNER..............................................46 11.1 Origen.....................................................46 11.2 tipos (tipicos para “PC”).........................47 11.3 Funcionamiento.......................................47 11.4 Características de un escáner...................49 12.- MODEM.................................................50 12.1 Historia....................................................50 12.2 tipos.........................................................51 12.3 Funcionamiento.......................................51 12.4 Velocidades (típicas)...............................52 13.-DISCOS DUROS......................................53 13.1 Antecedentes............................................53 13.2 Partes principales.....................................54 13.3 Tecnología...............................................55 13.4. Funcionamiento......................................57 13.5 Grabación/lectura del HD.......................59 14.- DISCO FLEXIBLES (En desuso).......61 14.1 Historia....................................................61 14.2 Funcionamiento.......................................62 14.3 Partes ......................................................63 15.- TARJETA DE SONIDO........................64 15.1 Antecedentes............................................64 15.2 Conectores de la tarjeta de sonido..........64 15.3 Funcionamiento.......................................65 16.- MONITORES.........................................66 16.1 Pantallas a T.R.C.....................................67 16.2 Pantalla LCD.........................................68 16.3 Comparativa............................................68 16.4 Funcionamiento.......................................69 16.5 Plasma.....................................................70 16.6 Pantalla LED...........................................71 17.- LECTORES OPTICOS.........................72 17.1 Funcionamiento......................................73 17.2 Discos......................................................75 17.3 CD-R ......................................................76 17.4 Conexionado............................................77 18.- TARJETA VIDEO..................................78 18.1 Antecedentes............................................78 18.2 Partes .....................................................79 18.3 Funcionamiento.......................................80 18.4 Conexiones..............................................82 19.- IMPRESORAS.......................................83 19.1 Antecedentes............................................83 19.2 Características.........................................84 19.3 Impresoras Matriciales............................86 19.4 impresoras de inyección..........................88 19.5.-Impresoras láser ....................................90
PERIFERICOS 2..............................................93
33.4 Características...........................................144 33.5 Bocinas......................................................147 33.5.1 Partes......................................................147 33.6 Características técnicas.............................150 33.7 Auriculares................................................154 34.- REGULADORES DE VOLTAJE..........156 34.1 Funcionamiento.........................................156 34.2 UPS (Uninterrupted Power System).........158
20.- CINTA BACKUP (Cintas de Respaldo)........94 20.1 Antecedentes...............................................94 20.2 Tecnologías.................................................95 20.3 Funcionamiento..........................................96 21.-UNIDADES ZIP........................................98 21.1 Antecedentes..............................................98 21.2 Características de las Unidades Zip...........99 BIBLIOGRAFÍA............................................160 21.3 Funcionamiento........................................100 22.- SISTEMA MAGNETO OPTICO (MO)........101 22.1 Antecedentes.............................................101 22.2 Funcionamiento........................................101 22.3 Unidades Floptical...................................103 23.- MEMORIAS USB (Flash).......................104 23.1 Antecedentes de la memoria flash............104 23.2 Memorias Electrónicas.............................104 23.3 Funcionamiento........................................106 23.4 Partes de la Memoria................................107 24.- PLOTTER................................................108 24.1 Antecedentes.............................................108 24.2 Caracteríticas............................................108 24.3 Tipos.........................................................109 25.- BLUETOOTH..........................................111 25.1 Antecedentes.............................................111 25.2 Versiones...................................................112 26.- REDES......................................................114 26.1 Antecedentes.............................................115 26.2 Partes........................................................115 26.3 Características...........................................116 26.4 Topologías.................................................117 27.- ROUTER- HUB- SWITCH....................118 27.1 Antecedentes.............................................119 27.2 Características...........................................120 27.3 Conexiones a redes...................................121 27.4 El RJ45.....................................................122 28.-PANTALLAS TÁCTIL O TOUCHSCREEN....123 28.1 Antecedentes.............................................123 28.2 Tecnología.................................................124 29.- LÁPIZ ÓPTICO.....................................127 29.1 Antecedentes.............................................127 30.- TABLETA DIGITALIZADORA............130 30.1 Antecedentes.............................................130 30.2 Tipos..........................................................131 30.3 Partes ........................................................131 30.4 Características...........................................132 31.- PROTECTOR DE PANTALLA.............133 31.1 El efecto de un filtro.................................134 31.2 Características de los filtros......................135 32.- CÁMARA DE RED (WEBCAM)..........136 32.1 Antecedentes.............................................136 32.2 Funcionamiento........................................136 32.3 Características...........................................137 33.-DIADEMA CON MICRÓFONO............138 33.1 El Micrófono.............................................138 33.2 Antecedentes del Micrófono.....................138 33.3 Clasificación Micrófono..........................139
Al parecer lo que realmente importa es la pantalla o por lo menos eso parece, ya que la mayorĂa esta interesada en los resultados en pantalla, en vez del trabajo que cuesta llegar a ello. Peter Norton
8 1.- INTRODUCCIÓN
E
l Hardware: En un ordenador, computadora, o Sistema Informático, es el término en inglés que hace indicación a cualquier componente físico, que trabaja o interactúa de algún modo con el sistema. No sólo incluye elementos internos como el disco duro, etc. sino que también hace referencia al cableado, circuitos, gabinete, etc. E incluso se hace alusión a elementos externos (periféricos) la impresora, el mouse, el teclado, el monitor, etc. El hardware evoluciona rápidamente junto con el software, algunos dispositivos desaparecen y otros aparecen, sin embargo la esencia desde su primera aparición en 1981 permanece.
1.1 Hardware característico. Su chasis, gabinete o carcasa. La placa madre, motherboard o tarjeta principal: Que contiene: CPU, (ventilador; “cooler”), RAM, BIOS, BUSES, USB, etc. Fuente de alimentación. Controladores de almacenamiento: IDE, SATA, SCSI. Controlador de video. Controladores del bus de la computadora (paralelo, serial, USB, FireWire), para conectarla a periféricos. Almacenamiento: disco duro, CD-ROM, unidades ZIP, driver u otros. Tarjeta de sonido. Redes: módem y tarjeta de red. Etc. Hardware externo: (llamado periféricos) Teclado, Mouse, TrackBall, Joystick, Gamepad, Escáner, webcam, Micrófono, Bocina, Monitor (LCD, o CRT), Impresora, etc.
1.2 Clasificación del Hardware. Clasificación por la ubicación del hardware: Periféricos (componentes externos): dispositivos externos a la computadora. Componentes internos: dispositivos que son internos al gabinete. Puertos: conectan los periféricos con los componentes internos Clasificación por el flujo de información del hardware Periféricos de salida: monitor, impresora, etc. Periféricos de entrada: teclado, mouse, etc. Periféricos/dispositivos de almacenamiento: disco duro, memorias, etc. Periféricos de comunicación: módem, puertos, etc. Dispositivos de procesamiento: CPU, microprocesador, placa madre, etc. BREVE INTRODUCCION AL HARDWARE
9 1.3 Definición: La Real Academia Española define al hardware como el conjunto de los componentes que conforman la parte material (física) de una computadora, a diferencia del software que refiere a los componentes lógicos (intangibles). Sin embargo, el concepto suele ser entendido de manera más amplia y se utiliza para denominar a todos los componentes físicos de una tecnología.
1.4 Evolución de los Sistemas Informáticos: 1.4.1 Primera etapa: Sistema Mecánico. Los primeros pasos mecánicos para la realización de cálculos se remontan del año 30,000 A.C. con la utilización de rayas en huesos o palos. Fue mejorado con la creación del Ábaco. La idea de crear máquinas para resolver problemas matemáticos data hasta el siglo 17, cuando los matemáticos de la época diseñaban e implementaban calculadoras capaces de realizar las cuatro funciones elementales. Matemáticos como Wilhelm Schickard, Blaise Pascal y Gottfried Leibnitz. El inicio de esta época está marcado por la creación del alemán Wilhelm Schickard, profesor de la Universidad de Tübingen y astrónomo, quien diseñó la primera calculadora que se encargaba de sumar y restar en 1623. El modelo fue destruido en un incendio, fue considerado como la primera calculadora mecánica. El primer dispositivo de cómputo de propósito múltiple, que podía realizar más de una tarea predefinida, fue la Máquina diferencial de Charles Babbage, cuyo desarrollo comenzó en 1822 y nunca fue completado por Babbage, pero que su hijo, Henry Prevost Babbage, continuó de manera intermitente de 1880 a 1910. Una máquina con características más ambiciosas fue la Máquina Analítica, que fuera concebida en 1834 y terminada de diseñar en 1842 y tuviera el mismo término que la máquina diferencial. Charles Babbage era un hombre que estaba adelantado a su época. Muchos historiadores piensan que la mayor razón por la cual nunca pudo completar estos proyectos fue el hecho de que la tecnología del momento no era lo suficientemente confiable. Sin menoscabo de que ninguna de sus máquinas llegase a ser completada, Babbage y sus colegas, especialmente Ada Augusta, Condesa de Lovelace, reconoció varias técnicas de programación, incluyendo los ciclos condicionales, repetidos y variables de indización. Una máquina inspirada por el diseño de Babbage fue la creada por George Scheutz, quien después de estudiar los trabajos de Babbage sobre la Máquina diferencial comenzó a trabajar en 1833 junto con su hijo Edvard Scheutz en una versión reducida. Ya en1853 con la construcción de una máquina que podía procesar números de 15 dígitos y calcular diferencias de cuarto nivel. Esta máquina ganó una medalla de oro en la Exhibición de París en 1855, y luego fue vendida al observatorio Dudley en Albany, Nueva York, donde fue utilizado para calcular la órbita de Marte. ALFONSO GOMEZ HERRERA
10 1.4.2 Segunda etapa: Sistema Electrónico. Fue1932 Vannevar Bush construyo en el Instituto Tecnológico de Massachussets (MIT) una calculadora electromecánica conocida como el analizador diferencial, pero era de propósito específico y no tenía capacidad de programación. Igualmente en 1944 se construyo en la Universidad de Harvard la computadora MARK I, diseñada por un equipo encabezado por Howard H. Aiken. No obstante no era de propósito general y su funcionamiento estaba basado en relevadores. Un equipo dirigido por los Doctores John Mauchly y John Ecker de la Universidad de Pennsylvania, termino en 1947 la ENIAC (Electronic Numerical Integrator And Computer) que puede ser considerada como la primera computadora digital, electrónica de la historia. Esta máquina era enorme media 10 x 16 metros, ocupaba el sótano de una Universidad, pesaba 30 tonelada, tenia 17,468 tubos de vació y 60000 relevadores, consumía 140 Kw y requería un sistema de aire acondicionado industrial. Pero era capaz de efectuar alrededor de 5000 sumas o 2800 multiplicaciones en un segundo, calculo el valor de la constate Π. Como entre otras cosas iba a reemplazar a un grupo de matemáticas que hacia cómputos numéricos para una oficina especializada, recibió el nombre de “computadora”. El proyecto concluyo 2 años después cuando se integro al equipo John Von Neuman (1903-1957), quien es considerado el padre de las computadoras. El nuevo equipo diseño la EDVAC (Electronic Discrete Variable Automatic Computer), tenía cerca de 40,000 bulbos y usaban un tipo de memoria basado en tubos de mercurio donde circulaban señales eléctricas sujetas a retardos. La nueva idea fundamental resulta muy sencilla, pero de vital importancia: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada de manera “suave” y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como la ENIAC.
1.5 Sus Generaciones. En la evolución de las máquinas por su tratamiento automático de la información marcan la diferencia entre las denominadas generaciones. Las generaciones habidas hasta la actualidad han sido:
BREVE INTRODUCCION AL HARDWARE
11 1ª generación: (1946-1955) Computadoras basados en válvula de vacío que se programaron en lenguaje máquina 1
2ª generación: (1953-1964) Computadoras de transistores2. Evolucionan los modos de direccionamiento. Genera los lenguajes de alto nivel. 3ª generación: (1964-1974) Computadoras basados en circuitos integrados3 y con la posibilidad de trabajar en Tiempo compartido. 4ª generación: (1974- ) Computadoras Que integran toda la CPU en un solo circuito integrado (Microprocesadores). Comienzan a proliferar las redes de computadoras.
1 La primer válvulas eléctricas, fue el diodo de John Ambrose Fleming descubrió en 1904 que al colocar dentro de una bombilla incandescente un electrodo algo alejado del filamento se establecía una corriente entre el filamento y ese electrodo, esto fue basándose a los estudio de Edison. Dos años después de la invención del diodo de vacío, el físico estadounidense Lee De Forest le agregó una rejilla para regular entre ánodo y cátodo la tensión, inventando el tríodo, así continuando sus avances.
Los transistores, desarrollados en 1947 por los físicos W. Shockley, J. Bardeen y W. Brattain – potenciarían el desarrollo de los sistemas infomáticos. Y todo a bajos voltajes, sin necesidad de disipar energía (como era el caso del filamento), en dimensiones reducidas y sin partes móviles o incandescentes que pudieran romperse. 2
3 El creador del primer circuito integrado, fue el ingeniero electrónico estadounidense Jack Kilby, en el año 1959, pocos meses después de ser contratado por Texas Instruments. Se trataba de un dispositivo que integraba seis transistores sobre una misma base semiconductora (se le llamada “chip”; brizna) para formar un oscilador de rotación de fase. A los 77 años, en el año 2000, Kilby fue galardonado con el Premio Nobel de Física por su contribución al desarrollo de la tecnología de la información.
ALFONSO GOMEZ HERRERA
2.- GABINETES EN PC
12
La apariencia de la computadora es una caja metálica con diversos botones e ndicadores:
2.1 Antecedentes: Para entender la estructura actual de los gabinetes, torres, cajas, chasis o carcasa; es la estructura que contiene todas las partes de nuestro sistema informático, es necesario recordar primeramente las primera computadoras como estructuras gigantes, o sea las macro computadoras, fue en 1972 que la empresa Intel fabrico el primer microprocesador siendo el 4004, dando pie a las primeras computadoras para el hogar, las primeras minicomputadoras (el concepto de PC de IBM fue hasta 1981), estas maquinas eran sencillas, comprendían únicamente el teclado, dentro del contenía todos los circuitos, el monitor era nuestra televisión. (Casos como la Commodore, Tandy, etc., excepto Apple que vendía su propio monitor). En la tercera generación de la evolución, con la intervención de la Amiga 1000 en 1985, y antes, la famosa caja “gris” de IBM, se inauguraron las cajas de escritorio (Desktop). Este nuevo tipo de diseño duraría mucho tiempo ya que se encontraría en la mayoría de los equipos hasta 1992-1993. Se presenta como una caja separada del teclado por un cable así como del monitor. Concebida para reposar sobre el escritorio y colocar la pantalla sobre ella. La siguiente evolución, se hizo ha mediado de los años 90s; se trató de colocar la caja en modo vertical: la se llamo torre. Esto permitió aumentar el tamaño interno considerablemente y colocar los dispositivos de lectura perpendiculares a la carcasa aprovechando más el espacio para su colocación. Alrededor de los años 1990 las cajas solían tener toda una forma rectangular y normalmente de color beige. En 1998 Apple apostó por gabinetes con diseños y colores más estéticos incluso llegando a reducir su tamaño. Desde entonces las compañías fabrican carcasas que tienen una vistas más agradables. Desde 2007 las cajas más vendidas eran de un color negro o gris metalizado. En la actualidad con el advenimiento del movimiento llamado “Modding” los gabinetes son de todo tipo y características. BREVE INTRODUCCION AL HARDWARE
2.2 Tipos.
13
ase m-c
Sli
Es muy similar al Desktop, pero este, es de menores dimensiones para ocupar menos espacio en el escritorio, normalmente es de 2 a 5 bahías de 3½ y una a 2 de 5¼. Típicamente se utiliza para terminal en una red. (A)
ktop
Des
er
w To
ini
M
Es el gabinete de gran popularidad, es económico, tiene perfil vertical. El monitor se coloca a un lado, es bastante bueno para una posible expansión. (C)
r
we
to m-
diu
Me
Quizás es el gabinete más popular, tiene una disposición horizontal y buen espacio para una expansión, normalmente contiene 2 a 3 bahías de 3 ½ y 2 a 5 de5¼ (B)
Es de media popularidad buena combinación de tamaño y precio tiene un arreglo comúnmente de 3 bahías de 5¼ y 3 a 4 de 3 ½, gran libertada de expansión con Bahías libres (D)
er Son utilizados en aplicaciones donde la expansión es un factor Tow prioritario. Como plataforma multimedia. Tiene arreglo como 7 a 9
Full
bahías de 5¼ y una de 3 ½ dado su tamaño va colocado en el piso (E)
er Es el gabinete más grande con arreglos de 10 o más bahías de 5¼,
Serv
Como su nombre lo indica sirve como Servidor para una red tipo Lan (F)
Nota: El tamaño del gabinete va en proporción a la potencia. De las fuentes de alimentación, pensando en una posible expansión y consumo de energía de los circuitos nuevos anexados. Los factores ven de 150 Vatios a 600 Vatios en Server. ALFONSO GOMEZ HERRERA
14
3.-MOTHERBOARD
La placa base, también conocida como placa madre o tarjeta madre (inglés; motherboard o mainboard) es un complejo de circuito impreso (PCB)*, que es la parte central principal de la computadora. Es una plataforma que ofrece conexiones eléctricas a través del cual otros componentes se comunican, y también alberga la unidad de procesamiento central (CPU), generalmente referidas como el cerebro de la computadora Antes de la invención de los microprocesadores, las computadoras se construyeron en mainframes con componentes que estaban conectados por un plano posterior que tenía ranuras innumerables para la conexión de cables. En los diseños antiguos, los cables son necesarios para conectar los pines del conector de tarjeta pero pronto se convirtió en una cosa del pasado con la invención de los PCB. La CPU, la memoria y otros periféricos se alojaron todos en esta placa de circuito impreso.
Circuito alambrado
Circuito Impreso
3.1 Las funciones básica del Motherboards 1. Distribuir alimentación a los circuitos. 2. Proveer los datos por los bus de información para las señales de control e información. 3. Ofrece varios sockets o puertos para conectar componentes externos. 4. Proveen puertos de expansión para añadir circuitos.
*Printed circuit board: placa de circuito impreso, es utilizada para apoyar mecánicamente y conectar eléctricamente componentes electrónicos usando vías conductoras, pistas de señales grabadas de cobre, hojas laminadas sobre un no conductor. También se conoce como placa de cableado impreso (PWB). El ingeniero austriaco Paul Eisler inventó el circuito impreso mientras trabajaba en Inglaterra alrededor de 1936. Alrededor de 1943, los EE.UU. comenzó a usar la tecnología en gran escala para hacer espoletas de proximidad para su uso en la Segunda Guerra Mundial. Después de la guerra, en 1948, los EE.UU. publicó la invención para el uso comercial. Circuitos impresos no se convirtió en un lugar común en la electrónica de consumo hasta mediados de 1950.
BREVE INTRODUCCION AL HARDWARE
15 3.2 Partes
• BIOS (Basic Input Output System) Es un programa que contiene, un conjunto de instrucciones básicas que permiten el arranque del Motherboard. • CHIPSET- Es el conjunto del Northbridge y del Southbridge los cuales ayudan al CPU en su desempeño. • CPU SOCKET- Es el lugar en donde se conecta el Procesador. • MEMORY SLOT- Es el lugar donde se conectan las memorias. • PCI PORTS-Peripheral Component Interconnect. Puerto • AGP PORT- Puerto exclusivo para tarjetas de video. • Conectores IDE o ATA, son los puertos que me permiten conectar discos duros y ópticos mediante un cable cinta. • FlOPPY (Desuso) • AMR-(Audio Modem Riser) está integrado en algunos Motherboards. • POWER SUPPLY CONNECTOR, Donde conectamos la corriente que viene del Power Supply. • BATERÍA- Se encarga de proveer carga para mantener información vital del BIOS. • CONECTORES PS2-IBM Personal System 2- conectores del Mouse y del teclado. • PARALELL PORT 25 PINS – Puerto de conexión paralelo de 25 pines. Conectamos Impresoras, Scanners, etc. • PUERTO SERIAL 9 PINE- Conectamos Impresoras y otros equipos. • PUERTO VGA 15 PIN- Video Graphic Adapter, salida para el monitor. • USB CONNECTORS-Universal Serial Bus, conectamos todo tipo de periféricos. • ETHERNET CONNECTOR- Conectamos el plug RJ-45 para conectarnos a switches, hubs, routers e impresoras. • CONECTORES AUDIO OUT, AUDIO IN, IN/OUT DE 1/8- salidas y entradas para equipos de audio. • FIREWIRE IEEE 1394-conector rápido para video y otros. ALFONSO GOMEZ HERRERA
16 3.3 Tamaños • • • • • • • • • • • • • • • • • •
XT (8.5 × 11” or 216 × 279 mm) AT (12 × 11”–13” o 305 × 279–330 mm) Baby-AT (8.5” × 10”–13” o 216 mm × 254-330 mm) ATX (Intel 1996; 12” × 9.6” o 305 mm × 244 mm) EATX (12” × 13” o 305mm × 330 mm) Mini-ATX (11.2” × 8.2” o 284 mm × 208 mm) microATX (1996; 9.6” × 9.6” o 244 mm × 244 mm) LPX (9” × 11”–13” o 229 mm × 279–330 mm) Mini-LPX (8”–9” × 10”–11” o 203–229 mm × 254–279 mm) NLX (Intel 1999; 8”–9” × 10”-13.6” o 203–229 mm × 254–345 mm) FlexATX (Intel 1999; 9.6” × 9.6” o 244 × 244 mm max.) Mini-ITX (VIA Technologies 2003; 6.7” × 6.7” o 170 mm × 170 mm max.; 100W max.) Nano-ITX (VIA Technologies 2004; 120 mm × 120 mm max.) BTX (Intel 2004; 12.8” × 10.5” o 325 mm × 267 mm max.) MicroBTX (Intel 2004; 10.4” × 10.5” o 264 mm × 267 mm max.) PicoBTX (Intel 2004; 8.0” × 10.5” o 203 mm × 267 mm max.) WTX (Intel 1998; 14” × 16.75” o 355.6 mm × 425.4 mm) ETX y PC/104, utilizados en sistemas especiales.
BREVE INTRODUCCION AL HARDWARE
17 3.4 Conectores 1) Conectores PS/2 para mouse y teclado: incorporan un icono para distinguir su uso. 2) Puerto paralelo: utilizado por la impresora. Actualmente reemplazado por USB. 3) Conectores de sonido: las tarjetas madre modernas incluyen una placa de sonido con todas sus conexiones. 4) Puerto serie: utilizado para mouse y conexiones de baja velocidad entre PCS. 5) Puerto USB: puerto de alta velocidad empleado por muchos dispositivos externos, como los escáneres o las cámaras digitales. 6) Puerto FireWire*: puerto de alta velocidad empleado por muchos dispositivos externos. No todas las tarjetas madre cuentan con una conexión de este tipo. 7) Red: generalmente las tarjetas madre de última generación incorporan una placa de red y la conexión correspondiente.
3.5 FireWire Apple inventó el FireWire a mediados de los 90S y lo convirtió en el estándar multiplataforma IEEE 1394, siendo el primer fabricante de computadoras que incluyó FireWire en toda sus de productos. FireWire es una tecnología para la entrada/salida de datos en serie a alta velocidad y la conexión de dispositivos digitales con un ancho de banda 30 veces superior al conocido estándar de periféricos USB 1.1, el FireWiere 400 se ha convertido en el estándar más respetado para la transferencia de datos a alta velocidad. Ahora Apple ha duplicado la velocidad de transferencia con su implementación del estándar IEEE 1394b FireWire 800. Se ha convertido en la interfaz preferida de los sectores de audio y vídeo digital, reúne numerosas ventajas, entre las que se encuentran la elevada velocidad, la flexibilidad de la conexión y la capacidad de conectar un máximo de 63 dispositivos.
ALFONSO GOMEZ HERRERA
18 3.6 BIOS El acrónimo BIOS (Basic Input/Output System) fue inventado por Gary Kildall el creador del sistema operativo CP/M en 1975, siendo el nombre de un archivo del sistema. Las máquinas con CP/M usualmente tenían una ROM muy simple que hacía que la unidad de diskette leyera datos desde su primera posición de memoria donde se encontraba la primera instrucción del archivo BIOS que se encargaba de configurar el sistema o programa. La BIOS (Sistema básico de entrada/salida) es una memoria ROM, EPROM o FLASHRAM la cual contiene las rutinas de más bajo nivel que hace posible que la computadora pueda arrancar, controlando el teclado, el disco y la disquetera permite pasar el control al sistema operativo. Además, la BIOS se afirma en otra memoria, la CMOS, que almacena todos los datos propios de la configuración de la computadora, como pueden ser los discos rígidos instalados, número de cabezas, cilindros, número y tipo de disqueteras, la fecha, hora, etc., . así como otros parámetros necesarios para el correcto funcionamiento de la computadora. Esta memoria está siendo alimentada constantemente por un acumulador (pila), de manera que, una vez apagada la computadora no se pierdan todos esos datos y parámetros previamente establecidos que la computadora necesita para funcionar y poder iniciar. Actualmente todas las placas base suelen venir con una pila tipo “moneda”, la cual tiene una duración de unos 4 ó 5 años aproximadamente, y es muy fácil de reemplazar. Antes, las placas base la traían un soldada a la misma, en realidad eran tres pilas en serie embutidas en un plástico cobertor. Esto dificultaba muchísimo el cambio para usuarios inexpertos, además de otros problemas como que la pila tuviera pérdidas y se sulfataran junto con la placa. Existen muchos fabricantes de BIOS, pero el mercado está dominado prácticamente por: Award, AMI y Phoenix, y lo más seguro es que nuestro computadora tenga una BIOS de uno de estos fabricantes
3.7 CMOS La CMOS (Complementary Metal Oxide Semiconductor – Semiconductor Complementario de Oxido de Metal) es una porción de 64 bytes encargada de almacenar los valores y ajustes de la BIOS (ajustes de usuario). Podemos almacenar datos como; la fecha y la hora, los parámetros del disco duro, la secuencia de arranque o la configuración de los puertos, etc. BREVE INTRODUCCION AL HARDWARE
19 La BIOS es una memoria no volátil (ROM) y que sus datos están guardados y son inalterables, en cambio, la CMOS es una memoria de tipo RAM y los datos que se guardan se pueden alterar pero también se borrarán en caso de existir algún corte de energía. Para prevenir que se de esta situación, es decir, que se borren los datos definidos por el usuario, se hace uso de una pila que alimentará esta memoria siempre que nuestra PC no esté en funcionamiento. Para poder entar al Setup del BIOS, generalmente suele ser la tecla delete, pero varía según el fabricante de la misma, pudiendo ser la tecla Esc, F1, F2, Alt+Esc, Alt +F1, etc. pero lo normal es que también nos aparezca un mensaje que nos avise de qué tecla es la que nos permitirá entrar al menú mencionado.
3.8 EL POST El POST es el acrónimo en inglés de Power On Self Test (Auto prueba de encendido). Es un proceso de verificación e inicialización de los componentes de entrada y salida en un sistema de cómputo que se encarga de configurar y diagnosticar el estado del hardware. Existen 3 métodos de Post.
1.- Pitidos al iniciar 2.-Expedicion de código en pantalla 3.-Leyenda en pantalla.
3.8.1 CHIPSET Es el enlace principal del CPU con todo el sistema. Es el conjunto de chips encargados de controlar las funciones de la placa base, así como de interconectar los demás elementos de la misma. Hay varios fabricantes de chipset, siendo los principales INTEL, VIA y SiS. También NVidia. Los principales elementos del chipset son:
3.8.2 Northbridge Aparecido junto con las placas ATX (las placas AT carecían de este chip), debe su nombre a la colocación inicial del mismo, en la parte norte (superior) de la placa base. Es el chip más importante, encargado de controlar y comunicar el microprocesador, la comunicación con la tarjeta gráfica AGP y la memoria RAM, estando a su vez conectado con el SouthBridge. AMD ha desarrollado en sus procesadores una función que controla la memoria directamente desde el éste, descargando de este trabajo al NorthBridge y aumentando significativamente el rendimiento de la memoria. Actualmente tienen un bus de datos de 64 bit y unas frecuencias de entre 400 Mhz y 1333 Mhz. Dado este alto rendimiento, generan una alta temperatura, por lo que suelen tener un disipador y en muchos casos un ventilador. ALFONSO GOMEZ HERRERA
20 3.8.3 Southbridge Es el encargado de conectar y controlar los dispositivos de Entrada/Salida, tales como los slot PCI, teclado, mouse, discos duros, lectores de DVD, lectores de tarjetas, puertos USB, etc. Se conecta con el microprocesador a través de NorthBridge. VIA ha desarrollado en colaboración con AMD interfaces mejorados de transmisión de datos entre el SouthBridge y el NorthBridge, como el HYPER TRANSPORT, que son interfaces de alto rendimiento, de entre 200 Mhz y 1400 Mhz (el bus PCI trabaja entre 33 Mhz y 66 Mhz), con bus DDR, lo que permite una doble tasa de transferencia de datos, es decir, transferir datos por dos canales simultáneamente por cada ciclo de reloj, evitando con ello el cuello de botella que se forma en este tipo de comunicaciones, y en colaboración con INTEL el sistema V-Link, que permite la transmisión de datos entre el SouthBridge y el NorthBridge a 1333 Mhz.
BREVE INTRODUCCION AL HARDWARE
21 4.- CPU (Unidad Central de Proceso). 4.1 Antecedente: El primer CPU en un solo chip (Intel 4004) fue el inventado en noviembre de 1971, un procesador de 4-bit para una calculadora. Se procesaron los datos de 4 bits, pero sus instrucciones eran 8 bits de longitud. En 1972, Instrumentos Texas, seguido el Intel 4004/4040 estrechamente con el TMS 4-bit 1000, que fue el primer microprocesador para incluir suficiente memoria RAM, y espacio para una ROM de programa, para permitir al equipo funcionar sin múltiples chips de soporte externos. También ofreció una innovadora función para agregar instrucciones a la medida a la CPU.
4.2 Aplicación del CPU. Es un circuito miniatura que interpreta y ejecuta instrucciones. Este se ocupa del control y el proceso de datos en los sistemas. Habitualmente, el CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos (transistores). Está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (establece SI, NO, mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamados bus. 4.3 Componenentes internos. • Unidad de control: Controla el funcionamiento del CPU y por tanto del sistema. • Unidad aritmético-lógica (ALU): Encargada de llevar a cabo las funciones de procesamiento de datos de la computadora. • Registros: Proporcionan almacenamiento interno a la CPU. • Interconexiones CPU: Son mecanismos que proporcionan comunicación entre la unidad de control, la ALU y los registros.
ALFONSO GOMEZ HERRERA
22
4.4 Tipos
1-RISC (Reduced-Instruction-Set Computing). Los microprocesadores RISC se basan en la idea de que la mayoría de las instrucciones para realizar procesos en el computador son relativamente simples por lo que se minimiza el número de instrucciones y su complejidad a la hora de diseñar el CPU. Algunos ejemplos de arquitectura RISC son el SPARC de Sun Microsystem’s, el microprocesador Alpha diseñado por la antigua Digital, y los Motorola 88000 y PowerPC. Estos procesadores se suelen emplear en aplicaciones industriales y profesionales por su gran rendimiento y confianza. 2.-CISC complex-instruction-set computing), al contrario, tienen una gran cantidad de instrucciones y por tanto son muy rápidos procesando código complejo. Los CPU´s CISC más extendidas son las de la familia 80x86 de Intel cuyo último micro es el Pentium II. Últimamente han aparecido otras compañías como Cirix y AMD que fabrican procesadores con el juego de instrucciones 80x86 y a un precio sensiblemente inferior al de los microprocesadores de Intel. Además, tanto Intel con MMX como AMD con su especificación 3D-Now! están apostando por extender el conjunto de instrucciones de la CPU para que trabaje más eficientemente con tratamiento de imágenes y aplicaciones en 3 dimensiones.
4.5 Tipos de sockets o zócalos Tipos de Sockets: Lo diferentes tipos son: (y no se conectan igual a todas las placas.) Socket con un mecanismo ZIF (Zero insertion force), en ellas el procesador se inserta y se retira sin necesidad de ejercer alguna presión sobre el al levantarse la palanca, que hay a lado se liberara el microprocesador. Slot A /Slot1/Solt2 existieron durante una generación importante de PC (1991-2000 aprox.) reemplazando los socket donde se conectan respectivamente los primeros procesadores Athlon de AMD, los procesadores Pentium II,III los Xenón de Intel dedicados a servidores de red. En las placas más antiguas el micro estaba soldado de forma que no podía actualizarse. BREVE INTRODUCCION AL HARDWARE
23
ALFONSO GOMEZ HERRERA
24
1.-Dual in line* 2.-286* 3.-386 4.-SOCKET 6 5.-SOCKETS 3 6.-SOCKET2 7.-SOCKET 1 8.-SOCKETS 486 9.-SOCKET NEXT/GEN 10.-SOCKET 7 11.-SOCKETS 5 12.-SOCKTES 4 13.-SOCKET 370S 14.-SOCKET 370 15.-SLOT A 16.-SLOT 2 17.-SLOT 1
18.-SCOKET 8 19.-SOCKET 479 20.-SOCKET 603/604 21.-SOCKET 478 22.-423 23.-A/462 24.-PAC611 25.-PACA 18 26.-SOCKET S1 27.-SOCKET M2 28.-SOCKET F 29.-SOCKETT 771 30.-940 31.-SOCKET 754 32.-SOCKET AM2 33.-SOCKET 939 3.-SOCKET 775 o T
Siglas: LIF: Low Insertion Force (sin palanca) PGA: Pin grid array SECC: Single Edge Contract Cartridge SEPP: Single Edge Processor Package SPGA: Staggered Pin Grid Array VID VRM: Voltage ID Voltage Regulator Module (el voltaje del CPU se puede variar en la BIOS) VLIF: Very Low Insertion Force ZIF: Zero Insertion Force (con palanca)
*podría venir soldado en el PCB BREVE INTRODUCCION AL HARDWARE
25 5.- LA MEMORIA 5.1 Que son las memorias. La memoria es el recurso que determina el tamaño y el número de programas que pueden ejecutarse al mismo tiempo, así como también la cantidad de datos que pueden procesarse instantáneamente. La memoria contiene casilleros electrónicos, donde cada casilla contiene un byte de datos o instrucción. Cada casilla tiene una dirección separada y puede manipularse de manera independiente. Como resultado, de la computadora puede descomponer los programas en instrucciones para ejecución y los registros* de datos en campos para procesamiento. Estas permiten almacenar y recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de cinta, etc.
5.2 Teoría de Funcionamiento. La memoria es circuito integrado que puede almacenar información digital. Se pueden leer y escribir datos de tipo binario, “0” y “1”, en cantidades muy grandes, organizados normalmente en grupos de 8bit, que llamamos bytes. Para lograr escribir y guardar datos tipo binarios, se utilizan un transistor y un capacitor acoplados para crear una celda de memoria, la cual puede guardar un bit de información un “0” o un “1”. El transistor funciona como un interruptor que permite al circuito de control leer la carga del capacitor o cambiar su estado. Un capacitor es como una pequeña cubeta que permite almacenar electrones. Para guardar un “1” en la celda de memoria, la cubeta se llena con electrones. Para guardar un “0”, se vacía. El principio es un transistor y dispositivos discretos, este conjunto conforma las llamadas compuertas, esta conforman los llamados flip flop.
*Los registros están en la parte superior en la operación, es la manera más rápida que tiene el sistema de almacenar datos. Los registros se miden generalmente por el número de bits que almacenan; por ejemplo, un “registro de 8 bits” o un “registro de 32 bits”. ALFONSO GOMEZ HERRERA
26 5.3 Jerarquía de memoria • Registros de procesador: Estos registros interaccionan continuamente con la CPU (porque forman parte de ella). Los registros tienen un tiempo de acceso muy pequeño y una capacidad mínima, normalmente igual a la palabra del procesador (1 a 8 bytes). • Registros intermedios: Constituyen un paso intermedio entre el procesador y la memoria, tienen un tiempo de acceso muy breve y muy poca capacidad. • Memorias caché: Son memorias de pequeña capacidad. Normalmente una pequeña fracción de la memoria principal, y pequeño tiempo de acceso. Este nivel de memoria se coloca entre la CPU y la memoria central. Hace algunos años este nivel era exclusivo de las computadoras grandes pero actualmente todas las computadoras lo incorporan. Dentro de la memoria caché puede haber, a su vez, dos niveles denominados caché on chip, memoria caché dentro del circuito integrado, y caché on board, memoria caché en la placa de circuito impreso pero fuera del circuito integrado, evidentemente, por razones físicas, la primera es mucho más rápida que la segunda. Existe también una técnica, denominada Arquitectura Harvard, en cierto modo contrapuesto a la idea de J.Von Newmann, que utiliza memorias caché separadas para código y datos. Esto tiene algunas ventajas como se verá en este capítulo. • Memoria central o principal: En este nivel residen los programas y los datos. El CPU lee y escribe datos en él aunque con menos frecuencia que en los niveles anteriores. Tiene un tiempo de Acceso relativamente rápido y gran capacidad. • Extensiones de memoria central: Son memorias de la misma naturaleza que la memoria central que amplían su capacidad de forma modular. El tiempo de similar, a lo sumo un poco mayor, al de la memoria central y su capacidad puede ser algunas veces mayor. • Memorias de masas o auxiliares: Son memorias que residen en dispositivos externos a la computadora, en ellas se archivan programas y datos para su uso posterior. También se usan estas memorias para apoyo de la memoria central en caso de que ésta sea insuficiente (memoria virtual). Estas memorias suelen tener gran capacidad pero pueden llegar a tener un tiempo de acceso muy lento. Dentro de ellas también se pueden establecer varios niveles de jerarquía.
BREVE INTRODUCCION AL HARDWARE
27 5.4 Clasificación de memorias Las memorias se clasifican, por la tecnología empleada y, además según la forma en que se puede modificar su contenido, A este respecto, las memorias se clasifican en dos grandes grupos: 1) Memorias RAM: Son memorias en las que se puede leer y escribir, si bien su nombre (Random access memory). Por su tecnología pueden ser de ferritas (origen) o electrónicas, Dentro de éstas últimas hay memorias estáticas (SRAM, static RAM), cuya célula de memoria está basada en un biestable, y memorias dinámicas (DRAM, dinamic RAM, en las que la célula de memoria es un pequeño condensador cuya carga representa la información almacenada. Las memorias dinámicas necesitan circuitos adicionales de refresco ya que los condensadores tienen muy poca capacidad y, a través de las fugas, la información puede perderse, por otra parte, son de lectura destructiva. 2) Memorias ROM (Read 0nly Memory): Son memorias en las que sólo se puede leer. Pueden ser: • ROM programadas por máscara, cuya información se graba en fábrica y no se puede modificar. • PROM, o ROM programable una sola vez. • EPROM (erasable PROM) o RPROM (reprogramable ROM), cuyo contenido puede borrarse mediante rayos ultravioletas para regrabarlas. • EAROM (electrically alterable ROM) o EEROM (electrically erasable ROM), que son memorias que están en la frontera entre las RAM y las ROM ya que su contenido puede regrabarse por medios eléctricos, estas se diferencian de las RAM en que no son volátiles. En ocasiones a este tipo de memorias también se las denomina NVRAM (no volátil RAM). • Memoria FLASH, denominada así por la velocidad con la que puede reprogramarse, utilizan tecnología de borrado eléctrico al igual que las EEPROM. Las memorias flash pueden borrarse enteras en unos cuantos segundos, mucho más rápido que las EPROM.
ALFONSO GOMEZ HERRERA
28 6.- BUSES 6.1 Función. Se denomina bus, en informática, al conjunto de conexiones físicas (cables, placa de circuito impreso, etc.) que pueden compartirse con múltiples componentes de hardware para que se comuniquen entre sí. El propósito de los buses es reducir el número de rutas necesarias para la comunicación entre los distintos componentes, al realizar las comunicaciones a través de un solo canal de datos. Un bus es en esencia una ruta compartida que conecta diferentes partes del sistema, como el microprocesador, la controladora de unidad de disco, la memoria y los puertos de entrada/salida (E/S), para permitir la transmisión de información. En el bus se encuentran dos pistas separadas, el bus de datos y el bus de direcciones. La CPU escribe la dirección de la posición deseada de la memoria en el bus de direcciones accediendo a la memoria, teniendo cada una de las líneas carácter binario. Es decir solo pueden representar “0” o “1” y de esta manera forman conjuntamente el número de la posición dentro de la memoria (la dirección). Cuantas más líneas haya disponibles, mayor es la dirección máxima y mayor es la memoria a la cual puede dirigirse de esta forma. En el bus de direcciones original había ya 20 direcciones, ya que con 20 bits se puede dirigir a una memoria de 1 MB y esto era exactamente lo que correspondía al CPU. Esto que en le teoría parece tan fácil es bastante más complicado en la práctica, ya que aparte de los bus de datos y de direcciones existen también casi dos docenas más de líneas de señal en la comunicación entre el CPU y la memoria, a las cuales también se acude. Todas las tarjetas del bus escuchan, y se tendrá que encontrar en primer lugar una tarjeta que mediante el envío de una señal adecuada indique al CPU que es responsable de la dirección que se ha introducido. Las demás tarjetas se despreocupan del resto de la comunicación y quedan a la espera del próximo ciclo de transporte de datos que quizás les incumba a ellas.
BREVE INTRODUCCION AL HARDWARE
29 PROCESADOR
8086 8088 80186 80188 80286 80386 SX 80386 DX 80486 DX 80486 SX Pentium Pentium PRO
Bus de direcciones (bits) 20 20 20 20 24 32 32 32 32 32 32
Bus de datos (bits) 16 8 16 8 16 16 32 32 32 64 64
6.2 Estructuras de interconexión Existen dos organizaciones físicas de operaciones E/S que tienen que ver con los buses que son: • •
Bus único Bus dedicado
La primera gran diferencia entre estos dos tipos de estructuras es que el bus único no permite un controlador DMA (todo se controla desde la CPU), mientras que el bus dedicado sí que soporta este controlador. El bus dedicado trata a la memoria de manera distinta que a los periféricos (utiliza un bus especial) al contrario que el bus único que los considera a ambos como posiciones de memoria (incluso equipara las operaciones E/S con las de lectura/escritura en memoria). Este bus especial que utiliza el bus dedicado tiene 4 componentes fundamentales: Datos: Intercambio de información entre la CPU y los periféricos. Control: Lleva información referente al estado de los periféricos (petición de interrupciones). Direcciones: Identifica el periférico referido. Sincronización: Temporiza las señales de reloj. La mayor ventaja del bus único es su simplicidad de estructura que le hace ser más económico, pero no permite que se realice a la vez transferencia de información entre la memoria y el procesador y entre los periféricos y el procesador. Por otro lado el bus dedicado es mucho más flexible y permite transferencias simultáneas. Por contra su estructura es más compleja y por tanto sus costes son mayores.
6.3 Tipos de Buses. 6.3.1 Bus ISA 8/16: Cuando en 1980 IBM fabricó su primer PC, este contaba con un bus de expansión conocido como XT que funcionaba a la misma velocidad que los procesadores Intel 8086 y 8088 (4.77 Mhz). El ancho de banda de este bus (8 bits) con el procesador 8088 formaba un par perfecto, pero la ampliación del bus de datos en el 8086 a 16 bits dejo en entredicho este tipo de bus, por ende la capacidad del sistema es severamente limitado. ALFONSO GOMEZ HERRERA
30 Presente en las viejas computadoras XT y AT, pero aún conservado en algunas motherboards más modernas, que usan principalmente un bus PCI como bus principal del sistema, en 1 o 2 instancias para permitir la integración de viejas placas ISA. Es un bus de 8/16 bits y con un ancho de banda máximo de 16 Mbytes/ seg. Tensiones de alimentación presentes +5V,-5V,+12V y -12V.
ISA 8 ISA 16
6.3.2 Bus Micro Channel (MCA). Vistas las limitaciones que tenía el diseño del bus ISA en IBM se trabajó en un nueva tecnología de bus que comercializó con su gama de computadoras PS/2. El diseño MCA (Micro Channel Arquitecture) permitía una ruta de datos de 32 bits, más ancha, y una velocidad de reloj ligeramente más elevada de 10 Mhz, con una velocidad de transferencia máxima de 20 Mbps frente a los 8 Mbps del bus ISA. Pero lo que es más importante el novedoso diseño de bus de IBM incluyó un circuito de control especial a cargo del bus, que le permitía operar independientemente de la velocidad e incluso del tipo del microprocesador del sistema.
BREVE INTRODUCCION AL HARDWARE
6.3.3 Bus EISA.
31
EISA apareció con los equipos AT como un primer paso de avance hacia transferencia de datos a más alta velocidad y con un ancho de bus mayor, en competencia con el bus MCA lanzado por IBM en sus equipos para los mismos objetivos. Físicamente es difícil de distinguir de un conector ISA, pero sus características y gestión son diferentes. Ancho de bus: 32 bits Ancho de banda máximo teórico de 33 Mbytes/seg si bien en la práctica no superaban los 20 Mb/seg. Tensiones presentes +5V, -5V,+12V y -12V. Soporta, siendo backward compatible, la inserción de placas ISA de 8 y 16 bits.
Un PC con bus VL dispone para ello de un bus ISA y de las correspondientes ranuras (slots) para tarjetas de ampliación. Además, en un PC con bus VL puede haber, sin embargo, una, dos o incluso tres ranuras de expansión, para la colocación de tarjetas concebidas para el bus VL, casi siempre gráficos. Solamente estos slots están conectados con la CPU a través de un bus VL, de tal manera que las otras ranuras permanecen sin ser molestadas y las tarjetas ISA pueden hacer su servicio sin inconvenientes. El VL es una expansión homogeneizada de bus local, que funciona a 32 bits, pero que puede realizar operaciones a 16 bits. VESA presentó la primera versión del estándar VL-BUS en agosto de 1992. La aceptación por parte del mercado fue inmediata. Fiel a sus orígenes, el VL-BUS se acerca mucho al diseño del procesador 80486. De hecho presenta las mismas necesidades de señal de dicho chip, exceptuando unas cuantas menos estrictas destinadas a mantener la compatibilidad con los 386. La especificación VL-Bus como tal, no establece límites, ni superiores ni inferiores, en la velocidad del reloj, pero una mayor cantidad de conectores supone una mayor capacitancia, lo que hace que la fiabilidad disminuya a la par que aumenta la frecuencia.
6.3.4 VLB (Vesa Local Bus.). En la práctica, el VL-BUS no puede superar los 66 Mhz. Por este motivo, la especificación VL-BUS original recomienda que los diseñadores no empleen más de tres dispositivos de bus local en sistemas que operan a velocidades superiores a los 33 Mhz. A velocidades de bus superiores, el total disminuye: a 40 Mhz solo se pueden incorporar dos dispositivos; y a 50 Mhz un único dispositivo que ha de integrarse en la placa. ALFONSO GOMEZ HERRERA
32 En la práctica, la mejor combinación de rendimiento y funciones aparece a 33 Mhz. Tras la presentación del procesador Pentium a 64 bits, VESA comenzó a trabajar en un nuevo estándar (VL-Bus versión 2.0). La nueva especificación define un interface de 64 bits pero que mantienen toda compatibilidad con la actual especificación VL-BUS. La nueva especificación 2.0 redefine además la cantidad máxima de ranuras VL-BUYS que se permiten en un sistema sencillo. Ahora consta de hasta tres ranuras a 40 Mhz y dos a 50 Mhz, siempre que el sistema utilice un diseño de baja capacitancia
6.3.5 PCI (Peripheral Component Interconnect) Sin ser las más populares de los buses, bien muchas motherboards empiezan a traer un creciente número de ranuras de otros tipos como PCI-e (PCI Express) y PCI-X (se debe aquí evitar la tentación de pensar que la X ha sido usada como una abreviación de “express”...pues realmente el PCI-X tiene poco o nada que ver con un PCI-e y la posibilidad de confusión del PCI-X son las ranuras PCI de 64 bits. El mismo se presenta en dos formatos, de acuerdo al ancho de bus que soportan: PCI de 32 bits y PCI de 64 bits como los presentes en algunos servidores y equipos Mac como el G4 y posteriores. En general una placa PCI de 32 bits suele poder usarse sin problemas en una ranura PCI de 64 bits si tanto placa como ranura han sido correctamente implementadas de acuerdo a las especificaciones. Este bus tiene un ancho de 32 bits o de 64 bits de acuerdo a la versión que se trate y normalmente el más difundido es el de 32 bits, el cual puede alcanzar un ancho de banda máximo de 133 Mbytes/seg para PCI 2.1 o anteriores, 533 Mbytes/seg para PCI 2.2 y posteriores (en los buses de 64 bits estos anchos de banda máximo pasan al doble o sea 266 Mbytes y 1 Gb/seg) A su vez hay varias variantes en cuanto a las tensiones presentes, estando siempre los +12 V y los -12V, en la gran mayoría están presentes los +5 V si bien dicha tensión desaparece definitivamente en las implementaciones PCI 2.3 y PCI 3.0. Y a partir de las versiones PCI 2.2 y siguientes estará también en forma forzosa presente la tensión de 3,3 V
BREVE INTRODUCCION AL HARDWARE
33 6.3.6 AGP (Accelerated Graphics Port) Este tipo de ranura es una ranura especializada para tarjetas de video tipo AGP. La misma tiene un ancho de bus de 32 bits y puede tener un ancho de banda para la transmisión de datos que va desde los 133 Mb/seg para los primeros modelos hasta los 2 Gb/seg en las últimas versiones. Si bien esta ranura fue bastante popular durante un período en que las controladoras de video se ausentaron en las ranuras PCI para tener ranuras específicas y especializadas al procesamiento de video, hoy en día está siendo abandonada por los principales fabricantes de placas de video y placas aceleradoras de video, los cuales se están volcando al bus PCI-X. Normalmente por su conformación física es difícil el confundirla y dada la variedad de posibilidades solo presentamos una representación esquemática de las principales alternativas:
ALFONSO GOMEZ HERRERA
34 7.- ENTRADA/SALIDA (E/S).
7.1 Sus funciones: Funciones que debe realizar un sistema para elaborar labores de Output/input: 1. Direccionamiento o selección del dispositivo que debe llevar a cabo la operación de E/S. 2. Transferencia de los datos entre el procesador y el dispositivo, bidireccionalmente. 3. Sincronización y coordinación de las operaciones. Esta última función es necesaria debido a la deferencia de velocidades entre los dispositivos y la CPU y a la independencia que debe existir entre los periféricos y la CPU, por diferencia de los relojes internos Se define una transferencia elemental de información como la transmisión de una sola unidad de información entre el procesador y el periférico o viceversa. Para efectuar una transferencia elemental de información son: • Establecimiento de una comunicación física entre el procesador y el periférico para la transmisión de la unidad de información. • Control de los periféricos, en que se incluyen operaciones como prueba y modificación del estado del periférico. Para realizar estas funciones la CPU gestionará las líneas de control necesarias. Una operación de E/S es el conjunto de acciones necesarias para la transferencia de un conjunto de datos (o sea, una transferencia completa de información). Para la realización de una operación de E/S se deben efectuar las siguientes funciones: • Recuento de las unidades de información transferidas (bytes) para reconocer el fin de operación. • Sincronización de velocidad entre la CPU y el periférico. • Detección de errores (como corrección) mediante la utilización de los códigos necesarios (bits de paridad, códigos de redundancia cíclica “CRC”, etc.) • Almacenamiento temporal de la información. Es más eficiente utilizar un buffer temporal específico para las operaciones de E/S que utilizan el área de datos del programa. • Conversión de códigos, conversión serie/paralelo, etc. Puertos: Paralelos Seriales
BREVE INTRODUCCION AL HARDWARE
35 7.2 Interrupciones (IRQ) (Interrupt ReQuest - solicitud de interrupción). Canales utilizados para gestionar dispositivos periféricos. Las IRQ son las líneas de interrupción que utilizan los dispositivos para avisar al microprocesador que necesitan su atención. (En los antiguos XT eran 8 canales, en computadoras AT y superiores son 16.) Antes de la existencia de los dispositivos plug and play, los usuarios tenían que configurar los valores IRQ de los dispositivos manualmente cuando agregaban un dispositivo nuevo al sistema. A continuación se listan los números IRQ y para qué eran usados generalmente. Un sistema informático debe disponer de los elementos suficientes para que el programador tenga un control total para la ejecución de su programa. La llegada de una interrupción provoca que la CPU suspenda la ejecución de un programa e inicie la de otro (rutina de servicio de interrupción). Como las interrupciones pueden producirse en cualquier momento, es muy probable que se altere la secuencia de sucesos que el programador había previsto inicialmente. Es por ello que las interrupciones deber controlarse cuidadosamente. De esta forma, podemos resumir todas las etapas seguidas ante una interrupción en un sistema dotado de Vectorización. Estos pasos son los siguientes: • El dispositivo envía la solicitud de interrupción mediante la línea INTR. • El procesador termina la ejecución de la instrucción en curso y analiza la línea de petición de interrupción, INTR. Si esta línea no está activada continuará normalmente con la ejecución de la siguiente instrucción, en caso contrario se pasa a la etapa siguiente. • El CPU reconoce la interrupción, para informar al dispositivo de ello, activa la línea de reconocimiento de interrupción, INTA. • El dispositivo que reciba la señal INTA envía el código de interrupción por el bus de datos. • El CPU calcula la dirección de memoria donde se encuentra la rutina de servicio de interrupción (vector de interrupción). • El estado del procesador, y en particular el contador de programa, se salva en la pila de la misma forma que en una llamada a procedimiento. • La dirección de la rutina de servicio de interrupción se carga en el contador de programa, con lo que se pasa el control a la citada rutina. • La ejecución continúa hasta que el procesador encuentre la instrucción de retorno de interrupción. • Cuando se encuentre la instrucción de retorno de interrupción se restaura el estado del procesador, en especial el contador de programa, y se devuelve el control al programa interrumpido. Normalmente la primera instrucción de la rutina de servicio tendrá como fin desactivar las interrupciones para impedir el anidamiento, por otra parte, antes de devolver el control al programa interrumpido se volverán a habilitar si es necesario.
ALFONSO GOMEZ HERRERA
36 Números IRQ •IRQ 0: Cronómetro del sistema. Este interruptor está reservado para el timer del sistema y jamás está disponible para otros dispositivos. •IRQ 1: Controlador del teclado. •IRQ 2: Interrupciones en cascada para las interrupciones IRQ del 8 al 15. •IRQ 3: Segundo Puerto Serie (COM2). A menudo es también para el cuarto puerto serie (COM4). •IRQ 4: Primer Puerto Serie (COM1). También es utilizado por defecto para el COM3. •IRQ 5: Tarjeta de sonido. •IRQ 6: Controlador de disquetera. •IRQ 7: Puerto Paralelo LPT1 para impresoras o cualquier otro dispositivo que utiliza puerto paralelo. •IRQ 8: Reloj del Sistema. •IRQ 9, 10, 11: Interrupción disponible para periféricos extras. •IRQ 12: Mouse PS/2 o Placa de Red o similares. •IRQ 13: Coprocesador/Unidad de punto flotante •IRQ 14: Canal IDE Primario. En sistemas que no se utiliza dispositivos IDE, este canal se utiliza para otros periféricos •IRQ 15: Canal IDE Secundario
7.3 Dispositivos de entrada Un dispositivo de entrada o salida (E/S), puede ser cualquier tipo de unidad funcional o subsistema que forma parte del conjunto integral del sistema informático. En todos los casos, envían señales o procesar información para establecer distintos tipos de comunicación interna y externa. El término entrada y salida o input / output (del inglés) también refiere a la ejecución de acciones u operaciones a través de dichos dispositivos. La mayoría de estos dispositivos permiten tanto la entrada como la salida de datos. BREVE INTRODUCCION AL HARDWARE
37 Como ejemplo: Algunos dispositivos de entrada y salida Entrada: Teclado Mouse Joystick Lápiz óptico Micrófono Webcam Escáner Escáner de código de barras
ALFONSO GOMEZ HERRERA
Salida: Monitor Altavoz Auriculares Impresora Plotter Proyector Entrada/salida (mixtos): Unidades de almacenamiento CD DVD Módem Memory cards USB Router Dispositivos hápticos (táctil) Disco Duro Externo
38 2da PARTE
PERIFERICOS
1
BREVE INTRODUCCION AL HARDWARE
39 8.- TECLADOS Un teclado es un periférico de entrada, que convierte la acción mecánica de pulsar una tecla a pulsos eléctricos codificados que permiten identificarla. Las teclas que lo constituyen sirven para entrar caracteres alfanuméricos y comandos a una computadora. En un teclado se puede distinguir a cuatro subconjuntos de teclas: *TECLADO ALFANUMERICO: con las teclas dispuestas como en una máquina de escribir. *TECLADO NUMERICO: (Ubicado a la derecha) con teclas dispuestas como en una calculadora. *TECLADO DE FUNCIONES: (Desde F1 a F12) son teclas cuya función depende del programa en ejecución. *TECLADO DE CURSOR: Para ir con el cursor de un lugar a otro en un texto. El cursor se mueve según el sentido de las flechas de las teclas, ir al comienzo de un párrafo (“HOME”), avanzar/retroceder una pagina (“PAGE UP/PAGE DOWN”), eliminar caracteres (“delete”), etc.
8.1 Antecedente. En 1872 cuando se lanza la primera máquina de escribir ampliamente conocida, diseñada por Cristopher Latham Sholes en Milwakee, Estados Unidos, con la ayuda de dos amigos inventores, con el teclado tipo QWERTY, llamado así, debido al orden del las letras. El otro modelo que existió fue en 1932 un capitán de submarinos e inventor llamado Dvorak diseñó una disposición del teclado que permite escribir más rápidamente. En ese teclado las vocales están en el centro a la izquierda y las consonantes más usadas a la derecha. Esto hace que la escritura en ese teclado sea más simple y descansada. Aunque fue bien recibido por los expertos y se reconocieron las ventajas del teclado Dvorak, la difusión del teclado QWERTY ha hecho casi imposible el cambio.
ALFONSO GOMEZ HERRERA
40
8.2 Funcionamiento. Aunque existen muchos tipos de teclados, en términos generales este sería su funcionamiento:
En un teclado se verán los conductores horizontales construidos, soportados y aislados en una hoja de plástico, y los verticales en otra hoja similar que esta sobre la primera. De lado interno de cada de hoja, en cada camino existe una serie de círculos conductores formando parte del mismo, que no están aislados. Entre dichas dos hojas los conductores y cuerpo de la tecla se interpone una tercer capa de material elástico, que provee un truncado elástico para cada tecla, el cual haría de resorte. Debajo de cada tecla, se enfrentan, un círculo de un camino horizontal con otro de un camino vertical. Al pulsar una tecla se vence el cono que está debajo de ella. A través de este eje de la tecla presiona uno sobre otros círculos conductores, poniéndolos en contacto. Al soltar la tecla los círculos quedan separados y aislados. Formando parte de la caja del teclado, aparece un de circuito integrado (micro controlador) con funciones de codificador-buffer, el cual constituye la electrónica del periférico teclado. La función de este integrado es explorar y censar el teclado, para detectar si una tecla fue expulsada o soltada, en ambos casos un código que la identifica, y lo enviara a un puerto que se encuentra en la interfaz al denominada controladora del teclado, ubicado en un C.I de la tarjeta principal.
BREVE INTRODUCCION AL HARDWARE
41 El circuito integrado presenta un buffer RAM para almacenar hasta 10 códigos identifica las teclas oprimidas y/o soltadas.
8.3 Tipos 1. Teclado de 83 teclas para PC / XT 2. Teclado de 84 teclas para PC /AT 3. Teclado extendido 101/102 extendido
9.- JOYSTICK Joystick o Palanca de juegos, dispositivo señalador muy variado, mayoritariamente para juegos y simuladores,. Un joystick, o palanca de juegos tiene normalmente una base de plástico redonda o rectangular, a la que está acoplada una palanca vertical. Los botones de control se localizan sobre la base y algunas veces en la parte superior de la palanca, que puede moverse en todas direcciones para controlar el movimiento de un objeto en la pantalla. Los botones activan diversos elementos de software, generalmente produciendo un efecto en la pantalla.
9.1 Antecedentes. El nombre joystick parece se debe al piloto francés Robert Esnault-Pelterie. También se atribuye a los pilotos Robert Loraine y James Henry Joyce. El joystick en sí mismo estaba presente en los primeros aviones, aunque su origen mecánico sigue siendo incierto. El primer joystick eléctrico de dos ejes probablemente fue inventado en 1944 en Alemania. Se desarrolló para controlar la bomba guiada Henschel Hs 293. El joystick constaba de interruptores encendido/apagado en lugar de sensores analógicos, por lo que se le podría considerar el primer joystick digital. La señal se transmitía al misil mediante un cable fino. Los primeros joystick de máquina recreativa de salón, o máquina árcade, eran joysticks digitales porque el estándar de conexión de las placas de circuitos de estas máquinas mayoritariamente usado, llamado Jamma*, que conecta a los diferentes periféricos de la carcasa (monitor, botonera, ranura para monedas...) solo detecta pulsaciones abierto/ cerrado, por lo cual los joystick deben ser de este tipo.
*La Japanese Amusement Machine Manufacturers’ Association (JAMMA) es una asociación de comercio con sede en Japón, es también el homónimo de una feria de muestras de Japón y además, JAMMA es un estándar de cableado para máquinas árcade. Se podría considerar con este nombre al conjunto de mejoras en los juegos ALFONSO GOMEZ HERRERA
42 Al evolucionar las funciones recreativas a la par que las computadoras y video-consolas comenzaron a aparecer controles de tipo analógico. Las primeras consolas (Pong) usaban potenciómetros pero la video-consola Atari 2600 estableció lo que sería el estándar mayoritariamente usado (con variaciones) de joystick digital de dos ejes más un botón de fuego, combinado con una pareja de potenciómetros (para usar con paddles/mouse/trackball).
9.2 Tipos. 1. Análogos 2. Digitales 3. Mixtos
Subtipos
1. Con fluidos 2. Tridimensionales 3. Vibratorios
Un gamepad es para interactuar con un videojuego ya sea para consola o PC. El gamepad o control de mando permite moverse e interactuar con los elementos del juego para realizar las diversas acciones necesarias para cumplir los objetivos. Un volante de videojuegos (racing wheel), es un controlador de videojuego específicamente diseñado para su utilización en simuladores y videojuegos de carreras.
Una pistola de luz (light gun) en un dispositivo apuntador para computadoras y un dispositivo de control para videojuegos y máquinas recreativas. Las primeras pistolas de luz aparecieron en los años treinta (1930), como consecuencia del desarrollo de la sensibilidad a la luz en las válvulas de vacío. Poco después, esta tecnología se aplicó a los juegos de disparo, con ejemplos como Seeburg Ray-O-Lite en 1936. Un paddle (palanca, traducido de forma literal del inglés) es un controlador de juegos con una rueda giratoria y uno o más botones, donde dicha rueda es típicamente empleada para controlar el movimiento del personaje o de un objeto a lo largo de un eje de la pantalla del juego.
BREVE INTRODUCCION AL HARDWARE
43 10.- MOUSE.
El mouse o ratón es un dispositivo apuntador, que permite señalar e ingresar información. Se le denomina mouse debido a su apariencia. Un mouse regularmente es arrastrado sobre una superficie plana (MousePad) el movimiento realizado por el mouse es reflejada dentro del monitor mediante una flecha llamada puntero del mouse. La acción de pulsar y soltar un botón se denomina clic.
10.1 Antecedentes Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho fútil ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario.
10.2 Tipos o modelos de mouse 1. Mouse mecánicos. Los mouse mecánicos, constan de una bola situada en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. La bola, al moverse el mouse, roza unos contactos en forma de rueda que indican el movimiento del cursor en la pantalla del sistema informático.
ALFONSO GOMEZ HERRERA
44 La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la computadora, que mediante software procesa e interpreta. 2. Mouse ópticos. Los mouse ópticos tienen un pequeño haz de luz en lugar de la bola rodante de los mecánicos. Un sensor óptico situado dentro del cuerpo del mouse detecta el movimiento del reflejo al mover el mouse sobre el espejo e indica la posición del cursor en la pantalla de la computadora. Los mouse ópticos evitan el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada), a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que refleja la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el mouse ha cambiado su posición. En superficies pulidas o sobre determinados materiales, el mouse óptico causa movimiento sobre la pantalla, por eso se hace necesario el uso de una alfombrilla. 3. Mouse de láser. Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los fanáticos de los videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser (invisible al ojo humano) con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad. 3. Trackball. El concepto de trackball es una idea novedosa que parte del hecho de mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo, no les es cómodo.
10.3 Funcionamiento Cuando este se desplaza el movimiento de la bolita que está en su parte inferior se descompone en dos movimientos según dos ejes perpendiculares entre sí (corresponde a coordenadas X e Y) que un conversor analógico -digital traduce en pulsos eléctricos. BREVE INTRODUCCION AL HARDWARE
45 La cantidad de pulsos generados para cada eje representa la distancia recorrida por el mouse respecto de ese eje representa la distancia recorrida por respecto de ese eje, y en relación con la última posición en que el Mouse estuvo parado. Dichos pulsos se van contando en dos contadores, uno para cada eje, pudiendo ser la cuenta progresiva o regresiva, según el sentido del movimiento del Mouse respecto de dichos ejes. Los circuitos envían por un cable que va hacia la computadora el valor de la cuenta de los contadores, como dos números de 8 bits con bit (rango de-128 a +127). Según el protocolo de MICROSOFT, estos números se envían formando parte de bytes, cada uno de los cuales además se transmite bit de START (inicio) y STOP conforme al protocolo RS 232C para un puerto serial. Se envían tres bytes cuando se pulsa o libera una tecla del mouse, aunque este no se mueva. Cuando el puerto recibe el primero de los tres bytes, la plaqueta con la interfaz buffer, que contiene el circuito de dicho puerto solicita al CPU que interrumpa el programa en ejecución y pase a ejecutar la subrutina (Mouse driver) que maneja la información del Mouse.
10.4 Mousepad La alfombrilla, posa ratón ó mouse, almohadilla de mouse o Mousepad, es la superficie por la que el usuario de una computadora mueve el mouse de manera análoga al movimiento del puntero en la pantalla. Tanto Alex Pang como Jack Kelley afirman que el segundo fabricó la primera alfombrilla para mouse poco después de que Douglas Engelbart, en 1969 y en las oficinas del Stanford Research Institute, inventase el primer mouse. El mouse de la computadora en aquel tiempo había sido mejorado incorporándole una bola-rodadora de acero desnudo (sin recubrimiento de goma) (trackball). Estas trackball eran utilizadas en la industria de la aviación desde los años 1960. Sin embargo, a la bola de acero se le adhería suciedad, haciendo que el movimiento del puntero resultase inexacto y lento. En 1979, cuando el mouse comenzó a mejorarse y hacerse más comercial, Xerox presentó su propio mousepad, diseñado por Armando M. Fernández. ALFONSO GOMEZ HERRERA
46 11.- SCANNER Con el arribo del diseño grafico y la edición de documentos conocida como Desktop Publishing (DTP) surgió una gran variedad de programas para el procesamiento de imágenes para tal gestión de desarrollo, el llamado scanner o digitalizador de imágenes que es un lector o explorador óptico convirtiendo las imágenes en algún formato grafico como: Bmp, Tif, Pcx, Gif, etc. Posee una fuente de luz interna que se encarga de descomponer las imágenes a pulsos eléctricos y así poder transferir las imágenes a la pantalla, su funcionamiento es similar a una video cámara usando el mismo dispositivo llamado CDD (Dispositivo de Carga Acoplada).
11.1 Origen. La primera imagen escaneada: Una fotografía de Walden Kirsch de tres meses de edad, capturado en 1957 en el National Bureau of Standards (ahora el Instituto Nacional de Estándares y Technoloyg o NIST). La imagen fue creada por Russell Kirsch, el padre del niño, utilizando un escáner de tambor. Los primeros escáneres de tambor como fotocopiadoras, la información de la captura con tubos fotomultiplicadores. Artículos que deben ser exploradas se monta sobre un cilindro que gira el tambor, y esta se pasa en frente del equipo óptico que capta la imagen. Los escáneres de tambor se siguen utilizando, ya que permiten la captura de imágenes de muy alta calidad, hasta 12.000 PPI y se utiliza a menudo en el trabajo de la película. Siendo caros. En la década de 90s pequeños escáneres de mano estaban disponibles. Estos se dibujan a través de la página por el usuario y por lo general produce una imagen monocroma. Estos requieren una mano firme y movimiento a una velocidad constante a través de la página. El escáner de superficie plana, que se convirtió más tarde asequible en 1990, invirtió el proceso, con el lector óptico situado debajo de una hoja de vidrio, mirando hacia arriba, y los elementos que se analizarán fueron puestos sobre el cristal. Ellos son capaces de capturar imágenes en color y la calidad ha mejorado notablemente en la última década.
BREVE INTRODUCCION AL HARDWARE
47 La mayoría de los escáneres de incorporan la capacidad de reconocimiento óptico de caracteres, u OCR. (Optical character recognition) Esta tecnología fue desarrollada por primera vez en la década de 1920. Sin embargo, no fue hasta la década de 1950 que la tecnología comenzó a ser utilizado. En 1976 Ray Kurzweil presentó el primer dispositivo que puede escanear texto y convertirlo, haciendo una impresión accesible a los ciegos. Su dispositivo incluye el escáner de superficie plana en primer lugar.
11.2 tipos (tipicos para “PC”) Tipos: Rodillos
Scan-man (Manual Difícil de controlar) (limitado por el tamaño)
Cama-plana (El más popular)
11.3 Funcionamiento Al recibir la orden de escanear, una lámpara se encarga de “barrer” el documento. La luz reflejada por espejos es enviada a un dispositivo interno llamado capturador que es un CCD (“Charged Coupled Device”). Cada una de las líneas que son reflejadas es dividida en puntos (píxeles). Cada punto es analizado y dividido en los tres colores básicos: rojo, azul y verde. Se le asigna un valor binario a cada píxel en base a la división anterior. Se procede a crear el mapa digital y así poder ser enviado a la computadora y ser visualizado en la pantalla. Se guarda en forma de archivo de imagen.
ALFONSO GOMEZ HERRERA
48 Resumen: • El escáner se mueve a lo largo del documento, línea por línea • Cada línea se divide en “puntos básicos”, que corresponden a píxeles. • Un capturador analiza el color de cada píxel. • El color de cada píxel se divide en 3 componentes (rojo, verde, azul) • Cada componente de color se mide y se representa mediante un valor. • En el caso de una cuantificación de 8 bits, cada componente tendrá un valor de entre 0 y 225. La luz de alta intensidad emitida se refleja en el documento y converge hacia una serie de capturadores, mediante un sistema de lentes y espejos. Los capturadores convierten las intensidades de luz recibidas en señales eléctricas, las cuales a su vez son convertidas en información digital, gracias a un conversor analógico-digital.
CCD
Existen dos categorías de capturadores: Los capturadores CMOS (Semiconductor Complementario de Óxido Metálico), o MOS Complementario). Dichos capturadores se conocen como tecnología CIS (de Sensor de Imagen por Contacto). Este tipo de dispositivo se vale de una rampa LED (Diodo Emisor de Luz) para iluminar el documento, y requiere de una distancia muy corta entre los capturadores y el documento. La tecnología CIS, sin embargo, utiliza mucha menos energía. CCD: (charge-coupled device, en español «dispositivo de carga acoplada») es un circuito integrado que contiene un número determinado de condensadores enlazados o acoplados. Cada condensador puede transferir su carga eléctrica a uno o a varios de los condensadores que estén a su lado en el circuito impreso. La alternativa digital a los CCD son los dispositivos CMOS (complementary metal oxide semiconductor). Los primeros dispositivos CCD fueron inventados por Willard Boyle y George Smith el 17 de octubre de 1969 en los Laboratorios Bell, ambos premiados con el Premio Nobel de Física de 2009 precisamente por el CCD.
BREVE INTRODUCCION AL HARDWARE
49 11.4 Características de un escáner: Resolución: expresada en puntos por pulgada (denominados dpi), la resolución define la calidad de escaneo. El orden de magnitud de la resolución se encuentra alrededor de los 1200 por 2400 dpi. La resolución horizontal depende mucho de la calidad y del número de capturadores, mientras que la resolución vertical está íntimamente ligada a la exactitud del motor principal de entrenamiento. Sin embargo, es importante distinguir la resolución óptica, la cual representa la resolución real del escáner, de la resolución interpolada. La interpolación es una técnica que implica la definición de píxeles intermedios de entre los píxeles reales mediante el cálculo del promedio de los colores de los píxeles circundantes. Gracias a dicha tecnología se logran obtener buenos resultados, aunque la resolución interpolada definida de esta manera no constituye en absoluto un criterio utilizable a la hora de seleccionar escáneres. Características • El formato del documento: según el tamaño, los escáneres pueden procesar documentos de distintos tamaños: por lo general A4 (21 x 29,7 cm), o con menor frecuencia A3 (29,7 x 42 cm). • Velocidad de captura: expresada en páginas por minuto (ppm), la velocidad de captura representa la capacidad del escáner para procesar un gran número de páginas por minuto. Dicha velocidad depende del formato del documento y de la resolución elegida para el escaneo. • Interfaz: se trata del conector del escáner. Las principales interfaces son las siguientes: SCSI. Aunque a finales de los 90s constituyó la interfaz preferida Puerto paralelo. Este tipo de conector es lento, y se está utilizando cada vez menos FireWire. Velocidad conveniente para este tipo de periféricos USB 2.0. Interfaz estándar recomendada cuando la computadora no posee conexión FireWire Características físicas: • Tamaño, en términos de las dimensiones físicas del escáner. (Típicos; carta u oficio) • Peso. • Consumo de energía eléctrica, expresado en Watts (W). • Temperaturas de funcionamiento y almacenamiento. • Nivel de ruido. Un escáner puede producir bastante ruido, lo cual suele ocasionar considerables perturbaciones. • Accesorios: Aunque generalmente se suministran los drivers y el manual del usuario, se debe verificar que también se incluyan los cables de conexión.
ALFONSO GOMEZ HERRERA
50 12.- MODEM La palabra módem deriva de su operación como MOdulador o DEModulador. Es un equipo utilizado para la comunicación de computadoras a través de líneas analógicas de transmisión de datos. El módem convierte las señales digitales del emisor en otras analógicas susceptibles de ser enviadas por teléfono. Cuando la señal llega a su destino, otro módem se encarga de reconstruir la señal digital primitiva, de cuyo proceso se encarga la computadora receptora. En el caso de que ambos puedan estar transmitiendo datos simultáneamente, se dice que operan en modo full-duplex; si sólo puede transmitir uno de ellos, el modo de operación se denomina half-duplex. Para convertir una señal digital en otra analógica, el módem genera una onda portadora y la modula en función de la señal digital. El tipo de modulación depende de la aplicación y de la velocidad de transmisión del módem.
12.1 Historia. La primera codificación que permitió la comunicación de larga distancia fue el código Morse, el cual fue desarrollado por Samuel F. B. Morse en 1844. Este código está constituido por puntos y guiones y significó una comunicación más rápida. El intérprete era muy importante y, por lo tanto, debía poseer un buen conocimiento del código. Se inventaron muchos códigos, entre ellos, el código Emile Baudot (también conocido como Baudot o, inglés Murray Code o “Código Murray”). El 10 de marzo de 1876, el doctor Graham Bell creó el teléfono, un invento revolucionario que permitió que la información de voz circule a través de líneas metálicas. Vale la pena mencionar que la Cámara de Representantes decidió que el invento del teléfono se debe a Antonio Meucci quien, de hecho, había presentado una solicitud de patente en 1871 pero que no pudo financiar después de 1874. Estas líneas posibilitaron el desarrollo de los teletipos, equipos que permitían codificar y decodificar caracteres por medio del código Murray (en ese momento, los caracteres eran codificados sobre 5 bits, por lo que había sólo 32 caracteres). En la década de 1960, se adoptó como estándar el código ASCII (siglas en inglés de American Standard Code for Information Interchange (Código estándar estadounidense para el intercambio de información)). El mismo permite la codificación de caracteres mayores a 8 bits, lo que posibilita que haya 256 caracteres. Alrededor de 1962 y gracias al uso de tecnologías digitales y de modulación, junto con el desarrollo de los equipos informáticos y las comunicaciones, se desarrolló la transferencia de datos a través del módem.
BREVE INTRODUCCION AL HARDWARE
51 12.2 tipos 1. Módem externo: es un dispositivo que viene en su propia carcasa y se conecta externamente con la computadora. Es fácil de instalar, portátil, se conecta por el puerto en serie o puertos del tipo USB y dispone de indicadores luminosos para su control. 2. Módem interno: es una tarjeta de expansión en la que están incluidos todos los elementos del módem. Se puede conectar mediante tres formatos, que incluyen el Bus ISA, el Bus PCI y el AMR. El módem interno está integrado al computador y funciona con la misma energía eléctrica. Es difícil de instalar y solo cuenta con una salida de carácter externo hacia la línea telefónica. 3. Módem Digital: necesita una línea telefónica de carácter digital denominada RDSI (Red Digital de Servicios Integrados) para su funcionamiento. El módem digital brinda la posibilidad de mantener dos comunicaciones distintas con una sola línea. Posee tiempos mínimos para establecer una conexión y mayor calidad de la conexión. 4. Cable módem: es un dispositivo que permite acceso a Internet a gran velocidad vía TV cable. Este tipo de módem se utiliza generalmente en hogares, tiene dos conexiones, uno por cable a la conexión de la pared y otro al computador, por medio de interfaces y cuenta con dos tipos: coaxiales de Fibra Óptica y ADSL.
12.3 Funcionamiento Un módem es un dispositivo que se utiliza para transmitir información entre varios equipos (básicamente 2) a través de las líneas telefónicas. Los equipos operan en forma digital y utilizan el lenguaje binario (una serie de ceros y unos) pero los módems son analógicos. Las señales digitales pasan de un valor al otro. No existe un término o punto medio, es todo o nada, o sea, unos o ceros. Por el contrario, las señales analógicas no cambian “por escalón” sino que abarcan todos los valores, por lo que se puede obtener 0; 0,1; 0,2; 0,3; 1,0 y todos los valores en el medio. Por ejemplo, un contador de personas que pasan funciona de manera digital porque no existen medias personas. En cambio, un reloj marca horas, minutos, segundos e incluso puntos intermedios. El módem convierte la información binaria del equipo en analógica. Luego envía este nuevo código a través de la línea telefónica.
Pueden escucharse unos sonidos extraños si el volumen del módem está encendido. ALFONSO GOMEZ HERRERA
52 El módem convierte la información digital en ondas analógicas y en la dirección contraria, transforma datos analógicos en digitales. Es por eso que la palabra módem surge del acrónimo de MOdulador/DEModulador. El módem: Conexión a través de la línea telefónica La línea telefónica está diseñada para tal, por eso se necesita un módem para establecer la comunicación con un equipo remoto por medio de un número telefónico antes de poder intercambiar la información. El lenguaje que utilizan las computadoras para comunicarse se denomina protocolo. Los protocolos que más se utilizan son: El protocolo PPP (Point-to-Point) El protocolo SLIP (Serial Line Internet Protocol)
12.4 Velocidades (típicas) Se utilizaron los 300 BPS durante un tiempo considerable. La razón; porque esta velocidad representa cerca de 30 caracteres por segundo, y esto es más de lo que una persona puede digitar. Una vez que se comenzaron a transmitir grandes programas e imágenes en las BBS, los 300 BPS se volvieron intolerables. Las velocidades de los módems entraron entonces en una serie de pasos (incrementos de velocidad) cada uno o dos años: 300 Bits por segundo -1960 hasta 1983 más o menos. 1200 Bits por segundo -ganó popularidad en 1984 y 1985. 2400 Bites por segundo. 9600 Bits por segundo -aparecieron primero a finales de 1990 y principios de 1991. 19.2 Kbits por segundo. 28.8 Kbits por segundo. 33.6 Kbits por segundo. 56 Kbits por segundo -se convirtió en el estándar en 1998. ASDL, a una velocidad aproximada a los 10 MBPS -apareciendo en 1999. Velocidad baudios vs bits: Hay que diferenciar entre velocidad de señalización y velocidad de transmisión. Esto hace a la diferencia que existe entre baudios y bits por segundo. Imaginemos una onda senoidal cuya amplitud puede saltar de valor entre cuatro niveles distintos. En cada segundo pueden ocurrir 2400 de estos cambios de amplitud, esta onda presenta una velocidad de señalización de 2400 baudios. Cada uno de estos saltos de amplitud en dicho segundo, es un baudio. Puesto que se puede cambiar entre cuatro amplitudes diferentes, se puede convenir que cada una representa dos bits determinados, con lo cual se tiene una velocidad de transmisión de 2400x2= 4800 bits por segundo. La detección de cada amplitud (baud) puede hacerse cada 1/2400 de segundo= 0,4 milisegundos. Este tiempo es suficiente para que el módem pueda detectar un baud, e interpretar los dos bits que codifica. En pocos años, la velocidad de transmisión por las líneas telefónicas comunes fue aumentando 100 veces: de 300 a 33.600 bps. Esto se logro, codificando 12 bits por baudio BREVE INTRODUCCION AL HARDWARE
13.-DISCOS DUROS.
53
Un disco duro es el que almacena y proporciona acceso relativamente rápido a grandes cantidades de datos en una superficie cargada electromagnéticamente o conjunto de superficies. Las computadoras actuales suelen venir con un disco duro que contiene varios billones de bytes (gigabytes) de almacenamiento. Son discos apilados, cada uno de los cuales, tiene datos registrados electromagnéticamente en círculos concéntricos o llamadas pista (tracks), en el disco. Dos cabezas, una a cada lado de un disco, (llamadas 0 y 1) leen o escriben los datos en el disco que gira a alta velocidad. Cada lectura o escritura requiere que los datos se encuentran, que es una operación llamada “buscar”, en la actualidad los nuevos discos son estáticos, o sea sin partes físicas mecánicas.
13.1 Antecedentes La unidad de disco duro fue inventado por algunos ingenieros de IBM que trabajaban a orden Rey Johnson en IBM en San José, CA, en alrededor de 1952 a 1954. algunas de las persobas: Rey Johnson, John Lynott, Cronquist Don, Bob Schneider y Stevens Lou. La primera unidad de disco IBM RAMAC tenido un par de docenas de discos, cada una de unos 2 metros de diámetro, y una cabeza. La cabeza fue trasladada de disco a disco y de ida y vuelta en cada disco con un sistema de cables y poleas y motores paso a paso. La velocidad adicional de tener por lo menos una cabeza por cada superficie del disco, y de utilizar ambas caras de cada disco, pronto se hizo evidente su modernización. El estilo de la unidad de disco duro que se utiliza hoy en día comenzó a surgir en la década de 1980. Probablemente fue Maxtor, con Frank Gibeau, donde el primer gran volumen 5 1/4 “unidades de disco con un actuador giratorio, VCM y un sistema servo se produjeron. En 1986, Finis Conner dejó Seagate y fundó Conner Peripherals junto con John Squires, y se construyó el primer gran volumen de 3 1/2 “unidades de disco. El primero de ellos, 40 MB, fue llamado el” 40 Fat “. No sólo que popularizar el nuevo pequeño “factor de forma”, pero ellos fueron los primeros en tener un “servo incorporado” o “servo sector” en el volumen. Mientras tanto, Quantum Corporation había sido la construcción de 8 “y 5 1/4” unidades de disco desde 1980, ya mediados de 1980 que vio una oportunidad con el factor de forma de 3 1/2 “ e inventó, un disco en una tarjeta de expansión que se podía conectar a su AT. Y así es como la interfaz IDE inicio. Disco Winchester (Primer nombre de los disco duros) El 3340 fue desarrollado en San Jose bajo el liderazgo de Ken Haughton. Al principio se enfocaron en dos módulos removibles de 30 megabytes. Debido a esta configuración 30/30, el nombre en código Winchester fue seleccionado del famoso fusil Winchester 3030
ALFONSO GOMEZ HERRERA
54 Alrededor de 1990, las computadoras portátiles comenzaron a aparecer el disco 2 1/2 “
Title: Image Showing an IBM 305 RAMAC Data Processing System Description: Image showing an IBM 305 RAMAC (Random Access Memory Computer) data processing system with two of its panels open to provide a view of the inner workings of the machine. Creator/Contributor: Del Carlo, Arnold Date: circa 1960s
13.2 Partes principales • Cabezales: son Bobinas lectoras/escritoras por medios magnéticos, existiendo dos por cada disco o plato. Los cabezales funcionan variando la posición dentro del disco duro para poder acceder a la información que necesitamos. El aumento de la densidad magnética y los sistemas de recuperación de la señal, hace que en la actualidad, estos componentes del disco duro necesiten de un ajuste y programación de funcionamiento. El sistema de funcionamiento consiste en una bobina de cobre encerrada en un imán (voice coil), que en función de la corriente que se le aplique varia su posición para acceder a la información requerida. Esta pieza lleva en la punta las piezas cerámicas que son los dispositivos sensibles a los campos magnéticos que componen la información. Debido a la debilidad de la señal que generan estos campos magnéticos, el cabezal dispone de un amplificador de la señal alojado en chasis de las cabezas. • Electrónica: también llamada Placa o PCB, es la parte del disco duro que se encarga del manejo de los distintos tipos de componentes del disco duro así como de verificar su funcionamiento. Es la parte responsable de la comunicación con la computadora, en ella se aloja el bus, y la alimentación. • Firmware: es el componente del disco duro de software que configura el disco duro, y contiene toda la información necesaria para poner el disco en marcha, comunicarnos con él, protegerlo e identificarse. • Motor: también llamado spin, es un eje autor rotante alimentado por generadores de trenes de pulsos para mantener una velocidad exacta. BREVE INTRODUCCION AL HARDWARE
55 El motor está compuesto generalmente por tres juegos de bobinas contrapuestas, que imprimen el movimiento al eje central que soporta los platos del disco duro. • Platos: son los elementos rígidos que albergan la película magnética en la que se graban nuestros datos.
13.3 Tecnología. Discos Duros ESDI Interfaz mejorada disco pequeño (ESDI) es una interfaz de disco diseñado por Maxtor Corporation a principios de 1980 como una continuación de la ST-506 interfaz. ESDI mejorado en ST-506 por mover ciertas partes que se mantenían tradicionalmente en el controlador (por ejemplo, el separador de datos ) en los propios discos, y también generalizar el bus de control de tal manera que más tipos de dispositivos (tales como discos extraíbles y unidades de cinta ) podría estar conectado. ESDI utiliza el mismo cableado como ST-506 (una de 34-pin cable de control común, y un cable 20-pin de datos de canal para cada dispositivo), y por lo tanto podría ser fácilmente adaptado a ST-506 aplicaciones. Discos Duros IDE Son discos duros cuya electrónica de manejo está incorporada al propio disco, por lo que son los más económicos. El tiempo medio de acceso a la información puede llegar a 10 milisegundos (mseg). Su velocidad de transferencia secuencial de información puede alcanzar hasta 3 Mbytes por segundo (Mbps) bajo la especificación estándar y hasta 11 Mbps bajo la especificación mejorada (Enhanced IDE / EIDE). Su capacidad de almacenamiento en discos modernos alcanza hasta 8 Gbytes). Los controladores IDE pueden manejar hasta 2 discos duros en la versión estándar y hasta 4 discos en la versión mejorada EIDE. Discos Duros SCSI Son discos duros de gran capacidad de almacenamiento (desde 5 Gbyte hasta 23 Gbytes). Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que los vuelve más rápidos. ALFONSO GOMEZ HERRERA
56
Ultra-SCSI y Ultra-SCSI-2 También se las conoce como tecnologías FAST20, siendo consideradas por los expertos como un paso intermedio hacia las interfaces seriales. Ultra-SCSI y Ultra-SCSI-2 representan la última mejora de la tecnología SCSI, que aprovecha las grandes capacidades de los buses locales. Ultra-SCSI y Ultra-SCSI-2 implementan el nuevo protocolo SCSI-3, permitiendo un incremento en la velocidad de transferencia de información hasta 40 MBps para conexiones de 16 bits y hasta 80 Mbps para conexiones de 32 bits. Ultra-SCSI y UltraSCSI-2 siguen siendo implementaciones paralelas en las que se ha duplicado la velocidad del reloj del bus, pudiendo coexistir con dispositivos SCSI de tecnologías anteriores, pero por eficiencia es preferible que esos otros dispositivos se conecten a adaptadores independientes. Serial ATA o SATA (acrónimo de Serial Advanced Technology Attachment) A principios del año 2000 se formó un grupo con el nombre de Serial ATA Working Group OG. Los miembros fundadores del grupo continuaron formando el Serial ATA II Working Group para seguir con el desarrollo de la siguiente generación de especificaciones para Serial ATA. Es una interfaz de transferencia de datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, lectores y regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo todavía desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y capacidad para conectar unidades al instante, es decir, insertar el dispositivo sin tener que apagar la computadora o que sufra un cortocircuito. SSD (Solid State Drive) Estas unidades son una opción de futuro para los dispositivos portátiles; consumen menos energía, acceden más rápido a los datos y no disponen de partes móviles. Teléfonos móviles, reproductores de MP3 y notebooks ultra portátiles son los primeros dispositivos en poder integrar este tipo de discos duros que, al no tener piezas móviles, soportan mejor las vibraciones y ofrecen un acceso más rápido a la lectura de datos. Además, cuentan con un tamaño y peso mucho menores. Incluyen una memoria no volátil, como las memorias flash, o bien una memoria volátil (los datos no quedan grabados, sino que los pasan a otra unidad) del estilo de las populares SDRAM (la memoria de acceso inmediato al procesador), de uso masivo en las computadoras.
BREVE INTRODUCCION AL HARDWARE
13.4. Funcionamiento
57
Componentes:
1. Moldura de vista Todos los componentes se ubican dentro de una cámara sellada, llamado conjunto ó ensamble de cabezas de disco HDA (hard disk assembly).La caja es hermética para evitar la mas mínima contaminación de polvo o sustancia extraña sobre el disco ó discos, por ningún motivo deberá abrirse.
Tamaños típicos: • 8 pulgadas (1979, Shugart Associates). • 5,25 pulgadas (Seagate 1980) • 3,5 pulgadas 2,5 pulgadas (PrairieTek 1988) • 1,8 pulgadas (Integral Peripherals 1993) • 1 pulgadas (1999 por IBM y Microdrive) • 0,85 pulgadas (Toshiba 2004)
Tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE, SCSI, SAS y CF: ALFONSO GOMEZ HERRERA
2. Platos o discos
58
Uno o más platos, siendo los primeros de 5/4” y después 3/2” (los primeros fueron de 14” y 8”) El plato de fabrica de una aleación de aluminio de alta resistencia y poco peso, a inicios se llegaron a fabricar de vidrio, el sustrato de vidrio produce un disco muy liso y admite mayores densidades, pero también hubo cerámicos. La superficie magnética de cada plato se divide en pequeñas regiones magnéticas de tamaño inferior a un micrómetro, cada una de las cuales almacena un solo bit de información: en 2006, el tamaño estándar para estas regiones era de 200-250 nanómetros de ancho en la dirección radial del plato, y unos 25-30 nanómetros en el sentido de giro, correspondiendo a una cantidad aproximada de 100 billones de bits (unos 100 gigabits) por pulgada de superficie. El material magnético empleado en la superficie del plato suele ser una aleación basada en el cobalto, distribuida en forma de varios centenares de granos por región. Los medios magnéticos de los platos: a) Medio Magnético de Oxido y b)Medio magnético de Membrana delgada. Los primeros se distingan por su color café ó ámbar se utilizaron desde 1955 a bajo precio. En la actualidad son muy delgados más duros plateados. 3. Cabezas lectura /escritura Un brazo con resorte sostiene la cabeza de lectura/ escritura, en realidad son dos cabezas por brazo, una para leer el disco cara “0” y la otra para el disco cara “1”, entra mas plastos el doble de cabezas. Cuando el disco está en reposo la cabeza descansa en una parte especifica del plato esta zona se llama “Estacionamiento de cabezas “Parking”*. Al alimentarse la unidad los discos gira alta velocidad (rpm) provocando una presión de aire bajo las cabezas levantándolas de la superficie del plato, este espacio está entre 5 y 20 millonésima de pulgadas .Las grabaciones y lecturas son por inducción magnética. Tipos de cabezas: 1. De ferrita 2. De membrana delgada 3. Magneto resistiva. *Cada disco duro tiene diseñado mucho puntos de Parking, donde siempre deberá de descansar las cabezas, esto puntos, no son utilizados para el manejo de información, considerándose zona “defectuosa” BREVE INTRODUCCION AL HARDWARE
59
4. Actuador de cabezas
Este mueve las cabezas para la cara del disco y las coloca con exactitud sobre el cilindro y pista deseada. Sus tipos son: 1. Impulsores de motor de pasos 2. Impulsores de bobina. (Mejor) Este mecanismo influye de manera determínate en la eficacia, confiabilidad y exactitud de la unidad. - existe calidad en los discos duros-
5. Motor Conocido como motor de espiga, este siempre está conectado directamente al eje de los discos, debe de ser libre de ruidos y un control preciso de velocidad, contiene un circuito automático de velocidad. Este tipo de motores no son típicos eléctrico o universales, ya que estos producen interferencias. Estos no contienen escobillas. RPM 3600 4500 5400 7200 10000
1 Vuelta cada 16,66 mseg. 13,33 mseg. 11,11 mseg. 8,33 mseg. 6,00 mseg.
Latencia 8,33 mseg. 6,66 mseg. 5,55 mseg. 4,16 mseg. 3,00 mseg.
6.-Circuitos lógicos El circuito lógico controla a los impulsores de cabezas, motores y velocidad de motor, así como la transferencia de datos.
13.5 Grabación/lectura del HD El disco al ser nuevo, es necesario ser inicializado (formateado), esto establecerá las pistas y cilindros de los discos, así como partes esenciales como la llamada FAT, directorio de raíz, etc. (esto es mencionado en tomo 2 sobre Software).
ALFONSO GOMEZ HERRERA
60
A) Grabación El disco está listo para recibir información (ya formateado): La cabeza magnética recibe una corriente alterna compleja, donde contiene la información digital (ceros y unos) el núcleo de ferrita* concentra las líneas magnéticas que se concentraran en un pequeño espacio del entrehierro llamado Gap, por inducción este campo pasara al disco, recordar que las cabezas no tocan el disco, lo hace por inducción magnética. Basándose en la teoría fe Webber**: Existe una desorientación molecular(2) (caos magnético) las líneas magnéticas que pasan por el GAP van ordenando a la molécula imán en tal orden que va implícita la información al mismo ritmo(1). B) Lectura o recuperación de información. En la superficie del plato contiene moléculas imán con una orientación molecular tal, que contiene la información digital (3) (ceros y unos), al pasar por la bobina de la cabeza magnética (4) esta produce una pequeña corriente alterna, donde los cambios en la corriente va a ritmo del el mensaje u información digital. PRECAUCION: Si se pasa un campo magnético (o un imán) por una cinta magnética, discos flexibles, existirá una reorientación molecular ocasionando pérdida de información o su borrado total. Motivo por el cual el ensamble (moldura) del disco duro está diseñado para posibles influjos magnéticos exteriores.
*La ferrita en una sustancia que concentra los campos magnéticos, por ser un materia de muy alta permeabilidad. **Cada átomo se comporta como un pequeño imán, capaz de ejercer fuerzas sobre otros imanes y de ser a su vez afectado por ellos. Se dice que cada átomo tiene asociado un momento magnético. Cada elemento químico tiene un momento magnético (que incluso puede ser nulo) producido por los momentos magnéticos de las partículas más elementales que lo constituyen (protones, neutrones, electrones). Describir un medio material en las condiciones accesibles en un laboratorio no es, sin embargo, complicado dado que no es necesario tener en cuenta todos los detalles, sino que es suficiente considerar la contribución de los electrones de la capa externa de cada átomo. BREVE INTRODUCCION AL HARDWARE
14.- DISCO FLEXIBLES
(En desuso)
61
Un disquete o disco flexible (en inglés floppy disk o diskette) es un medio de almacenamiento o soporte de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una cubierta de plástico, cuadrada o rectangular, que se puede utilizar en una computadora o laptop.
14.1 Historia La historia del disquete comienza, con Alan Shugart en los laboratorios de IBM en San José, California, quien era la cabeza el equipo de desarrollo de la platina de disco, en 1967. Uno de los ingenieros de Shugart, David Noble, fue quien propuso el medio flexible de 8”, así como la camisa protectora con el forro en tela. Estos discos recibían el nombre de floppy (colgante) por su flexibilidad. Los primeros discos flexibles fueron utilizados en IBM para cargar microcódigos en el controlador del paquete de discos Merlín, el IBM3330, que era un dispositivo de almacenamiento de 100MB de capacidad. En 1971, IBM introdujo al mercado el primer “disco de memoria” (memory disk), como fue llamado el disco flexible en aquel entonces. Este era un floppy de 8”, que estaba conformado por un disco de material plástico flexible, cubierto por una capa de óxido de fierro, envuelto en una camisa protectora y forro de tela. Los datos eran escritos y leídos de la superficie magnética del disco. Tamaños Comerciales: 5,25 pulgadas – Capacidad de almacenamiento de 110 KB 8 pulgadas con doble cara – Capacidad de almacenamiento de 1.2 MB 5.25 pulgadas Cuádruple Densidad (QD) – Capacidad de almacenamiento de 1.2 MB 3.5 pulgadas de Alta Densidad (HD) – Capacidad de almacenamiento de 1.44 MB 3.5 pulgadas de Densidad Extendida (ED) – Capacidad de almacenamiento de 2.88 MB 3.5 pulgadas Disquete de Alta Capacidad (HiFD) – Cap. de almacenamiento de 200 MB
video: http://www.youtube.com/watch?v=ZFF0LNZPQnc
ALFONSO GOMEZ HERRERA
62
Cuadro ejemplificativo
14.2 Funcionamiento Cabeceras de lectura/escritura: Están localizados en ambos lados del disquete, y se mueven a la vez. Motor: Se trata de una pequeña pieza metálica en el centro del disco, que gira a 300 o 360 rotaciones por minuto (RPM). Motor de secuencia: Este dispositivo realiza un preciso número de secuencias en las revoluciones para mover las cabeceras a la posición correcta de la pista. Dispositivo mecánico: Es un sistema de piezas que abre la pequeña ventana del disquete para permitir que las cabeceras de lectura/escritura puedan tocar la parte grabable del disquete. Panel de circuitos: Contiene todos los elementos electrónicos para manejar los datos del disquete. Controla también los motores encargados de lee las cabeceras. Las cabeceras de lectura/escritura no tocan el disquete cuando se desplazan entre pistas. Los dispositivos electrónicos-ópticos, verifican si en la esquina del disquete de 3.5 pulgadas está accionada la protección contra grabaciones accidentales. Es una pestaña que podemos cambiar de posición para proteger nuestros datos. BREVE INTRODUCCION AL HARDWARE
63
14.3 Partes Un floppy disk, usa el mismo material que un casette, sin embargo está formado como un disco vinilo, más que una larga cinta conteniendo información. Las pistas está preparadas en anillos concéntricos, por lo que el software puede saltar del “archivo 1” al “archivo 12” sin tener que pasar por los archivos del 2 al 11. El disco gira como un disco vinilo, y las cabeceras se dirigen a la pista correcta, suministrando lo que se llama almacenamiento de acceso directo. Partes de la disquetera Las partes más importantes de un disquete son las siguientes:
(Respecto al proceso de grabado/reproducción ver cita: cintas de respaldo pag 94-95) ALFONSO GOMEZ HERRERA
64 15.- TARJETA DE SONIDO Es una tarjeta para expansión de capacidades que sirve para la entrada y salida de audio entre la computadora y el exterior por medio de puertos de audio, así como de permitir trabajar con un dispositivo para juegos como Joystick, ó Gamepad, etc. La tarjeta de audio se inserta dentro de las ranuras de expansión ó “Slots” integradas en la tarjeta principal (“Motherboard”) y se atornilla al gabinete para evitar movimientos. Todas las tarjetas de sonido integran varios puertos para conectar los dispositivos externos tales como bocinas, micrófonos, teclados musicales, etc.
15.1 Antecedentes El inicio: fue probablemente, la aparición en el mercado de una tarjeta ya casi postergada, con nombre en latín,: AdLib. Fundada por Martin Prevel, un exprofesor de música en la universidad de Québec. Esta tarjeta disponía de síntetizador FM, es decir por modulación por frecuencias, una tecnología desarrollada por el MIT en los años 60. Con esa capacidad, sólo se podía reproducir música desde secuenciadores MIDI*, o reproducir la música y efectos de los juegos. 1987 - Tarjeta Adlib – Primera tarjeta de sonido de alto volumen para computadoras lanzada utilizando Síntetizador FM (chip Yamaha YM3812) 1988 - Primer juego lanzado con soporte AdLib. 1992 - Lanzamiento de la tarjeta AdLib Gold. 1992 - AdLib se declara en bancarrota el 1ª de mayo
15.2 Conectores de la tarjeta de sonido. Los componentes principales de una tarjeta de sonido son: 1. El procesador especializado que se llama DSP (Procesador de Señales Digitales “Digital Signal Processor”) cuya función es procesar todo el audio digital (eco, reverberación, vibrato chorus, tremelo, efectos 3D, etc.); 2. El Convertidor Digital Analógico (DAC, Digital to Analog Converter) que permite convertir los datos de audio de la computadora en una señal analógica que luego será enviada al sistema de sonido (altavoces o bocinas y un amplificador); 3. El Convertidor Analógico Digital (DAC, Digital to Analog Converter) que permite convertir una señal analógica de entrada en datos digitales que puedan ser procesados por el sistema. 4. Conectores externos de entrada/salida: • Uno o dos conectores estándar de salida de línea de 3.5 mm, por lo general son de color verde claro; • Un conector de entrada de línea; • Un conector de 3.5mm para micrófonos (que también se denomina Mic), por lo general son de color rosa; • Una salida digital SPDIF (Sony Philips Digital Interface también conocida como S/ PDIF o S-PDIF o IEC 958 o IEC 60958 desde 1998). Es una línea de salida que permite enviar audio digitalizado a un amplificador de señal por medio de un cable coaxial que posee, a su vez, conectores RCA en cada uno de los extremos. *Interfaz Digital de Instrumentos Musicales. BREVE INTRODUCCION AL HARDWARE
65 • Un conector MIDI, por lo general de color dorado, se utiliza para conectar diversos instrumentos musicales. Puede servir como puerto de juegos para conectar un controlador (como mando de juegos o videojuegos) que posee a su vez un conector D-sub de 15 patillas. • Conectores internos de entrada/salida: • Un conector de CD-ROM/DVD-ROM, con un zócalo de color negro, utilizado para conectar la tarjeta de audio a la salida de audio analógica del CD-ROM por medio de un cable de audio CD. • Las entradas auxiliares (AUX-in), poseen un zócalo blanco, que se utiliza para conectar las fuentes internas de audio, como si fuera una tarjeta sintonizadora de TV; • Conectores para contestadores automáticos (TAD), que tienen un conector de color verde.
15.3 Funcionamiento El componente de la tarjeta encargado de digitalizar el sonido es el conversor. Cuando grabamos un audio en la computadora, por la entrada de la tarjeta llega audio analógico que es recibido por un conversor analógico/digital (A/D). Su función es transformar la señal que recibe en ceros y unos. Si en cambio lo que queremos es reproducir un sonido grabado en la computadora y que éste suene por las bocinas, el proceso será inverso. El audio digital pasa, entonces, por el conversor digital/analógico (D/A) y esa onda analógica ya puede ser reproducida por las bocinas. El corazón de la tarjeta es el Procesador Digital de la Señal – DSP (Digital Signal Processor), un microprocesador que se ocupa de darle forma a los sonidos convertidos en 1 y 0, es decir, trabaja el audio digital. ALFONSO GOMEZ HERRERA
66
16.- MONITORES.
Es un dispositivo de salida (interfaz), que muestra datos o información al usuario, o bien aparatos electrónicos que permite visualizar imágenes y/o caracteres. Como se hace las imágenes en la pantalla. Existe una estandarización en este caso con en el sistema NTSC (National Television System Committee, Comisión Nacional de Sistema de Televisión) es un sistema de codificación y transmisión de televisión en color analógico desarrollado en Estados Unidos en torno a 1940. (otros usados: PAL,SECAM) El haz de electrones choca contra la pantalla (que está recubierta por dentro, de material fluorescente, provocando un punto de luz (pixel) por medio del yugo de deflexión (que provoca campos magnéticos) barre el haz toda la pantalla, estas líneas son 262.5 llamado primer campo o campo par, enseguida inicia el segundo barrido de 262.5 líneas llamado campo impar, dando el total de 525 líneas, los dos campos forman un cuadro. El entrelazado, es para evitar el parpadeo de imagen
EL PRIMER CAMPO INICIA EN LINEA COMPLETA Y TERMINA EN MEDIA LINEA
EL SEGUNDO CAMPO INCIA EN MEDIA LINEA Y TERMINA EN LINEA COMPLETA
Total 525 líneas = a un cuadro
En Informática: Los primeros monitores en salir de manera regular fue con la primer IBM XT en 1981 siendo un monitor tipo digital (TTL) dando los malos resultados que dieron, se opto en que fueran tipo análogos desde entonces hasta la actualidad. El monitor es muy similar a un televisor, se basa en un Tubo de Rayos Catódicos, (TRC) donde se desprende un haz de electrones hacia la pantalla donde choca con una capa de fósforo, desprendiendo un punto de luz llamado PIXEL. BREVE INTRODUCCION AL HARDWARE
67
Tipos de monitores a TRC*: MDA
Monochrome Display Adapter
1981
CGA
Color Graphics Adapter
1981
HGC
Hercules Graphics Card
1982
EGA
Enhanced Graphics Adapter
1984
PGA
Professional Graphics Adapter
1984
VGA
Video Graphics Array
1987
MCGA
Memory Controller Gate Array
1987
Super VGA Super Video Graphics Array
1989
XGA
1990
Extended Graphics Array
Todos ellos en desuso.
16.1 Pantallas a TRC El 27 de enero de 1926, John Logie Baird hizo una demostración ante la Real Institución de Inglaterra, el captador era mecánico, compuesto de tres discos y de construcción muy rudimentaria. El aparato estaba montado con ejes de bicicletas viejas, tableros de mesas de café y lentes de cristal de claraboyas, todo unido con lacre, cuerdas, etc., lo cual hizo que no impresionara muy favorablemente a aquellos que estaban acostumbrados a los primorosos mecanismos de los constructores de aparatos; sin embargo, la importancia de las pruebas fue real y decisiva para el mundo científico de aquellos tiempos. La primera imagen sobre un tubo de rayos catódicos se formó en 1911 en el Instituto Tecnológico de San Petersburgo y consistía en unas rayas blancas sobre fondo negro y fueron obtenidas por Boris Rosing en colaboración con Zworrykin. La captación se realizaba mediante dos tambores de espejos (sistema Weiller) y generaba una exploración entrelazada de 30 líneas y 12,5 cuadros por segundo. Las señales de sincronismo eran generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que recibía la célula fotoeléctrica.
*TRC Tubo de Rayos Catódicos
ALFONSO GOMEZ HERRERA
68
Funcionamiento El cañón electrónico se encarga de generar un fino haz de electrones que, después de atravesar los diferentes electrodos que lo constituyen, impacta en pantalla. Dicha emisión se basa en el principio de la (emisión termoiónica) la cual nos dice que por un conductor sometido a una diferencia de potencial circulan electrones. A este conductor se le llama cátodo y es el que produce el haz. Para controlar esta emisión se le coloca la rejilla de control, que es la que nos controla el brillo y para que los electrones impacten en la pantalla, se utiliza otra rejilla denominada rejilla de pantalla que los atrae al estar a un mayor potencial que el cátodo. Para mantener estable el haz utilizamos una tercera rejilla la de enfoque que obliga a que los electrones sigan una trayectoria, para que al final impacten en el ánodo final (la pantalla).
16.2 Pantalla LCD Una pantalla de cristal líquido o LCD (acrónimo del inglés Liquid crystal display) es una pantalla delgada y plana formada por un número de píxeles en color o monocromos colocados delante de una fuente de luz o reflectora. A menudo se utiliza en pilas, dispositivos electrónicos, ya que utiliza cantidades muy pequeñas de energía eléctrica. Cada píxel de un LCD consta de una capa de moléculas alineadas entre dos electrodos transparentes, y dos filtros de polarización, los ejes de transmisión, de los cuales son (en la mayoría de los casos) perpendiculares entre sí. Sin cristal líquido entre el filtro polarizante, la luz que pasa por el primer filtro sería bloqueada por el segundo (cruzando) polarizador. En las pantallas LCD de color cada píxel individual se divide en tres células, o subpíxeles, que son de color rojo, verde y azul, respectivamente, por el aumento de los filtros (filtros de pigmento, filtros de tinte y filtros de óxido de metal). Cada subpixel puede ser controlado independientemente para producir miles o millones de posibles colores para cada pixel. Los monitores TRC emplean la misma estructura de subpixeles a través de la utilización de fósforo, aunque el haz de electrones analógicos empleados en TRCs no da un número exacto de subpíxeles.
16.3 Comparativa Comparativa entre las dos tecnologías: Ventajas de las pantallas de plasma frente a las pantallas LCD. Mayor contraste, lo que se traduce en una mayor capacidad para reproducir el color negro y la escala completa de grises. Mayor ángulo de visión Ausencia de tiempo de respuesta, lo que evita el efecto “estela” o “efecto fantasma” que se produce en ciertos LCD debido a altos tiempos de refresco (mayores a 12ms). No contiene mercurio, a diferencia de las pantallas LCD. Colores más suaves al ojo humano Ventajas de las pantallas LCD frente a las pantallas de PLASMA. El costo de fabricación de los monitores de plasma es superior al de las pantallas LCD, este costo de fabricación no afecta tanto al PVP como al margen de ganancia de las tiendas, de ahí que muchas veces las grandes superficies no suelan trabajar con ellas, en beneficio de los LCDs. Consumo eléctrico: una televisión con pantalla de plasma grande puede consumir hasta un 30% más de electricidad que una televisión LCD. BREVE INTRODUCCION AL HARDWARE
69 Efecto de “pantalla quemada”: si la pantalla permanece encendida durante mucho tiempo mostrando imágenes estáticas (como logotipos o encabezados de noticias) es posible que la imagen quede fija o sobrescrita en la pantalla. Aunque este efecto está solucionado desde la octava generación. Actualmente vamos por la generación décimo primera y este efecto ya no se reproduce).
16.4 Funcionamiento 1888: Friedrich Reinitzer (1858-1927) descubre el cristalino líquido natural del colesterol extraído de zanahorias (es decir, descubre la existencia de dos puntos de fusión y la generación de colores), y publicó sus conclusiones en una reunión de la Sociedad Química de Viena sobre el 3 de mayo de 1888 (F. Reinitzer: zurKenntniss de Cholesterins, MonatsheftefürChemie (Wien) 9, 421-441 (1888)).
1. Film de filtro vertical para polarizar la luz que entra. 2. Substrato de vidrio con electrodos de Oxido de Indio ITO. Las formas de los electrodos determinan las formas negras que aparecen cuando la pantalla se enciende y apaga. Los cantos verticales de la superficie son suaves. 3. Cristales líquidos "Twisted Nematic" (TN). 4. Substrato de vidrio con film electrodo común (ITO) con los cantos horizontales para alinearse con el filtro horizontal. 5. Film de filtro horizontal para bloquear/permitir el paso de luz. 6. Superficie reflectante para enviar devolver la luz al espectador. (En un LCD retro iluminado, esta capa es reemplazada por una fuente luminosa).
En las pantallas LCD de color cada píxel individual se divide en tres células, o subpíxeles, de color rojo, verde y azul, respectivamente, por el aumento de los filtros (filtros de pigmento, filtros de tinte y filtros de óxido de metal). Cada subpíxel puede controlarse independientemente para producir miles o millones de posibles colores para cada píxel. Los monitores TRC usan la misma estructura de ‘subpíxeles’ a través del uso de fósforo, aunque el haz de electrones analógicos empleados en TRCs no da un número exacto de subpíxeles. ALFONSO GOMEZ HERRERA
70 Los componentes de color pueden colocarse en varias formas geométricas de píxeles, en función del uso del monitor. Si el software sabe qué tipo de geometría se está usando en un LCD concreto, ésta puede usarse para aumentar la resolución del monitor a través de la presentación del subpixel. Esta técnica es especialmente útil para texto anti-aliasing.
16.5 Plasma Una pantalla de plasma (Plasma Display Panel – PDP) es un tipo de pantalla plana habitualmente usada para grandes TV (alrededor de 37 pulgadas o 940 mm.). Consta de muchas celdas diminutas situadas entre dos paneles de cristal que contienen una mezcla de gases nobles (neón y xenón). El gas en las celdas se convierte eléctricamente en plasma el cual provoca que los fósforos emitan luz. La pantalla de plasma fue inventada en 1964 en la Universidad de Illinois por Donald L. Bitzer, H. Gene Slottow y el estudiante Robert Willson para el PLATO Computer System. Las pantallas originales eran monocromas (naranja, verde, amarillo) y fueron muy populares al comienzo de los 70S por su dureza y porque no necesitaban ni memoria ni circuitos para actualizar la imagen. A finales de los 70S tuvo lugar un largo periodo de caída en las ventas debido a que las memorias de semiconductores hicieron a las pantallas TRC más baratas que las pantallas de plasma. Las pantallas de plasma son brillantes (1000 lux o más por módulo), tienen un amplia gama de colores y pueden fabricarse en tamaños bastante grandes, hasta 262 cm de diagonal. Tienen una luminancia muy baja a nivel de negros, creando un negro que resulta más deseable para ver películas. Esta pantalla sólo tiene cerca de 6 cm de grosor y su tamaño total (incluyendo la electrónica) es menor de 10 cm. Los plasmas usan tanta energía por metro cuadrado como los televisores TRC o AMLCD. El consumo eléctrico puede variar en gran medida dependiendo de qué se esté viendo en él. Las escenas brillantes (como un partido de fútbol) necesitarán una mayor energía que las escenas oscuras (como una escena nocturna de una película). Las medidas nominales indican 400 vatios para una pantalla de 50 pulgadas. Los modelos relativamente recientes consumen entre 220 y 310 vatios para televisores de 50 pulgadas cuando se está utilizando en modo cine. La mayoría de las pantallas están configuradas con el modo “tienda” por defecto y consumen como mínimo el doble de energía que con una configuración más cómoda para el hogar. El tiempo de vida de la última generación de pantallas de plasma está estimado en unas 100.000 horas (o 30 años a 8 horas de uso por día) de tiempo real de visionado. En concreto, éste es el tiempo de vida medio estimado para la pantalla, el momento en el que la imagen se ha degradado hasta la mitad de su brillo original. Se puede seguir usando pero se considera el final de la vida funcional del aparato. Los competidores incluyen a LCD, TRC, OLED, AMLCD, DLP, SED-tv, etc. La principal ventaja de la tecnología del plasma es que pantallas muy grandes pueden ser fabricadas usando materiales extremadamente delgados. Ya que cada píxel es iluminado individualmente, la imagen es muy brillante y posee un gran ángulo de visión.
BREVE INTRODUCCION AL HARDWARE
71
16.6 Pantalla LED Las pantallas LED cada vez se emplean más, debido a su diseño ultra plano, imágenes de elevado brillo y contraste y bajo consumo de energía. Principales ventajas de las pantallas LED frente a las pantallas. Los LED necesitan menos espacio que las lámparas CCFL lo que permite reducir el grosor, obteniendo paneles más delgados. En función del tipo de tecnología LED, las pantallas LED pueden consumir entre 20% y 40% menos que las pantallas LCD convencionales. • • • • • • • •
Mejor nivel de brillo. Mejores niveles de contraste. Gama de colores más amplia. Cansa menos la vista por la alta tasa de refresco. Por el contrario, las principales desventajas de las pantallas LED son: Precio notablemente superior a los LCD convencionales. Aumento de la temperatura sobre el panel. Vida útil de los diodos LED limitada.
Tipos: Existen varios tipos de pantallas LED en función de la tecnología de retroiluminación LED empleada:
ALFONSO GOMEZ HERRERA
72 Edge LED*: los diodos LED van colocados alrededor de la pantalla, en los bordes del televisor, utilizándose un panel especial para distribuir la luz de forma uniforme por toda la superficie de la pantalla. Esta disposición lateral de los diodos hace que el televisor sea muy delgado, pero no permite iluminar de forma precisa toda la pantalla, lo que afecta negativamente a la relación de contraste. Full LED (también llamada Direct LED): los diodos LED están distribuidos por todo el panel, no sólo en los bordes de la pantalla, lo que permite mejor contraste, brillo y calidad de imagen, aunque con un mayor consumo de energía y grosor que las pantallas Edge LED.
17.- LECTORES OPTICOS. Los discos compactos (Audio Compact Discs (CD-DA)) fueron introducidos en el mercado de audio por primera vez en 1980 por Philips y Sony. En 1984 ambas compañías extendieron la tecnología para que se pudiera almacenar y recuperar datos y con ello nació el disco CD-ROM. Desde entonces el compact disc ha cambiado de un modo significativo así como escuchamos música y almacenamos datos. Estos discos (de inicio) tienen una capacidad de 650 Megabytes de datos o 74 minutos de música de alta calidad, de un inicio. De un modo genérico podemos decir que el Compact Disc ha revolucionado el modo en que hoy día se distribuye todo tipo de información electrónica. En 1990 fueron de nuevo Philips y Sony los que ampliaron la tecnología y crearon el Compact Disc grabable (CD-R). Hasta entonces todos los CDs que se producían se hacían mediante el proceso industrial de estampación de una maqueta pregrabada. El disco así grabado se protege con una capa muy tenue de aluminio, lo cual le da el color típico plateado. Hoy día estas técnicas se utilizan para cantidades superiores a 1000 unidades, mientras que para cantidades inferiores es más barato, rápido y conveniente utilizar la grabación de discos grabables.
*LED situadas alrededor del borde de la pantalla mediante una lámina óptica, permite mayor detalle BREVE INTRODUCCION AL HARDWARE
73 Estos también llevan una capa de recubrimiento característica. Al principio esta era de oro y derivados, lo cual hacia que el disco tuviera ese color. Hoy día se utilizan otros compuestos más versátiles, duraderos y baratos. En la actualidad, cuando han pasado años desde que Sony y Philips desarrollaron el formato digital del Compact Disc (CD) y no llegaron otros producto : el Digital Video Disc (DVD). Tras el CD, el CD-ROM, Photo CD, CD-i, DCC, MiniDisc, hasta el Blu Ray.
17.1 Funcionamiento Partes: 1.-Unidad láser (pick up): a) b) c) d) e) f) g) h) i) j) k)
Diodo láser Espejo difractor Espejo Primas Bobina de enfoque (focus) Lente objetivo Bobina de seguimiento Lente colimador Espejo Lente cóncavo Fotodiodo (foto detector)
2.-Motor trineo (Sled) 3.-Motor CLV (Velocidad Lineal Constante) 4.-Circuitos lógicos Diodo laser Max Planck, estableció la ley de la radiación basada en los conceptos de emisión espontánea e inducida de radiación. Albert Einstein dio las bases para el desarrollo del láser en el máser, que emite las microondas, después de la Segunda Guerra Mundial, Willis Eugene Lamb y R. C. Rutherford, demostraron del fenómeno de emisión estimulada de radiación, con los principios de Rudolf Landenburg en 1928 había obtenido resultados poco relevantes. En 1953, Charles H. Townes y los estudiantes de postgrado James P. Gordon y Herbert J. Zeiger construyeron el primer máser. El primer láser fue uno de rubí y funcionó por primera vez el 16 de mayo de 1960. Fue construido por Theodore Maiman, Dos años después, Robert Hall inventa el láser generado por semiconductor.
ALFONSO GOMEZ HERRERA
74
Primeramente el láser(a) envía su luz, que pasa por el difractor(b) hacia el prisma(d) es reflejado por un espejo(c) pasando al lente colimador(h) hasta el lente objetivo y llegando al disco, el cual contiene miles de huecos llamados “PITS” y lisos llamados “Flats” para lograr enfocar perfectamente la pista, existe la bobina de enfoque (focus) (e ) y de manera lateral la bobina de seguimiento (tracking)(g). El disco refleja la luz láser de retorno ya tomada la información, esta, por medio de cambio de ángulo en la luz láser (fig.2) pasando por el lente colimador (h) y nuevamente por el espejo(c), luego el prisma(d) que lo envía al lente cóncavo(j) y directamente al foto detector(k). Para poder abarcar todo el disco (120mm) existe el motor Sled (2), que lo desplazara, el disco gira en todo momento por medio del motor CLV (3), cabe destacar que la velocidad no siempre es igual en el centro que en la periferia del mismo, la señal llega a los circuitos lógicos, como el convertidor A/D D/A.
BREVE INTRODUCCION AL HARDWARE
75 17.2 Discos Breve historia El disco compacto fue creado por el holandés Kees Immink, de Philips, y el japonés Toshí Tada Doi, de Sony, en 1979. Al año siguiente, Sony y Philips, que habían desarrollado el sistema de audio digital Compact Disc, comenzaron a distribuir discos compactos, pero ventas sin éxito por la depresión económica de entonces. Entonces decidieron abarcar el mercado de la música clásica. El sistema desarrollado por Sony fue presentado en junio de 1980 a la industria y se adhirieron al nuevo producto 40 compañías de todo el mundo mediante la obtención de las licencias correspondientes para la producción de reproductores y discos. El CD destacó por su amplia dinámica que llegaba a los 90 dbs en todo el espectro de frecuencias audibles (de 20hz a 20khz). Los primeros discos eran de metal, en la actualidad de policarbonato.
Características técnicas Velocidad de la exploración: 1,2–1,4 m/s, equivale aproximadamente a entre 500 rpm (revoluciones por minuto) y 200 rpm, en modo de lectura CLV (Constant Linear Velocity, Velocidad Lineal Constante’). Distancia entre pistas: 1,6 µm. Diámetro del disco: 120 u 80 mm. Grosor del disco: 1,2 mm. Radio del área interna del disco: 25 mm. Radio del área externa del disco: 58 mm. Diámetro del orificio central: 15 mm. ALFONSO GOMEZ HERRERA
Tipos de disco compacto: Sólo lectura: CD-ROM (Compact Disc - Read Only Memory). Grabable: CD-R (Compact Disc - Recordable). Regrabable: CD-RW (Compact Disc - Re-Writable). De audio: CD-DA (Compact Disc - Digital Audio). De video DVD (Digital Versatile Disc) y DVD -R, DVD -R, DVD RW
76
Todos los sistemas de funcionamiento se basan en el mismo principio explicado. Dibujo ejemplificativo de los diversos sistemas:
Para obtener mayor capacidad, el láser se hizo extremadamente delgado, así como los Pits y Flats.
17.3 CD-R CD-R o disco compacto grabable es un tipo de disco que puede ser escrito por un consumidor que utiliza hardware de grabación de discos, siguiendo así el acrónimo WORM formato (escribir una vez, leer muchas). CD-R fueron diseñados por los inventores del disco compacto, Philips y Sony, y disponible por primera vez en 1988.
BREVE INTRODUCCION AL HARDWARE
77
Sistema de grabado en discos
En el CD-RW, la potencia del láser (APC)*es mayor que una convencional, asimilando el sistema es un disco con miles de burbujas, donde el laser incide donde hará perforaciones para los Pits, y sin tocar el láser para los Flats, quedando la información inscrita. Es entendible que después de efectuar la cavidad no hay manera de recuperar ese espacio utilizado, como en el caso de los disco R/W.
BURBUJAS
láser (APC)
* APC (Control Automático de Potencia)
Blu-ray o BD. Nueva generación de discos ópticos, características:
Capacidad 25 GB / 50 GB (doble capa) Creado por Sony Uso Audio, datos
Especificaciones técnicas Diámetro 12 centímetros Frecuencia de muestreo 44.1 kHz Rango dinámico 96 db (16 bits)
17.4 Conexionado:
ALFONSO GOMEZ HERRERA
78
18.- TARJETA VIDEO Una tarjeta de vídeo es el dispositivo que le permite ver gráficos, y otros medios visuales utilizados con las computadoras. Tarjetas de vídeo actuales son mucho más pequeños, y mucho más rápido que sus predecesores.
Las tarjetas de video poseen una memoria en la que se almacena toda la información que se debe presentar en pantalla, siendo estas las encargadas de traducir los contenidos de esa memoria que en información que pueda entender el monitor al que está conectada, de esta forma, si se modifica el contenido de la memoria que se aloja en esta tarjeta, se modifica el contenido de la pantalla. Se conectan en una de las ranuras de expansión (slot), de la motherboard y el monitor se conecta a la salida de las mismas a través de un conector (puerto), de esta forma, el microprocesador se comunica con la tarjeta de video a través del bus de expansión.
18.1 Antecedentes La primera tarjeta gráfica, que se lanzó con los primeros IBM PC, fue un monitor tipo TTL (Transistor-Transistor lógico, con monitor azul y únicamente para texto, al manejar señal digital (dos dígitos) la posible combinación de colores era muy pobre, por lo que fue desarrollada en 1981. La MDA (Monochrome Display Adapter) trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla. Contaba con una memoria de vídeo de VRAM* 4KB, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromo, de tonalidad normalmente verde. A partir de ahí se continuaron diversas controladoras para gráficos:
* (Video Random Access Memory - Memoria de Acceso Aleatorio dedicado a Video) Tipo de memoria RAM usada para la pantalla de la computadora. La VRAM debe ser rápida para mantener la velocidad con la cual la pantalla es escaneada. En una PC, la VRAM está en el controlador gráfico.
VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. BREVE INTRODUCCION AL HARDWARE
79 Así nació el estándar SVGA (Súper VGA). Con dicho estándar se alcanzaron los 2 MB de memoria de vídeo, así como resoluciones de 1024 x 768 puntos a 256 colores. La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing…). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La potencia alcanzada por dichas tarjetas fue tal que el puerto PCI donde se conectaban se quedó corto. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. Desde 1999 hasta 2002, NVIDIA dominó el mercado de las tarjetas gráficas (absorbiendo incluso a 3dfx) con su gama GeForce. En ese período, las mejoras se orientaron hacia el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 MB de GeForce, hasta los 64 y 128 MB de GeForce 4. En 2006, NVIDIA y ATI se repartían el liderazgo del mercado con sus series de chips gráficos GeForce y Radeon, respectivamente.
18.2 Partes
La tarjeta de video está compuesta por: • • • •
La memoria de video. El controlador de video. El generador de caracteres. Salidas diversas ALFONSO GOMEZ HERRERA
18.3 Funcionamiento
80
PIXEL La parte más pequeña de la pantalla del monitor recibe el nombre de píxel. La palabra píxel surge de la combinación de dos palabras inglesas comunes, picture (imagen) y element (elemento). Un píxel se describe de forma más correcta como una unidad lógica, y no física, ya que el tamaño físico de un píxel individual lo determina el fabricante del monitor. El tamaño de un píxel se mide en milímetros (mm). El color específico de un píxel es una combinación de tres componentes del espectro de colores: rojo, verde y azul. Se asignan hasta tres bytes de datos para especificar el color de un píxel individual, con un byte para cada color. Un sistema de presentación de colores verdaderos, o de colores de 24 bits, utiliza los tres bytes a 24 bits por píxel, permitiendo así la visualización de más de 16 millones de colores diferentes. Sin embargo, la mayoría de los sistemas de presentación de colores utilizan únicamente ocho bits por píxel, lo que proporciona hasta 256 colores distintos. La calidad de un sistema de presentación depende de su resolución o de cuántos píxeles pueda mostrar el monitor, y cuántos bits se utilizan para representar cada píxel. Los equipos basados en el Adaptador de gráficos de vídeo (VGA) pueden mostrar hasta 640 x 480 píxeles, o alrededor de 300.000 píxeles. Los equipos basados en el Adaptador de gráficos de vídeo superior (SVGA) pueden mostrar hasta 1024 x 768 píxeles, o alrededor de 800.000 píxeles. Resolución y el número de colores La resolución es el número de puntos que es capaz de presentar por pantalla una tarjeta de vídeo, tanto en horizontal como en vertical. Así, “80x25” significa que la imagen está formada por 25 rectas horizontales de 80 puntos cada una. Para que nos hagamos una idea, un televisor (de cualquier tamaño) tiene una resolución equivalente de 800x625 puntos.
BREVE INTRODUCCION AL HARDWARE
81 En los esquemas anteriores, se percibe lo que es la resolución en un monitor, es semejante a una cuadricula mayor numero de cuadro por centímetro mayor resolución, mayor definición de la imagen, desde la perspectiva del pixel; una fotografía contiene un número muy elevado de puntos (pixeles) al existir una gran concentración de ellos los punto estarán tan próximos que darán un efecto de continuidad, en el sistema de televisión por contener pocas línea, son pocos los pixeles y como consecuencia una imagen de muy baja calidad. En el esquema posterior una tabla ejemplificativa de las resoluciones.
En cuanto al número de colores, resulta evidente: los que puede presentar a la vez por pantalla la tarjeta. Así aunque las tarjetas EGA sólo representan a la vez 16 colores, los eligen de una paleta de 64 colores. La combinación de estos dos parámetros se denomina modo de vídeo; están estrechamente relacionados: a mayor resolución, menor número de colores representables, y a la inversa. En tarjetas (SVGA y superiores), lo que las liga es la cantidad de memoria de vídeo (la que está presente en la tarjeta, no la memoria general o RAM). Algunas combinaciones posibles son:
ALFONSO GOMEZ HERRERA
82 Se han colocado los modos más comunes, ya que no todas las tarjetas admiten todos los modos, aparte de que muchas no permiten ampliar la memoria de vídeo. El cálculo de la memoria necesaria es: (Res. Vert.)x(Res. Horiz.)x(Bits de color)/8. Cabe destacar que el modo de vídeo elegido debe ser soportado por el monitor, ya que si no éste podría dañarse gravemente. Esto depende de las características del mismo, en concreto de la Frecuencia Horizontal, como se explica en el apartado dedicado al monitor. Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen necesitar bastante más memoria, en general unas 3 veces más; por ello, jugar a 800x600 puntos con 16 bits de color (65.536 colores) suele requerir al menos 4 MB de memoria de vídeo.
18.4 Conexiones HDMI: High-Definition Multimedia Interface (interfaz multimedia de alta definición)es una interfaz digital para transferir datos multimedia de alta definición no comprimidos (audio y video). Algunos la denominan “SCART de alta definición”. Lanzada por un grupo de fabricantes que incluye a Hitachi, Matsushita, Philips, Silicon Image, Sony, Thomson y Toshiba, la interfaz HDMI se estandarizó en el año 2002 como la versión 1.0, después se revisó en mayo de 2004 (versión 1.1) y finalmente en agosto de 2005 (versión 1.2). VGA: El término Video Graphics Array (VGA) se utiliza tanto para denominar a una pantalla de computadora analógica estándar, al conector VGA de 15 clavijas D subminiatura, a la tarjeta gráfica que se comercializó por primera vez en 1988 por IBM; con la resolución 640 × 480. Si bien esta resolución ha sido reemplazada en el mercado de las computadoras, se está convirtiendo otra vez popular por los dispositivos móviles. DVI: La interfazDVI (Interfaz de video digital), que se encuentra en algunas tarjetas gráficas, se utiliza para enviar digitalmente señales de video a pantallas con una interfaz adecuada. Evitan los procesos de conversión digital-analógica que reducen potencialmente la calidad y resultan innecesarios. S-Video: (que significa “Sony Video”), a menudo denominado Y/C, es un modo de transmisión de video con componentes separados que utiliza cables diferentes para transmitir información con respecto a la luminancia (luminosidad) y crominancia (color).
BREVE INTRODUCCION AL HARDWARE
83 19.- IMPRESORAS Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta y están permanentemente unidas a la computadora por un cable. Otras impresoras, llamadas impresoras de red, tienen un interfaz de red interno (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.
19.1 Antecedentes Quizás fue la imprenta de Johannes Gutenberg que inicio aproximadamente en 1436 que inicio la impresión, el siguiente paso; La imprenta rotativa inventada por Richard March Hoe en 1843. Se utiliza impresiones curvadas alrededor de un cilindro para imprimir en largos rollos de papel continuo u otros sustratos. Tambor de impresión rotativa fue posteriormente mejorado significativamente por William Bullock. Digital Equipment Corporation, también conocida como DEC y el uso de la marca DIGITAL, era una empresa importante de Estados Unidos en la industria de la computación Fue un proveedor líder de sistemas informáticos, software y periféricos desde 1960, logra la Impresora de matriz de puntos en 1964. En 1970 se consolida con una impresora que imprime 80 columnas de mayúsculas sólo para 5x7 matriz de puntos caracteres a través de un papel de tamaño único. El cabezal de impresión fue impulsado por un motor paso a paso. En 1953, la primera impresora de alta velocidad desarrollado por Remington-Rand para su uso en la Univac. En 1938, Chester Carlson inventó un proceso de impresión en seco llamado electrofotografía comúnmente llamado Xerox, la tecnología base para las impresoras láser por venir. La impresora láser original llamado EARS, fue desarrollada en el Xerox Palo Alto Research Center a partir de 1969 y finalizó en noviembre de 1971. Xerox Ingeniero, Gary Starkweather, adaptando la tecnología de Xerox copiadora añadir un rayo láser para llegar a la impresora láser. Según Xerox, “El sistema de impresión Xerox 9700 Electronic, el primer producto de xerográfico impresora láser, fue lanzado en 1977. El 9700, un descendiente directo del original PARC” EARS “impresora que fue pionera en la exploración láser óptica, electrónica de carácter generación, y página de formato de software, fue el primer producto en el mercado para ser habilitado por PARC investigación”. Según IBM, “el primer IBM 3800 se instaló en la oficina central de contabilidad en el North FW Woolworth centro de datos de América en Milwaukee, Wisconsin, en 1976.” El sistema de impresión IBM 3800 fue el primer procesador de alta velocidad, impresora láser. Una impresora láser que funciona a velocidades de más de 100 impresiones por minuto. Fue la primera impresora láser para combinar la tecnología y la electrofotografía según IBM. En 1992, Hewlett-Packard lanzó la LaserJet de 4, los primeros 600 x 600 puntos por pulgada impresora láser resolución. ALFONSO GOMEZ HERRERA
84 En 1976, la impresora de inyección de tinta se inventó, pero hubo que esperar hasta 1988 para la inyección de tinta para convertirse en un bien de consumo en casa con la liberación de Hewlett-Parkard de la impresora de inyección de tinta Deskjet. Evolución: • Impresora de matriz de puntos (1964) • Impresión por láser (1969) • La impresión térmica (ca. 1972) • Inyección de tinta de impresión (1976) • 3D de impresión (1986) • Prensa digital (1993)
19.2 Características Además de los distintos métodos de imprimir en papel, que esto varía según el tipo de impresora, debe considerarse a la alimentación y arrastre de papel. Hay dos formas de arrastre de papel: Tractor: Las impresoras con mecanismos de tractor emplean el denominado papel continuo plegado hoja a hoja de forma complementaria (fan fold), en cuyos laterales existen sendas franjas de agujeros que se insertan en el mecanismo de arrastre (orugas) que es accionado por un motor. Fricción: Son dos rodillos que jalan el papel de hojas sueltas metiéndolo delante del cabezal de impresión. Algunas impresoras cuentan con un sistema de bandeja para poner un grupo de hojas. Parte electrónica: La parte electrónica o controlador del periférico se encarga de interpretar las órdenes que envía el CPU, genera las señales de control para activación de los elementos electromecánicos del periférico, que transfiere los datos en el soporte de información. Elementos optoelectrónicos: generadores de la información de salida. También se utilizan como detectores de posición de los elementos mecánicos móviles del periférico. Fundamento del sistema de impresión Hay dos clases de impresoras: por impacto y sin impacto Las impresoras que utilizan impactos, son similares a una máquina de escribir: por delante de la hoja se desliza una pieza metálica donde está modelado el juego de tipos de impresión. Al pasar el tipo a grabar sobre su posición en el papel, se dispara el martillo que al golpear sobre la hoja, queda impreso en tinta. El disparo se efectúa electromagnéticamente. Son muy ruidosas, pero tienen de ventaja, que pueden hacer copias múltiples utilizando papel especial. Las impresoras sin impacto forman los caracteres sin necesidad de golpes mecánicos, y utilizan otros métodos físicos para transferir las imágenes al papel. BREVE INTRODUCCION AL HARDWARE
Forma de imprimir los caracteres:
85
Las impresoras tienen tres formas de imprimir: por caracteres, por líneas, y por páginas. Las impresoras por caracteres tienen un cabezal que va escribiendo la línea, carácter a carácter; un carácter por instante. Las impresoras por líneas imprimen simultáneamente todos o varios caracteres correspondientes a una línea de impresión. Los caracteres se imprimen en cualquier orden. Las impresoras por páginas son similares a las fotocopiadoras. Contienen un tambor rotativo donde se forma con tinta o con un polvo (tóner) la imagen de la página a imprimir, y mediante calor, se transfiere al papel al entrar en contacto. Un ejemplo es la impresora láser. Memoria: Las impresoras modernas tienen una cantidad de memoria para almacenar parte de la información que les va proporcionando la computadora. De esta forma la computadora, es sensiblemente más rápido que la impresora, no tiene que estar esperándola continuamente y puede pasar antes a otras tareas mientras termina la impresora su trabajo. Evidentemente, cuanto mayor sea el buffer1, más rápido y cómodo será el proceso de impresión, por lo que algunas impresoras llegan a tener hasta 256 Kb de buffer. La interfaz o conector: Las computadoras antiguas tenían un puerto en circuito para conectar un teletipo. Después los fabricantes empezaron a incluir puertos seriales2, hoy el puerto paralelo es la conexión más común para impresora (LPT1 y USB, usualmente). A veces al puerto paralelo de una PC se le dice puerto Centronics, nombre de la empresa que lo dio a conocer. La tecnología de este puerto casi no ha cambiado, salvo que la interfaz original tenía un contacto de 36 patas y la actual emplea un contacto de 25 patas con escudo D (DB25). Esto se debe a que el nuevo contacto utiliza menos señales a tierra. Fuentes: Bitmap El bitmap, es un registro de patrón de puntos necesarios para crear un carácter específico en un cierto tamaño y atributo. Las impresoras traen consigo fuentes bitmap, en las variedades normal y negrita, como parte de su memoria permanente. Cuando se emite un comando de impresión, su computadora dice primero a la impresora cual de las de las definiciones bitmap puede utilizar, entonces, por cada letra, signo de puntuación o movimiento del papel, envía un código ASCII.
1 Un buffer es una ubicación de la memoria en una computadora o en un instrumento digital reservada para el almacenamiento temporal de información digital, mientras que está esperando ser procesada. 2 Conexión por medio de la cual se envían datos a través de un solo conducto ALFONSO GOMEZ HERRERA
86 Outline Las fuentes Outline consisten en descripciones matemáticas de cada carácter y signo de puntuación en un tipo. Algunas impresoras poseen un lenguaje de descripción de página, normalmente PostScript (programa de computadora contenido en un microchip). El lenguaje puede traducir comandos de fuente outline para controlar la colocación de los puntos en un papel. Cuando se emite un comando de impresión desde el software de aplicación a una impresora, envía una serie de comandos en lenguaje de descripción de páginas que son interpretados a través de un conjunto de algoritmos. Los algoritmos describen las líneas y arcos que forman los caracteres en un tipo de letra. Los comandos insertan variables en las fórmulas para cambiar el tamaño o atributos. Los resultados son enviados a la impresora, quien es la que los interpreta. En lugar de enviar los comandos individuales para cada carácter en un documento, el lenguaje de descripción de página envía instrucciones al mecanismo de la impresora, que produce la página completa.
19.3 Impresoras Matriciales.
O de Agujas o de impacto. Su cabezal móvil de impresión contiene una matriz de agujas móviles en conductos del cabezal, dispuestos en una columna o más. Esta impresora es por impacto: si una aguja es impulsada hacia fuera del cabezal por un mecanismo basado en un electroimán, impacta una cinta entintada y luego retrocede a su posición de reposo gracias a un resorte. La cinta, al ser golpeada, transfiere un punto de tinta al papel. Si bien las agujas en el frente del cabezal están paralelas y muy próximas, se van separando y curvando hacia la parte posterior del cabezal, terminando en piezas plásticas como porciones de una pizza, que forman un circulo. Así el cabezal puede alojar cada electroimán que impulsa cada aguja. Cada aguja termina en una pieza plástica de forma de sector circular que tiene adosada un imán cilíndrico. Las impresoras de matriz de puntos son todavía de uso común para aplicaciones de bajo costo y baja calidad como las cajas registradoras. BREVE INTRODUCCION AL HARDWARE
87 El hecho de que usen el método de impresión de impacto les permite ser usadas para la impresión de documentos autocopiativos3 como los recibos de tarjetas de crédito, donde otros métodos de impresión no pueden utilizar este tipo de papel. Las impresoras de matriz de puntos han sido superadas para el uso general en computación. La ventaja de la matriz de puntos sobre otras impresoras de impacto es que estas pueden producir imágenes gráficas además de texto. Sin embargo, el texto es generalmente de calidad más pobre que las impresoras basadas en impacto de tipos Dentro de las impresoras matriciales, hay sub-clasificaciones como las impresoras de alambre balístico y las impresoras de energía almacenada: En las impresoras de alambre balístico cada punto es producido por un varilla metálica, llamada “cable” o “pin”, impulsada por efecto de la energía magnética almacenada en un electroimán y convertida en energía cinética, bien directamente o mediante palancas (gatillos). Este proceso tiene una duración de unos 300 microsegundos. Frente a la cinta de tinta se sitúa una placa (hecha normalmente de zafiro o granate), agujereada para servir así de guía para los pines. La parte móvil de la impresora se denomina cabezal de impresión, e imprime una línea de texto cada vez. La mayoría de las impresoras matriciales tienen en sus cabezales una sola fila de pines, otras tienen unas cuantas filas entrelazadas para aumentar así la densidad de punto. Estas impresoras pueden ser muy duraderas. Sin embargo, con el tiempo la tinta invade la placa guía del cabezal, de forma que partículas sólidas en forma de arenilla se adhieren a ella, provocando el progresivo desgaste de las perforaciones de la guía, pasando éstas de ser círculos a óvalos. Poco a poco la placa de guía proporciona menos y menos precisión en la impresión y finalmente, alrededor del millón de caracteres impresos, e incluso utilizando materiales como el tungsteno o el titanio, la impresión resulta demasiado borrosa para ser legible. Las impresoras de energía almacenada son un tipo de impresora matricial que se diferencia de las impresoras de alambre balístico en que imprimen simultáneamente una línea entera de puntos, por lo que son a veces son llamadas impresoras matriciales lineales. Las impresoras más comunes que utilizaban esta tecnología eran las impresoras matriciales lineales de Printronix4. En aquellas impresoras los martillos estaban agrupados en un banco, formando una especie de peine que oscilaba horizontalmente para producir la línea de puntos. Diseños recientes han llevado a cabo optimizaciones complejas del circuito magnético, eliminando las resonancias no deseadas en el resorte, obteniéndose así casi el doble de velocidad de impresión. Algunos otros diseños han usado martillos más sofisticados como una solución de compromiso entre el circuito magnético, las resonancias mecánicas y la velocidad de impresión. 3 Papel tratado por una o ambas caras, o que contiene una sustancia no carbonada, empleado para obtener simultáneamente una o más copias mediante una presión localizada 4 Printronix es un proveedor independiente de matriz de línea, impresora térmica de códigos de barras, identificación por radio frecuencia (RFID) y las soluciones de movilidad. Impresoras Printronix se utilizan típicamente para el etiquetado de código de barras de los productos, así como de alto volumen de impresión de informes. ALFONSO GOMEZ HERRERA
88
DETALLE DE AGUJAS
Los pulsos llegan al cabezal, las agujas salen disparadas hacia el papel, estando la cinta de por medio golpeando, de ahí su nombre de impacto, a mayor numero de agujas mayor efecto de continuidad, también el por qué tanto ruido al imprimir.
CABEZAL
Se puede usar papel continuo, algunas tiene opción al imprimir a color, aunque sea limitado en calidad. La impresión es de bajo costo, estas impresoras no se fabrica.
19.4 impresoras de inyección.
BREVE INTRODUCCION AL HARDWARE
89 O chorro de tinta Una impresora de inyección de tinta utiliza una de las tecnologías de impresión popular. Los costos relativamente bajos y las habilidades de impresión de propósito múltiple hacen de las impresoras de inyección de tinta una buena selección para los pequeños negocios y las oficinas en casa. Las impresoras de inyección de tinta utilizan una tinta que se seca rápidamente, basada en agua y un cabezal de impresión con series de pequeñas inyectores que rocían tinta a la superficie del papel. El ensamblado de impresión es conducido por un motor alimentado por una correa que mueve el cabezal a lo largo del papel. Las impresoras de inyección de tinta fueron fabricadas originalmente para imprimir solamente en monocromático (blanco y negro). Sin embargo, desde entonces el cabezal se ha expandido y las boquillas se han incrementado para incluir cyan, magenta, amarillo y negro. Esta combinación de colores (llamada CMYK) permite la impresión de imágenes con casi la misma calidad de un laboratorio de revelado fotográfico (cuando se utilizan ciertos tipos de papel). Cuando se combina con una calidad de impresión clara y de gran calidad de lectura, las impresoras de inyección de tinta se convierten en la selección de todo en uno para las necesidades de impresión monocromáticas y a color. Funcionamiento Las impresoras de chorro de tinta permiten formar cualquier tipo de imágenes ya sean textos o gráficos, a una velocidad que oscila entre los 200 y los 400 caracteres por segundo. Este Modelo de impresoras ha sido el más reciente en aparecer y resulta el más accesible económicamente lo que ha propiciado un buen ritmo de ventas en los últimos años, sobre todo para el uso domestico. Su funcionamiento consiste en lanzar gotitas de tinta sobre la superficie de un papel o la banda de una bobina para formar en ella caracteres o imágenes. Presenta un cabezal con una matriz de orificios, que son las bocas de un conjunto de pequeños cañones de tinta. La boca de cada uno dispara una diminuta gota de tinta contra el papel, cuando así lo ordena el microprocesador de la impresora, a través de cables conductores de una cinta plana. Cada boca es la salida de un micro conducto formador de burbujas y gotas de tinta al que llega tinta líquida. Estos orificios son alimentados por cartuchos con tinta negra o de color (en general, los tres colores primarios Magenta, Cian y Amarillo; aunque algunas tiene 5 colores) Cada punto es producido por una pequeña gotita de tinta al impactar contra el papel, disparada desde un micro conducto.
ALFONSO GOMEZ HERRERA
90 El mayor de inconveniente de estas impresoras es el mantenimiento ya que los cartuchos de tinta son muy caros y no duran excesivamente. Además, salvo las de gama más alta, no son demasiado rápidas. También existe la impresora a chorro de tinta ¨DeskJet¨, que usa cristales piezo-eléctricos para que los microconductos del cabezal disparen sobre el papel sus correspondientes gotas de tinta. Estos aprovechan la deformación que sufren ciertos cristales cuando se les aplica un voltaje. Cada microconducto tiene adosado un cristal que al deformarse- por aplicarse un voltaje ordenado por el microprocesador- produce un efecto de bombeo sobre el microconducto, obligando que se dispare una gota.
19.5.-Impresoras láser
Es un periférico de salida electromecánico, que tiene la función de recibir información digital procedente de la computadora, para por medio de tinta en polvo y un rayo láser, plasmar la información en un medio físico. Generalmente utilizan un tóner de color negro, aunque también se han diseñado impresoras láser para imprimir a color. Los dispositivos de los que actualmente también puede recibir directamente datos son discos duros portátiles, memorias USB, un conector RJ45 de red local (LAN) ó desde un escáner. Funcionamiento Impresión: La computadora digitaliza la imagen a imprimir, determinando la cantidad de tóner que corresponde estampar en cada punto. BREVE INTRODUCCION AL HARDWARE
91 El cargador deposita carga eléctrica distribuida uniformemente a lo largo y ancho de la superficie del tambor. El láser recorre la superficie del tambor, iluminándola con la intensidad adecuada de tal forma que en cada punto quede una cantidad de carga superficial proporcional a la cantidad de tóner necesario en cada punto. El agitador somete la superficie del tambor a un baño de polvo de Tóner (que suele estar compuesto por polímeros con cierto momento magnético). La interacción electromagnética entre la carga restante en la superficie del tambor y los dipolo magnéticos del Tóner hace que este último se adhiera a las zonas cargadas en la superficie del tambor. Esta fase se conoce como revelado. El tambor aplasta el Tóner adherido a su superficie contra el papel a imprimir. Gran parte del Tóner pasa al papel, que ha sido cargado eléctricamente (mediante diferentes procesos de rozamiento). El limpiador limpia los restos de Tóner que no han quedado en el papel. El papel impreso pasa entre dos rodillos, el fusor (que ha sido calentado por una resistencia eléctrica) y el rodillo de presión, que se encargan de fundir y fijar el Tóner al papel. En el proceso de impresión de cada página, el tambor realiza varias rotaciones completas, sincronizando a la perfección la actuación de las diferentes partes del procedimiento. En la siguiente figura podemos ver un esquema básico de la disposición de los diferentes elementos que intervienen en la impresión y de su funcionamiento:
ALFONSO GOMEZ HERRERA
92
Ventajas e inconvenientes La principal ventaja de las impresoras láser estriba en el hecho de que su resolución tan sólo se encuentra limitada por el tamaño de las partículas cargadas que se depositan sobre el tambor. Además, el proceso de impresión es más rápido que la mayoría de métodos de inyección de tinta, siendo la velocidad de impresión independiente de las características de la información a imprimir, ya que el tambor gira a velocidad fija. Por otra parte, el principal inconveniente de las impresoras láser viene dado por el hecho de que la velocidad de impresión es constante, y no se puede interrumpir una vez comenzado (ya que la carga superficial en el tambor se disipa al cabo de poco tiempo). Este hecho obliga a que la impresora sea capaz de almacenar en su propia memoria toda la página antes de imprimirla, dado que la velocidad de impresión suele ser muy mayor que la tasa de transferencia de los cables usuales. Resulta difícil y caro mejorar el procedimiento para realizar impresiones en color. En general, las impresoras láser son más caras que las de tinta, aunque el precio de los consumibles es mucho menor (precio por copia). Este hecho, junto con su gran velocidad de impresión, hace que la mayor parte de oficinas opten por sistemas de impresión láser.
BREVE INTRODUCCION AL HARDWARE
93
PERIFERICOS
ALFONSO GOMEZ HERRERA
2
94
20.- CINTA BACKUP (Cintas de Respaldo)
Suelen denominarse dispositivos de almacenamiento secundario y su principal función, (fue, el referente) la realización de copias de seguridad y/o almacenamiento masivo de archivos. La mayor ventaja de estos sistemas es su bajo costo relativo por MB (megabytes) respaldado así como también su alta capacidad de respaldo. Las cintas magnéticas fueron un medio ideal para archivar datos
Acerca del respaldo de información: Existen distintas tecnologías que proveen para el usuario un respaldo de los datos contenidos en su equipo, las cuales, básicamente podremos subdividirlas en dos categorías: Respaldo de acceso aleatorio, o sea, todas aquellas tecnologías que provean el respaldo en distintos medios de disco (flexibles, rígidos, rígidos removibles, magneto-ópticos, CDROM, etc.). Respaldo secuencial, que para todos los casos prácticos irá relacionada con las tecnologías que provean respaldo en soporte de cinta magnética, también conocida como tape backup. El porque es importante respaldar la información de mi computadora. La información de la computadora (datos en generales, Word, Excel, correos, fotos, etc.) se guarda en archivos. Estos archivos pueden borrarse accidentalmente o por distintos motivos, como pueden ser virus o fallas mecánicas del disco duro. La información una vez perdida es muy difícil y hasta imposible de recuperar, a menos que se haya hecho un respaldo de la misma. Un archivo perdido puede representar el trabajo de varios días o meses, que en un segundo pueden quedar totalmente eliminados e imposibles de recuperar.
20.1 Antecedentes Valdemar Poulsen (23 de noviembre de 1869 - 23 de julio de 1942) fue un inventor dinamarqués, más conocido por haber inventado el telegráfono, la primera máquina capaz de grabar sonido, de forma magnética, esto fue sobre cinta de papel, recubierta de material con sustancias magnéticas, después se cambio a cinta plástica. BREVE INTRODUCCION AL HARDWARE
95
Una unidad de cinta o streamer (en inglés) es un dispositivo destinado a almacenar datos en cintas magnéticas. En los comienzos de la era de las computadoras en los años 1950 y 60s la imagen de las dos cintas llegó a simbolizar la imagen típica de la propia computadora. El datasette fue en la transición de los años 70S y 80S un medio habitual para la computadora personal. En el siglo XXI se utilizan determinadas unidades de cinta para el almacenamiento de cantidades importantes de datos como copia de seguridad
20.2 Tecnologías Dispositivos QIC La tecnología QIC (Quarter Inch Cartridge) utiliza cartuchos de cinta con un ancho de ¼” (6.35mm) con capacidades dentro del rango de 4 GB a 10 GB (8 GB a 20 GB con compresión de datos). Los cartuchos con tecnología QIC vienen en cuatro formatos: cartucho (de 5¼” conocido como DC6000), minicartucho (de 3½” conocido como DC2000), QIC-Wide y Travan. La tecnología QIC resulta ser la más económica tanto para la compra como para el uso. Formato QIC-80-MC QIC-3010-MC QIC-3020-MC QIC-3080-MC QIC-3095-MC
Capacidad s/ comprimir
Capacidad comprimida
400 MB
800 GB
420 MB
840 GB
840 MB
1.7 GB
1.6 GB
3.2 GB
4 GB
8 GB
Dispositivos DAT La tecnología DAT, desarrollada por SONY y HP inicialmente como un formato digital de calidad de audio, utiliza un esquema de escaneo helicoidal sobre cintas de 4 mm utilizando dos cabezas para lectura/grabación. Esto produce pistas de grabación sobre la cinta de forma diagonal lo que le brindan a esta tecnología una mayor eficiencia en la utilización de las mismas que las unidades QIC, - (graban los datos en pista paralelas sobre la longitud de la cinta) - ofreciendo mayores capacidades que estas, e iguales o mayores velocidades. Las capacidades sin comprimir de este tipo de cintas varían en el rango de 4 a 10 GB. El estándar básico incluye DDS-1 (Digital Data Storage) para cintas de 90 metros de longitud y 2 GB de capacidad, pero en la actualidad se encuentran generalizados en el mercado los estándares DDS-2 (típicamente 4 GB en cintas de 120 metros de longitud), DDS-3 (típicamente 12 GB en cintas de 125 metros de longitud), y DDS-4 (típicamente 20 GB en cintas de 150 metros de longitud). ALFONSO GOMEZ HERRERA
Dispositivos AIT
96
AIT (Advanced Intelligent Tape) es un desarrollo de Sony, que permite almacenar 35 GB o 50 GB en un único cartucho de 8 mm, y que utilizando un esquema de compresión (2 : 1) ALDC permiten almacenar hasta 70 Gb o 100 GB de información, con velocidades de transferencia de hasta 2.5 MB/ seg. (para 35-70) o 4 MB/seg. (Para 50-100). Dispositivos DLT DLT (Digital Lineal Tape) es un desarrollo de Quantum, que abarca tres especificaciones, los que permiten almacenar 20 GB, y utilizando un esquema de compresión (2:1) DLZ permiten almacenar hasta 40 GB de información, con velocidades de transferencia de hasta 3 MB/seg., los que permiten almacenar 35 GB y utilizando el esquema de compresión (2:1) DLZ hasta 70 GB de información, con velocidades de transferencia de hasta 7 MB/seg., y los que permiten almacenar 40 GB y utilizando el esquema de compresión (2:1) LZ hasta 80 GB de información, con velocidades de transferencia de hasta 9 MB/seg.
20.3 Funcionamiento
BREVE INTRODUCCION AL HARDWARE
97
Notas
1 La señal de audio hay que grabarla solo en la zona lineal, de modo contrario, por arriba o por abajo, sufriría deformaciones. Para sobrepasar la zona reversible se graba una frecuencia que se conoce con el nombre de Bias (señal de bias) o corriente de polarización. 2 En los inicios se utilizaban una cabeza magnética (imán), después una cabeza con una bobina por donde se hacía recorrer una corriente directa, y por último la misma cabeza grabadora era la cabeza bordadora. 3 Esto es basándose en la teoría de Webber en la orientación de las moléculas imán En el esquema se muestra de una manera ejemplificativa el proceso de grabado, borrado y reproducción de una señal procesada en cinta magnética, proceso valido también en disquete de información, discos duros y cualquier proceso tipo magnético. Estos sistemas son basados en la teoría de Weber*, así como la teoría de Faraday**. Y conceptos de Magnetismo. La teoría de Weber dice que un imán está formado por muchísimos “imanes moleculares” ordenados de forma que todos ellos están apuntando en la misma dirección sumando así sus fuerzas magnéticas respectivas y obteniéndose en conjunto un imán mucho más potente. La Ley de inducción electromagnética. Se coloca un conductor eléctrico en forma de circuito en una región en la que hay un campo magnético. Si el flujo Φ a través del circuito varía con el tiempo, se puede observar una corriente en el circuito (mientras el flujo está variando). Midiendo la FEM (Fuerza Electro Motriz) inducida se encuentra que depende de la rapidez de variación del flujo del campo magnético con el tiempo.
*Wilhelm Eduard Weber. Físico alemán. Colaboró con Carl Friedrich Gauss en el estudio del geomagnetismo. Construyó un telégrafo electromagnético y un electrodinamómetro, e introdujo el sistema absoluto de unidades eléctricas según las directrices del sistema de unidades magnéticas. Elaboró una teoría sobre el magnetismo, que posteriormente fue perfeccionada por Langevin. Su trabajo más importante lo hizo en Leipzig, en donde determinó, junto con F. W. G. Kohlrausch, la relación entre las unidades de cargas electrostáticas y electromagnéticas (constante de Weber). Esta relación resultó ser igual a la velocidad de la luz, y fue utilizada más tarde por James Clerk Maxwell para defender su teoría electromagnética. La unidad del Sistema Internacional para el flujo magnético, el Weber, (símbolo: Wb) fue bautizada en su honor. **Michael Faraday nació el 22 de septiembre de 1791 en el sur de Londres. Recibió sólo una educación formal básica. Cuando tenía 14 años, fue aprendiz de un encuadernador local y durante los próximos siete años, educado a sí mismo mediante la lectura de libros de temas científicos. ALFONSO GOMEZ HERRERA
98 En 1812, Faraday asistió a cuatro conferencias impartidas por el químico Humphry Davy en la Royal Institution. Faraday escribió más tarde en Davy solicitando un trabajo como su asistente. Davy lo rechazó, pero en 1813 lo nombró para el puesto de asistente de química en la Royal Institution. Un año más tarde, Faraday fue invitado a acompañar a Davy y su esposa en un viaje de 18 meses europeo, teniendo en Francia, Suiza, Italia y Bélgica, y conocer a muchos científicos influyentes. A su regreso, en 1815, Faraday continuó trabajando en la Royal Institution, ayudando con los experimentos Davy y otros científicos. En 1821 publicó su trabajo sobre la rotación electromagnética (el principio detrás del motor eléctrico).. En 1831, Faraday descubrió la inducción electromagnética, el principio detrás del transformador eléctrico y el generador. Este descubrimiento fue crucial en permitir que la electricidad se transforme de una curiosidad en una nueva tecnología de gran alcance. Murió el 25 de agosto de 1867 en Hampton Court.
21.-UNIDADES ZIP Dispositivos de almacenamiento magnéticos y extraíbles. Fueron lanzados por la empresa Iomega en 1994, teniendo su primera versión una capacidad de 100 MB. La intención de la empresa era que se convirtieran en los sucesores de los disquetes flexibles de 3,5 pulgadas, pero nunca logró conseguirlo ampliamente. Los primeros discos ZIP compitieron con el SuperDisk, que almacenaba 20% más de datos, pero tenía menor velocidad de transferencia de datos. La gran baja de precios de las grabadoras CD-R y CD-RW, y más tarde de la inclusión de los pendrives y tarjetas flash terminaron de desplazar a las unidades ZIP del mercado.
21.1 Antecedentes El formato zip es utilizado por diversos programas, tanto comerciales como libres. Su creador, el programador Phil Katz (fundador de PKWARE), tuvo que enfrentar una demanda por la violación de derechos de autor en el desarrollo del formato. El zip se refiere a diversos algoritmos de compresión y soporta un sistema de cifrado que se basa en una clave única. Se considera que este cifrado resulta débil e inconsistente a distintos tipos de ataques informáticos. Entre los métodos de comprensión utilizados por zip, se encuentran la contracción (shrinking), la reducción (reducing) y la implosión (imploding). BREVE INTRODUCCION AL HARDWARE
99 La unidad zip, por su parte, es un periférico de almacenamiento que utiliza discos especiales (discos zip) como soporte. Los discos zip fueron lanzados por Iomega en 1994 con una capacidad de 100 MB. Con el tiempo, dicha capacidad se extendió hasta los 750 MB. El auge del CD-R y CD-RW y la aparición de los pendrives hicieron caer la popularidad de las unidades zip hasta descartarlos del uso cotidiano. En Estados Unidos, por último, se conoce como código ZIP (por Zone Improvement Plan o Plan de Mejora de Zonas) al sistema de códigos que utiliza el Servicio Postal (USPS). Estos códigos ZIP (ZIP codes) se escriben en letras mayúsculas e incluyen cinco dígitos numéricos. Phillip Walter Katz (Noviembre 3, 1962 – Abril 14, 2000), fue un programador de computadoras más conocido como el creador del formato de compresión de datos ZIP, y el autor de PKZIP, un programa para la creación de archivos de ZIP que se desarrolló bajo MS-DOS. Las ventas de discos y unidades Zip declinan desde 1999 a 2003. En Septiembre de 1998, una Acción popular se ejerce contra Iomega por el fallo de los discos Zip conocido como el click of death. Los discos Zip también tienen un coste mayor por megabyte que los CD-R y DVD±RW.
21.2 Características de las Unidades Zip Su primera versión tenía una capacidad de 100 MB, luego se presentaron versiones de 250 y 750 MB. Iomega también lanzó las unidades JAZZ, que utilizan discos de 1 y 2 GB de capacidad de almacenamiento. Las unidades internas ZIP tienen interfaz IDE o SCSI. Las unidades externas viene con puerto paralelo y SCSI inicialmente, y unos años después USB Interfaces Las unidades Zip vienen en una amplia variedad e interfaces. Las unidades internas tienen interfaz IDE o SCSI. Las unidades externas viene con puerto paralelo y SCSI inicialmente, y unos años después USB. Durante algún tiempo, hubo una unidad llamada Zip Plus que podía detectar si se conectaba a un puerto de impresora o a uno SCSI, pero se detectaron gran cantidad de incompatibilidades y fue descatalogado. Incluía además software adicional y una fuente de alimentación externa más pequeña que la inicial. Con el tiempo las unidades Zip USB se alimentaron por el propio conector USB. Capacidad La versión inicial del disco Zip tenía una capacidad de 100 Mb. Se hicieron planes para comercializar un disco de 25 MB con un precio más reducido, con el objetivo de acercarse lo más posible al coste de un disquete estándar, pero el disco jamás se comercializó. Con el tiempo Iomega lanza unidades y discos de 250 y 750 MB, a la vez que aceleraba la velocidad de acceso a disco. En el lado negativo, el acceso a un soporte menor ralentiza la unidad, incluso la hace más lenta que la unidad de 100 MB original. La unidad de 750 MB sólo puede leer, pero no escribir, los discos de 100 MB en cambio si puede leer y escribir. ALFONSO GOMEZ HERRERA
100
21.3 Funcionamiento Básicamente una unidad Zip trabaja como un disquete. Se trata de una superficie dotada de una superficie magnética que tiene la capacidad de almacenar información. Pero, una unidad zip almacena miles de veces más datos. Lo principal que separa a un disco Zip de un disquete es el recubrimiento magnético utilizado para su fabricación. En un disco Zip, el revestimiento es de una calidad mucho más alta. El revestimiento de calidad superior significa que un disco Zip la cabeza de lectura / escritura puede ser considerablemente menor que la de un disco flexible, unas 10 veces más pequeña. La cabeza más pequeña, en combinación con un mecanismo de posicionamiento de cabeza similar a la utilizada en un disco duro, significa que una unidad Zip puede empaquetar miles de pistas por pulgada en su superficie. Las unidades Zip también utilizan un número variable de sectores por pista para hacer un mejor uso de espacio en disco. PARTES INTERNAS DE UNIDAD ZIP
ALGORITMO: LZW (Lempel-Ziv-Welch) Es un algoritmo de compresión sin pérdida desarrollado por Terry Welch en 1984 como una versión mejorada del algoritmo LZ78 desarrollado por Abraham Lempel y Jacob Ziv. Se realiza una compresión de datos utilizando un diccionario en el que se guardan combinaciones de símbolos más utilizados. Escueta ejemplificación de compresión: “Los arboles del norte son los más grandes de todos los Estados” los = ⱷ quedando; “ⱷ arboles del norte son ⱷ más grandes de todos ⱷ Estados” Consecuentemente 51 caracteres se reducen a 45 caracteres. Cambio
BREVE INTRODUCCION AL HARDWARE
22.- SISTEMA MAGNETO OPTICO
(MO)
101
Es un disco de plástico o de vidrio recubierto con un compuesto (a menudo TbFeCo) con propiedades ópticas especiales, magnéticas y térmicas. El disco es leído por un rebote de baja intensidad láser desde el disco. Originalmente, el láser era de infrarrojos, pero las frecuencias de hasta azul puede ser posible dar una mayor densidad de almacenamiento. La polarización de la luz reflejada depende de la polaridad del campo magnético almacenado.
22.1 Antecedentes La IBM se atribuye su invención: En 1972, tres científicos de IBM trabajan fuera de la Thomas J. Watson Research Center en Yorktown, Nueva York, encontró una combinación de dos minerales más comunes y un elemento de tierras raras que podrían ser fácilmente magnetizado y repetidamente a aceptar grandes volúmenes de datos de la computadora a altas velocidades 1972, fue la Laservision 12-pulgadas disco de vídeo. La señal de vídeo se almacena como un formato analógico, como una cinta de vídeo. El primer disco grabado digitalmente óptico era un 5-pulgadas de disco compacto de audio (CD) en un formato de sólo lectura creado por Philips y Sony en 1975. Cinco años después, los mismos dos empresas introdujeron una solución de almacenamiento digital para la computadora que utilizan este tamaño mismo CD llamado CD-ROM. No es hasta el año 1987 que Sony demostrara ser borrable/regrabable de 5,25 pulgadas unidad óptica Los discos MO aparecieron a finales de los ochenta. Inicialmente eran de 5,25 pulgadas (130 mm), similares a un disco compacto encapsulado dentro de un cartucho. Luego aparecieron los de 3,5 (90 mm). Las computadoras NeXT fueron las primeras en ofrecer de serie esta tecnología, pero Canon la proporcionó a otros fabricantes. En 1997 apareció la tecnología de Light Intensity Modulated Direct Overwrite, que conseguía incrementar el nivel de rendimiento de los discos.
22.2 Funcionamiento El disco MO consiste en una serie de capas, cada uno de ellos ofrece soporte a aspectos distintos de la aplicación de la tecnología respectiva. En primer lugar, la potencia del láser de haz aumenta la temperatura de un punto particular en la capa activa en un medio de MO. ALFONSO GOMEZ HERRERA
102 Cuando en el campo magnético de polarización mismo tiempo se aplica perpendicularmente a la media, la temperatura local de las partículas en la región de este punto se eleva hasta el punto de Curie* (180-200 ° C). Luego, la dirección de magnetización en este punto particular se convierte inversa (cambio de ángulo). Después de que el rayo láser está apagado, la capa magneto-óptica se enfría muy rápidamente. La información se fija entonces en el medio y puede ser alterado sólo mediante el uso de un rayo láser y un imán de polarización nuevo. Los datos se almacenan de forma más segura en comparación con los discos magnéticos convencionales, en los que incluso un imán pequeño puede causar la pérdida de datos. La operación de borrado sigue los mismos principios que el anterior.
La tecnología MSR
Fujitsu, Konica
Para alcanzar más de 1 GB de datos escritos en un solo disco, un nuevo sistema de detección óptica ha sido desarrollado por Sony y Fujitsu llamado MSR (magnéticamente inducida Super Resolution) la tecnología. La tecnología MSR permite duplicar la densidad de pista y la grabación de la densidad, mientras que ser capaz de mantener una compatibilidad total con respecto a la original de las Normas ISO para magneto-óptico de grabación. GigaMo ™ es el nombre de la nueva norma para el caso de 3,5 pulgadas discos magnetoópticos. Se puede alcanzar capacidades de 1,3 GB por disco, o más (2,6 están en el horizonte y 5,2 y 9,1 GB se comprometió a seguir). Tenga en cuenta que GigaMo no es el nombre de cualquier producto en particular MO. *La temperatura por encima de la cual un cuerpo ferro magnético pierde su magnetismo, comportádose como un material puramente paramagnético.
BREVE INTRODUCCION AL HARDWARE
103
Corolario:
Un disco óptico regrabable que se utiliza en combinación con la tecnología magnética. Empleado en una variedad de aplicaciones de almacenamiento y de archivo, incluyendo las bibliotecas de disco grande, magneto-ópticos (MO) discos están alojados en cartuchos extraíbles que tengan una vida útil de 30-años. Con capacidad de hasta un millón de reescrituras, MO tiempos de acceso están en el rango sub-25ms y son más rápidos que pura óptica de CD-RW y DVD-RAM. Factores de forma y Capacidades Los discos MO vienen en 3,5 “y 5,25” cartuchos. Estos últimos son de doble cara, sino que debe ser eliminado y se volcó. Capacidades de 3,5 “cartuchos son 128 MB, 230MB, 640MB, 1.3GB. Por 5,25”, que son 650MB, 1.3GB, 2.6GB, 5.2GB, 9.1GB.
22.3 Unidades Floptical Unidades magneto-ópticas no se debe confundir con Floptical unidades, que también combinan tecnologías ferro magnéticos y ópticos, aunque de una manera diferente. Flópticals son 21 megabytes 90 mm disquetes magnéticos usando pistas ópticas para aumentar la precisión en el seguimiento de la cabeza magnética; de los habituales 135 pistas por pulgada a 1.250 pistas por pulgada. No láser o calentamiento está implicado, un simple infrarrojos LED se utiliza para seguir las pistas ópticas, mientras que una cabeza magnética tocado la superficie de grabación. Las unidades también pueden leer y escribir disquetes tradicionales de 90 mm, aunque no la variedad 2,88 megabyte. Flópticals fueron fabricados por Periféricos Insite, una empresa fundada por Jim Burke, uno de los ingenieros clave detrás de la original 5 ¼ pulgadas de desarrollo de unidad de disco en Shugart Associates en 1976. Los principales accionistas eran Maxell , Iomega y 3M .
ALFONSO GOMEZ HERRERA
104
23.- MEMORIAS USB (Flash) La memoria Flash es un tipo de memoria basada en semiconductores, no volátil y reescribirle Esto significa que posee muchas de las características de la memoria RAM, excepto que sus datos no se eliminan al apagarse la computadora. La memoria Flash almacena porciones de datos en las celdas de memoria, pero esos datos permanecen almacenados aunque se produzca un corte de energía.
Debido a su alta velocidad, durabilidad y bajo consumo de energía, la memoria flash resulta ideal para muchos usos, como por ejemplo en cámaras digitales, teléfonos móviles, impresoras y dispositivos que puedan almacenar y reproducir sonido, como los reproductores de MP3. Además, este tipo de memoria no tiene partes móviles, lo que la hace más resistente a eventuales golpes. Las aplicaciones más habituales de las memorias flash son: • El llavero USB que, además del almacenamiento, suelen incluir otros servicios como radio FM, grabación de voz y, sobre todo como reproductores portátiles de MP3 y otros formatos de audio. • Las PC Card • La fotografía digital.
23.1 Antecedentes de la memoria flash Fue Fujio Masuoka en 1984, quien inventó este tipo de memoria como evolución de las EEPROM existentes por aquel entonces. Intel intentó atribuirse la creación de esta sin éxito, aunque si comercializó la primera memoria flash de uso común. En 1994 SanDisk comenzó a comercializar tarjetas de memoria (CompactFlash) basadas en estos circuitos, y desde entonces la evolución ha llegado a pequeños dispositivos de mano de la electrónica de consumo como reproductores de MP3 portátiles, tarjetas de memoria para vídeo consolas, capacidad de almacenamiento para las PC Card que nos permiten conectar a redes inalámbricas y un largo etcétera, incluso llegando a la aeronáutica espacial.
23.2 Memorias Electrónicas Introducción Las memorias son unidades de almacenamiento de datos e instrucciones en una computadora. Llamamos sistema de memoria al conjunto de estos dispositivos y los algoritmos de hardware y/o software de control de los mismos. Diversos dispositivos son capaces almacenar información, la información almacenada se distribuye en forma compleja en una variedad de memorias diferentes, con características físicas distintas. Una clasificación funcional de las memorias es la siguiente: Se pueden definir algunos parámetros generales a las memorias BREVE INTRODUCCION AL HARDWARE
105 a) Unidad de almacenamiento: Bit. b) Capacidad de almacenamiento: Cantidad de bits que puede almacenarse. Si bien la unidad de almacenamiento es el bit, muchas veces se usa el byte. Así encontramos capacidades en Kb ( 1Kb = 1024 bytes), en Mb (1Mb = 1024 Kb), en Gb (1Gb = 1024 Mb), etc.. Las memorias se consideran organizadas en palabras, cada palabra es un conjunto de bits a los cuales se accede simultáneamente. c) Tiempo de acceso: Es el que se tarda en leer o escribir una palabra en la memoria desde el momento que se direcciona. d) Tipo de acceso: Acceso aleatorio: cuando el tiempo de acceso es similar para cualquier posición Acceso serie: cuando el tiempo de acceso depende de la posición que ocupa la palabra dentro de la memoria. Pueden considerarse como un sistema digital mixto (combinacional y secuencial) capaz de almacenar información binaria el cual se puede acceder (introducir o extraer formación) sólo parcialmente en un momento dado.
Tipos de Memorias. ROM: (Read Only Memory): Se usan principalmente en microprogramación de sistemas. Los fabricantes las suelen emplear cuando producen componentes de forma masiva. PROM: (Programmable Read Only Memory): El proceso de escritura es electrónico. Se puede grabar posteriormente a la fabricación del chip, a diferencia de las anteriores que se graba durante la fabricación. Permite una única grabación y es más cara que la ROM. EPROM (Erasable Programmable Read Only Memory): Se puede escribir varias veces de forma eléctrica, sin embargo, el borrado de los contenidos es completo y a través de la exposición a rayos ultravioletas (de esto que suelen tener una pequeña ‘ventanita’ en el chip). EEPROM (Electrically Erasable Programmable Read Only Memory): Se puede borrar selectivamente byte a byte con corriente eléctrica. Es más cara que la EPROM. Memoria flash: Está basada en las memorias EEPROM pero permite el borrado bloque a bloque y es más barata y densa. ALFONSO GOMEZ HERRERA
106 RAM: La memoria de acceso aleatorio (en inglés: random-access memory) se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. DRAM (Dynamic Random Access Memory): Los datos se almacenan como en la carga de un condensador. Tiende a descargarse y, por lo tanto, es necesario un proceso de refresco periódico. Son más simples y baratas que las SRAM. SRAM (Static Random Access Memory): Los datos se almacenan formando biestables, por lo que no requiere refresco. Igual que DRAM es volátil. Son más rápidas que las DRAM y más caras.
23.3 Funcionamiento Las celdas de memoria Flash pueden gastarse al cabo de un determinado número de ciclos de escritura, que se cifran (generalmente entre 100.000 y un millón) dependiendo del diseño de la celda y de la precisión del proceso de fabricación. El principal mecanismo de destrucción lo constituye el daño acumulativo que se produce sobre la puerta de flotación de la celda, debido a los elevados voltajes empleados, de forma repetitiva, para borrar la celda, o la capa de oxido se rompe o los electrones se acumulan en la puerta de flotación. Los fabricantes de memoria Flash tienen en cuenta este fenómeno e incorporan celdas adicionales que pueden sustituir a las gastadas. Además, muchos fabricantes de sistemas de memoria Flash destinados al almacenamiento de datos utilizan una técnica denominada de nivelación que consiste en desplazar los datos alrededor del chip para que cada celda se “gaste” lo más uniformemente posible. Una celda de una memoria Flash es como un transistor convencional pero con una puerta adicional. Entre la puerta de control y la fuente y el drenaje existe una segunda puerta, denominada de flotación que sirve a modo de mecanismo de carga. Las operaciones básicas de una memoria Flash son, la lectura y borrado. La programación se efectúa con la aplicación de una tensión (generalmente de 12V o 12.75 V) a cada una de las compuertas de control, correspondiente a las celdas en las que se desean almacenar 0s. Para almacenar 1s no es necesario aplicar tensión a las compuertas debido a que el estado por defecto de las celdas de memoria es 1. La lectura se efectúa aplicando una tensión positiva a la compuerta de control de la celda de memoria, en cuyo caso el estado lógico almacenado se deduce con base en el cambio de estado del transistor: Si hay un 1 almacenado, la tensión aplicada será lo suficiente para encender el transistor y hacer circular corriente al drenador hacia la fuente. Si hay un 0 almacenado, la tensión aplicada no encenderá el transistor debido a que la carga eléctrica almacenada en la compuerta aislada. Para determinar si el dato almacenado en la celda es un 1 ó un 0, se detecta la corriente circulando por el transistor en el momento que se aplica la tensión en la compuerta de control. El borrado consiste en la liberación de las cargas eléctricas almacenadas en las compuertas aisladas de los transistores. Este proceso consiste en la aplicación de una tensión lo suficientemente negativa que desplaza las cargas. BREVE INTRODUCCION AL HARDWARE
107 La parte más elemental de una memoria es un transistor Tipo MOS*
23.4 Partes de la Memoria
1. Entrada estándar USB 2. Dispositivo masivo de control 3. Puntos de prueba 4. Circuito Integrado de Memoria 5. Cristal Oscilador 6. Diodo LED (opcional) 7. Interruptor de protección de escritura (Opcional) 8. Espacio para una segunda memoria
*La tecnología CMOS fue desarrollada por Wanlass y Sah, de Fairchild Semiconductor, a principios de los años 60S. Sin embargo, su introducción comercial se debe a RCA, con su famosa familia lógica CD4000. ALFONSO GOMEZ HERRERA
24.- PLOTTER
108
Plotter o plóter es un periférico de computadora que permite dibujar o representar diagramas y gráficos. Existen plotters monocromáticos y de cuatro, ocho o doce colores. En la actualidad los plotters de inyección son los más usados, ya que realizan dibujos no lineales con mayor precisión y resultan más rápidos y silenciosos. Los plotters más antiguos, en cambio, se limitaban a realizar dibujos lineales. El plotter tiene diferentes tamaños, según sus características. Hay plotters que apenas superan los 90 centímetros de ancho, mientras que otros se acercan a los 160 centímetros y permiten hacer un uso profesional e intensivo. El plotter funciona mediante el movimiento de plumas sobre el papel. Cuando la máquina debe realizar un trazo complejo, hace el dibujo muy lentamente debido al movimiento mecánico de las plumas.
24.1 Antecedentes Este periférico en una variante de la impresión digital, nacida por necesidades especificas, uno de los primeros plotter comerciales fue por la IBM; El Calcomp 565 drum plotter, introducido en 1959. Por otra parte de la empresa (Considerando el desarrollo): HP hizo su primera adquisición en 1958 cuando compró la empresa F Mosley de Pasadena, California. Mosley hizo registradores gráficos para instrumentos. Esta compañía se convirtió posteriormente en la División de San Diego que hizo plotters HP pluma. En la década de 1970, trazadores de plumillas eran la única manera de obtener alta resolución en papel salida de gráficos de computadoras. La resolución de salida de las impresoras de gráficos en general varía entre 72 dpi y 100 dpi. Pero, incluso más antiguos de HP plotters digitales podría producir una línea de resolución equivalente a 1000 puntos por pulgada. Hasta 1987, trazadores de plumillas eran también el único método rentable de conseguir la salida de color de las computadoras.
24.2 Caracteríticas Características El Plotter tiene un alto grado de calidad de impresión tanto en negro como en color, También con el auge de los productos compatibles, es posible utilizar cartuchos de marcas menos reconocidas, pero con calidad semejante a la de los fabricantes. • Tamaño del papel: se refiere al tamaño máximo en pulgadas (“) ó centímetros (cm.) que soporta en el tamaño de la hoja ó manta. Generalmente será de 60 cm. X 90 cm. • Calidad de impresión (Resolución): es la cantidad de puntos de tinta que es capaz de condensar la impresora, en un área de 1 pulgada cuadrada y se mide en dpi (“dots per inch”) ó ppp (puntos por pulgada).
BREVE INTRODUCCION AL HARDWARE
109 Este puede ser desde muy baja calidad hasta muy alta, lo que implica un gasto mayor de tinta: 2880 x 1440 dpi; 1440 x 720 dpi; 720 x 720 dpi; 720 x 360 dpi; 360 x 360 dpi • Tecnología de impresión: libre de impacto, inyección de tinta. • Conectividad: es el tipo de puertos con que cuenta la impresora para recibir datos desde la computadora, redes u otros dispositivos. Generalmente son USB, Centronics. ó FireWire. • Tamaño: básicamente son dispositivos de gran formato, por lo que el espacio destinado para colocarlo debe ser amplio. • Costo del consumible: es el valor del cartucho negro ó de color que necesita la impresora.
24.3 Tipos 1. 2.
Electrostáticos. Inyección
1.
Plotters de Pluma:
Los primeros plotters, aún en pleno uso, fueron los de plumillas. Son los que más tardan en realizar un dibujo complejo, pero también son los que ofrecen una calidad y suavidad en las curvas absolutamente perfectas. Normalmente disponen de un soporte para seis u ocho plumillas, del cual el cabezal de dibujo las irá tomando según las necesite. En los registradores de pluma el dibujo se realiza mediante un cabezal en el que se insertan los elementos de escritura: plumas, bolígrafos o rotuladores. Cada elemento de escritura puede subirse o bajarse hasta entrar en contacto con el papel, todo ello controlado por programa. Tradicionalmente los plotters se han utilizado para dibujar planos arquitectónicos, de ingeniería, topográficos y todo tipo de dibujos de tipo técnico. Hoy en día, sin embargo, gracias a la proliferación de los programas de diseño artístico, se han instalado varios para realizar el dibujo de líneas de diseños artísticos complejos. Las plumillas pueden ser de muchos tipos: rotuladores, estilógrafos para papel normal y vegetal, para papel poliéster, plumas de tinta al aceite (para transparencias), etc. Incluso hay algunos modelos que pueden usar portaminas de varios grosores (normalmente 0.25, 0.35, 0.5 y 0.7); el trazador se encarga de sacar una mina nueva a medida que se vaya gastando la anterior. 2.
Plotters Electroestáticos
Otro tipo de plotters son los plotters electrostáticos, térmicos o láser. Suelen ser bastante más caros que cualquier otro tipo de trazador y aunque con tecnologías distintas entre sí, todos ellos ofrecen una calidad de dibujo similar. ALFONSO GOMEZ HERRERA
110 Casi ninguno de ellos dibuja en color, y la calidad del resultado final se asemeja mucho a la impresión de un fax, aunque el tamaño del punto es menor y el trazado resiste mejor el paso del tiempo y la acción de la luz. Los registradores electrostáticos son impresoras electrostáticas. El sistema de tracción de papel es similar al de una impresora convencional. El dibujo se realiza línea a línea. El elemento de escritura está constituido por una serie de agujas cuya densidad puede variar. La utilidad de los plóters reside en su rapidez, ya que una vez recibido el dibujo que le envía la computadora y tras procesarlo completamente, puede realizar una copia DIN A0 en menos de cinco minutos. Otra ventaja de estos aparatos es su mantenimiento prácticamente nulo y la posibilidad de funcionamiento durante horas, totalmente desatendido. Su único consumible es la bobina de papel.
1. 2. 3. 4. 5. 6.
Panel: Contiene indicadores de impresión, atasco de hoja y proceso, así como los botones de encendido, cambio de hoja etc. Algunos cuenta con, pantallas tipo LCD para indicaciones de proceso. Bandeja de salida: es por donde saldrá el trabajo impreso Soporte Móvil: Permite desplazarlo fácilmente. Bandeja de entrada: Es la zona por donde se ingresaran las hojas a imprimir Conectores de datos: Son el puente de conexión hacia la computadora para su comunicación. Tapa: protege del polvo a los circuitos así como las partes mecánicas del sistema.
BREVE INTRODUCCION AL HARDWARE
111 25.- BLUETOOTH
Bluetooth es el nombre común de la especificación industrial IEEE 802.15.1, que define un estándar global de comunicación inalámbrica que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia segura, globalmente y sin licencia de corto rango. Los principales objetivos que se pretende conseguir con esta norma son: - Facilitar las comunicaciones entre equipos móviles y fijos. - Eliminar cables y conectores entre éstos. - Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre nuestros equipos personales.
25.1 Antecedentes La primera empresa en investigar la tecnología Bluetooth (“Diente azul”). Fue Ericsson, encargada de liderar un grupo que, con el tiempo, sumó a IBM, Nokia, Microsoft, Motorola y otras compañías que apoyaron el estándar El nombre procede del rey danés y noruego Harald Blåtand, cuya traducción al inglés es Harald Bluetooth, conocido por unificar las tribus noruegas, suecas y danesas y por convertirlos al cristianismo. La idea de este nombre fue propuesto por Jim Kardach que desarrolló un sistema que permitiría a los teléfonos móviles comunicarse con las computadoras y unificar la comunicación de los sistemas digitales. El logo de Bluetooth son las runas* de las iníciales del nombre y el apellido. La (Hagall) y la (Berkana).
*Los alfabetos rúnicos son un grupo de alfabetos que comparten el uso de unas letras llamadas runas, que se emplearon para escribir en las lenguas germánicas principalmente en Escandinavia y las islas Británicas, aunque también se usaron en Europa central y oriental, durante la Antigüedad y la Edad Media, antes y también durante la cristianización de la región. ALFONSO GOMEZ HERRERA
25.2 Versiones
112
*Bluetooth v.1.1: en 1994, Ericsson inició un estudio para investigar la viabilidad de una nueva interfaz de bajo costo y consumo para la interconexión vía radio (eliminando así cables) entre dispositivos como teléfonos móviles y otros accesorios. El estudio partía de un largo proyecto que investigaba unos multicomunicadores conectados a una red celular, hasta que se llegó a un enlace de radio de corto alcance, llamado MC link. Conforme este proyecto avanzaba se fue haciendo claro que éste tipo de enlace podía ser utilizado ampliamente en un gran número de aplicaciones, ya que tenía como principal virtud que se basaba en un chip de radio. *Bluetooth v.1.2: a diferencia de la 1.1, provee una solución inalámbrica complementaria para co-existir Bluetooth y Wi-Fi en el espectro de los 2.4 GHz, sin interferencia entre ellos. La versión 1.2 usa la técnica “Adaptive Frequency Hopping (AFH)”, que ejecuta una transmisión más eficiente y un cifrado más seguro. Para mejorar las experiencias de los usuarios, la V1.2 ofrece una calidad de voz (Voice Quality Enhanced Voice Processing) con menor ruido ambiental, y provee una más rápida configuración de la comunicación con los otros dispositivos bluetooth dentro del rango del alcance, como pueden ser PDAs, HIDs (Human Interface Devices), computadoras portátiles, computadoras de escritorio, Headsets, impresoras y celulares. * Bluetooth v.2.0: creada para ser una especificación separada, principalmente incorpora la técnica “Enhanced Data Rate” (EDR) que le permite mejorar las velocidades de transmisión en hasta 3Mbps a la vez que intenta solucionar algunos errores de la especificación 1.2. *Bluetooth v.2.1: simplifica los pasos dispositivos, además el consumo de
para crear la conexión entre potencia es 5 veces menor.
*Bluetooth v3.0 (mediados 2009): aumenta considerablemente la velocidad de transferencia. La idea es que el nuevo Bluetooth trabaje con WiFi, de tal manera que sea posible lograr mayor velocidad en los smartphones. El 28 de marzo de 2006, el Bluetooth SIG anunció su intención de utilizar UltraWideband/MB-OFDM como capa física para futuras versiones de Bluetooth.
25.3 Funcionamiento El hardware que compone el dispositivo Bluetooth está compuesto por dos partes: Un dispositivo de radio, encargado de modular y transmitir la señal Un controlador digital, compuesto por una CPU, por un procesador de señales digitales (DSP - Digital Signal Processor) llamado Link Controller (o controlador de Enlace) y de los interfaces con el dispositivo anfitrión. El LC o Link Controller está encargado de hacer el procesamiento de la banda base y del manejo de los protocolos ARQ y FEC de capa física. Además, se encarga de las funciones de transferencia (tanto asíncrona como síncrona), codificación de Audio y cifrado de datos. El CPU del dispositivo se encarga de atender las instrucciones relacionadas con Bluetooth del dispositivo anfitrión, para así simplificar su operación. Para ello, sobre el CPU corre un software denominado Link Manager que tiene la función de comunicarse con otros dispositivos por medio del protocolo LMP. Entre las tareas realizadas por el LC y el Link Manager, destacan las siguientes: BREVE INTRODUCCION AL HARDWARE
113 * Envío y Recepción de Datos. * Empaginamiento y Peticiones. * Determinación de Conexiones. * Autenticación. * Negociación y determinación de tipos de enlace. * Determinación del tipo de cuerpo de cada paquete. * Ubicación del dispositivo en modo sniff o hold.
Especificaciones Bluetooth protocal : Bluetooth Specification v2.0+EDR Frequency : 2.4GHz ISM band Modulation : GFSK(Gaussian Frequency Shift Keying) Emission power : ≤4dBm, Class 2 Sensitivity : ≤-84dBm at 0.1% BER Speed : Asynchronous: 2.1Mbps(Max) / 160 kbps, Synchronous: 1Mbps/1Mbps Security : Authentication and encryption Profiles : Bluetooth serial port CSR chip : Bluetooth v2.0 Wave band : 2.4GHz—2.8GHz, ISM Band Protocol : Bluetooth V2.0 Power Class : (+6dbm) Reception sensitivity: -85dBm Voltage : 3.3 (2.7V—4.2V) Current : Paring - 35mA, Connected - 8mA Temperature : -40℃~ +105℃ User defined Baud rate : 4800, 9600, 19200, 38400, 57600, 115200, 230400, 460800,921600 ,1382400. Dimension : 26.9mm*13mm*2.2mm ALFONSO GOMEZ HERRERA
26.- REDES
114
Tarjeta de Red. Las tarjetas de red (también denominadas adaptadores de red, tarjetas de interfaz de red o NIC.) actúan como la interfaz entre una computadora y el cable de red. La función de la tarjeta de red es la de preparar, enviar y controlar los datos en la red, de área local (LAN). Por lo general, una tarjeta de red posee dos luces indicadoras (LED): La luz verde corresponde a la alimentación eléctrica; La luz naranja (10 Mb/s) o roja (100 Mb/s) indica actividad en la red (envío o recepción de datos). Para preparar los datos que se deben enviar, la tarjeta de red utiliza un transceptor, que transforma a su vez los datos paralelos en datos en serie. Cada tarjeta posee una dirección única denominada dirección MAC, asignada por el fabricante de la tarjeta, lo que la diferencia de las demás tarjetas de red del mundo. Las tarjetas de red presentan configuraciones que pueden modificarse. Algunas de estas son: los interruptores de hardware (IRQ) la dirección de E/S y la dirección de memoria (DMA). Para asegurar la compatibilidad entre la computadora y la red, la tarjeta debe poder adaptarse a la arquitectura del bus de datos del sistema y debe poseer un tipo de conexión adecuado al cable. Cada tarjeta está diseñada para funcionar con un tipo de cable específico. Algunas tarjetas incluyen conectores de interfaz múltiples (que se pueden configurar con caballetes, conmutadores DIP o software). Los conectores utilizados con más frecuencia son los RJ-45. Nota: Algunas topologías de red patentadas que utilizan cables de par trenzado suelen recurrir a conectores RJ-11. En algunos casos, estas topologías se denominan “pre10BaseT”. Por último, para asegurar la compatibilidad entre la computadora y la red, la tarjeta debe ser compatible con la estructura interna del sistema (arquitectura de bus de datos) y debe tener el tipo de conector adecuado para el cable que se está utilizando.
Alguna Siglas: NIC: Net Interface Card, controlador de interfaz de red LAN: Local Area Network,Red de área local LED: Light-Emitting Diode, Diodo Emisor de Luz MAC: Media Access Control, Control de acceso al medio IRQ: Interrupt ReQuest, petición de interrupción. E/S: Entrada/Salida DMA: Direct memory access, Acceso Directo a Memoria DIP: Dual In-Line Package, Paquete doble linea RJ45: Registered Jack 45, Conector Registrado; estándar introducido por la compañía Bell System en los años setenta. 10BASET: Propuesta de estandarización del IEEE para el tráfico de comunicaciones en redes Ethernet de hasta 10 Mbps utilizando cables de par trenzado. IP: Internet Protocol, Protoclo de Internet. WAN: Wide Aérea Network, Red de área local ancha BREVE INTRODUCCION AL HARDWARE
26.1 Antecedentes
115
Primeras conexiones. Las primeras conexiones fueron un poco alejadas a los usuarios, se inicio con enlazados mediante líneas de muy diverso tipo y formas, primeramente para las impresiones en remoto, de pronto nació el Telnet, un servicio que permitía ya el acceso a las computadoras mediante terminales remotos. Con el acceso de computadoras en las universidades se vio la necesidad de la transferencia de información por lo que nació el FT (“File Transfer”) (no existía Internet) estas transferencia se limitaba a Universidades y Milicia. Primeras redes Diciembre de 1957 marca la partida en el desarrollo de la informática (en especial de Internet), cuando en plena Guerra Fría, en respuesta al primer satélite soviético, el Departamento de Defensa (DoD) funda la ya mítica ARPA. (Agencia de Proyectos Avanzados de Investigación) Advanced Research Proyects Agency), para devolver a los EEUU la superioridad en el área de las aplicaciones militares de la informática. Esta agencia sería el promotor de muchos proyectos científicos (no solo informáticos) de gran trascendencia, entre otros el lanzamiento del primer satélite artificial USA. Durante los años 60S y 70S se crearon muchas tecnologías de redes, cada una basada en un diseño específico de hardware. Algunas de estas redes, llamadas de aérea local LAN (Local Aérea Network), conectan equipos en distancias cortas (normalmente dentro del propio Campus de la Universidad), mediante cables y hardware específico instalado en cada equipo. Otras redes más grandes, llamadas de aérea extensa, WAN, conectaban equipos a distancias mayores utilizando líneas de transmisión similares a las empleadas en los sistemas telefónicos. A pesar de que las LAN y WAN hicieron que compartir información entre organizaciones fuera mucho más sencillo, la información no podía ser transferida más allá de los límites de cada red. Cada tecnología de red transmitía la información de modo diferente, supeditada al diseño del propio hardware. Una determinada tecnología LAN solo podía funcionar en ciertos equipos, y la mayoría de las tecnologías LAN y WAN o eran incompatibles entre sí, o la comunicación entre ellas era sumamente complicada.
26.2Partes
ALFONSO GOMEZ HERRERA
26.3 Características
116
- Están diseñadas para ciertos tipos de estándares de redes, por lo que tienen una velocidad máxima de transmisión de datos en bits por segundo (bps) acorde al estándar. --Tienen uno ó varios puertos para la conexión de los cables hacia los concentradores ó hacia otras computadoras. - Cuentan con un conector especial en su parte inferior que permite insertarlas en las ranuras de expansión de la tarjeta principal. - Pueden convivir con las tarjetas de red integradas en la tarjeta principal, se puede tener acceso a redes de manera independiente, no hay límite de tarjetas de red conectadas en una computadora. - Compiten actualmente contra las tarjetas para red inalámbricas, las cuáles ofrecen muchas ventajas con respecto al uso de cables y puertos físicos. Dirección MAC: Cada tarjeta de red, tiene un número identificador único que asignan los fabricantes legales de Hardware, este número es denominado MAC (Media Access Control) ó control de acceso al medio, también conocido como dirección física, que es independiente al protocolo de red que se utilice. No hay que confundir la MAC con el N/S ó número de serie, ya que este último es un número que está asociado al proceso de fabricación en serie de las tarjetas de red. Un ejemplo de MAC es la siguiente: 00-0D-87-DF-12-83 Un ejemplo de N/S puede ser: RX4568L2548-3 Dirección IP: En el caso de la dirección IP (Internet Protocol), es un identificador de un equipo dentro de una red que utilice tal protocolo, actualmente se utiliza el protocolo IPv4 y se está integrando muy lentamente el protocolo IPv6. Estas direcciones IP pueden ser asignadas de 2 maneras: 1.- Dinámica: la asigna de manera automática un DHCP (Dynamic Host Configuration Protocol - protocolo de configuración dinámica del anfitrión), que no es más que una función que se asigna a un servidor por medio de programas, que evita en lo posible que se dupliquen las direcciones IP y permite reservar otras. Ejemplos de asignación dinámica es cuándo conectas el cable de red a una Netbook e inmediatamente tienes acceso a la red del lugar y/o Internet. 2.- Estática: en este caso hay que escribirla manualmente en las propiedades de la tarjeta de red, el problema radica que es muy posible que se dupliquen y que no se lleve el control óptimo de las mismas. Esto se utiliza siempre que no se cuente con un DHCP disponible. Ejemplo de asignación estática, es cuando se conectan varios equipos a un Switch y se les tiene que asignar IPS para que se comuniquen correctamete en la red. Un ejemplo de IPv4 es la siguiente: 192.168.107.200 Un ejemplo de IPv6 es la siguiente: 2001:123:4:ab:cde:3403:1:63 *Protocolo es un conjunto de reglas usadas por computadoras para comunicarse unas con otras a través de una red por medio de intercambio de mensajes. Puede ser definido como las reglas o el estándar que define la sintaxis, semántica y sincronización de la comunicación. Los protocolos pueden ser implementados por hardware, software, o una combinación de ambos. A su más bajo nivel, define el comportamiento de una conexión de hardware. BREVE INTRODUCCION AL HARDWARE
Tarjetas Inalámbricas.
117
Wi-Fi: También son NIC las tarjetas inalámbricas o wireless, las cuales vienen en diferentes variedades dependiendo de la norma a la cual se ajusten, usualmente son 802.11a, 802.11b y 802.11g. Transmite a 11 Mbps (1,375 MB/s) con una distancia teórica de 100 metros y la 802.11g que transmite a 54 Mbps (6,75 MB/s). La velocidad real de transferencia que llega a alcanzar una tarjeta WiFi con protocolo 11.b es de unos 4Mbps (0,5 MB/s) y las de protocolo 11.g llegan como máximo a unos 20Mbps (2,6 MB/s). Actualmente el protocolo que se viene utilizando es 11.n que es capaz de transmitir 600 Mbps. Actualmente la capa física soporta una velocidad de 300Mbps, con el uso de dos flujos espaciales en un canal de 40 MHz. Dependiendo del entorno, esto puede traducirse en un rendimiento percibido por el usuario de 100Mbps.
26.4 Topologías Una red informática está compuesta por equipos que están conectados entre sí mediante líneas de comunicación (cables de red, etc.) y elementos de hardware (adaptadores de red y otros equipos que garantizan que los datos viajen correctamente). La configuración física, es decir la configuración espacial de la red, se denomina topología física. Los diferentes tipos de topología son: Topología de bus Topología de estrella Topología en anillo Topología de árbol Topología de malla
Tipos de conexión actuales Los tipos de conexión a internet que podemos encontrar en la actualidad son:
• RTC (Red Telefónica Conmutada) • RDSI (Red Digital de Servicios Integrados) • ADSL (Línea de Abonado Digital Asimétrica) • CABLE • VÍA SATÉLITE • LMDI (Local Multipoint Distribution System) ALFONSO GOMEZ HERRERA
27.- ROUTER- HUB- SWITCH
118
Router Un router —anglicismo también conocido como enrutador o encaminador de paquetes— es un dispositivo que proporciona conectividad a nivel de red o nivel tres en el modelo OSI*. Enrutadores Los enrutadores son dispositivos físicos cuyo propósito es “enrutar” o dirigir información entre dos o más redes. Es el tipo de dispositivos que una compañía tiene para conectar su red interna a otras redes, por ejemplo a Internet. Adicionalmente un enrutador suele tener la funcionalidad de firewall, lo que los hace también una buena opción para redes domésticas conectadas a Internet. Hub Un concentrador o hub es un dispositivo que permite centralizar el cableado de una red y poder ampliarla. Esto significa que dicho dispositivo recibe una señal y repite esta señal emitiéndola por sus diferentes puertos. En la actualidad, la tarea de los concentradores la realizan, con frecuencia, los conmutadores o switchs. Hub significa eje y se le denomina de manera común como concentrador. Se trata de un dispositivo utilizado en redes de área local (LAN - Local Area Network), una red local es aquella que cuenta con una interconexión de computadoras relativamente cercanas por medio de cables. La función primordial del Hub es concentrar las terminales (otras computadoras cliente) y repetir la señal que recibe de todos los puertos. También puede tener la función de un servidor, ya que tiene la capacidad de gestionar los recursos compartidos de la red hacia los clientes), son la base de la creación de redes tipo estrella. Switch Switch traducido significa conmutador (interruptor). Se trata de un dispositivo inteligente utilizado en redes de área local (LAN), una red local es aquella que cuenta con una interconexión de computadoras relativamente cercanas por medio de cables. La función primordial del Switch es unir varias redes entre sí, sin examinar la información lo que le permite trabajar rápidamente, ya que solo evalúa la dirección de destino, aunque actualmente se combinan con la tecnología Router para actuar como filtros y evitar el paso de tramas de datos dañadas. *El modelo de interconexión de sistemas abiertos (ISO/IEC 7498-1), también llamado OSI (open system interconnection) es el modelo de red descriptivo; Creado por la Organización Internacional para la Estandarización (ISO) en el año 1984 BREVE INTRODUCCION AL HARDWARE
27.1 Antecedentes
119
Breve Historia En los 60s poco había que conectar en cuanto a computadoras, los únicos mecanismos de acceso al Computador, estaban conectados al computador mediante un cable. La única posibilidad de acceso remoto era mediante el uso de una línea telefónica local. En 1966 dos computadores fueron conectados a través de un enlace discado de 1200 bps entre los laboratorios Lincoln y la compañía System Development Corporation. En 1967 Lawrence G. Roberts del MIT1 presenta el primer plan para crear ARPANET (Advanced Research Projects Administration Network) en una conferencia en Ann Arbor, Michigan en 1969. Los nodos eran minicomputadoras Honeywell DDP-516 con 12K en memoria con líneas telefónicas de 50 kbps. Nodo 1: UCLA2 (September) Nodo 2: Stanford Research Institute (SRI) (October) Nodo 3: University of California Santa Barbara (UCSB) (November) Nodo 4: University of Utah (December) 1970 La universidad de Hawaii desarrolla la primera red conmutada 1971 ARPANET crece a 15 nodos 1972 Ray Tomlinson adapta su programa de correo electrónico para ARPANET El científico frances Louis Pouzin crea CYCLADES3 1973 ARPANET cambia su nombre a DARPANET4 1973 ARPANET hace su primera conexión internacional con el University College of London 1974 Vinton Cerf and Bob Kahn publican “A Protocol for Packet Network Intercommunication” el cual especifica la arquitectur de un programa de control de transmisión (Transmission Control Program, TCP) 1978 TCP se divide en TCP e IP 1979 USENET 1980 BITNET (Because It’s time to Network, Porque Es hora de Red), CSNET (Computer Science NETwork) is built by the University of Wisconsin, the University of Delaware, Purdue University, RAND Corp5., and BBN6 1983 DCA (Defense Communication Agency) y DARPA7 establecen el Transmission Control Protocol (TCP) e Internet Protocol (IP) y el conjunto de protocolos conocidos como TCP/IP. 1983 ARPANET se divide en ARPANET y MILNET8. The military network, MILNET. 68 nodos de los 113 fueron mudados a MILNET. 1983 Se conectaron CSNET9 y ARPANET 1984 Se introdujo Domain Name Service 1988 Robert Morris, hijo de un experto de computación de la National Security Agency, envía un gusano a través de la red, afectando a 6,000 de los 60,000 hosts existentes. Él programó el gusano para reproducirse a sí mismo y filtrarse a través de los computadores conectados. El tamaño de los archivos llenaba la memoria de las máquinas desabilitándolas 1991 El CERN10, en Suiza, desarrolla la World Wide Web (WWW) y Tim Berner-Lee crea el lenguaje HyperText Markup Language (HTML) 1993 La NCSA crea Mosaic el primer navegador gráfico 1994 Dos estudiantes de doctorado de Stanford, Jerry Yang y David Filo, crean Yet Another Hierarchical Officious Oracle (Yahoo) ALFONSO GOMEZ HERRERA
120 1 Massachusetts Institute of Technology 2University of California, Los Angeles 3 CYCLADES de conmutación de paquetes de red, fue un francés red de investigación creada en la década de 1970. Fue desarrollado para explorar alternativas a la ARPANET diseño y apoyo a la investigación de la red en general. Fue extremadamente influyente en el diseño inicial de Internet. 4 Advanced Research Projects Agency Network 5 Researches ANd Development 6 Bolt, Beranek and Newman 7 Defense Advanced Research Projects Agency 8 MILitary NETwork 9 The Computer Science Network 10 the European Organization for Nuclear Research
27.2 Características Características Router -Permiten conexión a la LAN desde otras redes, así como de las computadoras que así lo soliciten, principalmente para proveer de servicios de Internet. -Se puede interconectar con redes WLAN (Wireless Local Area Network), por medio de dispositivos inalámbricos como Access Point ó Routers Wi-Fi (Wireless Fidelity). -Permiten la conexión ADSL (Asymmetric Digital Subscriber Line), la cual permite el manejo de Internet de banda ancha y ser distribuido hacia otras computadoras por medio de cables UTP. Existen básicamente dos tipos de routers: a) Estáticos: este tipo es más barato y está enfocado en elegir siempre el camino más corto para los datos, sin considerar si aquel camino tiene o no atascos; b) Dinámicos: este es más sofisticado (y caro) y considera si hay o no atascos en la red . Trabaja para hacer el camino más rápido, aunque sea el camino más largo. No sirve de nada utilizar el camino más corto si este está congestionado. Muchos de los routers dinámicos son capaces de realizar compresión de datos para elevar la tasa de transferencia. Los routers son capaces de interconectar varias redes y generalmente trabajan en conjunto con hubs y switchs. Suelen poseer recursos extras, como firewall, por ejemplo. Características Hub -Permiten concentrar todas las estaciones de trabajo (clientes). -También pueden gestionar los recursos compartidos hacia los equipos clientes. -Cuentan con varios puertos RJ45 integrados, desde 4, 8, 16 y hasta 32. -Son necesarios para crear las redes tipo estrella (todas las conexiones de las computadoras se concentran en un solo dispositivo). -Permiten la repetición de la señal y son compatibles con la mayoría de los sistemas operativos de red. -Tienen una función en la cual pueden ser interconectados entre sí, pudiéndose conectar a otros HubS y permitir la salida de datos (conexión en cascada), por medio del último puerto RJ45. BREVE INTRODUCCION AL HARDWARE
121 Características Switch -Permiten la conexión de distintas redes de área local (LAN). -Se encargan de solamente determinar el destino de los datos “Cut-Throught”. -Si tienen la función de Bridge integrado, utilizan el modo “Store-And-Forward” y por lo tanto se encargan de actuar como filtros analizando los datos. -Interconectan las redes por medio de cables -Se les encuentra actualmente con un Hub integrado. -Cuentan con varios puertos RJ45 integrados, desde 4, 8, 16, 32 y hasta 52. -Permiten la regeneración de la señal y son compatibles con la mayoría de los sistemas operativos de red. -Actualmente compiten contra dispositivos Hub y Router y Switch inalámbricos. -El puerto 1 y el que se encuentre debajo de él, regularmente se utilizan para recibir el cable con la señal de red y/o para interconectarse entre sí con otros Switches.
27.3 Conexiones a redes Cable UTP (Unshielded Twisted Pair - Par trenzado no apantallado) Es el cable de pares trenzados más utilizado, no posee ningún tipo de protección adicional a la recubierta de PVC y tiene una impedancia de 100 Ohm. El conector más utilizado en este tipo de cable es el RJ45, parecido al utilizado en teléfonos RJ11 (un más grande), aunque también puede usarse otros (RJ11, DB25,DB11, entre otros), dependiendo del adaptador de red. Es sin duda el que hasta ahora ha sido mejor aceptado, por su costo accesibilidad y fácil instalación. Sin embargo a altas velocidades puede resultar vulnerable a las interferencias electromagnéticas del medio ambiente. Cable STP (Shielded Twisted Pair- Par trenzado apantallado) En este caso, cada par va recubierto por una malla conductora que actúa de apantalla frente a interferencias y ruido eléctrico. Su impedancia es de 150 Ohm. El nivel de protección del STP ante perturbaciones externas es mayor al ofrecido por UTP. Sin embargo es más costoso y requiere más instalación. La pantalla del STP para que sea más eficaz requiere una configuración de interconexión con tierra (dotada de continuidad hasta el terminal), con el STP se suele utilizar conectores RJ49. Es utilizado generalmente en las instalaciones de procesos de datos por su capacidad y sus buenas características contra las radiaciones electromagnéticas, pero el inconveniente es que es un cable robusto, caro y difícil de instalar. Cable FTP (Foiled Twisted Pair- Par trenzado con pantalla global) En este tipo de cable como en el UTP, sus pares no están apantallados, pero sí dispone de una apantalla global para mejorar su nivel de protección ante interferencias externas. Su impedancia típica es de 120 Ohm y sus propiedades de transmisión son más parecidas a las del UTP. Además puede utilizar los mismos conectores RJ45. Tiene un precio intermedio entre el UTP y STP. ALFONSO GOMEZ HERRERA
122
27.4 El RJ45 RJ-45 (registered jack 45) es una interfaz física comúnmente usada para conectar redes de cableado estructurado, (categorías 4, 5, 5e, 6 y 6a). Es parte del Código Federal de Regulaciones de Estados Unidos. Posee ocho pines o conexiones eléctricas, que normalmente se usan como extremos de cables de par trenzado. Para el conexionado es necesario; el cable UTP, conectores RJ45 y Clipadora. Tipos de conexiones: Normal para ser conectado a un Hub
Cruzado para conectar PC a PC
Diferencias El hub es un dispositivo que tiene la función de interconectar las computadoras de una red local. Su funcionamiento es simple comparado con el switch y el router: El hub recibe datos procedentes de una computadora y los transmite a las demás. En el momento en que esto ocurre, ninguna otra conmutadora puede enviar una señal. Su liberación surge después que la señal anterior haya sido completamente distribuida. Si el cable de una máquina es desconectado o presenta algún defecto, la red no deja de funcionar. Actualmente, los hubs están siendo reemplazados por los switchs, debido a la pequeña diferencia de costos entre ambos. El switch es un aparato muy semejante al hub, pero tiene una gran diferencia: los datos provenientes de la computadora de origen solamente son enviados a la computadora de destino. Esto se debe a que los switchs crean una especie de canal de comunicación exclusiva entre el origen y el destino. De esta forma, la red no queda “limitada” a una única computadora en el envío de información. Esta característica también disminuye los errores (colisiones de paquetes de datos). Así como en el hub, un switch tiene varios puertos y la cantidad varía de la misma forma. El router es un dispositivo utilizado en redes de mayor presencia. Es “inteligente” que el switch, pues, además de cumplir la misma función, también tiene la capacidad de escoger la mejor ruta que un determinado paquete de datos debe seguir para llegar a su destino. BREVE INTRODUCCION AL HARDWARE
28.-PANTALLAS TÁCTIL O TOUCHSCREEN
123
Pantalla que mediante un toque directo sobre su superficie permite la entrada de datos y órdenes al dispositivo. A su vez, actúa como periférico de salida, mostrándonos los resultados introducidos previamente. Este contacto también se puede realizar con lápiz u otras herramientas similares. Los componentes del Pantalla táctil son por lo general un controlador que se encarga de traducir la posición presionada a coordenadas en pantalla, software y una pantalla de cristal transparente. Es una pantalla que mediante una tocada directo sobre su superficie permite la entrada de datos y órdenes al dispositivo. A su vez, actúa como periférico de salida, mostrándonos los resultados introducidos previamente. Este contacto también se puede realizar con lápiz u otras herramientas similares.
28.1 Antecedentes Los historiadores atribuyen la primera pantalla táctil al británico E.A. Johnson, desarrollada alrededor de los años 1965 y 1967, la cual fue una pantalla táctil capacitiva. El inventor describió su trabajo en un artículo publicado en 1965 y luego lo detalló en los años siguientes, teniendo como idea usar esta tecnología en control de tráfico aéreo. Eso no llegó muy lejos, y en la década de los setenta, el doctor Sam Hurst (fundador de la empresa Elographics) fue el que dio el siguiente gran avance. Hurst creó un sensor “touch” en 1971 mientras era profesor de la Universidad de Kentucky. Este sensor fue llamado “Elograph” y fue patentado por la fundación de investigaciones de la propia universidad. El “Elograph” no era una pantalla táctil transparente como las que conocemos ahora, sino que era bastante más tosco. La idea de Hurst era usar el sistema para leer información de forma más fácil. En 1973, el Elograph fue elegido dentro de uno de los 100 productos tecnológicos más importantes para la época. Transcurrido unos años de investigación y desarrollo, Sam Hurst y su empresa logran finalmente en 1977 crear y patentar la primera pantalla resistiva táctil, cuya tecnología ha estado presente en muchos productos de hoy en día. Luego con el paso del tiempo Elographics siguió trabajando en este tipo de pantallas, incluso en conjunto con Siemens, logrando la primera pantalla de vidrio táctil curva. Pero no es hasta 1983 que las pantallas táctiles dan el siguiente paso. HP lanzó al mercado uno de los primeros computadores con pantalla táctil para uso comercial. El llamado HP-150 funcionaba con transmisores y receptores infrarrojos montados alrededor de una pantalla Sony TRC de 9”, el cual detectaba la posición de cualquier objeto no transparente en la pantalla. Sin embargo los sensores se ensuciaban frecuentemente con polvo, por lo cual requería una constante limpieza para su correcto funcionamiento. Ya para los noventas, empieza a surgir la industria de pantallas táctiles en dispositivos móviles. Y fue nada más ni nada menos que Apple la que la introdujo en este mercado en 1993, con su (mal lograda) PDA llamada Newton. El equipo venía equipado con reconocimiento de escritura usando un lápiz. A la par, IBM también introduciría al mercado lo que sería el primer llamado “Smartphone”, que ofrecía las capacidades de un teléfono, un calendario, un bloc de notas, un beeper, una PDA e incluso una máquina de fax. Todo esto sin botones y simplemente a través de una pantalla táctil. ALFONSO GOMEZ HERRERA
124
28.2 Tecnología Las pantallas táctiles que tienen los diferentes métodos de detección táctil. 1. Tecnología de infrarrojos de pantalla táctil:
Una pantalla táctil de infrarrojos se utiliza una matriz de XY LED infrarrojo y pares de foto -detector alrededor de los bordes de la pantalla para detectar una interrupción en el patrón de haces de LED. Estos haces de LED se cruzan entre sí en patrones verticales y horizontales. Esto ayuda a los sensores detectan la ubicación exacta del tacto. Una ventaja importante de este sistema es que puede detectar cualquier entrada que incluye esencialmente un dedo, un dedo enguantado, lápiz o un bolígrafo. Se utiliza generalmente en aplicaciones al aire libre y de punto de venta que no puede basarse en un conductor (tal como un dedo desnudo) para activar la pantalla táctil. A diferencia de las pantallas táctiles capacitivas, las pantallas táctiles de infrarrojos no requieren ningún patrón en el cristal que aumenta la durabilidad y la claridad óptica del sistema global. Pantallas táctiles infrarrojas son sensibles a la suciedad/polvo que pueden interferir con los rayos infrarrojos, y sufren de paraleje en superficies curvas y la prensa accidental cuando se pasa a su dedo sobre la pantalla, mientras que la búsqueda del elemento a seleccionar.
2.-Tecnología de pantalla táctil resistiva: La pantalla táctil resistiva consiste en una capa superior flexible fabricado con polietileno (PET) y una capa inferior rígida hecha de vidrio. Tanto las capas están recubiertas con un compuesto de la realización de llama de óxido de indio y estaño (ITO) y luego espaciados con espaciadores. Una corriente eléctrica pasa por las dos capas, mientras que el monitor está en funcionamiento, una corriente eléctrica fluye entre las dos capas. Cuando un contacto se hace, las prensas de pantalla flexibles hacia abajo y toca la capa de fondo. Un cambio en la corriente eléctrica es por lo tanto detecta y las coordenadas del punto de contacto se calcula por el controlador y se analiza en señales legibles por el sistema operativo para reaccionar en consecuencia. Táctil resistente se utiliza en restaurantes, fábricas y hospitales debido a su alta resistencia a los líquidos y contaminantes. Una ventaja importante de la tecnología táctil resistiva es su bajo costo. BREVE INTRODUCCION AL HARDWARE
125 Las desventajas incluyen la necesidad de presionar hacia abajo, y el riesgo de daños. Algunos de los dispositivos más populares que utilizan la pantalla táctil resistiva es Nintendo DS, Nokia N97, Sony Ericsson Satio, etc. Estos sistemas transmiten sólo el 75% de la luz del monitor. La pantalla táctil resistiva se divide en 4 -, 5 -, 6 -, 7 - y 8-cableada pantalla táctil resistiva. Si bien el diseño constructivo de todos estos módulos es similar existe una diferencia importante en cada uno de sus métodos para determinar la alinea del tacto.
Métodos de pantallas táctiles resistivas - La pantalla táctil resistiva de cuatro hilos utiliza tanto las capas para calcular la información ejes de tacto. Toque en la medición de 4 hilos es un proceso paso 2. La coordenada x del punto de contacto se calcula mediante la creación de un gradiente de voltaje en la capa flexible, y la coordenada y se determina mediante la creación de un gradiente de voltaje a lo largo de la capa inferior. - La pantalla táctil resistiva de ocho hilos es simplemente una variación de la 4-hilos con la adición de 4 cables de detección, dos para cada capa. La detección de puntos de ayuda en la reducción del impulso del medio ambiente para aumentar la estabilidad del sistema. Los sistemas de cable 8-se aplican en tamaños de 10,4 “o más grande que el impulso puede ser. - La pantalla táctil resistiva de cinco hilos no se utiliza la capa flexible en la determinación del toque alinear. Toda la detección de la posición se utiliza en la capa de cristal estable. En este diseño, un cable va a la hoja de presentación (capa flexible) y cuatro cables se distribuyen a las cuatro esquinas de la lámina inferior. La carátula sólo actúa como una investigación de medida de tensión. - El cable con pantalla táctil resistiva Seis y Siete es también una variante de la tecnología de 5 y 4 hilos respectivamente. En la pantalla táctil 6-hilo resistivo de una capa de suelo adicional se añade detrás de la placa de vidrio que se dice que mejora el rendimiento del sistema. Si bien, la variante de siete hilos tiene dos líneas sensores de la placa inferior. 3. Pantalla táctil capacitiva: Un panel de pantalla táctil capacitiva consta de un aislante tal como vidrio, recubierta con un conductor transparente tal como óxido de indio y estaño. A medida que el cuerpo humano es también un conductor eléctrico, tocando la superficie de los resultados de pantalla de una distorsión del campo electrostático de la pantalla, se puede medir como un cambio en la entrada al controlador para su procesamiento. ALFONSO GOMEZ HERRERA
126 Los dispositivos que usan la pantalla táctil capacitiva son Motorola Xoom, Galaxy Tab de Samsung, Samsung Galaxy SII, el iPhone de Apple. Capacitivo Toouchscreen también se divide en dos. - Capacidad Superficie En esta técnica sólo un lado del aislador se recubre con una capa conductora. Mientras el monitor está en funcionamiento, un campo electrostático uniforme se forma sobre la capa conductora. Cada vez, un dedo humano toca la pantalla, la conducción de las cargas eléctricas se produce sobre la capa no revestida que se traduce en la formación de un condensador dinámico. La computadora o el controlador detectan entonces la posición de contacto mediante la medición del cambio en la capacitancia en las cuatro esquinas de la pantalla. Por lo tanto, los más utilizados en aplicaciones sencillas, como controles industriales. - Capacitancia proyectada En la tecnología de pantalla táctil capacitiva proyectada-, la capa conductora ITO está inscrito para formar una rejilla de múltiples electrodos horizontales y verticales. Se trata de detección a lo largo de ambos ejes X e Y usando el patrón de ITO claramente grabado. La pantalla proyectiva contiene un sensor en cada intersección de la fila y la columna, lo que aumenta la precisión del sistema. Hay dos tipos de pantalla táctil capacitiva proyectada: Capacitancia y auto capacitancia Mutua. a) Capacidad mutua En mutuos sensores capacitivos, hay un condensador en cada intersección de cada fila y cada columna. Una matriz de 16-por-14, por ejemplo, tendría 224 condensadores independientes. Se aplica un voltaje a las filas o columnas. Traer un dedo o lápiz cerca conductora a la superficie del sensor cambia el campo electrostático local, lo que reduce la capacitancia mutua. b) Auto-capacitancia En la auto-capacitancia los sensores pueden tener la misma rejilla XY como sensores de capacitancia mutua, pero las columnas y filas funcionan independientemente. Con capacidad propia, la carga capacitiva de un dedo se mide en cada electrodo de columna o fila por un medidor de corriente. c) Pantallas táctiles de onda acústica superficial (SAW) Tecnología de superficie de onda utiliza ondas ultrasónicas que pasan sobre la pantalla táctil. Cuando el panel es tocado, una parte de la onda es absorbida. Este cambio en las ondas ultrasónicas registra la posición del evento de contacto y envía esta información al controlador para su procesamiento. En el monitor de un sistema de ondas acústicas de superficie, dos transductores (recibir y enviar) se colocan a lo largo de los ejes x e y de la placa de cristal del monitor. También se coloca en el cristal son reflectores, reflejan una señal eléctrica enviada desde un transductor al otro. El transductor receptor es capaz de decir si la onda ha sido afectada por un evento táctil en cualquier instante, y se puede localizar en consecuencia. La configuración de onda no tiene capas metálicas en la pantalla, lo que para un rendimiento de 100% y una claridades de imagen perfecta. Esto hace que el sistema de acústica de superficie mejore la visualización de gráficos detallados (otros sistemas tienen una importante degradación de la claridad). BREVE INTRODUCCION AL HARDWARE
127
29.- LÁPIZ ÓPTICO Definimos como Lápiz Óptico bajo la clasificación neta de un Dispositivo de Entrada que es utilizado en las computadoras, con un diseño bastante similar al de un elemento escritor fotosensible que es utilizado como una forma de reemplazar al mouse) o bien a las Pantallas Táctiles, solo que con mayor exactitud que estas últimas. Para su funcionamiento requiere de un controlador específico y de un Software especialmente diseñado que permita su reconocimiento funcionando junto a un Monitor, eligiendo entonces las funciones de cada Aplicación en funcionamiento en función a sus cualidades fotosensibles: Cada vez que el lápiz toca el monitor, éste funciona como si fuera el puntero.
29.1 Antecedentes El lápiz óptico fue creado en 1952 como parte de la Computadora Whirlwind, desarrollado por el Instituto Tecnológico de Massachusetts. Se hizo bastante popular durante los años 1980, cuando se utilizó en el Fairlight CMI y el BBC Micro. El lápiz óptico fue compatible también con varias tarjetas gráficas de los IBM PCs, incluyendo el Color Graphics Adapter (CGA), el Hercules Graphics Card (HGC), y el Enhanced Graphics Adapter (EGA). Desde 1984, los concursantes del concurso de televisión Jeopardy! utilizan lápices ópticos para escribir sus apuestas y respuestas en la ronda Final Jeopardy! (programa de televisión) El lápiz óptico es un periférico de entrada para computadoras tomando la forma de una varita fotosensible que pueden ser usadas para apuntar a objetos mostrados en un televisor de TRC o un monitor en una manera similar a una pantalla táctil pero con mayor exactitud posicional. Este periférico es habitualmente es usado para sustituir al mouse con menor éxito a la tableta digital. Está conectado a un cable eléctrico y requiere un software especial para su funcionamiento. ALFONSO GOMEZ HERRERA
128 Haciendo que el lápiz toque el monitor el usuario puede elegir los comandos de los programas (el equivalente a un clic del mouse) bien presionado un botón en un lado del lápiz óptico o presionando este contra la superficie de la pantalla.
29.2 Funcionamiento
Los lápices ópticos operan mediante la detección de luz emitida por los fósforos de la pantalla, un cierto nivel de intensidad no nulo debe estar presente en la posición de las coordenadas para ser seleccionado; de lo contrario, el lápiz no se activará. El circuito está conformado de 5 etapas que son: • La fuente de alimentación • Vibrador/generador de pulsos estable • El contador • El decodificador (incluye los dispositivos de salida o Led array) • La punta óptica La fuente alimentación: Diseñada y construida utilizando las técnicas de diseño de fuentes y los circuitos integrados 7805 y 7905 para obtener un voltaje simétrico de 5V y -5V tal como se muestra en la figura más abajo. Vibrador o generador de pulsos El segundo paso fue el diseño el circuito vibrador que se encargaría de generar los pulsos para la señal digital de entrada al contador. Para ello se utilizó el versátil temporizador 555; Un dispositivo bastante utilizado en electrónica. Su construcción interna está compuesta una combinación de comparadores lineales y multivibradores bi-estables, Flip-Flop. Una conexión en serie de tres resistores establece los niveles de voltaje de referencia de los dos comparadores (2vcc/3 y vcc/3). La salida de los comparadores inicia o reinicia los flip-flops, luego la salida de los circuitos flip-flop se conecta mediante una etapa de amplificación de salida a una terminal externa. El circuito Flip-Flop también opera un transistor que casi siempre tiene un nivel bajo en el colector y su función consiste en descargar el capacitor temporizador. BREVE INTRODUCCION AL HARDWARE
129
Partes Internas A: Lente de concentración de la luz, para el refresco del pixel captado. B: foto-detector es un C.I, siendo el encargado de controlar la corriente que fluye a través del mismo a partir de la luz captada. C: Interruptor para la operación manual, al ser pulsado, existen otros que se acciona al presionarlos sobre la pantalla. D: Circuito de amplificación, la señal recibida por el foto-detector, enviando el pulso hacia la computadora E: Cable de conexión hacia el hardware del la computadora. Ventajas y desventajas. El mecanismo de funcionamiento de los lápices ópticos parecía antes demasiado simple, dado que no necesitaban ni de un monitor especial ni de hardware desarrollado. A pesar de todo, llegaron a ser muy populares en su día. El gran inconveniente de este dispositivo es su falta de precisión. Para una correcta detección del haz de refresco, es necesario mantener el lápiz completamente perpendicular a la pantalla. Esto era relativamente fácil de lograr cuando se señalaban opciones, pero terriblemente complicado a la hora de desplazarlo por la pantalla. Las nuevas generaciones han solventado inconvenientes, y avanzan en nuevos dispositivos.
ALFONSO GOMEZ HERRERA
130
30.- TABLETA DIGITALIZADORA Una tableta digitalizadora o tableta gráfica es un dispositivo que permite al usuario introducir gráficos o dibujos a mano, tal como lo haría con lápiz a papel. También permite apuntar y señalar los objetos que se encuentran en la pantalla. Consiste en una superficie plana sobre la que el usuario puede dibujar una imagen utilizando un lápiz que viene junto a la tableta. Que hay dos tipos de tabletas, las pasivas y las activas.
30.1 Antecedentes La primera tableta electrónica era la escritura Telautograph1, patentada por Elisha Gray en 1888. La primera tableta gráfica parecida y se utilizo para el reconocimiento de escritura por una computadora fue Stylator2 en 1957. Más como Tablet RAND3 también conocido como el Grafacon (por Graphic Converter), introducido en 1964. El Tablet RAND emplea una red de cables debajo de la superficie de la almohadilla que codificados horizontales y verticales coordenadas en un pequeño magnético señal. El lápiz reciba la señal magnética, que entonces podría ser decodificado de nuevo como coordinar la información
Telautograph
Tablet RAND
Otras tabletas gráficas conocida como una chispa o pastillas acústicas, utiliza un lápiz óptico que genera clics con una bujía. Los clics se triangularon entonces por una serie de micrófonos para localizar la pluma en el espacio. El sistema era bastante complejo y muy caro, y los sensores fueron susceptibles a la interferencia por el ruido externo.
1El telautograph, un análogo de precursor de la moderna fax en 31 de julio de 1888 2Stylator, que en 1957 creó el stylus, esa herramienta básica para las pantallas resistivas. 3The RAND Corporation, se afirma que es el primer dispositivo gráfico digital que es de bajo costo. La creación de la tableta fue realizado por el Advanced Research Projects Agency. El Tablet RAND fue uno de los primeros dispositivos que utilizan un lápiz óptico como un instrumento muy práctico. BREVE INTRODUCCION AL HARDWARE
131
30.2 Tipos
Tabletas pasivas Las tabletas pasivas, hacen uso de inducción electromagnética, donde la malla de alambres horizontal y vertical de la tableta operan tanto transmitiendo la señal como recibiéndola. Este cambio se efectúa aproximadamente cada 20 microsegundos. La tableta digitalizadora genera una señal electromagnética, que es recibida por el circuito resonante que se encuentra en el lápiz. Cuando la tableta cambia a modo de recepción, lee la señal generada por el lapicero; esta información, además de las coordenadas en que se encuentra puede incluir información sobre la presión, botones en el lápiz o el ángulo en algunas tabletas. (El lápiz contiene un circuito esta información). Usando la señal electromagnética, la tableta puede localizar la posición del estilete (Puñal de hoja muy estrecha y aguda) sin que éste llegue a tocar la superficie. El lapicero no se alimenta con pilas sino que la energía se la suministra la rejilla de la tableta por el acoplamiento de la resonancia. Esta tecnología está patentada por la empresa Wacom, que no permite que los competidores la utilicen. Tabletas activas Las tabletas activas se diferencian de las anteriores en que el estilete contiene una batería o pila en su interior que genera y transmite la señal a la tableta. Por lo tanto son más grandes y pesan más que los anteriores. Por otra parte, eliminando la necesidad de alimentar al lápiz, la tableta puede escuchar la señal del lápiz constantemente, sin tener que alternar entre modo de recepción y transmisión constantemente, lo que conlleva un menor jitter(fluctuación), es la desviación no deseada de la periodicidad real de un periódico supuesta señal en componentes electrónicos y de telecomunicaciones.
30.3 Partes
ALFONSO GOMEZ HERRERA
132 1. Sistema de circuitos, cuando el cursor de posa sobre la superficie explora las filas y columnas buscando un cambio en la capacidad que permite detectar su posición. 2. Interface, es le conector de comunicación. 3. Superficie, la cual se divide en columnas y casillas, donde se detecta la posición del lápiz. 4. Capas de plexiglás, la cual protege la parte superior de la tablilla. 5. Panel de control 6. Cursor, cada vez que se pone en posición el cursos es trasmitida a la computadora. 7. Rejilla, es utilizada una matriz de cables para determinar la posición del lápiz. 8. Interruptor, algunos lo tienen incorporado.
30.4 Características Dimensiones: tamaño en general de la tableta (largo X ancho X alto), y está especificada en pulgadas ó en centímetros. Área activa: espacio disponible con el que cuenta el usuario para manipular el lápiz. Nivel de presión: significa que tiene la capacidad de reconocer presión en los trazos por medio del lápiz óptico. Resolución: su unidad de medida es lpi (“lines per inch”) ó líneas por pulgada. Es la máxima cantidad de líneas que es capaz de reconocer la tableta digitalizadora. Velocidad de datos: es la cantidad de que es capaz de procesar y enviar hacia la computadora. Rango de inclinación: es la posición en grados (°) con respecto a la superficie horizontal que viene predeterminada la tableta digitalizadora.
BREVE INTRODUCCION AL HARDWARE
133
31.- PROTECTOR DE PANTALLA Un filtro óptico es el dispositivo usado para modificar la distribución espectral o la polarización de la radiación incidente en la pantalla. ¿El uso de la computadora afecta a mis ojos? Aunque en la actualidad no se ha encontrado, ni comprobado científicamente un daño irreversible a nivel ocular por el uso de la computadora, no podemos negar la cantidad de molestias que nos causa el uso prolongado de esta.
Existe un síndrome llamado síndrome de visión de computadora (s.v.c.) el cual se define como la condición resultante del excesivo uso de monitores de computadora o terminales de video. Entre los signos y síntomas del s.v.c. encontramos: visión doble, visión borrosa, cambios en la percepción de colores, omitir letras o renglones, dificultad para enfocar, sensación de destello, lagrimeo, parpadeo frecuente, ojos rojos, ojo seco, comezón, parpados pesados, dolor ocular, dolor de cabeza, fatiga corporal, entre otros; todas estas molestias pueden ser causa de la necesidad de anteojos graduados, malas condiciones de trabajo o iluminación, posturas incorrectas al usar la computadora, falta de algún filtro en el monitor o en los anteojos, hasta una deficiencia en la lagrima. Es necesario el uso de un filtro, ya sea en el monitor o en el uso de anteojos; existen diferentes tipos de filtros en anteojos, pero para el uso de la computadora están especificados los lentes con tratamiento antirreflejante o los color AX ò ambar(compuscreen), que por sus características nos ayudan a eliminar el brillo excesivo, luminosidad y contraste de la pantalla, haciendo menos molesto el uso y generando un mayor rendimiento al usar la computadora.
LENTES PARA COMPUTADORA
FILTRO PARA PANTALLA
Un buen filtro de pantalla debe eliminar las reflexiones de luz originadas por las fuentes externas, tanto los incidentes sobre el filtro como las que penetran entre este dispositivo y la pantalla.
ALFONSO GOMEZ HERRERA
134 La naturaleza intrínseca del método de visualización (puntos brillantes en movimiento, visto a corta distancia; los reflejos de fuentes de luz externa (focos, lámparas, ventanas, etc.) la perdida de nitidez de los pixeles, por el efecto de pixeles contiguos, y radiaciones no visibles emitidas por el monitor.
31.1 El efecto de un filtro El efecto fundamental de un filtro, aun siendo de los más sencillo, es eliminar los reflejos ocasionados por fuentes de luz externas. Los filtros más simple están realizados de malla de nylon oscuro, los filtros de vidrio o plástico son más caros y eliminan la reflexión de fuentes externas mediante un recubrimiento anti-reflejos, similar a los anteojos, siendo muy eficientes, los polarizados, estos últimos eliminan reflexiones de luz, polarizado la radiación incidente y bloqueando las componentes polarizadas en esa dirección . Para eliminar la perdida de contraste debida al efecto de pixeles contiguos, el siguiente objetivo de los filtros es mejorar dicho contraste mediante un material, similar a los lentes de sol, que reducen la intensidad luminosa pero a la vez, mejoran el contraste. Además si es posible debe bloquear la transmisión de radiación no perpendicular.
Los filtros de contraste evitan que el usuario note una pérdida de nitidez cuando recibe, no solo el efecto del pixel al que mira, sino también el de los adyacentes. El filtro evita que en el Punto “A” los rayos incidentes se mezclen entre sí.
BREVE INTRODUCCION AL HARDWARE
135 Los filtros más sofisticados impiden el paso a aquellas radiaciones que, aun sin ser visibles pueden ser molestas para el ojo; las radiaciones ultravioleta y las ELF/VLF.* Otras ventaja de los filtros es la disminución en las aberraciones cromáticas (dificultad para diferenciar colores) para ellos bloquean las componentes de luz no visibles que sin ser detectadas pueden confundir al ojo. Otros efectos: Estos filtros incorporan un cable para una conexión a tierra física (masa) están descargan las cargas electroestáticas generadas por la pantalla (el monitor TRC maneja alto voltaje, el vidrio de la pantalla causa efecto “capacitor”, generando una alta corriente electroestática). Otra característica, el bloqueo de reflejos originados por radiaciones de luz que se cuelan entre filtros y pantalla (no desde afuera). Esto se logra recubriendo con una película antirreflejo la cara interna del filtro (filtro de doble recubrimiento) o dotándolo con caras laterales que se ajusten al monitor impidiendo el paso de luz (filtro warp-around) También algunos contienen para la privacidad, bloqueo de radiaciones perpendiculares al propio filtro, impidiendo así que la imagen sea vista de manera lateral, únicamente son vista de manera directa.
31.2 Características de los filtros 1. Recubrimiento anti-reflejo 2. Mejora de contraste 3. Anti-estático 4. Eliminación de rayos UV/VDU 5. Recubrimiento anti-relejo 6. Privacidad *De muy baja frecuencia VLF o se refiere a las frecuencias de radio (RF) en el intervalo de 3 kHz a 30 kHz y longitudes de onda de 10 a 100 kilómetros. Extremadamente baja frecuencia (ELF) son radiación electromagnética (ondas de radio) con frecuencias de 3 a 300 Hz, y las correspondientes longitudes de onda desde 100.000 hasta 1000 kilómetros. ALFONSO GOMEZ HERRERA
136
32.- CÁMARA DE RED (WEBCAM) Una webcam es una cámara que puede transmitir imágenes en y a través de la Internet. Hay cámaras web externas, las cuales se conectan a la computadora por medio de un puerto que pueden ser USB o Fireware, en la actualidad viene integradas (laptop).
32.1 Antecedentes En 1991, Quentin Stafford-Fraser y Paul Jardetzky, del departamento de Informática de la Universidad de Cambridge, que compartían despacho, hartos de bajar tres plantas y encontrarse la cafetera vacía, decidieron pasar al contraataque. Diseñaron un protocolo cliente-servidor que conectándolo a una cámara, trasmitía una imagen de la cafetera a una resolución de 128 x 128 pixels. Así, desde la pantalla de su computadora sabían cuando era el momento propicio para bajar por un café, y de paso sabían quiénes se acababa el café y no la volvían a llenar. El protocolo se llamó XCoffee y tras unos meses de depuración se decidieron a comercializarlo. En 1992 salió a la venta la primera cámara web llamada XCam.
32.2 Funcionamiento El funcionamiento de una webcam es simple: una cámara de vídeo captura imágenes cualesquiera y las pasa a una computadora que las traduce a lenguaje binario y las envía cada una determinada cantidad de segundos a Internet. Los pasos a seguir serían los siguientes: 1.- Una cámara toma imágenes que envía regularmente a una computadora, de las cuales algunas se actualizan cada pocos segundos y otras cada varias horas/días. 2.- La computadora mediante un hardware/software adecuado traduce las imágenes a un formato binario (normalmente suelen ser archivo jpeg). 3.- Las imágenes traducidas son incluidas dentro de una dirección URL, la cual nos da la posibilidad de que las imágenes sean vistas en la WWW. BREVE INTRODUCCION AL HARDWARE
137
32.3 Características 1. Resolución: Durante mucho tiempo se estableció un estándar, 320 x 240 píxeles, en la actualidad se ha pasado ese estándar con resoluciones a una gama media - alta es de 640 x 480. La resolución es importante, como también otros factores como la transmisión rápida y sin perdidas en calidad, por lo que es necesario un ancho de banda suficientemente para trasmitir unos 30 fotogramas por segundo. 2. Óptica: La óptica de la cámara dependerá en gran medida la resolución y la calidad de las imágenes. Por todo ello, hay que mirar si la cámara tiene un anillo de enfoque para poder utilizarla a diferentes distancias, o si cuenta con un iris automático o manual, que se encarga de adaptar la webcam a diferentes tipos de iluminación. 3. Conexión: En el tipo de conexión; normalmente son USB 1.1 o USB 2.0. Aunque la mayoría de las cámaras que ofrecen una resolución elevada ya vienen con conexión USB 2.0 (más rápida, hasta 480 Mb/s). 4. Diseño: El elegir un diseño adecuado, hay que tener en cuenta su ubicación. Normalmente es encima del monitor, ya que de esta manera, cuando miramos la ventana de video donde aparece nuestro interlocutor estamos mirando casi directamente a la cámara. 5. Botones adicionales: La mayoría de webcams vienen con un botón que permite realizar fotos en cualquier momento enviando una señal a un programa, que automáticamente almacena la foto en nuestro equipo. 6. Conectividad inalámbrica: Existen cámaras basadas en tecnología inalámbrica que nos permiten situarlas a cierta distancia del equipo. Pueden ser usadas como dispositivos de vigilancia o realizar videoconferencias. 7. Usos múltiples: Existen webcam que pueden ser usadas como equipos auxiliares, como ejemplo trasportarla como, cámara fotográfica o cámara de video, o viceversa 9. Micrófono: Algunos modelos que traen micrófono integrado, permitirá comunicarnos con nuestro interlocutor. 10. Software incluido: En el software viene incluido los controladores (drivers) y algún programa del fabricante que funciona como Shell (envolvente, presentación de programa).
ALFONSO GOMEZ HERRERA
138
33.-DIADEMA CON MICRÓFONO
Las diademas es en realidad el conjunto de Auriculares y Micrófono integrado, sirven para conferencias de voz para grabar mensajes, etc.
Parte A:
33.1 El Micrófono Un micrófono es un elemento capaz de captar ondas sonoras convirtiendo la potencia acústica en eléctrica de similares características ondulatorias. Para ello se necesita la combinación distribuida en dos tipos de transductores. El primero es una fina lámina, llamada diafragma. Su misión es transformar las variaciones de presión en vibraciones mecánicas, es por tanto un transductor mecano acústico. El segundo transforma las vibraciones mecánicas recibidas en magnitudes eléctricas, es por tanto un transductor electromecánico. El conjunto de los dos transductores puede considerarse como uno electro acústico1
33.2 Antecedentes del Micrófono En 1827, Charles Wheatstone utiliza por primera vez la palabra “micrófono” para describir un dispositivo acústico diseñado para amplificar sonidos débiles. Procede de los vocablos griegos “micró” (pequeño) y “phon” (sonido). El primer micrófono formaba parte del Fonógrafo, el dispositivo más común para reproducir sonido grabado desde la década de 1870 hasta la década de 1880 y donde precisamente comenzó la historia del micrófono y las grabaciones de audio. Fue conocido como el primer “micrófono dinámico”. Posteriormente, en 1876 Alexander Graham Bell, simultáneamente con Elisha Gray, registra una patente del “telégrafo hablado” (el primer teléfono). Por primera vez incluye el micrófono funcional que usa un electroimán. El siguiente paso importante en el diseño del transmisor se debió a Henry Hunnings de Inglaterra. Él utilizó los gránulos del choque entre el [diafragma] y una placa metálica trasera. Este diseño originado en 1878, fue patentado en 1889. Este transmisor era muy eficiente y podía llevar más actual que sus competidores. Su desventaja era que tenía una tendencia a embalar y a perder su sensibilidad. También en 1878, es diseñado el primer micro de bobina móvil. En 1917, presentan el primer micro de condensador práctico y moderno. En 1931, Western Electric presenta el primer micro dinámico: el modelo 600, serie 618. En 1931, la marca RCA presenta el primer micrófono de cinta bidireccional: 44ª de imán permanente. 1 dispositivo que transforma la electricidad en sonido, o viceversa. BREVE INTRODUCCION AL HARDWARE
139
En 1947, se funda AKG en Viena. En 1948, Neumann lanza el micro a válvulas U47, el primer micro de condensador con patrón conmutable entre cardiode y omnidireccional. Acabó convirtiéndose en todo un clásico para grabar voces desde que se supo que Frank Sinatra se negaba a cantar sin su U47. Historia de Audio-Technica:
En 1962, Hideo Matsushita establece la empresa Audio-Technica Corporation en Tokio. La compañía lanza los modelos AT-1 y AT-3MM de cápsulas estereofónicas y empieza a suministrar cápsulas a fabricantes de audio. Posteriormente, en 1978, AudioTechnica lanza los auriculares de condensador ATH-8 y ATH-7. Estos auriculares ganaron diversos premios. Este año también se produjo el desarrollo y lanzamiento de la Serie 800 de micrófonos, y la creación de Audio-Technica Ltd. en Leeds, Inglaterra. En el año de 1991, sale al mercado el micrófono de condensador AT4033, elegido como el mejor micrófono en el AES (Audio Engineering Society) y en 1994, presenta el micrófono de condensador de multipatrón AT4050/CM5. En 1995, la planta de fabricación de micrófonos, auriculares, sistemas inalámbricos y mezcladores de micrófono consigue la certificación ISO9002. En el años de 1996, los micrófonos y auricularesde la empresa Audio-Technica son utilizados en todos los recintos de los Juegos Olímpicos de Atlanta en EUA. En 1998, Audio-Technica presenta el AT4060 un micro de condensador a válvulas de estudio; y el excelente resultado de los productos Audio-Technica en Atlanta ’96, hacen que en el año 2000 sea designada también como proveedor de en los juegos de Sydney’00. En 2002, Audio-Technica celebra su 40 aniversario. Y es designada, para proporcionar aproximadamente 2.800 micrófonos para los Juegos deSALT Lake City, marcando así su primera participación en unos Juegos Olímpicos de Invierno. 33.3 Clasificación Micrófono a) Carbón Es uno de los micrófonos más antiguos. Consiste en un compartimiento cerrado con partículas de carbón (antracita y grafito) en su interior y como tapa una placa metálica fina (diafragma). Se coloca una fuente de tensión, actuando como bornes, el compartimiento de hierro y el diafragma. Al llegarle una onda sonora a la placa, ésta empuja a las partículas de carbón que se desordenan provocando una variación de resistencia y por tanto una variación de la corriente que lo atraviesa reflejo de la presión sonora. Durante mucho tiempo se utilizó en los teléfonos por lo baratos que son y la respuesta en frecuencia es idónea para la voz humana en aplicaciones de telefonía. Características: 1. Son muy baratos. 2. Respuesta en frecuencia mala, entre 200Hz-3000Hz (aunque idónea para la voz humana en aplicaciones de telefonía) . 3. Curva muy irregular. 4. Gran sensibilidad (-30 dB). 5. Rapidez. 6. Robustos. 7. Baja impedancia. 8. Bastante ruido. 9. Se utilizan para teléfonos y porteros automáticos. ALFONSO GOMEZ HERRERA
140
De la curva del micrófono de carbón se deducen sus pobres características frecuenciales que han hecho posible su casi desaparición del mercado (excepto en teléfonos económicos).
b) Dinámicos o Electro-dinámicos Bobina móvil Una membrana se encuentra cerca de un imán y solidaria con una bobina móvil. Al moverse la membrana por algún sonido, también se moverá la bobina, lo que producirá un cambio del campo magnético a través de la bobina, que transformará en la producción de una tensión inducida en la misma. Características: 1. Robustos. 2. Tienen autonomía porque no necesitan alimentación. 3. Una gran dinámica, que es la capacidad de movimiento que puede soportar la membrana. 4. Pocos sensibles. 5. Resiste bien la humedad, la temperatura y vibraciones. 6. Curva de respuesta o Respuesta en frecuencia buena. 7. Utilizados en exteriores (entrevistas), sonorizaciones en directo y en interiores (estudios de radio). 8. Tiene baja impedancia (150-600 Ohmios). 9. Suelen ser omnidireccionales o cardiodes. 10. Protección de los campos magnéticos externos. 11. Son baratos.
BREVE INTRODUCCION AL HARDWARE
141
Se basa en el principio de inducción electromagnética (son la versión dual de los altavoces de bobina móvil) según el cual si un hilo conductor se mueve dentro de una campo magnético, en el conductor se inducirá un voltaje. Son micrófonos muy utilizados por su resistencia, confiabilidad y buena respuesta en frecuencia.
De la curva del micrófono de Electro-dinámicos se observa características de frecuencias resulta aceptable. c) Cinta (o de velocidad) Consiste en una cinta metálica en zig-zag entre imanes que a medida que la presión sonora la mueva produce una tensión. La membrana es la cinta. Estos micrófonos también se les conocen como micrófonos de velocidad. Características: 1. Impedancia alta. 2. Respuesta en frecuencia irregular. 3. Bidireccionales, aunque pueden ser unidireccionales. 4. Tiene una dinámica pequeña. 5. Grandes, robustos y pesados. 6. Sensible a las vibraciones. 7. Utilizados en interiores. 8. En los años 50S eran muy utilizados. Una fina cinta de metal que actúa de diafragma se suspende en una ranura entre dos piezas de polo magnético que se unen a un imán en forma de U. La cinta es típicamente de 1 pulgada de longitud, 1/16 pulgadas de ancho y 0.0001 pulgadas de grueso. Un campo magnético fluye a través de la ranura entre las piezas de polo magnético, en dirección paralela a la anchura de la cinta. ALFONSO GOMEZ HERRERA
142 Cuando una onda acústica incide en la cinta, ésta vibra en dirección perpendicular al campo magnético. Esto genera una fuerza en los electrones libres de la cinta, que se mueven en dirección longitudinal a la cinta. Esto causa un voltaje de C.A entre los extremos de la cinta. Este voltaje es la salida eléctrica del transductor. El micrófono de cinta difiere del micrófono capacitivo y del dinámico en que no hay una cápsula que aísle la parte de atrás del diafragma de su parte delantera. Por tanto la presión de la onda acústica incidente actúa en ambos lados de la cinta. Esto hace que la fuerza neta en la cinta sea proporcional al gradiente (derivada direccional) de la presión. De ahí ese nombre que también se le da de micrófono de gradiente de presión. Ya que la velocidad de una partícula en una onda es proporcional al gradiente de presión, también se le llama micrófono de velocidad.
De la curva del micrófono de Cinta se aprecia características de frecuencias resulta muy aceptable, siendo el de mayor respuesta. Son utilizados para sonidos de ambientes y famoso “boom” en grabaciones.
d) Micrófonos Piezoeléctricos. Los micrófonos piezoeléctricos emplean cristales o cerámicas, que cuando se distorsionan por la acción de ondas incidentes, se polarizan eléctricamente y producen voltajes relacionados linealmente con las deformaciones mecánicas. Puesto que el efecto piezoeléctrico es reversible, todos los micrófonos piezoeléctricos funcionarán como fuentes de sonido al aplicarse un voltaje alterno a sus terminales. Son transductores recíprocos. Características: Omnidireccionales. 1. Elevada impedancia. 2. Alta sensibilidad. 3. Muy frágiles. 4. Sensibles a la humedad y temperatura. 5. Respuesta en frecuencia como la voz (600 Hz-5 KHz) 6. Cerámico BREVE INTRODUCCION AL HARDWARE
7. Similares en funcionamiento a los de cristal, pero, en este caso, se utilizan piezas cerámicas. 8. Características: 9. Alta impedancia. 10. Soporta mejor la humedad. 11. Sensibilidad menor que la de cristal. 12. Respuesta de frecuencia similar al anterior.
143
Son usados de manera muy amplia son mono-cristales de Sal de Rochelle1 en la fabricación de este tipo de micrófonos. Desafortunadamente, tales cristales se deterioran en la presencia de humedad y se dañan permanentemente si se someten a temperaturas por encima de 46º C. Otras opciones son cristales cortados de fosfato de dihidrógeno y amonio (ADP), o bien materiales cerámicos. Aunque la respuesta de los micrófonos piezoeléctricos es mejor que la del micrófono de carbón, no llegue a ser suficientemente buena para grabaciones profesionales, por lo que se utiliza sólo en micrófonos pequeños para voz. e) Micrófonos Condensador (de capacidad) Una especie de condensador entre una placa fija y la membrana móvil (diafragma), alimentadas por una tensión. Una pila genera la tensión continua entre la placa y la membrana permitiendo el paso de electrones. Al llegar un sonido, la presión de éste desplaza la membrana móvil y la acerca a la fija por lo que existe un mayor flujo de electrones o menor según el movimiento y estas variaciones generarán una señal eléctrica. 1 Ciertas substancias cristalinas, tales como el cuarzo, las sales de Rochelle y la turmalina poseen propiedades eléctricas. Si una de estas substancias es deformada mecánicamente, producirá una descarga eléctrica y si es colocada en un campo eléctrico, sufrirá deformación mecánica. Esta propiedad es conocida con el nombre de efecto piezoeléctrico o polarización eléctrica, y es el resultado de la presión. El fenómeno fue observado por Coulomb hace más de 175 años. ALFONSO GOMEZ HERRERA
144 Como hay gran impedancia la longitud del cable para que se perciba bien debe ser muy corta por lo que se añade un amplificador para que llegue más lejos. El amplificador es de baja impedancia (200 Ohm) y va dentro del micrófono.
33.4 Características 1. Direccionalidad variable mediante un interruptor (cardiode, omnidireccional, bidireccional). 2. Sin autonomía propia, tiene que ser alimentado externamente (12, 24 o 48 v.). 3. Alimentación AB (alimentación entre + y -) o alimentación PHANTOM2 (entre + o - y la masa). 4. Poca dinámica. 5. Resistencia o impedancia muy alta. 6. Influencia de la humedad y temperatura. 7. Muy sensibles. 8. Respuesta en frecuencia muy buena. 9. Utilización profesional
En un micrófono capacitivo la placa posterior está fija, mientras que la otra (el diafragma) se desplaza al recibir variaciones de presión, ya que el interior del micrófono está a un presión constante igual a la presión atmosférica. La variación de la capacitancia, al cambiar la distancia entre las placas, producirá una variación de voltaje.
El micrófono capacitivo produce la mejor respuesta en frecuencia, por lo cual es el más utilizado en grabaciones profesionales, donde la fidelidad es un factor preponderante. Debido a que responde a variaciones de presión entra dentro del subgrupo de los micrófonos de presión, y como consecuencia de ello tiene una respuesta omnidireccional. 2 La alimentación fantasma (phantom), es una forma de proporcionar alimentación (corriente continua) a los dispositivos de audio que lo necesitan. BREVE INTRODUCCION AL HARDWARE
145 f) Micrófono Eléctret Existe un material móvil llamado electret o electreto (que es policarbonato fluorado o fluorocarbono) que está polarizado. Este material separa un material fijo de una fina lámina metálica y a causa de la vibración sonora varía el campo eléctrico creado y se produce una tensión o corriente eléctrica. A las placas no hay que alimentarlas, pero sí a un amplificador ya que la señal resultante es muy débil. Características: 1. Son muy sensibles, pero no tanto como los de condensador. 2. Su respuesta suele estar entre 50 Hz y 15 KHz. 3. Omnidireccionales o unidireccionales. 4. Muy caros. 5. Alimentados por pilas (normalmente 1.5 v.). 6. Muy delicados y sensibles a la humedad y a la temperatura. 7. Buena respuesta en frecuencia. 8. Impedancia alta. 9. Se utilizan para locuciones, entrevistas y captación de música.
Un material Electret tiene como característica su capacidad de mantener carga sin necesidad de una fuente de polarización, por lo cual tiene cada vez mayor popularidad por económico.
Características de los micrófonos que van a definir sus posibilidades de uso en las diferentes situaciones que se nos presenten. ALFONSO GOMEZ HERRERA
146 La sensibilidad: indica la capacidad del micrófono para captar sonidos muy débiles (o de poca intensidad). Es la presión sonora que debemos ejercer sobre el diafragma para que nos proporcione una señal eléctrica y se mide a 1kHz y se expresa en milivoltios por Pascal (mV/Pa). Entre los más sensibles se encuentran los condensadores seguidos por los dinámicos y por último los de cinta. No es aconsejable el uso de micrófonos con una sensibilidad menor a 1mV/Pa. La fidelidad: indica la variación de la sensibilidad respecto de la frecuencia. Se mide para todo el espectro audible y así nos proporcionan sus curvas en frecuencia que informan de las desviaciones sobre la horizontal de 0 dB. Cuanto más lineal sea esta curva mayor fidelidad tendrá el micrófono. La impedancia de salida: es la resistencia que proporciona el micrófono a la salida del mismo. La baja impedancia, está entre 200 y 600 ohmios a 1kHz. Hay que tener en cuenta que la impedancia de salida del micrófono tiene que ser la tercera parte como máximo de la del equipo a la que se conecta para evitar la pérdida de señal y el incremento de ruidos de fondo. En Baja impedancia se podrán emplear cables largos mientras que en altas no, debido a que provocarían perdidas por efecto capacitivo. La directivilidad: señala la variación de la respuesta del micrófono dependiendo de la dirección de donde provenga la fuente sonora, es decir, muestra como varía la sensibilidad según de donde venga el sonido.
BREVE INTRODUCCION AL HARDWARE
147
Parte B:
33.5 Bocinas Se denomina bocina (del latín bucīna) un instrumento compuesto de una pera de goma y una trompeta unidos. Al presionar la pera, el aire sale por la trompeta, creando sonido. La bocina se inventó en Francia en 1680 y servía tan solo para la caza. Después se introdujo en Alemania y allí se perfeccionó y se aplicó a la música. Para esta se adoptó en Francia en 1730 pero no la introdujeron en la orquesta de la ópera hasta en 1757. También llamado altoparlante o altavoz (considerando bocina en concepto moderno) las piezas constituyentes de una bocina son de la siguiente manera. Parte electromagnética: formada por el imán y la bobina móvil. La bobina está sumergida dentro del campo magnético del imán de manera tal que, al ser recorrida por una corriente, por efecto de atracción y repulsión de campos magnéticos, dicha bobina se mueve. Parte mecánica: que se encuentra formada por el cono y el sistema de suspensión. El cono es solidario con la bobina y, por lo tanto, lo acompaña en su movimiento, cuando a esta la atraviesa una corriente. De esta manera el cono vibra cuando por la bobina circula una corriente variable. Parte acústica se encuentra formada por el recinto acústico en cargado de transmitir al lugar de audición la energía sonora desarrollada por el cono.
33.5.1 Partes 1. Imán 2. Bobina de voz 3. Diafragma o cono 4. Canasta o Campana 5. Centardor o araña 6. Suspensión 7. Cubre polvo 8. Cables flexibles
ALFONSO GOMEZ HERRERA
148 a.- Parte electromagnética: Formada por el imán y la bobina móvil. (La energía eléctrica llega a la bobina móvil situada dentro del campo magnético del imán y por tanto se produce el movimiento de la bobina móvil) b.- Parte mecánica: Formada por el cono y la suspensión. (Debajo del cono está colocada la bobina móvil, la cual al moverse arrastra al cono haciéndolo vibrar). 1. Imán permanente y entrehierro. En el entrehierro se aloja en su interior el imán permanente, cual tiene forma cilíndrica. Se fabrica con un material de alta permeabilidad con el fin de evitar pérdidas de campo magnético. El imán permanente es el sistema de excitación de la bocina y va alojado en el interior fijada. El imán es cilíndrico y de alta conducción. En la actualidad se fabrican con oxido ferromagnético (en general ferroxdure) que le dan características de inducción magnética muy superiores a al de los clásicos imanes de alnico, con un peso bastante inferior.
2. Bobina móvil o de voz La bobina móvil se devana sobre un tubo cilíndrico que debe ser capaz de soportar las compresiones y expansiones que se originan durante el devanado, así como también los provocados por la suspensión interna (araña) durante los movimientos vibratorios de la bobina. Su espesor debe ser reducido para que el entrehierro del imán sea lo más chico posible. Generalmente se construye el soporte de papel, cartón, cartón reforzado y de mayor calidad de aluminio y se aplica barniz para resistir las condiciones atmosféricas. El diámetro del alambre depende la potencia que debe manejar el conjunto y los hilos deben estar bien aislados para evitar cortocircuitos entre las espiras. La bobina se construye en 2, 3 o 4 capas de espiras arrolladas sobre el soporte.
BREVE INTRODUCCION AL HARDWARE
3. Diafragma o cono
149
Las características de un material que definen su comportamiento acústico son: densidad, rigidez, y amortiguamiento interno. En otras palabras, cuanto más liviano y rígido sea el cono, mayor será el ancho de banda de la bocina. Y cuanto mayor sea su capacidad de amortiguamiento interno, más suave será la respuesta en frecuencia. Sus materiales típicos de construcción son: papel, cartón, cartón corrugado, plástico siendo de mayor calidad (evita la humedad).
4. Canasta, Campana o cuerpo principal Sostiene todo el conjunto, debe de ser lo más rígido posible con el fin de evitar resonancias. Se construye en una estructura metálica con aberturas a la cual se le practican molduras de refuerzo para aumentar la rigidez mecánica. Se le efectúa un tratamiento químico para evitar la oxidación.
5. Centrador o araña La misión de la araña es la de centrar al cono con el interior del entrehierro con el objeto de que no se produzcan rozamientos de la bobina móvil con el núcleo y el entrehierro.
ALFONSO GOMEZ HERRERA
150 6. Suspensión Se coloca con el fin de que el diafragma obtenga máxima flexibilidad en el sentido axial. No todas las bocinas la poseen y favorece en mayor medida la reproducción de los tonos graves.
Cubre polvo
7. Cubre polvo Su nombre lo indica, cubre el entrehierro de posible contaminación y evitar así el roce de la bobina con el entrehierro. 8. Cables flexibles El sistema de conexión desde la bobina se efectúa por medio de dos hilos que se adhieren a la bobina en la parte posterior del cono y se unen a los terminales de conexión alojados sobre la campana este par de cables debe ser flexible.
33.6 Características técnicas a) Impedancia. b) Respuesta en frecuencia. c) Frecuencia de resonancia. d) Directivilidad. e) Potencia máxima y mínima de una bocina. a) Impedancia. Es la oposición de un conductor o de un circuito a la circulación de una corriente alterna (la señal de audio que sale del amplificador es una corriente alterna tipo compleja). Cuando se refiere a la impedancia de una bocina se está indicando la “oposición” o “resistencia” del alambre de cobre de la bobina a la circulación de la señal de audio. Los valores comerciales de impedancia de bocinas son 16,8, 4, ohm. Existiendo otras impedancias, se deben tener correspondencia directa con la impedancia de salida del amplificador para evitar daños a su circuito. BREVE INTRODUCCION AL HARDWARE
151 b) Respuesta en frecuencia. Este parámetro proporciona el dato de la presión sonora generada por la bocina en función de la frecuencia a la cual es sometido. Para realizar la curva de respuesta en frecuencia se suministra la bocina una señal de igual potencia en toda la gama de frecuencias audibles y luego se mide la potencia sonora generada por dicha bocina llevando los datos obtenidos a un cuadro. Con estos datos se construye la curva de presión sonora generada en función de la frecuencia.
En el grafico se observan las variaciones de presión proporcionadas por la bocina con una misma potencia de entrada y a distintas frecuencias. Quedando establecido que las variaciones por debajo de los 12 dB no son consideradas importantes y quedan establecidas por los parámetros de fabricación, en este caso (por ejemplo) para los 100 Hz la presión sonora es de 17 dB tomando como referencia los 1000 HZ CON 28 dB. El mínimo que se encuentra en las bajas frecuencias es denominado frecuencia de resonancia (fr.) mientras que el extremo superior en las altas frecuencias es denominado frecuencia de corte (fc). Nótese que a lo largo del grafico hay varias oscilaciones, pero estas no son tan importantes mientas que las diferencias depresión sonora no superen los 12 dB, aproximadamente, y no existan diferencias considerables entre picos y valles cercanos (el crecimiento o decrecimiento debe ser gradual). A la zona comprendida por señales que no provocan variaciones en la presión sonora superior a los 12 dB se llama centro de banda. La frecuencia de corte será aquella para la cual la intensidad sonora caiga aproximadamente 3 dB del centro de banda. Como es imposible conseguir una bocina que posea una respuesta plana a toda la gama de frecuencias audibles, se recurre a la utilización de dos o tres bocinas en un sistema de alta fidelidad.
ALFONSO GOMEZ HERRERA
152 c) Frecuencia de resonancia. Es la frecuencia mecánica de resonancia (frecuencia de vibración del material) de la bobina móvil y el cono o diafragma. Para conocerlo se aplica un impulso de tensión a la bobina móvil, al quitarlo, el cono vibra a su frecuencia de resonancia. La importancia de este dato radica en que marca el límite inferior de la curva de respuesta en frecuencia de una bocina. Este parámetro se determina fácilmente a partir de la variación de impedancia de la bocina con la frecuencia, ya que se produce un máximo de impedancia. La frecuencia de resonancia depende del sistema mecánico de montaje, del material de la construcción del cono, del sistema de suspensión utilizado, del diámetro del cono, etc.
Una bocina con cono construido con material rígido tendrá una frecuencia de resonancia superior que otro cuyo diafragma es ligero. d) Directivilidad. Se refiere a la dirección en que emite el sonido una bocina. Se manejan diagramas polares para indicar la directividad. Básicamente una bocina puede ser unidireccional, bidireccional u omnidireccional.
e) Potencia máxima y mínima de una bocina La potencia máxima o potencia admisible es el valor máximo de potencia que se le puede aplicar a una bocina (a corto tiempo) sin que esta se destruya. Se llama potencia máxima de valor de potencia que puede soportar una bocina en uso continuo. Por supuesto este valor es menor que la potencia admisible. BREVE INTRODUCCION AL HARDWARE
153
La potencia mínima depende de la bocina y su recinto acústico. Es la potencia mínima que se le debe suministrar a una bocina para obtener un nivel cómodo de escucha. La potencia de una bocina depende de sus dimensiones y forma constructiva (disposición del cono, dimensiones de la bobina, calibre del alambre de la bobina, tamaño del imán, etc.). Básicamente son hay tres formas en que se construye el cono de una bocina:
Clasificación de bocinas: Bocinas dinámico Bocinas electrodinámico Bocinas electroestático Bocinas piezoeléctrico El por qué de las Cajas Acústicas. Si una bocina comienza a radiar libremente en el aire, el cono se desplazará para producir un aumento de presión que propague la onda sonora. Al producirse este desplazamiento, en la parte trasera del cono aparecerá un cambio de presión contrario al que se produce en la parte frontal; es decir, cuando el cono se mueve hacia delante, creando un aumento de presión, por detrás se produce una disminución, y viceversa. Como la longitud de onda en graves es mucho mayor que la superficie del cono, ambas ondas sonoras se propagan en todas direcciones. Por tanto, se superpondrán y sumarán una con otra en oposición de fase. La onda sonora de la parte trasera del cono tenderá a cancelar la radiación de su parte frontal, apareciendo una gran pérdida en graves, es decir el rango de frecuencias en el cual el altavoz radia Combinación de las ondas delantera y trasera. A este fenómeno se le denomina cortocircuito acústico. Para evitar esto, si ponemos el altavoz en una caja, estaremos aislando la parte frontal De la bocina de su parte trasera. Así evitamos que ambas ondas sonoras se anulen. ALFONSO GOMEZ HERRERA
33.7 Auriculares
154
Los auriculares: A la empresa Beyerdynamic1 se le atribuye oficialmente el invento, a finales de los años 1930, y como la primera empresa en vender auriculares al público en general: modelo DT48 en 1937 En la década de 1880, los primeros auriculares (“modernos”) fueron utilizados por los operadores telefónicos. Fue un solo auricular que descansaba sobre el hombro del usuario y pesaba más de 10 libras. Gran Bretaña en 1895. De acuerdo con la historia de la BBC, “ Los suscriptores Electrophone quería escuchar la ópera que podría estar conectado a la Royal Opera House en Covent Garden. Se ponía sus auriculares a escuchar, era capaz de ser estéreo (la primera transmisión en vivo de sonido estéreo se llevó a cabo en 1881, los auriculares Electrophone fueron usados debajo de la barbilla en lugar de en la cabeza, y además que parecían estetoscopios. 1910 - Nathaniel Baldwin comenzó a fabricar los auriculares modernos. Los vendió a la Marina de los EE.UU.. Esta fue la primera vez que un par de latas parecía algo a la actualidad. Baldwin nunca los patentados. 1937 - El DT-48 de de Beyerdynamic se convirtieron en los primeros auriculares dinámicos para el mercado. Aunque sería unas décadas antes cuando los auriculares electrostáticos se vendieron, esto fue un gran salto en la historia. Auriculares dinámicos son, hasta la fecha, el tipo más popular en el mercado 1949 - Con un diseño en mente, AKG produjo su primer par de auriculares, el K120 es. Este modelo, y otros más populares que siguieron, fueron suficientes para que AKG dejar el negocio de equipos de cine y centrarse sólo en audio. 1958 - John C. Koss en 1958, creó el auriculare estéreo (primera Koss SP-3) y dio un asalto total sobre la espera de los canales auditivos. Durante las próximas décadas, Koss pasaría a dominar la industria de auriculares.
1 Beyerdynamic GmbH & Co. KG es una empresa alemana fundada en Berlín en 1924 por Eugen Beyer. Se dedica a la manufactura de equipo profesional de audio como micrófonos, audífonos, sistemas inalámbricos y sistemas de microfonía para conferencias y su sede está ubicada en la ciudad de Heilbronn. BREVE INTRODUCCION AL HARDWARE
155 1959 - En un espectáculo en Tokio, Stax debutó en el mundo, primer electrostático de los auriculares. El de SR-1 que entraría en producción un año después. Ahora son extremadamente raros, son auriculares sin pérdida auditiva 1968 - Una década después de la introducción del auricular estéreo de primera, Koss hizo el primer modelo electrostático. El ESP-6, estaban todavía muy lejos de las piezas masivas creado menos de un siglo antes. 1979 – Sony y su Walkman. De repente, los auriculares tenían que ser portátil. Se incluye con la compra del primer Walkman eran MDL-3L2 Sony auriculares. 1980 - el auricular en la oreja se abrieron paso en la escena en los años 80, a pesar de que no llegaría a su punto máximo en popularidad hasta que Steven Paul Jobs cambió la música, años más tarde. 1997 - , Sony pensó en auriculares que aislaban el sonido totalmente. 2000 - Bose QuietComfort. 2001 - El iPod cambió la música universo entero. 2008 - Dr. Dre y Jimmy Iovine se unieron y, junto con Monster, creado Beats by Dre auriculares. Diseñado con graves profundos y gran calidad de sonido.
Audífono: Este “audífono”, siendo en realidad un monoaudífono, fue muy popular en los 70s y 80s Es de muy baja calidad su funcionamiento se basa en un imán tipo anillo, en sus extremos don laminas, que a su vez actúan como terminales de señal (C.A), a la llegada de señal existe movimiento de las laminas generando el sonido.
ALFONSO GOMEZ HERRERA
156
34.- REGULADORES DE VOLTAJE Es un dispositivo que contiene varios enchufes, se encarga de proteger contra altas y bajas de voltaje, por las posibles variaciones de energía eléctrica que provocan desgaste de los elementos electrónicos a largo plazo en los circuitos de las computadoras. El regulador estabiliza la electricidad un nivel constante para evitar daños en los equipos.
a
Es un equipo eléctrico que acepta una tensión variable a la entrada dentro de un rango manteniendo una tensión relativamente constante a la salida en un rango mucho menor comparado con el de entrada. El Regulador se diseño para proteger específicamente los aparatos conectados a la corriente eléctrica. Ventajas: Funcionamiento permanente y seguro de todos sus equipos, las variaciones de voltaje de la red eléctrica no afectarán el funcionamiento, la calidad de sus procesos y tiempo de fabricación. Eliminar los recursos económicos gastados innecesariamente, aprovechando todo el potencial instalado: recursos técnicos, humanos, materiales, y de tiempo. Incremento en la productividad y eficiencia del sistema protegido así como aumento de la vida útil de sus equipos.
34.1 Funcionamiento La función del regulador de voltaje es la de proteger los aparatos eléctricos y electrónicos contra altos y bajos voltajes, y además, protege contra picos de voltaje en la línea telefónica que se conecta al modem de la computadora o al aparato de Fax. En el caso de que se presenten voltajes superiores a 142 volts o inferiores a 96 volts, el regulador seguirá compensando el voltaje hacia abajo o hacia arriba, pero ya no es conveniente seguir operándolo, ya que los voltajes de salida ya no serían apropiados para los equipos que se tienen conectados. Se debe conectar un toma corriente correctamente polarizado* y aterrizado** para tener una buena protección en los aparatos que se le conecten. El consumo de dichos aparatos no deberá ser superior a la capacidad máxima del regulador.
BREVE INTRODUCCION AL HARDWARE
157 Si se conecta más carga de la que soporta el regulador, se fundirá el fusible. Desconecte parte de la carga y sustituya el fusible por otro de la misma capacidad. El regulador está diseñado para estar funcionando las 24 horas del día y los 365 días del año. No debe de operarse a temperaturas menores a 0 grados Centígrados ni superiores a 50 grados Centígrados, ni a la intemperie. *Polarización. Es la manera de indicar la polarización adecuada el método es en el tomacorriente que tiene una de las ranuras de conexión más ancha que la otra. De esta forma el enchufe (polarizado también) está obligado a entrar en el tomacorriente en una posición idónea. Si el receptáculo está conectado adecuadamente, un artefacto conectado a un tomacorriente polarizado, el cable vivo, y nunca el neutro, se controla por el interruptor del artefacto. Si el tomacorriente no es polarizado, el cable neutro puede quedar conectado al interruptor en lugar del vivo, y la electricidad se mantiene dentro del aparato aunque el interruptor se apague. El por qué la Polarización: La corriente Alterna no tiene polaridad, en el caso de voltaje (+,-) pero si en fase, al conectar varios aparatos estos deberán estar en fase para evitar cortos o producir descargas erétricas. Siendo el motivo de la distorsión en el ancho de los dientes de la clavijas.
**Aterrizado La tierra conectada a los aparatos y equipos minimiza la posibilidad de recibir una sacudida eléctrica cuando se tocan las partes metálicas de los dispositivos que han entrado en contacto con la electricidad. Un equipo aterrado está conectado a un cable de tierra, que corre hasta la barra neutra del panel de control. Esta barra está conectada a la tierra, sí, al planeta tierra por alguna de estas formas: A un tubo metálico que conduce agua fría y que proceda de debajo de la tierra o tenga conexión con tubos metálicos que corran bajo tierra. A barras metálicas enterradas profundamente en el suelo. A una placa metálica hundida bajo el cimiento.
ALFONSO GOMEZ HERRERA
158 Cuando se produce un fallo al cuerpo de un aparato o dispositivo, el cable de tierra conduce la electricidad a la barra de tierra del panel de servicios y esta a su vez al suelo con muy poca resistencia eléctrica, el amperaje sube sustancialmente, y se saltan el fusible o se “cae” el disyuntor. Nunca debe perderse la conexión a tierra.
34.2 UPS (Uninterrupted Power System) Un UPS (Uninterrumpible Power Supply, o Fuente de Poder Ininterrumpible) también conocido como No Break, es un dispositivo electrónico capaz de proporcionar una alimentación eléctrica constante a cualquier dispositivo eléctrico o electrónico de función puntual, para que continué funcionando de manera optima, teniendo en su interior una Batería estándar y Sistemas Electrónicos.
Lo que previene el UPS • Corte de energía: pérdida total de tensión de entrada. • Sobretensión: tiene lugar cuando la tensión supera el 110% del valor nominal. • Caída de tensión: cuando la tensión es inferior al 85-80% de la nominal. • Picos de tensión. • Ruido eléctrico o electromagnético. • Inestabilidad en la frecuencia. • Distorsión armónica, cuando la onda sinusoidal suministrada no tiene esa forma.
BREVE INTRODUCCION AL HARDWARE
Esquema de funcionamiento del UPS
159
Recomendaciones de uso 1.-El no-break es para usarse en aparatos electrónicos como computadoras; no se deben conectar aparatos con motor eléctrico, ni impresoras láser pues este tipo de equipos dañaran el no-break. 2.-Cuando el equipo alcanza el máximo tiempo de respaldo lo indica haciendo que la alarma audible pase de un “bip” intermitente a un tono continuo. Evite que suceda esto 3.-Si el no-break emplea fusibles intercambiables, seleccione uno de la misma capacidad cuando alguno de estos requiera reemplazo. 4.-En ocasiones el no-break mandará una señal sonora a pesar de que no haya sucedido una falta de energía; esto se debe a que cuando la tensión de línea es o muy baja o muy alta, comienza a ajustar (regular) la tensión de salida para no dañar los equipos conectados. La señal se interrumpirá al restablecerse las condiciones normales. 5.-Instale el no-break bajo techo y alejado del calor o la humedad excesivos. 6.-Mantenga suficiente espacio alrededor del no-break para que permanezca adecuadamente ventilado. 7.-No abra el interior del no-break. 8.-No conecte reguladores u otros no-breaks a la salida o entrada del mismo.
ALFONSO GOMEZ HERRERA
160
BIBLIOGRAFÍA
*Manual para reparar y mejorar computadoras personales editorial QUE Scott Muller *PC Interno. Marcombo. Data Becker, 1995. *Computer Architecture and Organization, Second Edition. Hayes, J. McGraw-Hill, 1988. *Computer System Architecture. Mano, M. Prentice Hall, 1993. *Fundamentos de Informática. Fernando Sáez Vacas. Alianza Informática, 1991. *Apuntes sobre arquitectura de computadoras. Juan Ángel García Martínez. *Arquitectura de computadoras José Antonio de Frutos Redondo. Alcalá de Henares: *Departamento de Automática, Universidad de Alcalá de Henares, 1994. *Arquitectura de ordenadores. Enrique Hernández Hernández S.l.: s.n., 1998. *Arquitectura de ordenadores. Eduardo Alcalde Lancharro. Mcgraw-Hill, Interamericana de España, 1996. *Arquitectura de computadoras : de las técnicas básicas a las técnicas avanzadas / Gérard Blanchet, Bertrand Dupouy Masson, D.L. 1994 *Arquitectura de computadoras: un enfoque cuantitativo /Jjohn L. Hennessy, David a. Patterson. McGraw-Hill, D.L. 1993 *Organización y arquitectura de computadoras. William Stallings. Prentice Hall, 1997. *TODA LA PC Peter Norton C.E.C.S.A *Lathan, D.C., Transistors and integrated circuits, J.B Lippincott Co., Nueva York 1969 *Mandi M., Fundamentals of Electronics, 2da edition, Prentice Hall, Englewood Cliffs, N.J., 1964 *MicroComputacion Ediciones EuroMéxico George Lopezcano tomo I,II,III,IV y V *Computer Organization and Design, Fourth Edition., David A. Patterson John L. Hennessy *Computer Architecture., by John L. Hennessy *Hp fundamentos de tecnología de la información: hardware y *Software Para pc, Cisco press Editorial: PEARSON *Principios de electricidad y electrónica - tomo I,II,III Autor: Hermosa Donate Antonio *Gran libro hardware Editorial: Marcombo / Boixareu editores., Klaus Dembowski *Viaje A Las Profundidades Del PC Autor: José María Martín Martín-pozuelo Editorial: Ra-ma. *Hardware Desde Cero Autor: Damián Cottino Editorial: Mp Ediciones *Hardware Desde Cero Autor: Damián Cottino Editorial: Mp Ediciones *Acústica: La ciencia del sonido, Autora: Ana María Jaramillo Jaramillo., Instituto Tecnológico Metropolitano, ITM *Guía del programador para el IBM-PC Peter Norton, Anaya multimedia, 1988 *Peter Norton: Solucion a Problemas de PC Peter Norton, Robert Jourdain, Prentice Hall Hispano-Americans S.A
BREVE INTRODUCCION AL HARDWARE