revista electronica

Page 1

Edici贸n No 1 29/octubre/2008


No 1

Miercoles 29 de octubre 2008

Bienvenidos a la 1era edición de la Revista Digital de la carrera de Ingeniería Electrónica de la Unan Managua. La edición en PDF se publicará mensualmente en la página de Ing. Electrónica de la Carrera: www.unan-electronica.tk ¿Pórqué? ¿Para qué? En esta revista se editarán diversos tópicos relacionados a la electrónica, ya sean artículos interesantes, noticias actuales, proyectos, etc, todo para que el estudiante (o cualquier persona que la lea) se divierta aprendiendo y se aleje por un momento de lo abrumador de los textos de estudio.

En este Número:

*La miniatura que cambio el mundo *50 años de circuitos Integrados *Soldando en electrónica *Un Vistazo a la electronica de hoy *Simulador de circuitos digitales *Construcción de brazo robótico *Todo sobre monitores(capítulo 1)

Editores

:

Leonardo Chávez Hernaldo Cruz Cardoza Iván Levy López

Producción: María Esther Vallejos Arte y Diseño: Kathya Sandino Revista Ingeniería en Electrónica. Todos los derechos reservados.2008


La miniatura que cambió el mundo Se cumplen 60 años del invento del transistor, que los expertos consideran la base tecnológica de la sociedad moderna

En cualquier hogar, ocultos a los ojos, hay mil billones de transistores. Estos pequeños interruptores hacen funcionar televisores, ordenadores o marcapasos, además de todo aparato electrónico que hace más cómoda la vida de las personas. Mañana se cumplen 60 años de un invento que, para muchos expertos, es el ladrillo con el que se construye la civilización actual. Fue el 16 de diciembre de 1947, tras meses de duro trabajo, cuando los científicos especializados en Física del Estado Sólido, William Shockley, John Bardeen y Walter Brattain, consiguieron el primer transistor de la historia. Medía dos centímetros y era frágil, pero funcionó. Controló con éxito el flujo de corriente eléctrica desde un extremo a otro de un material semiconductor, siendo amplificada a su paso por el transistor. Los Laboratorios Bell, empresa en la que trabajaban los tres físicos, anunciaron el hallazgo meses después. 26 grandes compañías, como IBM o General Electric, pagaron los 25.000 dólares que costaba la licencia. Hasta entonces, las pocas máquinas electrónicas funcionaban con tubos de vacío, unas lámparas de cristal grandes, frágiles y que se calentaban. Los pequeños transistores demostraron que hacían mejor el trabajo. 1


Un transistor funciona como el interruptor de la luz. La posición de encendido se indica con un 1 y la de apagado, con un 0. Los ceros y unos son la base del lenguaje digital con el que funcionan las máquinas. Frente a los lentos tubos de vacío, un transistor se apaga y enciende 300.000 millones de veces cada segundo. El primer transistor, en un sonotone Pero el éxito no fue inmediato. Su primer uso fue para amplificar el audio de aparatos de sonido. Un audífono, el Sonotone 1010, tiene el honor de ser el primer producto en llevar, junto a dos tubos de vacío, un transistor. Fue en 1952 y costaba 229 dólares de la época. Sin embargo, la Regency TR-1 es la culpable de la popularización de la palabra transistor. Se trataba de la primera radio portátil, que llegó a las tiendas estadounidenses en octubre de 1954. Su bajo precio, 50 dólares, ayudó a que fuera un éxito de ventas. Se llegaron a vender 100.000 unidades. Es la época del rock&roll, y este pequeño radiotransistor portátil jugó un papel muy importante en la rebelión de los jóvenes. En 1956 aparece ya un ordenador con transistores. Dos años después, Jack Kilby, un científico de Texas Instruments, construye un circuito integrado con varios transistores funcionando al unísono sobre una base de silicio. Es el inicio de la era de los ordenadores, de los marcapasos o los vuelos espaciales. Ley de Moore También es la época de la Ley de Moore. El que sería fundador de Intel estableció en 1965 la idea de que el número de transistores en un chip se dobla cada dos años. El postulado se ha venido cumpliendo desde entonces, con ligeros ajustes. La ley presupone la progresiva miniaturización de los transistores. De los pocos centímetros de diámetro que tenía el primer transistor, se ha pasado a medirlos en nanómetros, la mil millonésima parte de un metro. Si el primer procesador de Intel tenía sólo 2.300 transistores, los modelos más recientes contienen 820 millones. En la cabeza de un alfiler caben 30 millones de los actuales transistores. Pero hay un aspecto poco conocido de la Ley de Moore tan importante como la minituarización y el aumento de potencia: el precio. Un transistor cuesta hoy la millonésima parte que en 1968. Para hacerse una idea, si los coches hubiesen seguido la misma tendencia, se podría comprar un por un céntimo. El presidente de la Asociación de la Industria de Semiconductores de EEUU, George Scalise, cree que la invención del transistor transformó el mundo. "Es el elemento que hace funcionar los aparatos electrónicos que han revolucionado cada aspecto de la vida humana", dice. También considera que buena parte del liderazgo actual de EEUU se debe a lo que pasó hace 60 años. El futuro del transistor parece seguro. El proceso de miniaturización seguirá, colocándose 15.000 millones de transistores en un sólo chip. Esto abrirá la puerta a nuevos usos, los dispositivos serán tan pequeños que podrán inyectarse en el torrente sanguíneo para que supervisen el estado de salud o reparen células u órganos. 2


50 años de Circuitos Integrados El 12 de septiembre de 1958 Jack Kilby, de Texas Instruments, fue el primero en demostrar qué era un circuito integrado. Algo más tarde Robert Noyce también influiría en ese concepto. Ambos cambiaron la historia para siempre. El circuito integrado supondría la base de la electrónica moderna, y gracias a este componente hoy podemos disfrutar de procesadores que no existirían sin aquel legendario avance.

Kilby, que por entonces trabajaba en Texas Instruments, se llevó el mérito conjuntamente con Robert Noyce, que un año más tarde patentaría la idea y que además lograría producir junto a varios ingenieros de Fairchild el primer circuito integrado monolítico sobre una lámina de silicio. Este proceso sirvió para popularizar el desarrollo de circuitos integrados, y aunque Noyce llegara algo más tarde, sus avances resultaron fundamentales, de forma que tanto él como Kilby son considerados como los padres del Circuito Integrado (CI). La historia de este componente no comenzó con un éxito arrollador: tan sólo los militares y la NASA comenzaron a usarlo tímidamente, y no fue hasta que la Fuerza Aérea de EE.UU. comenzó a usarlo en misiles guiados que sus desarrolladores comenzarón a ver sus posibilidades. Su uso se fue multiplicando, y en 1965 un ingeniero llamado Gordon Moore realizaría un célebre informe en el que publicó su famosa Ley de Moore, en la que afirmaba que el número de transistores se duplicaría de año en año. Y lo hizo, para sorpresa de todos. Los circuitos electrónicos basados en CI fueron creciendo en complejidad, y en 1969 la recién fundada Intel (que crearon conjuntamente Noyce y Moore) desarrolló uno de los primeros procesadores comerciales de la historia, el 4004. A partir de ahí la carrera por los procesadores más potentes y versátiles jamás terminaría, pero los CI no solo acompañarían a estos desarrollos, sino que siguieron formando parte de miles de dispositivos electrónicos de todo tipo.

3


Soldando en Electrónica Si usted no ha ensamblado ningún circuito electrónico anteriormente, entonces necesitará leer algunos conceptos básicos antes de comenzar. Los pasos a continuación describen los procedimientos para preparar, soldar e inspeccionar todo tipo de componentes electrónicos. Con algunas pocas herramientas y un poco de paciencia usted no tendrá problemas en ensamblar y probar sus proyectos.

1 - Herramientas básicas: Soldador tipo lápiz 30w, pequeño paño para limpieza, pinza de punta pequeña, alicate pequeño y estaño 1mm 60/40 con alma de resina. (Todos estos componentes son fácilmente adquiridos en cualquier casa de electrónica). 2 - Doble los terminales de los componentes (cuando sea necesario) para lograr una correcta inserción en la plaqueta.

3 - Inserte los componentes según la indicación de los planos. 4 - Compruebe que el soldador posea la temperatura correcta, para esto toque la punta del estaño con la punta del soldador, si el estaño se derrite inmediatamente, entonces la temperatura es correcta. Limpie la punta del soldador con el paño y ya está listo para soldar. 5 - Caliente la unión del componente con la plaqueta como se ve en la figura (solo unos pocos segundos, el exceso de temperatura puede dañar la plaqueta y/o el componente). 6 - Luego toque la sección a soldar con la punta del estaño (sin retirar el soldador). Cuando el estaño se derrita sobre la plaqueta, retire el estaño y el soldador. Deje enfriar un segundo.

7 - Corte el excedente del terminal del componente con el alicate.

4


Por último inspeccione la soldadura. Una buena soldadura debería verse como un pequeño cono de estaño rodeando completamente la unión del terminal con la plaqueta. Debería tener un aspecto brillante, de no ser así, significa que se ha realizado una soldadura fría. Esto puede deberse a que el soldador no tuvo la temperatura adecuada (paso 4), o no se precalentó lo suficiente la unión (paso 5), o bien se movió el componente cuando aún no se había enfriado la soldadura (paso 6). El peligro de las soldaduras frías es el hecho de que pueden quebrarse y realizar falsos contactos en un futuro. Para solucionarlo simplemente repita los pasos 4 a 6. Opcional: Es normal que alrededor de la soldadura quede una pequeña aureola amarronada. Esto es el resto de la resina que trae el estaño en su interior. Para removerla simplemente use un cepillo de dientes estándar y con él cepille suavemente la secciones soldadas.

5


Un Vistazo a la Electrónica de Hoy s muy probable que ésta sea la primera vez que lee una publicación de electrónica, es por

E

ello que haremos un pequeño re-

sumen de lo que está ocurriendo en la actualidad en materia de

“electrónica”. Ya sea que usted encienda el televisor, escuche un CD, hable por teléfono, utilice el cajero automático, navegue por Internet o consulte una base de datos computarizada, lo más probable es que esté haciendo uso de alguna tecnología digital. Es por ello que haremos un breve recuento del panorama tecnológico que se avizora en el presente y en el que, de una u otra forma, intervienen sistemas y circui-

tos digitales. EL IMPERIO DE LOS BITS La tecnología digital no sólo ha permitido la fabricación de nuevos aparatos de consumo que ofrecen prestaciones inéditas, tal es el caso de los televisores con efectos digitales, los reproductores de CD, las agendas y traductores de bolsillo e incluso las nuevas “mascotas virtuales”; también ha modificado nuestra percepción del mundo y de nosotros mismos por el surgimiento de nuevos sistemas de comunicación, de los que la red Internet y la televisión por satélite son algunos ejemplos. E igualmente ha propiciado una revolución en nuestros sistemas de aprendizaje, laborales, fabriles, de diagnóstico clínico y en numerosos campos más, gracias a los microprocesadores. En resumidas cuentas, la humanidad no es la misma ni piensa

igual que hace una generación. Las sociedades antiguas evolucionaban de manera muy lenta, en parte porque no había medios de comunicación ágiles y, por consecuencia, no había mucho contacto entre culturas distintas. No en vano la imaginación popu-

lar concibió tantos mitos y leyendas, pues los pueblos sin comunicaciones son campo fértil para la

versión analógico/digital y digital/analógico, la electrónica de los bits ha invadido de forma exitosa

superstición. No es el caso de este fin de siglo, que se caracteriza por su dimensión a escala del planeta y por sus cambios tan profundos y tan rápidos. La tecnología, y especialmente la electrónica, es quizás la muestra más perceptible de ese mudar incesante que llega a producir vértigo y desconfianza.

áreas que se consideraban verdaderos bastiones de las señales análogas.

¿Quién, siendo adulto, no ha

sentido alguna vez recelo por los nuevos sistemas de entretenimiento como los videojuegos y el Tamagotchi? ¿Quién no se ha impresionado

por la capacidad de procesamiento de las computadoras? ¿Quién, especialmente si su área de trabajo es la electrónica, está completamente seguro que no necesita adaptarse y asimilar nuevos conocimientos? Algo es muy cierto de esta épo-

ca: el mundo se nos mueve, y mucho. Ese es justamente uno de los rasgos de lo que algunos especialistas llaman “era digital”.

La tecnología digital puede expresar sonidos, imágenes y datos con sólo dos estados lógicos: ausencia y presencia de voltaje, o unos y ceros. Esto permite manejar información con un gran margen de seguridad, pues un 1 y un 0 siempre serán 1 y 0, mientras que los niveles de voltaje de una señal análoga pueden sufrir degradaciones durante los procesos electrónicos, ser influenciadas por ruidos externos, sufrir pequeños errores en el proceso de almacenaje y/o recuperación, etc. Y aunque las señales digitales también son susceptibles de las mismas alteraciones, es posible aplicar poderosos métodos de detección y corrección de errores que garantizan la fiabilidad de la información grabada, transmitida, procesada o recuperada. Otras ventajas de la tecnología

VENTAJAS DE LA TECNOLOGÍA DIGITAL Si bien la tecnología digital no ha

desplazado a la tecnología analógica, y no sabemos si llegue a hacerlo, sí ha mostrado una mayor eficiencia en cuanto al tratamiento de señales y el almacenamiento y procesamiento de información, lo que a su vez ha dado origen a nuevos sistemas electrónicos y nuevas prestaciones de los equipos. Y es que un aparato que antes requería de una enorme y compleja circuitería analógica para llevar a cabo cierto proceso, ahora, con los recursos digitales, no sólo puede incorporar novedosas funciones, sino también ser simplificado en su construcción. Además, gracias a los circuitos de con-

digital sobre la analógica son las siguientes: la posibilidad de comprimir los datos de manera muy eficiente; la capacidad de mezclar múltiples señales en un solo canal sin que se interfieran entre sí; el uso de razones variables de datos; etc. Por supuesto, al igual que todos

los avances que son profundamente innovadores, la tecnología digital es resultado de los desarrollos en otros campos: la construcción de circuitos integrados de bajo costo y muy alta complejidad; las nuevas técnicas de manejo de datos numéricos, que permiten operaciones más eficientes y simplifican procesos muy complicados; la fabricación de poderosos microprocesadores capaces de efectuar millones de operaciones por segundo; y, en general, de una

6


continua evolución en el manejo de señales digitales. COMUNICACIONES Ya sabemos que las comunicaciones electrónicas van mucho más allá de una simple conexión telefónica. Revisemos algunos sistemas que ya se están empleando en nuestros días y que posiblemente se vuelvan elementos cotidianos en un futuro cercano. Videoconferencia No obstante que ya tiene más

de 100 años de haber sido inventado, el teléfono ha mostrado pocos cambios significativos en sus principios básicos de operación (de hecho, es posible utilizar un aparato antiguo en las modernas líneas digitales). Sin embargo, desde hace varios años se ha trabajado en sistemas que permiten además observar en una pequeña pantalla al interlocutor. Se han hecho múltiples experi-

mentos en esa dirección, aunque un obstáculo muy importante es la inversión necesaria para sustituir los tradicionales cables de cobre de la red telefónica, por un tendido de fibra óptica que permite un ancho de banda muy amplio. Cuando sólo se maneja una señal de audio (y ni siquiera de muy alta calidad), es suficiente el cableado tradicional, pero cuando se requiere enviar el enorme flujo de datos que implica la transmisión de una imagen en movimiento, la pérdida de fidelidad en el trayecto es tal que la comunicación se vuelve prácticamente imposible. A pesar de esta limitante, a la fe-

cha se han realizado algunos experimentos que permiten la transmisión de imágenes de baja resolución, utilizando las mismas líneas telefónicas y el mismo estándar de comunicaciones que emplean millones de teléfonos alrededor del mundo. Compañías tan importantes como Casio, AT&T, Laboratorios Bell, Matsushita y otras más, han presentado prototipos funcionales de sistemas que son capaces de

transmitir igualmente voz e imagen. Por supuesto, la imagen transmitida es de muy baja resolución y con una frecuencia de refresco de apenas unos cuantos cuadros por segundo, pero se espera que, conforme se desarrollen las tecnologías de codificación y de compresión de datos, su calidad mejore. Hasta el momento ningún sistema ha sido aceptado por las grandes compañías telefónicas como un estándar, aunque ya está en uso una alternativa muy prometedora: por medio de la red Internet es posible enlazar dos o más computadoras utilizando las líneas telefónicas tradicionales, y entre sus mensajes intercambiados se puede hacer una combinación de audio y video comprimido, en pequeños “paquetes” que se decodifican en el sistema receptor y se presentan al usuario como voz proveniente de la tarjeta de sonido e imagen expedida en el monitor. La ventaja de esta innovación, es que las computadoras pueden estar ubicadas en puntos muy distantes del planeta, pero el costo de la llamada no es de larga distancia, sino local, de la misma manera que los demás servicios de Internet. No está de más recordar otro servicio moderno que constituye una alternativa de comunicación barata, eficiente e instantánea: el correo electrónico. Si usted está conectado a Internet sabe a qué nos referimos. Televisión vía satélite Seguramente usted ha sido testi-

go de la propagación de antenas parabólicas que reciben directamente la señal de un satélite. En los años 60’s, en plena carrera

entre norteamericanos y soviéticos por la conquista del espacio, comenzaron las primeras transmisiones de televisión por satélite. Al principio, con el lanzamiento del Early Bird apenas se consiguió un flujo de 240 llamadas telefónicas simultáneas entre Europa y Estados Unidos; sin embargo, de entonces a la fecha los circuitos de manejo

de señal incluidos en los satélites, han avanzado a tal grado que un satélite moderno puede manejar cientos de canales de TV y audio a la vez, al tiempo que transfiere enormes cantidades de datos derivados de los flujos de llamadas telefónicas. Conforme se desarrolló todo un sistema de satélites comerciales, las grandes compañías televisoras pudieron vender directamente sus señales a los usuarios. Fue entonces cuando se comenzó a instalar en muchos hogares del mundo las tradicionales antenas parabólicas que toman la señal que “baja” del satélite y la entregan a un receptor especial que finalmente recupera las emisiones televisivas. La desventaja de dicho sistema, es que se requiere una antena de grandes dimensiones y un enorme mecanismo que permita cambiar su orientación hacia tal o cual satélite. Ese sistema de recepción de TV

vía satélite ha quedado obsoleto gracias a las técnicas digitales, que mediante una poderosa compresión de datos hacen posible la transmisión y codificación de varios canales en el mismo ancho de banda dedicado normalmente a un solo canal. De esta manera, es posible utilizar una pequeña antena orientada de manera permanente hacia una misma dirección, desde donde transmite su señal uno o más satélites geoestacionarios. A este nuevo sistema se le conoce como DTH-TV (siglas de Direct-to-Home TV o televisión directa al hogar). Internet también ha sido plan-

teado como un recurso para la transmisión de programas televisivos, aunque igualmente se ha topado con la barrera del ajustado ancho de banda de las líneas telefónicas tradicionales; sin embargo, es posible que con la aparición de los llamados Cable Modems (dispositivos que utilizan las líneas de TV por cable para establecer enlaces vía Internet) y el consiguiente aumento en la velocidad de transferencia de datos, la TV por esta red se convierta en algo cotidiano.

7


Fig. 1

se envía en formato digital y se despliega en una pantalla de cristal líquido mediante

caracteres alfanuméricos. Pero hay todavía un sistema de localización personal no

muy conocido. ¿Ha observado en algunos camiones repartidores la le-

yenda “Protegido con sistema de localización vía satélite”? Esta forma de ubicación se basa en un pequeño aparato

denominado GPS (Global Positioning System o Sistema de

Posición Global), el cual reci-

Comunicación y localización personal La telefonía celular es un medio de comunicación que apareció hace pocos años y que ha tenido buena aceptación, y si bien las emisiones son analógicas, su tecnología depende en los centros de control de sistemas digitales muy complejos. Además, se le han incorporado recursos digitales de encriptación de conversaciones para evitar que personas ajenas puedan interceptar llamadas, así como “llaves de seguridad” que permiten precisar si una llamada efectivamente proviene de un cierto teléfono o si algún “pirata” está tratando de utilizar la línea sin derecho. Una adición más, es el cálculo automático de facturación, por medio del cual el usuario puede ir controlando sus consu-

mos telefónicos. También han surgido sistemas masivos de radiolocalización, los llamados beeper, los cuales pueden transmitir mensajes sin importar el punto de la ciudad donde se encuentre el usuario. Para ello, las compañías proveedoras del servicio poseen estaciones radiales, que emiten en todas direcciones el mensaje, pero con una clave digital única para que sólo pueda ser decodificada por el receptor destinatario. Incluso, el mismo mensaje

be las señales enviadas por tres o más satélites colocados en órbita estacionaria; midiendo de forma muy precisa el tiempo que tarda cada señal en llegar, es posible deter-

minar la ubicación del camión (lo cual se logra con un margen de error de pocos metros); para llevar a cabo este cálculo, los GPS necesitan forzosamente de una computadora que mide los retardos de las señales de los satélites, realiza la triangulación de señales y localiza con exactitud el punto del globo terrestre en que se encuentra. Este método también ha revolu-

cionado los sistemas de orientación en la navegación marítima y aérea, pues permiten a los capitanes de barco y a los pilotos consultar en tiempo real la posición del barco o la nave a través de una computadora a bordo que recibe las señales del GPS. AUDIO Y VIDEO

El DVD

Recientemente entró al mercado de consumo y de computación un nuevo sistema de almacenamiento de información que seguramente va a reemplazar a las cintas de video y al CD convencional: nos referimos al formato de audio y video digital conocido como DVD o disco versátil digital. Estos discos tienen un aspecto

muy similar al de un CD común; de hecho, su tecnología de fabricación es similar, con la salvedad de que pueden almacenar una cantidad de datos seis veces mayor a la de un disco de audio digital debido a que es menor el tamaño de los pits de información (figura 1); y aun esa capacidad podría llegar a ser hasta más de 20 veces superior a la que alcanza un CD, gracias a un sistema de grabación por capas (figura 2). Esto hace que el DVD se convier-

ta en un medio de almacenamiento ideal para video digitalizado, con la ventaja de que proporciona mejor calidad de imagen que las tradicionales cintas magnéticas, y que además ofrece las ventajas del medio óptico: su nulo desgaste y la posibilidad de añadir datos de control y de detección y corrección de errores en la lectura. La televisión de alta definición Aunque ya tiene más de 50

años, el formato de televisión NTSC sigue rigiendo la transmisión y recepción de señales televisivas en

Fig. 2

Esta es una área donde los cambios son percibidos muy rápidamente por el público consumidor y por el especialista electrónico, y probablemente es la que más influye en nuestros hábitos de entretenimiento. Enseguida haremos referencia a algunos de sus principales avances.

8


la mayor parte del mundo. Este formato fue diseñado a finales de los años 40´s, y aunque gradualmente se le han añadido ciertas innovaciones (como la inclusión del color o del audio en estéreo), en un aspecto tan importante como la resolución de imagen no ha habido mejoras. Dicho formato puede manejar un máximo de alrededor de 350 líneas horizontales, lo cual queda muy por debajo del manejo de video en computadoras personales, donde las imágenes son de 600, 700 o más de 1000 líneas de resolución horizontal. Ya hace más de diez años que

en Europa, Japón y Estados Unidos se han planteado nuevos formatos de televisión de alta definición incluso, en Argentina, hace unos meses hemos asistido a la primera trasmisión en HDTV realizada por el canal 13 de Bs. As. Sin embargo, el problema de su estandarización es que requieren un tipo de televisor especial para dichos formatos, y los millones de aparatos que ya existen son incompatibles con los nuevos sistemas. No obstante, después de años de investigación y discusiones, finalmente en 1997 se aprobó en Estados Unidos un nuevo estándar que ofrece una resolución horizontal superior a las mil líneas, lo cual permite el despliegue de imágenes con calidad equivalente a la de una película de 35 mm. Para conseguir este impresionan-

te incremento en la resolución sin que se dispare el ancho de banda requerido, se necesita forzosamente del proceso digital de imágenes, las cuales, una vez convertidas en 1’s y 0’s, pasan por complejos métodos de compresión de datos que permiten reducir el ancho de banda de la señal a

transmitirse utilizando el mismo ancho de banda que necesita un canal de TV común, lo cual es muy conveniente porque amplía la flexibilidad en el manejo del espectro electromagnético (de por sí ya cercano al punto de saturación). Una desventaja de dicho sistema de televisión, es que es incompatible con los actuales receptores PAL o NTSC; es decir, los televisores actuales no podrán captar la nueva señal, como sí ocurrió con el surgimiento de la TV color, y los receptores en blanco y negro pudieron seguir funcionando normalmente. Métodos de grabación de audio digital A pesar de que el manejo digital

del audio no es novedoso (se popularizó en 1981, con el surgimiento del disco compacto), hasta hace algunos años no existía un medio que fuera no solamente de lectura, sino también de escritura. En la actualidad existen varias opciones a nivel de consumidor para la grabación de audio digital: el DAT, el DCC y el Mini-Disc. Cada uno de estos sistemas funciona con principios particulares y son incompatibles entre sí. El DAT o cinta de audio digital, es

un sistema patentado por Sony que trabaja con base en un tambor giratorio similar al de una videograbadora; puede almacenar una señal estereofónica de audio muestreada con una precisión de 16 bits y una frecuencia de 48kHz, garantizando una buena captura de toda la gama dinámica audible por el ser humano. Este sistema

fue el primero que ofreció al público consumidor la posibilidad de grabar audio en formato digital; no obstante sus ventajas, no tuvo mucha aceptación, excepto en los estudios de grabación y en las radiotransmisoras. El DCC es también un sistema de cinta, aunque trabaja con base en cabezas múltiples que graban los tracks de manera paralela (figura 3). Este sistema es una patente de Philips y tiene la ventaja de que el aparato, a pesar de grabar y reproducir cintas en formato digital, es compatible con los cassettes de audio analógicos, que también es una patente de Philips de 1963. Con esto se buscó que los consumidores tuvieran un incentivo adicional para adquirir este nuevo formato, aunque hasta la fecha sus resultados no son muy exitosos (su principal punto de venta es Europa). Finalmente, el Mini-Disc, otra pa-

tente de Sony, trabaja por medios magnetoópticos, lo que le permite combinar las ventajas del disco compacto y la flexibilidad de las cintas en cuanto a su capacidad de grabación (figura 4). Este desarrollo parece ser el más prometedor de los tres métodos de grabación de audio digital a nivel consumidor, aunque con la próxima generación de DVD’s grabables, es posible que no alcance su consolidación. Proceso digital de audio Los fabricantes equipos de au-

dio, están incluyendo en sus diseños sistemas que ofrecen novedosas experiencias auditivas, tales como la emulación del sonido en-

aproximada-

mente una sexta parte de su tamaño original. Esta señal reducida puede

Fig. 3

9


volvente de una sala de conciertos, de un espacio abierto, de un

concierto al aire libre, etc. Esta reproducción de ambientes sonoros es posible gracias al proceso digital de señales, que identifican las características fundamentales de las distintas locaciones comunes y, por métodos lógicos, los emulan para dar al espectador la impresión de estar en un recinto completamente distinto a la sala

de su casa. Estos aparatos incluyen complejos procesadores que, a partir de una señal original, pueden recrear los ecos y rebotes de sonido que produ-cen ciertas salas o sitios específicos, “rodeando” al auditorio con sonidos que le dan la sensación de encontrase en dicha loca-

lidad. PROCESAMIENTO DE DATOS No hay rama de la tecnología que avance a un ritmo tan acelerado como la informática, tanto en sus aspectos de hardware como de software. A tal grado han evolucionado las computadoras en los últimos años, que se estima que la potencia de cálculo conjunta de todos los ordenadores que controlaron la misión Apolo 11 que llevó por primera vez al hombre a la Luna en 1969, es menos poderosa y versátil que una computadora moderna. Analicemos algunos puntos relevantes de esta

tecnología.

res de quinta y sexta generación de la plataforma

PC, están constituidos por más de cinco millones de transistores que trabajan a altísimas velocidades, alcanzando 900MHz de frecuencia

de reloj. Tan sólo el Pentium III de Intel incluye unos 10 millones de transistores y trabaja con velocidades que van de 300 a 800MHz, y ya se anunciaron frecuencias todavía mayores. Otros desarrollos en el campo de los microprocesadores, es la incorporación de grandes magnitudes de memoria caché de rápido acceso para la ejecución predictiva de operaciones, la inclusión de múltiples líneas de ejecución que permiten realizar más de una operación por ciclo de reloj, la ampliación de los buses de comunicación que permite la adquisición o expedición de varios bytes a la vez, la inclusión de las unidades de punto flotante en la misma estructura del chip, etc. De hecho, aproximadamente cada seis meses los fabricantes de microprocesadores presentan alguna innovación que hace a sus dispositivos más poderosos y flexibles. Esto ha puesto al alcance de

Microprocesadores Desde que se desarrollaron los primeros circuitos integrados en la década de los 60´s, se vislumbró la posibilidad de condensar en una sola pastilla de silicio todos los elementos necesarios para efectuar los complejos cálculos que se llevan a cabo en una computadora; sin embargo, es posible que los investigadores no imaginaran que se podrían incorporar cientos de miles e incluso millones de elementos semiconductores en un chip de apenas

algunos milímetros cuadrados. Los modernos microprocesado-

Fig. 4

cualquier usuario promedio de computadoras, una capacidad de procesamiento de datos que hasta hace pocos años estaba destinada a grandes empresas o universidades. Como un dato interesante, le diremos que TRON, una película de Disney filmada en la segunda mitad de los 70´s, fue una de las primeras cintas que incorporó animaciones en computadora con gráficos renderizados en tres dimensiones. Pues bien, en aquella época se requirió toda la potencia de una computadora Cray de 64 bits para realizarlas; en la actualidad, los vi-

deojuegos de la consola Nintendo 64 incluyen un microprocesador de 64 bits de Silicon Gra-phics y pueden generar animaciones de mejor calidad que las de obtenidas en TRON y ni que hablar de las modernas máquinas de 128 bits. Capacidad de almacenamiento de datos Actualmente, una computadora con microprocesador Pentium, equipo multimedia, disco duro de más de un gigabyte, tarjeta de fax-módem, etc. llega a costar menos de mil dólares. En cambio, hace unos quince años tan sólo un disco duro de 10 ó 20 megabytes (el 1% de la capacidad típica actual), podía costar unos $1.500. Al igual que la mayoría de com-

ponentes de una computadora, los discos duros han experimentado una caída sensible en sus precios asociada a crecientes mejoras tecnológicas; en este caso, hablamos de un extraordinario incremento en la capacidad de almacenamiento, disminución de los tiempos de acceso a los datos y fiabilidad de la información. Ello se ha conseguido gracias a avances en la tecnologías de fabricación de los platos magnéticos, de las cabezas de lectura/escritura y de los circuitos que codifican y manejan la información. Incluso, desde hace algunos

años se viene utilizando la tecnología magnetoóptica como alternativa para el almacenamiento de datos (figura 5). Y no hay que olvidar que el CD-ROM (la misma tec-

10


Principios de Generación de la Electricidad Fig. 5

nología del disco compacto de audio digital, pero aplicada a sistemas de cómputo) por muchos años se mantuvo como el medio por excelencia para la venta de programas multimedia, debido a su alta capacidad de almacenamiento (hasta 640 MB de informa-

ción) y muy bajo costo. Es más, pruebas de laboratorio en las que también se combinan las tecnologías óptica y magnética, prometen multiplicar por un factor de 10 la capacidad de almacenamiento, utilizando básicamente los mismos discos magnéticos; al mismo tiempo, se están experimentando métodos para grabar información en cristales fotosensibles e incluso para utilizar memorias tipo RAM como principal medio de almacenamiento de datos, con el consiguiente aumento de la velocidad de acceso. Gracias a estos avances, se cal-

cula que hacia principios del próximo siglo una computadora estándar podría contener decenas o cientos de gigabytes de información en dispositivos de tamaño muy reducido. Internet Pocos temas han generado tanta

expectativa como Internet, aun entre el público que raramente trabaja con una computadora; y es que la red mundial de computadoras

ofrece una serie de servicios que definitivamente han modificado el concepto de la comunicación. Internet es una red mundial de computadoras conectadas entre sí por medio de líneas de rápido acceso, a través de comunicaciones vía satélite o por simples líneas telefónicas. Estos son los servicios de Internet más utilizados, y todos al costo de una llamada telefónica local: 1) Correo electrónico. Permite el intercambio de información escrita (pueden enviarse también imágenes, gráficos o cualquier otro tipo de archivo computacional) de forma prácticamente instantánea y a cualquier parte del mundo. 2) IRC. Permite entrar a grupos virtuales de conversación escrita, en los que navegadores de distintas partes del planeta “se reúnen” para intercambiar experiencias sobre un tema específico; lo que un usuario escribe en su computadora los otros lo reciben. A estos servi-

cios también se les conoce como chats. El concepto también ha evolucionado hacia la conversación directa como si fuera una llamada telefónica (los llamados Internet-phone) e incluso hacia la transmisión de la imagen de los interlocutores. 3) La World Wide Web

(telaraña

mundial). Es un sistema basado en “páginas “, que no son otra cosa

que interfaces similares a las que se utilizan en los programas multimedia, es decir, pantallas con texto, gráficos, sonidos, animación y otros elementos de control que se utilizan en los programas con interface gráfica. Y al igual que en un progra-ma multimedia, la pantalla tiene textos e imágenes sensibles que, al colocar el puntero del ratón y hacer clic, permiten “saltar” de un punto a otro de la misma página o hacia otra página. La Web es la parte más exitosa de Internet y la que de hecho ha popularizado a esta red mundial de computadoras, debido a su manejo extraordinariamente sencillo. Cualquier persona, aunque no tenga conocimientos de computación, puede “navegar” en la Web. Además, otra de sus ventajas es que hay millones de páginas en todo el mundo, puestas por las empresas, por las universidades y por particulares, que brindan acceso gratuito a todo tipo de información. De hecho, es muy importante que usted, ya sea estudiante, hobista, técnico en electrónica o profesional, vaya pensando en adquirir una computadora (si no la tiene) y conectarse a Internet, si es que aún no lo ha hecho. A través sus páginas en la Web, los fabricantes de equipos electrónicos brindan mucha información gratuita y sumamente valiosa; además, se pueden intercambiar experiencias con otros usuarios de diferentes partes del mundo, etc. Existen otros servicios disponibles

en Internet, como grupos de discusión, listas de correo, transferencia de archivos de un servidor hacia cualquier computadora que lo solicite (FTP), etc., pero sin duda estos son los más empleados por el usuario típico.

11


Simulador de circuitos digitales Todos los que alguna vez hemos diseñado un circuito digital sabemos de lo importante que es contar con una herramienta que nos permita llevar a cabo una simulación del funcionamiento del circuito en que estamos trabajando. Estas herramientas suelen ser bastante caras, y muchas veces el hobbysta o aficionado a la electrónica no tiene acceso a ellas. Afortunadamente, existe el Simulador de Construcción de Circuitos Digitales con Escenarios Virtuales y Tutoriales Interactivos (“el Simulador”, de aquí en adelante), que es completamente gratis y no tiene nada que en-

vidiarle a muchas de las herramientas de pago. Este programa ha sido desarrollado por Arturo Javier Miguel De Priego Paz Soldán, Ingeniero Electrónico de la Pontificia Universidad Católica del Perú. La

versión que evaluaremos es la 0.94, la última disponible al momento de escribir este articulo. El programa corre bajo Windows, y necesita de una resolución de

pantalla de por lo menos 1024 x 768 píxeles.

El programa El software permite construir y simular circuitos digitales, a partir de modelos lógicos de circuitos integrados estándares (de la familia TTL “LS”) y de aplicación específica (conocidos como ASIC). Los circuitos que construye el usuario pueden ser simulados directamente sobre el módulo digital que provee el programa o, en algunos casos, ser validados sobre los Escenarios Virtuales. Estos escenarios representan el entorno en el que los circuitos operarán. Por supuesto, los esquemas construidos pueden ser almacenados, recuperados y editados. El programa también provee una serie de tutoriales Interactivos, que se encargan de ilustrarnos sobre el funcionamiento de algunos circuitos lógicos típicos. Muchos de ellos incluyen descripciones VHDL. Según nos cuenta Arturo, “el software ha sido diseñado para ser empleado como una herramienta de enseñanza y aprendizaje del diseño digital, y actualmente está orientado a los cursos básicos o de introducción a los circuitos digitales, tanto en el nivel escolar como universitario.” Entre los puntos sobresalientes de este programa, podemos destacar el gran número de modelos de circuitos integrados TTL que el autor ha incluido (y sigue incluyendo). La posibilidad de almacenar y recuperar nuestros proyectos permite la verificación y reutilización de los mismos, tanto en la enseñanza como en el aprendizaje del diseño digital. La existencia de los tutoriales, que se muestran a la derecha del módulo digital permite validar rápidamente el conocimiento adquirido. Los escenarios, aunque pocos por ahora (el programa se encuentra en permanente desarrollo), nos brindan una mejor perspectiva y facilitan una mejor primera especificación del diseño lógico.

12


Tampoco se han considerado los efectos eléctricos (retardos en la propagación de las señales, abanicos de entrada y salida, ruido, etc.), y los chips modelados no cuentan con pines de tres estados ni bidireccionales. Esto no representa una limitación demasiado grabe. El simulador, tal como se encuentra

en la actualidad, es perfectamente

operativo y cumple a la perfección su misión educativa. Cuenta con cuatro modelos de ASICs y casi 100 integrados TTL listos para usar.

El Módulo Digital De alguna manera, este es el corazón del programa. Sobre el, el usuario va desplegando los componentes y conexiones que conforman su proyecto. Esta compuesto por una tarjeta para alambrar circuitos (también conocida como protoboard o breadboard), 18 LEDs, 3 visualizadores de siete segmentos, generadores de reloj, entradas digitales (12 interruptores y 4 pulsadores), bornes de alimentación (VCC y GND), una bornera de expansión de 18 líneas (a la que se conectan los escenarios virtuales) y un interruptor principal para el encendido y apagado del sistema Para montar un circuito, simplemente vamos seleccionando los chips necesrios desde un menú (que los agrupa por categorías) y los insertamos sobre el protoboard. Las conexiones entre ellos se dibujan trazando líneas con el ratón. De ser necesario, tanto los cables como los chips pueden retirarse simplemente pulsando con el botón derecho sobre el chip en cuestión o sobre uno de los extremos del cable a remover.

.Escenarios y tutoriales Como decíamos, el programa proporciona escenarios sobre los que probar nuestros circuitos.

Estos pueden elegirse e insertarse desde un menú. Cuando el interruptor principal se encuentra en la posición de “apagado”, el escenario trabaja en modo independiente, siguiendo un comportamiento predefinido. En este modo el usuario puede observar cómo debe interactuar el circuito con el medio ambiente virtual. Cuando el interruptor se enciende, el escenario se controla mediante las señales que provienen desde el módulo digital. 13


Los tutoriales nos muestran los aspectos b谩sicos de algunos temas relacionados con la electr贸nica. En muchos casos podemos ver la descripci贸n VHDL correspondiente. Los hay enfocados al funcionamiento de las puertas b谩sicas, decodificadores, multiplexores, flip-flops etc.

14


Diseño de un Brazo Mecánico Proyecto: Diseño de un brazo mecánico Bibliografía: Robótica Práctica de Angulo

Introducción: Este proyecto surge del reclamo de muchos visitantes por planos y conceptos que les ayuden a iniciar la construcción de un Brazo Mecánico controlado por computadora. A lo largo de este documento se verán distintos bosquejos e ideas que podrán orientarlos hacia el diseño de un brazo. Si bien los bosquejos presentados corresponden a un modelo de brazo bastante complejo, este puede ser adaptado de acuerdo a las posibilidades de cada uno. Las siguientes imágenes muestran el modelo terminado del brazo que luego se verá en mas detalle:

Estas imágenes corresponden a un modelo comercial denominado ARMDROID que se utiliza con fines didácticos.

15


Descripción técnica: En la siguiente figura se puede apreciar un diagrama del ARMDROID con todas sus partes detalladas:

Como se puede apreciar este modelo es un brazo muy completo, que posee cuatro ejes de movimiento: Base, Hombro, Codo y Muñeca. Como se ha comentado antes, no es necesario tener todos estos movimientos en un primer diseño. Por ejemplo el movimiento de la muñeca suele complicar bastante el diseño y puede ser obviado perfectamente sin que esto disminuya demasiado la capacidad de trabajo del brazo.

16


En la siguiente figura se puede apreciar los ángulos de giro clásicos de las distintas articulaciones:

Si bien no se aprecia el ángulo de giro de la base, esta posee un movimiento de derecha a izquierda y viceversa con un ángulo de giro generalmente limitado por los cables que conectan el cuerpo del brazo con la base de apoyo. De todas formas con un buen diseño es posible alcanzar ángulos de giro muy cercanos a los 360°. En la construcción de este modelo se utilizan 6 motores paso a paso. Uno es utilizado para el movimiento lateral de la base, un segundo y tercer motor para dar movimiento al brazo y antebrazo, un cuarto y quinto motor para accionar la muñeca hacia arriba y abajo y darle giro, y el sexto y último motor para controlar la apertura y cierre del aprehensor de la mano. Los motores se ubican principalmente en la base para evitar cargar con pesos adicionales las extremidades, ya que esto redundaría en tener que usar motores mas potentes para lograr mover las mismas.

17


La conexiĂłn mecĂĄnica entre los motores y los ejes de cada extremidad se realiza por medio de delgados cables de acero, engranajes y poleas, segĂşn se aprecia en la siguiente figura:

18


Para terminar, veremos dos imágenes que ilustran la construcción y accionamiento de la muñeca y la mano:

19


Accionando el brazo desde la PC: Para controlar el brazo desde la PC se puede hacer uso de la interfaz para puerto paralelo publicada en esta misma sección en conjunto con la controladora para 4 motores paso a paso también disponible en esta sección. Si bien este brazo utiliza 6 motores, podemos obviar el movimiento de la muñeca con lo cual podríamos realizarlo con tan solo 4 motores paso a paso.

Alternativa a los motores paso a paso: También es posible accionar un brazo mecánico mediante el uso de Motorreductores DC o bien motores DC con cajas reductoras adecuadas. El resto de la mecánica no cambia, pero hay que tener en cuenta que en los motores DC a diferencia de los motores paso a paso, no es posible controlar su giro, estos giran una vez aplicada la energía y no hay forma de saber cuanto han girado. Para solucionar esto se puede hacer uso de un sistema de retroalimentación que nos informe en que posición se encuentra cada eje y de esta forma sabremos cuando debemos accionar o detener un motor y a su vez hacia que lado debe girar el mismo. Este sistema es comúnmente llamado Servomecanismo, y para realizarlo basta simplemente con hacer uso de un potenciómetro lineal conectado mecánicamente con cada eje que se desee controlar. De esta forma cada vez que el eje gire, también girará el potenciómetro del cual podemos obtener una lectura analógica de la posición del eje. El siguiente paso es transformar esta lectura analógica en digital para poder interpretarla en la PC y tomar las acciones necesarias. Para esto existen en el mercado y a precios muy accesible chips A/D que con muy pocos componentes externos permiten traducir una o varias lecturas analógicas y representarlas en un byte que puede ser leído e interpretado por cualquier dispositivo digital. Como ejemplo podemos mencionar la línea ADC de National cuyas características pueden apreciarse en la siguiente dirección: http://www.national.com/parametric/0,1850,502,00.html

Con un poco de diseño, se podría acoplar uno de estos chips a la interfaz para el puerto paralelo y de esta forma realizar la lectura de los potenciómetros.

Conclusión: Es muy importante el uso de materiales livianos para la construcción de un brazo mecánico, ya que todo peso adicional redundará en una complejidad mecánica y económica, debido a que obligará a utilizar motores de mayores potencias. Un buen material es el aluminio, este es fácil de conseguir, relativamente económico y extremadamente liviano en comparación con su dureza.

.

20


REVISTA INGENIERÍA EN ELECTRÓNICA

PRESENTA

Todo Sobre Monitores Para el desarrollo de este texto se editan textos tomados de Internet y la coordinación de la

obra corresponde al grupo de editores y producción de REVISTA INGENIERÍA EN ELECTRÓNICA. En esta 1era edición se publicará el capítulo 1 de este interesante tema. Son 8 capítulos en total, estos se publicarán uno a uno en las siguientes ediciones.

CAPÍTULO 1 *EL TUBO DE RAYOS CATÓDICOS *INTRODUCCION *RESEÑA HISTORICA *EL TUBO TRICROMATICO DE ALTA DEFINICIÓN *CONVERGENCIA Y PUREZA *EL FOCO ESTATICO Y DINAMICO *AJUSTE Y REPARACIÓN DE MONITORES CON PROGRAMAS *EL CUADRO DE PRUEBA DE PROPOSITOS GENERALES *LAS PRUEBAS ESPECIFICAS

21


C A P Í T U L O1 EL TUBO DE RAYOS CATODICOS INTRODUCCION

¿Por qué razón de pronto aparecieron monitores para reparar por todos lados, es que se rompieron todos juntos? No, de ningún modo. Los monitores se rompieron siempre, lo que ocurre es que antes no se los reparaba por un problema de tipo económico. Un monitor moderno de 17” cuesta alrededor de 250 dólares. Antes no tenía sentido gastar de 70 a 120 dólares (las partes eran muy caras) en reparar un monitor viejo que siempre sería viejo. Era mucho más lógico comprar un monitor nuevo que además se compraba con un crédito blando. Pero no vaya a creer que los usuarios tiraban los monitores rotos. En América Latina no se tira nada. Los monitores viejos se guardaban prolijamente porque nunca se sabe lo que nos puede deparar el destino. En la empresas se los enviaba al depósito en espera de una decisión definitiva que nunca llegó. Con el dólar más caro y los repuestos más accesibles, el valor de un monitor es tan grande que nadie piensa en comprarlo nuevo. Las reparaciones en cambio mantuvieron su valor, porque los laboratorios de reparación sacrificaron ganancia a cambio de trabajo y además porque algunos componentes importados bajaron su precio en dólares, (milagro de nuestra lamentable cadena de ventas) so pena de morir abigarrados en las

estanterías de las casas de electrónica. Actualmente, cuando una empresa debe montar una estación informática, recurre a su depósito en lugar de comprar y hace arreglar los monitores dañados, prolijamente guardados en el depósito. En fin, que se creó un nuevo mercado, el de los monitores reparados, y no es tarea fácil reparar un monitor. Un monitor se parece a un TV pero sólo se parece; mas allá de lo que se supone, un monitor actual es un aparato de precisión al precio de un producto de consumo masivo. Las normas de TV, sobre todo en lo que respecta al detalle o definición de la imagen son ampliamente superadas por las normas de los modernos monitores multinorma. Los defectos geométricos de la imagen son casi irrisorios comparados con los de un TV y los defectos de bloming (cambio de las dimensiones según el brillo) prácticamente se reducen a cero. En cuanto al matiz y la saturación del color se puede decir que el monitor debe comportarse como un elemento muy estable tan-

to a corto como a largo plazo, sobre todo si se lo utiliza para actividades gráficas.

RESEÑA HISTORICA Los primeros monitores usados en computadoras PC fueron los Hércules monocromáticos de fósforo naranja o blanco. El autor tuvo oportunidad de diseñar un monitor nacional de ese tipo en la empresa Tonomac por lo que puede decir que conoce el problema desde dos puntos de vista, el del diseñador y el del reparador. Se trataba de monitores diseñados específicamente para el mo-

TODO SOBRE MONITORES 1

22


EL TUBO DE

R AYOS CATÓDICOS

do texto (sólo poseen dos estados de brillo sobre la pantalla, alto y bajo) es decir que sobre la pantalla sólo se podían ver caracteres alfanuméricos. No se podía, por ejemplo, ver una fotografía con tonos medios. Posteriormente los tubos de fósforo naranja se cambiaron por otros de fósforo blanco que como novedad, presentaban una pantalla levemente esmerilada que se asemejaba a la textura del papel de oficina. La frecuencia horizontal era exactamente el doble de la utilizada en TV

es decir del orden de los 32kHz y la vertical de 50 o 60Hz. El siguiente paso fueron los monitores CGA. Estos monitores poseían un tubo tricromático pero similarmente a los Hércules, los cañones sólo podían encenderse o apagarse. No podían generar brillos intermedios. Por lo tanto sólo reproducían los tres colores primarios de la síntesis aditiva: rojo, verde y azul más los tres secundarios cian, amarillo y naranja y por supuesto el negro y el blanco. Es decir solo 8 colores si consideramos al negro y al blanco como colores. En lo que respecta a las frecuencias de barrido utilizaban las mismas que los Hércules. Debido al agregado del color, la definición empeoraba notablemente y por lo tanto sólo se los utilizaba cuando el color era

imprescindible. Más adelante aparecieron los monitores VGA de una sola norma con una definición de 640x480 puntos que ya tenían la posibilidad de trabajar con distintas intensidades por cada color brindando la posibilidad de generar 16 colores aunque cabe aclarar que la cantidad de colores a reproducir ya es función de la PC y no sólo del monitor. El monitor en sí, al trabajar con brillos analógicos por cada cañón puede generar tantos colores como lo requiera la PC. Las frecuencias de trabajo de estos monitores estaban limitadas a los valores mínimos de 32kHz para el hori-

zontal y 50 Hz para el vertical. La llegada de los monitores SVGH multisistema o multimodo y el incremento de la capacidad de memoria y de disco rígido de las PC actuales, permiten operar al monitor con una definición que varía entre 640x480 y 1280x1024 líneas y trabajar con 16 colores, 256 colores, color de alta densidad de 16 bits o color verdadero de 32 bits. Estos monitores tienen la capacidad de leer la información de sincronismo y ajustar sus parámetros automáticamente a los requerimientos de la PC. En los últimos años las novedades se produjeron más a nivel de la digitalización de controles y al tamaño del tubo que a otras cosas. En principio, un monitor moderno actual tiene una pantalla de 17” o más y un conjuntos de pulsadores que ajustan todas las funciones programables por el usuario, sin hacer uso de un solo potenciómetro o utilizando sólo dos para el brillo y el contras-

te que se dejan con ese tipo de control por razones ergonómicas. Recién en los últimos tiempos se observa una mínima confluencia en el mercado de monitores con pantalla de cuarzo líquido de alto brillo de las llamadas de plasma. Pero dado su precio suponemos que sólo se utilizarán donde el espacio es de fundamental importancia (Cajeros de ban-

co) o donde se requiera una presentación muy moderna en puestos de atención al público. ¿Por dónde comenzar ? Creo que en realidad se podría empezar por diferentes puntos. El autor acostumbra a comenzar sus cursos de TV comenzando por el tubo, ya que considera que el resto del TV está al servicio del tubo. El tubo es el nudo Georgiano donde confluyen los demás circuitos (haciendo caso

TODO SOBRE MONITORES 1

23


EL TUBO DE

RAYOS C ATÓDICOS

omiso de los de sonido) y el conocimiento de sus características en detalle nos permiten conocer los circuitos que lo excitan y los circuitos que excitan a los que excitan al tubo y así hasta llegar a la antena. En nuestro caso comenzaremos por el tubo y llegaremos hasta el conector de entrada. Luego analizaremos el yugo del tubo y nos iremos hacia los circuitos de deflexión horizontal y vertical confluyendo posteriormente en el circuito integrado “jungla de monitor” en donde se encuentran los osciladores horizontal y vertical y los circuitos de corrección de barrido y foco.

EL TUBO TRICROMATICO DE ALTA DEFINICION

No es ninguna novedad que la TV color fue anterior a la informática color. Esto puede hacernos suponer que los modernos tubos de televisión y los tubos de los monitores se parecen y en efecto una mirada a la ligera nos indica que son similares. Pero en el fondo no es así. Si toma una lupa y observa la pantalla de su TV y luego la pantalla de su monitor observará una diferencia fundamental. En la pantalla de TV se Figura 1

observan triadas de rectángulos con los bordes redondeados y en la del monitor tres círculos coloreados ubicados en los vértices de un trián-

gulo. Ver la figura 1. En principio, observe la diferencia de tamaños entre una y otra triada. En un TV la separación es mucho mayor que en un monitor; eso significa que ese tubo no es apto para ver los detalles de una pantalla de PC, independientemente de que los amplificadores de video puedan manejar el ancho de banda adecuado. Luego observe la disposición de las triadas de puntos. En el caso del TV las triadas de puntos oblongos están en línea y en el caso del monitor están en los vértices de un triángulo equilátero. Esto permite llenar los huecos de una línea de la trama de barrido con la siguiente permitiendo una distribución más homogénea de los puntos y por lo tanto un mayor detalle de la imagen. La disposición de las triadas define al tubo en dos grandes grupos denominados: tubos “en línea” y tubos “delta” en alusión a la letra griega con forma de triángulo. Extrañamente los primeros tubos utilizados en TV eran delta. Recién en el año 1978 Philips presentó el tubo en línea en lo que llamó el concepto 20AX. A partir de allí todos los TVs estuvie-

ron dotados de tubos en línea y el concepto delta quedó en el olvido.

¿Por qué el cambio, si como acabamos de ver la definición de la imagen es mayor en un tu-

bo delta? Simplemente porque la convergencia y la pureza de un tubo en línea es mucho mas fácil de conseguir, tanto que no se requieren circuitos de convergencia dinámica, alcanzando solo con los

TODO SOBRE MONITORES 1

24


EL TUBO DE

R AYOS CATÓDICOS

imanes de convergencia estática montados sobre el cuello del tubo. Pero con la llegada de los monitores los fabricantes se dieron cuenta que no podían fabricarlos con tubos en línea, si pretendían utilizar una definición horizontal superior a las 400 líneas y volvieron al viejo concepto delta. Nota: el lector puede suponer que los tubos de 16/9 de los TV de alta definición tienen más de 400

líneas y es cierto, pero tienen una dimensión horizontal desproporcionadamente grande. Sin embargo, aun en los primeros tubos no se requirieron circuitos especiales de convergencia dinámica. La razón es que las técnicas de fabricación de cañones electrónicos para tubos había avanzado tanto que los cañones tenían un diámetro mucho menor y por lo tanto se podían poner más cerca uno del otro. Y ocurre que como los errores de convergencia son proporcionales a la separación entre cañones, se minimizan y basta con un adecuado diseño del yugo para resolverlos definitivamente sin requerir circuitos electrónicos adicionales. Un monitor moderno debe tener pantalla plana o casi plana. Esto perjudica también a la convergencia, pero lo que se ve más perjudicado es el foco (sobre todo en los bordes) y la forma de señal de barrido que ya no puede ser una corriente que varíe en forma lineal (en diente sierra o rampa). El problema del foco existe también en TV, pero debido a que los requerimientos de diámetro del punto son menores no se tiene en cuenta. En la industria de los monitores se lo tiene en cuenta sólo en los monitores de pantallas superiores a 15” y eso significa que los fly-backs tienen un focus pack de tres potenciómetros, a saber uno para el control de screen (cortes de haz), uno para el foco y un tercero para el astig-

matismo o enfoque de los ángulos.

Figura 2

TODO SOBRE MONITORES 1

25


EL TUBO DE

RAYOS C ATÓDICOS

Por supuesto que el enfoque será ahora dinámico; es decir que la tensión de enfoque no es un valor fijo, sino que es un valor variable con la posición del haz con forma de parábola superpuesta a una continua. Cuando el haz electrónico está en el centro de la pantalla, la tensión de foco está en el mínimo porque allí la distancia al cátodo virtual es mínima. En los ángulos de la pantalla, la distancia a cátodo virtual es máxima y por lo tanto la tensión de foco debe ser mayor. Primeras Conclusiones En este primera entrega planteamos las características del curso, realizamos una corta introducción histórica y comenzamos a explicar algunos detalles del tubo sobre todo aquellos que difieren del tubo para TV. En la segunda continuaremos con las explicaciones relacionadas con el tubo tricromático, sobre todo en lo que respecta a las tensiones de sus electrodos y daremos una corta explicación sobre el fenómeno de los arcos internos y cómo se los recluye a los alrededores del tubo evitando su propagación. Como elementos prácticos de trabajo le indicaremos cómo construir una punta de alta tensión para su téster y cómo construir un estetoscopio electrónico para ubicar fugas en las secciones de alta tensión y foco. Le mostramos una de las imágenes que puede generar nuestro generador (figura 2). Cabe señalar que en Saber Electrónica se publicó un artículo describiendo el funcionamiento de este generador. CONVERGENCIA Y PUREZA

El tubo color con máscara de sombra, creado en EE UU por la empresa RCA, para la naciente TV color de la década del 60 del siglo pasado, consiste en una pantalla cubierta de puntos de fósforos de colores rojo verde y azul agrupados en triadas. Cada grupo forma un triángulo equilátero con un punto emisor de luz roja y otro de luz verde, colocado en los vértices superiores del triángulo y otro de luz azul, colocado en el vértice inferior. Un viejo tubo de TV poseía unas 500.000 triadas y un moderno tubo de monitor unas 2.500.000. A una corta distancia de la pantalla de fósforo (1 cm aproximadamente) se encuentra una máscara metálica con una perforación por cada triada de puntos de fósforo justo en el centro del triángulo imaginario. La finalidad de esta máscara y sus agujeros es que cada cañón electrónico sólo pueda bombardear a los puntos de fósforo que le correspondan y tenga los otros dos totalmente tapados. En la figura 3 se puede observar un dibujo donde se ve al cañón verde bombardeando a un punto de fósforo verde. Desde el punto de pivote del cañón verde (punto teórico en el interior del yugo en donde se considera que deflexiona el haz verde) no se pueden ver los puntos rojo y azul y viceversa. Observe que hay una zona después de la máscara perforada que es un cono de sombra para los electrones que llegan desde los cañones. Esto da nombre de “máscara de som-

TODO SOBRE MONITORES 1

26


EL TUBO DE

R AYOS CATÓDICOS

bra” a la máscara perforada. Como la construcción del tubo no permite garantizar que cada cañón pegue sólo sobre el fósforo correspondiente existe un conjunto de imanes montados sobre el cuello cerca del zócalo que permite modificar la posición de cada haz. Este ajuste se denomina de pureza porque garantiza la pureza de los colores sobre la pantalla. Es decir

Figura 3

Figura 4

que una imagen roja se vea roja en toda la pantalla, cosa que no ocurre si el haz rojo pega aunque sea lateralmente sobre un punto

verde o azul. En la figura 4 se puede observar un detalle en perspectiva de cómo es realmente la intersección de la máscara ranurada, en este caso dejando pasar el haz rojo e interceptando el azul y el verde. Observe la formación de

una línea de puntos R G B R G B R... lograda porque los agujeros de una fila están corridos medio paso con respecto a la siguiente. Este modo de trabajo permite llenar los huecos de la pantalla y mejorar la reproducción de los detalles. Observe también que el haz electrónico siempre tiene un diámetro tal que toma varias triadas a la vez. El fenómeno de la pureza se puede entender mejor cuando se utilizan dibujos en colores. En la figura 5 se puede observar cómo se verían las triadas de fósforo desde un punto de pivote ubicado en el centro de los puntos de pivote rojo verde y azul. En cambio en las figuras 6, 7 y 8 se puede observar cómo al mirar desde el punto de pivote verde sólo se observan los puntos verdes, Figura 5 desde el punto de pivote azul los puntos azules y desde el punto de pivote rojo, los puntos rojos. La existencia de tres cañones genera realmente tres tramas de líneas sobre la pantalla; una roja otra verde y otra azul. La máscara de sombra y los imanes de pureza evitarán que un haz incida sobre el color equivocado, pero no podrán de ninguna manera Figura 7

Figura 6

TODO SOBRE MONITORES 1

27


EL TUBO DE

RAYOS C ATÓDICOS

conseguir una coincidencia de las tres imágenes de color sobre la pantalla. Los primeros monitores color poseían imanes de convergencia estática para controlar la convergencia en el centro de la pantalla y circuitos electrónicos y bobinas de convergencia dinámica para corregir la convergencia periférica. En el estado actual de la técnica, la convergencia dinámica es realizada por un complejo diseño del yugo en donde se busca que el campo magnético generado no sea uniforme sino que dependa del apartamento del haz central.

Figura 8

En la figura 9 se puede observar cómo sería la imagen de un rectángulo rojo, otro verde y otro azul cuando no se corrige la convergencia. Por supuesto que se ha exagerado la separación entre cañones para que la distorsión se Figura 9

observe con más claridad. La convergencia dinámica (en la periferia) se ajusta con la posición del yugo, que está montado sobre el tubo con dispositivos que permiten el movimiento axial y el giro en un ángulo sólido de 360° sobre el punto de pivote central. La convergencia estática se ajusta con los imanes montados en el cuello del tubo. Estos ajustes se realizan en la fábrica de tubos con dispositivos robotizados y luego se sella el yugo con adhesivos permanentes. Este ajuste no debe ser modificado por el reparador salvo si viera en la necesidad de cambiar un yugo. En este caso se deberá remitir al manual para encontrar un método específico de ajuste si lo

hubiera. Está previsto por parte de la editorial la realización de un video aclaratorio del tema.

EL FOCO ESTATICO Y DINAMICO

Para que un haz se presente como un pequeño punto luminoso sobre la pantalla, la imagen del cátodo debe estar perfectamente enfocada sobre el fósforo. En realidad lo que debe enfocarse es el llamado cátodo virtual y no el físico. El fenómeno de la emisión electrónica es el siguiente: El filamento calienta al cátodo y éste emite electrones con carga negativa. Si estos electrones no son requeridos por el cañón, permanecen formando una nube alrededor del cátodo. Esa nube tiene un potencial negativo que inhibe la emisión de nuevos electrones. Recién cuando la nube pierde volumen por requerimientos del cañón que bombardea la pantalla (la grilla de control toma potencial nulo con respecto al cátodo permitiendo que los electrones ingresen a la sección de enfoque) la nube pierde potencial negativo permitiendo que sean emitidos nuevos electrones. Esto sig-

TODO SOBRE MONITORES 1

28


EL TUBO DE

R AYOS CATÓDICOS

nifica que cuando un tubo tiene buena emisión se produce una nube electrónica gruesa que siempre provee de suficiente cantidad de electrones al sistema. Cuando el cátodo se agota, la nube se hace más delgada y termina por desaparecer, en ese caso los electrones son extraídos directamente desde el cátodo real que se encuentra un poco más alejado de la pantalla que el virtual y por lo tanto requiere un ajuste diferente del foco. Los electrones son emitidos en forma paralela al eje del tubo que pasa por el centro de los tres cañones con dirección a la pantalla, pero cuando pasan por el yugo deflexionan para generar el barrido en la misma. La deflexión es gradual, sin embargo, se puede asignar un punto en el medio del yugo como punto virtual de deflexión y suponer que los haces se quiebran en ángulo al llegar allí. Ese punto de deflexión es muy importante porque a partir de él se analiza la curvatura de la pantalla. Si la pantalla se genera como una sección de esfera utilizando ese radio, la distancia desde el cátodo virtual a la pantalla se mantiene invariable, cualquiera sea el punto de fósforo iluminado. En cambio si la pantalla es plana, esa dis-

tancia varía y no es posible enfocar toda la superficie de la misma. En realidad la pantalla ni tiene tanta curvatura ni tampoco es tan plana, pero se acerca a la planitud sobre todo en los tubos más modernos de 17” con ángulo de deflexión grande (monitores de poca profundidad). En los monitores de 14 y 15” alcanza con ajustar el foco a un valor promedio y por lo tanto sólo tienen un potenciómetro de foco, pero los de mayor tamaño suelen tener un control de foco central y otro periférico. A medida que el tubo se agota se requiere un nuevo ajuste del foco porque la nube electrónica del cátodo virtual se hace más delgada. Cuando desaparece, por lo general es imposible ajustar el foco, sobre todo porque éste varía desde las zonas oscuras a las muy iluminadas de la imagen; produciendo un marcado efecto de solarización en las zonas blancas. También es posible que se produzca un viraje de los colores dado que los cátodos

pueden tener diferentes desgastes.

AJUSTE Y REPARACION DE MONITORES

CON PROGRAMAS INTRODUCCION

Para trabajar correctamente hay que tener buenas herramientas, buen instrumental y mucho conocimiento del tema. El primer ítem corre por su cuenta, las herramientas requeridas no son ni más ni menos que las que utiliza para reparar televisores. Inclusive es probable que la reparación de monitores sea aún más simple por el hecho de que no suelen emplear muchos componentes SMD. En efecto, un monitor tiene por lo general componentes de tensiones altas y grandes corrien-

tes que no se prestan para esa técnica.

TODO SOBRE MONITORES 1

29


AJUSTE Y

REPARACIÓN DE

MONITORES CON

PROGRAMAS

Con respecto al conocimiento del tema, eso es lo que pretendemos ir entregándole paso a paso. En cuanto al instrumental, nuestra intención es que gaste lo menos posible. Por eso cuando algún instrumento se pueda realizar en forma casera le vamos a indicar cómo hacerlo. Pero el instrumento fundamental de un taller de reparaciones de monitores es el generador de video y le vamos a explicar cómo suplirlo muy económicamente. Si Ud. se va a dedicar a reparar monitores tendrá que disponer de una PC adecuada para probarlos. No se necesita una supermáquina, quizás con una Pentium 1 o inclusive una 486 se puede arreglar. Y si no tiene una máquina disponible permanentemente tendrá que utilizar su propia PC para comenzar. Sin PC no se pueden probar monitores salvo que Ud. tenga un generador de video adecuado con normas para PC (los hay que cubren todo el espectro de TV y PC). Con el tiempo puede que esa sea una buena compra; pero por ahora se puede arreglar con una PC vieja o llevando su propia PC al laboratorio. Solo que a la PC hay que cargarle un programa adecuado para la prueba. Ese programa es gratuito y se puede bajar de la red o solicitarlo a la editorial. En realidad existen muchos programas adecuados para probar monitores, generalmente regalados por empresas fabricantes de monitores u otras relacionadas. Todos los programas son similares y nos permiten observar el funcionamiento de las diferentes características de los monitores. Nosotros elegimos un software de los más utilizados de plaza, el Ntest en su versión V1.0. El Ntest de una de las fábricas de monitores más conocida del mundo NOKIA MONITORS. Nuestra intención es explicar aquí en forma somera para qué sirve cada tipo diferente de imagen. En muchos casos la explicación será ampliada cuando se explique la etapa relacionada y aquí sólo se hace una introducción al tema.

EL CUADRO DE PRUEBA DE PROPOSITOS GENERALES

Una vez cargado el programa en su PC sólo necesita picar en el ícono del mismo para que aparezca un cuadro de prueba de propósitos generales como el que mostramos en la figura 10.

Figura 10

Este cuadro de prueba tiene algunos usos obvios y otros que no lo son tanto. Se destaca la barra central de grises que nos permite saber qué tan bien hechos están los ajustes de corte de haz y ganancia de cada cañón. La escala de grises no debe tener coloración de ningún tipo ya sea en los grises oscuros o en los claros. Al mismo tiempo la

TODO SOBRE MONITORES 1

30


AJUSTE Y

REPARACIÓN DE

MONITORES CON

PROGRAMAS

bandera de colores primarios debe tener un degradé de brillo idéntico desde los bordes al centro sin presentar cambios de color (el rojo es rojo tanto en la parte oscura como en la brillante) y lo

mismo ocurre con los otros colores. En la parte superior se puede observar una gama de 8 colores que ayudan a complementar la determinación de un correcto funcionamiento de la sección de color. Observe que se encuentran presente los tres colores primarios rojo, verde y azul, los tres colores secundarios amarillo, cian y violeta y por último a cada costado del rojo dos colores rojos no saturados con diferentes niveles

de brillo, el marrón y el púrpura. Otra parte muy importante de esta señal es la retícula violeta que ocupa toda la pantalla. El color violeta no está elegido al azar, se lo utiliza porque es una combinación de rojo y azul que son los dos cañones de los vértices inferiores. Las retículas roja y azul deben coincidir en toda la pantalla y en los lugares donde los dibujos verdes (un círculo principal y cuatro secundarios) son tangentes a la retícula, se debe producir una línea blanca indicando la perfecta coincidencia de los tres colores primarios. Cuando no existe una perfecta coincidencia es porque la convergencia

dinámica (en los bordes) o estática (en el centro) está mal ajustada. Los reparadores de TV están acostumbrados a considerar como ajustes geométricos solo a los de altura, ancho, linealidad horizontal y linealidad vertical. En realidad esos ajustes son los más importantes, pero no son los únicos ajustes geométricos. Existen también los de centrado, los trapezoidales y los de efecto almohadilla/tonel. En realidad estas distorsiones son comunes a ambos dispositivos (TV y monitor) pero dada la importancia de los mismos, en el caso de los monitores más modernos suelen ser ajustes accesibles al usuario, en tanto que en un TV sólo son ajustables en los modelos de pantalla más grande (ajuste interno a operar solo por el reparador). A lo sumo,

en algunos TVs sólo se accede a los ajustes operando por el modo service con el control remoto.

¿Se puede cambiar la frecuencia de los barridos de esta señal de prueba y qué sentido tie-

ne hacerlo? Se puede y tiene un gran sentido hacerlo. Si Ud. no prueba un monitor a todas las frecuencias posibles de trabajo, se puede encontrar con la bonita sorpresa de que el cliente le rechace la

reparación y con gran razón de su parte. Anticipándonos a futuras entregas, podemos adelantar que un monitor puede funcionar a diferentes y variadas normas de barrido tanto horizontal como vertical. Si observa la pantalla de prueba, debajo de las barras de gris encontrará dos números que pueden interpretarse como la cantidad de pixeles (puntos) que tiene la imagen de prueba y esto está evidentemente relacionado

con las frecuencias de barrido. Existe una clara relación matemática entre las frecuencias de barrido y la cantidad de pixeles, pero esa relación no tiene mayor importancia para un técnico reparador. Lo que sí debe tener en cuenta un reparador es cómo variar estos importantes parámetros para realizar una prueba completa. Estas características se varían desde la pantalla de WINDOWS. Pulse el botón izquierdo del mouse fuera de un ícono, aparece un menú de opciones, pulse en “propiedades” y aparecerá un cuadro de opciones para la selección de las características de la pantalla, pulse en la solapa de

TODO SOBRE MONITORES 1

31


AJUSTE Y

REPARACIÓN DE

MONITORES CON

PROGRAMAS

Figura 11

configuración y aparece la pantalla selectora de cantidad de colores y “nivel de detalle” o área de pantalla. Seleccione un nivel diferente al actual y luego presione en “aceptar”. A continuación invoque al Ntest y observe que la pantalla es levemente diferente y que cambió la leyenda con la cantidad de pixeles. En la tabla de la figura 11 se pueden observar diversos detalles de pantalla con las frecuencias relacionadas. El lector observará que sobre todo la frecuencia vertical sufre cambios importantes. Inclusive la frecuencia horizontal tiene cambios cuando se trabaja en el modo DOS (durante el encendido de la máquina) momento en que llega a ser del orden de los 32kHz. Se comprende ahora, por qué la prueba exhaustiva incluye un cambio de predisposición de la PC.

LAS PRUEBAS ESPECIFICAS

Por debajo de las barras de gris aparecen 11 íconos que nos permiten cambiar la señal para realizar pruebas específicamente diseñadas, para comprobar las diferentes secciones del monitor. En la figura 12 se puede obserFigura 12

var una ampliación de este sector con el nombre de los íconos traduci-

do al castellano. Para realizar cada prueba en particular, pique sobre el ícono con el botón de la izquierda del mouse. Los íconos de la derecha son los de uso general; el de “help” contiene la explicación de uso de esta sección de íconos en forma resumida. El de salir tiene un uso obvio para salir de la pantalla general. A continuación vamos a describir el uso de cada ícono en particular en forma resumida ya que en el

transcurso del curso se explicará con más detalle el uso de cada ícono particular. Geometría: para verificar el ajuste de altura, ancho, centrado horizontal, centrado vertical y otros errores geométricos de la imagen. Ver la figura 13. Tocando el botón de la izquierda del mouse, se pueden cambiar las líneas blancas por rojas, verdes o azules y tocando el botón de la

TODO SOBRE MONITORES 1

32


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.