40-42-HardPhysx-P20.qxd
5/5/05
11:46 AM
Page 42
PATRICIO BARBOSA
.hrd
ESTUDIANTE DE INGENIERIA EN INFORMATICA
patto19x@hotmail.com
«
EL PRIMER PROCESADOR DEDICADO A LA FISICA
SIN DUDA, EL AMBITO QUE DOMINAN ATI Y NVIDIA HOY EN DIA ES UNO DE LOS QUE MAS HAN EVOLUCIONADO TECNOLOGICAMENTE EN LOS ULTIMOS AÑOS, CON CHIPS GRAFICOS CADA VEZ MAS POTENTES Y SOFISTICADOS. A PESAR DE ESTO, SIGUE HABIENDO SERIAS LIMITACIONES PARA LOS DESARROLLADORES A LA HORA DE DAR MAS REALISMO A SUS CREACIONES, EN TODOS SUS ASPECTOS, COMO LA FISICA.
AGEIA
geia Technologies es una compañía fundada en 2002 que escuchó las plegarias de los diseñadores y presentó lo que se trae entre manos: el chip PhysX. ¿Qué hace este chip? Seguramente se lo estarán preguntando desde que leyeron el título. Pues se encarga del procesamiento de la física y sus efectos en la aplicación 3D que estemos corriendo, por ejemplo, un juego. Llamado PPU (Physics Processing Unit), este chip podría ser el próximo gran paso, luego de lo que fue, a mediados de los ’90, el boom de la
A
« 42
“aceleración 3D”, con el lanzamiento de los primeros procesadores diseñados exclusivamente para este fin.
«
PHYSX
AQUI VEMOS UNA PLACA QUE CONTIENE PHYSX, CON LA PARTICULARIDAD DE QUE PUEDE CONECTARSE A UN SLOT PCI O A UN PCI EXPRESS (SEGUN COMO SE COLOQUE).
LA REVOLUCION ANTERIOR Parece que fue hace mucho tiempo, pero pasaron menos de diez años desde que una compañía llamada 3Dfx sacó a la venta un elemento que marcó un antes y un después en el diseño de gráficos tridimensionales: el chip Voodoo Graphics. Cuando la potencia de los microprocesadores era lo que básicamente limitaba el avance gráfico de los juegos y aplicaciones 3D, surgió
este producto cuyo destino sería convertirse en el encargado de procesar las imágenes de este tipo y dejar al procesador libre para realizar otras tareas. Claro que, en un principio, sólo sabía tratar lo que era 3D, por lo que se necesitaba una placa de video común para que se ocupara del resto de las imágenes. Así, ambas placas debían coexistir en nuestros motherboards si queríamos tener toda la potencia necesaria para mover polígonos y texturas por doquier. No tardó mucho tiempo en salir el primer procesador “serio” de esta compañía, en cuyo chip, denominado Voodoo Banshee, se reunieron ambas funciones (2D y 3D). Su competencia directa, nVIDIA, siguió el mismo camino y sacó un gran chip de características similares, llamado Riva TNT. A esta altura se empezaron a asociar los conceptos de “placa de video” y “aceleradora 3D”, como algo integrado en una sola tarjeta, que dejaba atrás la última generación de chips “sólo 3D” (los conocidísimos Voodoo2). A partir de entonces, se fue aumentando en potencia y en características, y la CPU delegó tareas al procesador gráfico, para conservar una mejor performance y calidad visual. Pero parece que ni con el último modelo de procesador gráfico (GPU) alcanza para dar el paso definitivo en el avance del “realismo” dentro de los videojuegos.
LA AYUDA QUE HACIA FALTA DESDE EL SITIO WEB DE AGEIA ES POSIBLE DESCARGAR DEMOSTRACIONES Y EJEMPLOS DE NOVODEX, LA API DE TRABAJO DE ESTA NUEVA TECNOLOGIA, QUE FUNCIONA BAJO OPENGL.
Como dijimos al principio, el chip PhysX viene a darle un respiro a nuestro procesador, al encargarse de los complejos cálPOWERUSR
5/5/05
EL ARMA ESTRELLA DE HALF LIFE 2, LA “GRAVITY GUN”, ES CAPAZ DE ATRAER Y LANZAR CUALQUIER OBJETO CONTRA NUESTROS ENEMIGOS.
11:46 AM
Page 43
«
40-42-HardPhysx-P20.qxd
culos en lo que se refiere a sucesos físicos. Hoy en día, vemos que en las aplicaciones modernas, generalmente en los juegos, la física ha evolucionado mucho y se ha convertido en una parte fundamental de la jugabilidad. Quien haya jugado Max Payne 2 o Half Life 2, por dar sólo dos ejemplos, sabrán de qué estoy hablando; ahora, nuestro entorno se ha vuelto mucho más interactivo gracias a motores como Havok (quizás el mejor que existe en la actualidad). Pero los cálculos llevados a cabo por el procesador en estos casos quedan en ridículo en comparación con lo que PhysX puede llegar a hacer: en teoría, sería un 1000% más rápido. Increíble, ¿no es cierto? Con PhysX de por medio, de ahora en adelante el trabajo estará dividido entre GPU, PPU y CPU. La primera se encargará de todo lo que es el procesamiento de polígonos, dibujo de la escena, texturas, iluminación, etc. La segunda se ocupará de los complejos cálculos físicos que se deben llevar a cabo (explicados en detalle más adelante), y dejará el resto de las tareas al procesador. Si de movimiento de datos se trata, los muchachos de Ageia tienen experiencia, ya que nació como una empresa de soluciones para redes. Por eso aseguran que la arquitectura del PhysX es diferente de la de una CPU o una GPU, debido a la necesidad de tener un amplio ancho de banda. Esperemos que esto ayude a que no suframos los famosos “cuellos de botella” que bajarían considerablemente el rendimiento.
■
■
UNA NUEVA REALIDAD
POWERUSR
■
jar los efectos que el entorno produce en nuestra vestimenta, como el aspecto mojado de una camiseta pegada al cuerpo, generado por la lluvia, o el movimiento de una capa a causa del viento. En un juego de fútbol sería más costoso mover a los jugadores si hay una intensa tormenta y tienen la ropa mojada.
ALGUNOS DATOS TECNICOS La PPU consiste, principalmente, en un chip de más de 125 millones de transistores, con un consumo aproximado de 25 watts. La placa vendrá equipada con memoria del tipo GDDR3, como las utilizadas en las placas de video más modernas, y se aprovechará la gran cantidad (y el bajo costo) de éstas. También se pensó en usar una solución más poderosa, como la XDR, pero esta posibilidad fue descartada por cuestiones económicas. La cantidad de memoria base sería de 128 MB. En un principio, la tarjeta iría como un agregado (add-in) en un slot PCI o PCI Express x4, y trabajaría junto con la GPU de la placa de video y la CPU en el zócalo del motherboard. En un futuro, se piensa incluir PhysX directamente integrado en la placa madre (on board).
«
Para entender mejor dónde actuaría el procesador en cuestión, iremos explicando paso por paso qué efectos físicos podrían evolucionar con esta tecnología: ■ Propiedad de los materiales: características como densidad, fricción o rebote. Ya no será lo mismo caminar sobre un piso de madera o de césped, golpear una pared de cemento o una de metal, saltar sobre tierra o hielo. Cada superficie reaccionará de acuerdo con sus propiedades físicas reales sobre quien interactúe con ellas, y podrá sufrir modificaciones a partir de esa interacción. Imagínense no tener la llave para abrir la puerta de una cabaña, pero sí poseer una sierra eléctrica (o un hacha en su defecto); seguramente podrían usarla para abrirla. ■ Dinámica de cuerpos rígidos y detección de colisiones: el primer concepto habla de las propiedades “newtonianas”
de los objetos rígidos (no deformables), como su peso y el realismo al realizar movimientos según estas características, influidos por factores externos. En cuanto al segundo concepto, intenta naturalizar el comportamiento de los participantes en una colisión (choque), que producirá efectos como si de algo real se tratase. Para ejemplificar ambas características, los simuladores de carreras o deportivos cambiarían radicalmente su jugabilidad y aportarían una nueva forma de jugar. Junturas y resortes: cada parte de un mecanismo ahora estará perfectamente coordinada con las demás, gracias al chip PhysX. El movimiento de un cuerpo o de una maquinaria compleja será completamente natural, al igual que la interacción y la manipulación de objetos del entorno por cualquiera de estas partes. Fluidos: aunque se haya avanzado en la visualización de los fluidos gracias a tecnologías como Pixel Shaders, únicamente ha sido a nivel estético. Ahora, no sólo se verán con más calidad, sino que efectos como ondulaciones y goteos serán mucho más realistas en la interacción con el medio que los rodea. Sistema inteligente de partículas: fuego, humo o niebla son efectos de partículas que actualmente existen, pero la intención es volverlos “inteligentes” según cómo accionan en la realidad. Por ejemplo, en una habitación llena de humo, éste se acumula en el cielorraso, o si hay una ventana abierta, se escapa por ella. Además, con el nuevo poder de cálculo será posible realizar sistemas de partículas mucho más detallados, con lo cual aumentará la calidad visual. Ropas: el movimiento de una prenda de vestir varía según el material con que esté hecha y el ambiente en el que se encuentre. Ahora será posible refle-
■
ADMIREN A LA MADRE DE LAS PLACAS ACELERADORAS 3D: LA VOODOO GRAPHICS.
43
32-34- Autopsias-P20.qxd 5/5/05 11:34 AM Page 34
FALLAS ANALIZADAS CON OJO CLINICO
+ LA AUTOPSIA DEL MES: SERVER CAIDO i decimos que las computadoras cumplen un papel cada vez más comprometido con nuestra vida cotidiana, nadie se va a sorprender, porque eso es algo ya asumido por la mayoría de los usuarios de PC. Pero no todos los equipos cargan con la misma responsabilidad dentro de este mundo informatizado. Una PC de escritorio responde sólo a uno o, a lo sumo, a un grupo reducido de usuarios, mientras que los servidores deben manejar los datos de varias decenas, cientos o miles de clientes. Pero adentrémonos más en el servidor como equipo; pasemos a ver sus componentes, sus partes más ínfimas.
S
¿Quién pensaría que en el funcionamiento de una resistencia, que apenas cuesta algunos centavos, se deposita la responsabilidad de que miles de usuarios tengan acceso a su e-mail a tiempo? Por supuesto que servicios a gran escala, como MSN, no se van a dar el lujo de dejar todo parado hasta tanto se cambie una resistencia. En esos casos, directamente se cambia la placa completa, mientras el problema específico se resuelve con más tiempo. Pero no todos somos MSN y, hoy por hoy, existen muchos servicios “menores” en los que, quizá, sí todo dependa de un solo servidor, que hay que reparar indefectiblemente ante una avería. Foros, sitios, servicios de mail empresariales, hosting y muchos otros a veces dependen de ese pequeño componente, y de la rapidez del técnico de turno para encontrarlo y repararlo. Este es el caso que planteamos en esta ocasión: un conocido foro dedicado a temas generales de un momento a otro “desaparece”, y deja a sus usuarios incomunicados.
HISTORIA CLINICA Aunque parezca tonto, un foro es un canal de comunicaciones muy importante en la actualidad. En muchos casos, es el único medio de contacto que tienen algunos usuarios entre sí, y su ausencia puede significar una pérdida de tiempo considerable en la resolución de algún problema. Varias empresas y universidades usan foros privados para interconectar a sus participantes, y no son pocos 34
«
ANALISIS PRELIMINAR
ESTA ES UNA PARTE DEL RACK DONDE SE ENCONTRABA EL SERVIDOR ANALIZADO EN ESTA AUTOPSIA. EN ESTE TIPO DE EQUIPAMIENTO, LAS MEDIDAS DE SEGURIDAD CON RESPECTO A LA ALIMENTACION DEBEN SER MUY RIGUROSAS.
los casos en los que las actividades son planteadas y coordinadas en base a lo que en ellos se postea. Imagínense que si un espacio de estas características se cae de un momento a otro, todos aquellos que no copiaron la información y confiaron en que todo “estaba ahí guardado” quedarán a la deriva hasta tanto no puedan volver a acceder. Eran las 21 horas de un miércoles bastante rutinario en el laboratorio de análisis de hardware de MP. Cuando estábamos dispuestos a apagar todo e irnos, sonó el teléfono, y una voz temblorosa nos hizo predecir que ésa iba a ser una larga noche. El servidor del foro de una importante universidad se acababa de desconectar, justo en la semana en la que se tenían que coordinar los trabajos finales para la mayoría de las carreras. Miles de alumnos acostumbrados a entrar en ese sitio a diario verían imposibilitadas sus tareas, ya que la URL devolvía tan sólo un “No se puede mostrar la página”. Luego de comprobar, en forma remota, que el equipo no respondía a ninguna de las demandas, decidimos mandar a retirar el servidor del rack en donde estaba instalado. Una vez
en el laboratorio, pudimos corroborar que ni siquiera encendía, lo que hacía suponer que la falla se debía, estrictamente, a un problema de hardware.
PRIMEROS PASOS Tal como lo indica la rutina, siempre que un equipo no enciende, hay que empezar por analizar el elemento encargado de brindar la corriente necesaria, o sea, la fuente de alimentación. Bastaron un par de mediciones al azar para darnos cuenta de que la fuente no estaba entregando corriente en ninguna de sus salidas. Procedimos entonces a desarmarla y a revisar su interior. A primera vista encontramos una serie de componentes dañados en la etapa secundaria. Varias resistencias y diodos mostraban claros signos de haber sufrido un exceso de calor, y había abundante hollín esparcido a su alrededor. Aparentemente, el cortocircuito de alguno de ellos había provocado una sobretensión importante en la zona. En casi todos estos casos, se piensa en una falla interna de la unidad, ya que la alimentación proveniente del exterior se encuentra protegida y filtrada por equipos UPS de gran capacidad. Sin perder POWERUSR
32-34- Autopsias-P20.qxd 5/5/05 11:35 AM Page 35
SI LA AVERIA EN CUALQUIER PC DE ESCRITORIO RESULTA PROBLEMATICA PARA EL USUARIO PROMEDIO, IMAGINENSE LO QUE PUEDE ACARREAR LA FALLA TOTAL EN UN SERVIDOR. EN LA AUTOPSIA DE ESTE MES, VAMOS A TRATAR EL CASO DE LA DRAMATICA CAIDA DE UN EQUIPO DE ESTAS CARACTERISTICAS, Y SUS CONSECUENCIAS.
demasiado tiempo, procedimos al reemplazo de la fuente completa, dado que la urgencia no nos permitía detenernos a cambiar cada uno de sus componentes. Al reconectar todo otra vez, el equipo volvió a encender, pero el BIOS marcaba ahora una falla en la alimentación de los microprocesadores. Habíamos avanzado un paso, pero todavía quedaba mucho por delante.
ANALISIS DEL MOTHERBOARD
«
LA PRESENCIA DE HOLLIN DEBAJO DE ESTAS RESISTENCIAS EVIDENCIABA UN FUERTE GOLPE DE TENSION EN ESE SECTOR.
POWERUSR
«
El motherboard era un Intel LG440GX+, con dos procesadores Pentium III de formato Slot 1, 4 GB de memoria RAM, cuatro discos SCSI conectados a una controladora dual-channel incorporada y una controladora de red Intel PRO/100+ integrada. Se trataba de un equipo que, si bien hoy en día puede considerarse un poco desactualizado, tiene excelentes prestaciones para las demandas de un foro. Lo primero que verificamos fue que la fuente nueva estuviera entregando efectivamente todos sus valores correspondientes. No sería la primera vez que una fuente de alimentación fallara en su primer arranque, aunque éste no era el caso: todas las tensiones estaban presentes y entrando correctamente al motherboard. Procedimos a retirar la placa del gabinete para analizarla con más detenimiento. Fue entonces cuando nos encontramos con una serie de pistas cortadas en su cara inferior, que mostraban claros signos de un corte por exceso de tensión. Esto se pone de manifiesto por las marcas negras que quedan en la zona del corte. Se procedió entonces a la reconstrucción de las pistas, utilizando finos alambres de cobre aislados con un spaghetti plástico. Una vez reestablecidas las unio-
ESTE ES EL MOTHERBOARD ANALIZADO, UN INTEL LG440GX+, CON SOPORTE PARA DOS PROCESADORES PENTIUM III DE FORMATO SLOT 1.
nes, se efectuó un control de rutina de todos los componentes que podrían haber sido afectados por la avería. Este es un procedimiento muy importante que debe realizarse antes de encender la unidad, ya que si existió un golpe de tensión capaz de cortar las pistas del circuito, es más que probable que algún sector haya sufrido también las consecuencias. El riesgo más grande se presenta ante la posibilidad de que alguno de los elementos encargados de manejar la corriente esté todavía en cortocircuito, y entonces genere otra fuga importante, quizá, con males mayores. El BIOS había delatado una falla en la alimentación del microprocesador, por lo que nos dirigimos en forma inmediata al sector encargado de regular la tensión de entrada. Este se ubica próximo a los dos zócalos que contienen los cartuchos con los procesadores. Allí se destacan una serie de bobinas, capacitores y transistores que forman una minifuente conmutada, dedicada, casi exclusivamente, a proveer de tensión a cada uno de los cartuchos. La mayor parte de este sector estaba sana, salvo los dos transistores reguladores, que mostraban un cortocircuito entre dos de sus patas. Ahora sí, teníamos a la segunda víctima de esta fuga repentina de tensión.
Afortunadamente, el laboratorio contaba con repuestos para estos reguladores, si no, hubiéramos tenido que esperar varios días hasta conseguir los componentes adecuados. En estos casos, se trata de proceder con un plan de emergencia que permita reemplazar el servidor completo momentáneamente. Una vez reemplazados ambos reguladores, se hizo otra revisión de rutina a todas las partes involucradas, y no se detectó ninguna anormalidad. Entonces sí, con más tranquilidad, procedimos a encender el equipo y comprobamos, para nuestra tranquilidad y la de la gente de la universidad, que todo volvía a operar con normalidad. Para entonces, el reloj indicaba las 4 a.m. Sin dudas, una situación por demás estresante, pero con buenos resultados para los alumnos que, al otro día, ingresaron en el foro para realizar sus actividades diarias, sin siquiera enterarse de que una pequeña resistencia casi los había dejado sin el contacto tan necesario.
CAUSAS Como ya mencionamos en el transcurso de esta autopsia, es difícil encontrar factores externos que puedan causar esta falla. Los racks dedicados a contener servidores son cuidados al extremo en lo que a la alimentación se refiere: 35
18-Bookmarks-P20.qxd 5/4/05 3:58 PM Page 18
BOOKMARKS UNA VEZ MAS, LES PRESENTAMOS ALGUNAS DE LAS PAGINAS MAS UTILES DE LA RED. EN ESTA OCASION NOS CENTRAMOS EN PROPORCIONARLES LOS MEJORES SITIOS DE HOSTING INSTANTANEO GRATUITO.
IMAGESHACK
JOTAPEGES www.jotapeges.com
XS.TO www.xs.to
www.imageshack.us
Con un nombre muy ingenioso, Jotapeges es una de las páginas de hosting en español que más fama han ganado en los últimos tiempos. Aunque tiene un espacio limitado de 1 MB, sus servidores son relativamente estables y, por lo tanto, pocas veces fallan. Además, si necesitamos subir a la web otros tipos de archivos, Jotapeges cuenta con una red de páginas dedicadas a videos, música y demás.
ImageShack es sinónimo de calidad en la vasta red mundial. Su servidor dedicado en Linux la hace una de las páginas más confiables para subir nuestras imágenes. Al igual que Jotapeges, cuenta con un límite de 1 MB, pero soporta formatos como PNG, TIFF o SWF, lo que, en definitiva, le da una ventaja frente a otras páginas de su tipo.
RAPIDSHARE
FAPOMATIC
No hay que dejarse engañar por el simple título de esta página. XS.to es, hoy, una de las que más capacidad nos dan en sus servidores: 1,5 MB. Este espacio es vital si queremos subir imágenes de tipo BMP, PNG o TIFF, que al ser de gran calidad, suelen ser mucho más pesadas que sus primas JPEG o GIF. Además, cuenta con tres servidores dedicados, lo que le da una estabilidad similar a la de ImageShack.
www.rapidshare.de
www.fapomatic.com
in lugar a dudas, RapidShare es, en la actualidad, el mejor sitio de hosting instantáneo en Internet y el más confiable. Permite subir no sólo imágenes de cualquier formato, sino también cualquier archivo que se nos ocurra. Así, tendremos una solución rápida e infalible para compartir archivos con quien queramos en la Red. Tiene un impresionante límite de aproximadamente 30 MB por archivo (más que todas las páginas mencionadas antes juntas). Una vez que subimos nuestro archivo, obtendremos una dirección sencilla para compartirlo, pero será borrado si nadie lo baja luego de 30 días; así se evita la superpoblación de los servidores y se mantiene la alta velocidad del sitio. El único punto negativo (por así decirlo) es que los que quieran bajar el archivo que subimos tendrán una demora de unos 30 segundos. Completamente recomendable.
Con la increíble cantidad de seis servidores en simultáneo, Fapomatic goza de una fama irrefutable dentro de Internet. Además, posee un límite de 1,5 MB, aunque no tiene soporte para formatos lossless muy utilizados, como es el caso de TIFF. Esta deficiencia no llega a dañar la reputación de este sitio, que es uno de los más visitados de la Red.
S
TINYPIC www.tinypic.com
Aunque a simple vista parece un sitio con un diseño mediocre y sin muchas cosas para ofrecer, al investigar un poco más sobre sus características, nos damos cuenta del gran servicio que brinda. Su aspecto más original es la dirección en la que queda guardada nuestra imagen, que, como su nombre lo indica, es muy corta y fácil de recordar.
IMAGEVENUE www.imagevenue.com
Otra de las tantas buenas alternativas para subir imágenes a la Red al instante es ImageVenue, que nos permite guardar archivos JPEG sin un límite de tiempo, como sucede con otras páginas del mismo tipo. La principal falla de este sitio es la falta de soporte para formatos alternativos, pero es una buena opción cuando necesitamos desesperadamente un buen servidor para guardar nuestras imágenes. 18
POWERUSR
16-Labo_ECS-P20.qxd 5/5/05 11:28 AM Page 16
.lab
ECS KN1 EXTREME DE MANOS DEL PRINCIPAL FABRICANTE DE MOTHERBOARDS EN EL MUNDO, NOS LLEGA UN PRODUCTO DE ALTO NIVEL PARA ATHLON 64, BASADO EN EL CHIPSET NVIDIA NFORCE4 ULTRA.
»
enemos el agrado de evaluar uno de los productos de alto nivel de ECS (EliteGroup). Se trata de un motherboard basado en el nuevo chipset de NVIDIA, el nForce 4 Ultra, orientado al público gamer y a entusiastas del rendimiento.
T
PRIMERA VISTA A simple vista, lo que más llama la atención es el enorme fan del Northbridge, como así también, un fan al nivel de los conectores traseros. Este sistema brinda una excelente refrigeración, aunque aquí es donde nos encontramos con el primer “problemilla” en este motherboard: ambos fans giran al máximo de sus revoluciones, y el del Northbridge (en especial) es extremadamente ruidoso. Peor aún, no hay ningún tipo de control en el BIOS que permita regular esta velocidad. Cambiando de tema, el mother incorpora dos zócalos PCIE x1 y el PCIE x16. El controlador de audio es el famoso Realtek ALC-655, una decisión extraña por parte de ECS, ya que en la actualidad se utiliza el controlador Realtek ALC-880 (ocho canales en vez de seis). En el panel posterior, además de las salidas analógicas de audio, están las SPDIF (óptica y digital). También se pueden observar los dos conectores de red (Dual-LAN). Por cierto, el famoso y viejo conector de impresora se ofrece ahora como un bracket adicional.
*
FABRICANTE ECS SITIO WEB WWW.ECS.COM.TW PRECIO U$S 120 (EE.UU)
CARACTERISTICAS ESPECIALES El producto, al estar basado en el chipset nForce4, introduce dos factores muy importantes: uno es el NVFirewall, que ya se incorporaba en las versiones anteriores de nForce3 250Gb, pero que esta vez agrega una función conocida, Active Armor, e incluye el controlador S-ATA2. Para todos los que están familiarizados con firewalls vía software de buen nivel, tales como BlackICE, Active Armor trabaja de manera similar al Application Protection de BlackICE. Su función es bloquear no sólo por IP o puerto, sino también por aplicaciones que maneje el sistema operativo. Se instala mediante los drivers nForce de nVIDIA. La ventaja principal de este tipo de firewall con respecto a uno de uso común es que éste trabaja a nivel hardware junto con el
ESPECIFICACIONES TECNICAS
■ CHIPSET NVIDIA NFORCE4 ULTRA ■ ZOCALO SOCKET 939 ■ HYPERTRANSPORT DE HASTA 1 GHZ ■ SOPORTA DDR400/333/266 ■ 1 SLOT PCI EXPRESS X16 ■ 2 SLOTS PCI EXPRESS X1 ■ 3 SLOTS PCI ■ 2 PUERTOS ATA133 (CUATRO DISPOSITIVOS) Y 4 SERIAL ATA2 ■ CONTROLADOR S-ATA SIS 180 (2 PUERTOS S-ATA) ■ AUDIO REALTEK ALC655 (6 CANALES) ■ CONTROLADOR FIREWIRE TI TSB43AB22A ■ LAN: REALTEK 8100C 10/100 MBPS, E INTEGRADO EN CHIPSET UTILIZANDO PUENTE MARVELL
88E1111 GIGA LAN PHY, CONTROLADOS POR CHIPSET INTEL ICH6R
16
EL MOTHERBOARD INCLUYE UNOS LEDS AZULES QUE VARIAN SU ESTADO CON EL TIEMPO, PARA OFRECER UN EXCELENTE JUEGO DE LUCES QUE RESULTA IDEAL PARA MODDERS.
controlador Gigabit en el chipset, por lo cual no consume recursos ni tiempo de CPU. Respecto al controlador S-ATA2, no es compatible a nivel hardware con el incluido en el nForce3 debido, principalmente, a que ahora soporta S-ATA2. La diferencia más importante entre S-ATA y S-ATA2 es la mejora en transferencia, de 150 MB/s a 300 MB/s, y la incorporación de la función Native Command Queuing, que aumenta considerablemente la performance en aquellos discos rígidos que son capaces de soportarla.
OVERCLOCKING Después de varias pruebas, pudimos establecer el máximo valor de overclocking en 225 MHz de FSB y 2475 MHz en el procesador. Si bien es un resultado pobre, la responsabilidad no recae sólo en el motherboard sino también en la memoria. El nForce4 es extremadamente sensible a las memorias que se introducen en el sistema, y las Corsair utilizadas parecen no brindar los mejores resultados en esta plataforma. Con un nForce3 y las mismas memorias, pudimos llegar a 250 MHz de bus.
»
CANTIDAD DE OPCIONES DE EXPANSION. MUY BUENA PERFORMANCE. SOLUCION DE REFRIGERACION MUY RUIDOSA. OVERCLOCKING MODERADO.
CONCLUSION ECS incursiona en el sector de alto nivel con un producto que tiene mucho efecto en cuanto a su presentación: un packaging increíble, agregado de una placa Wi-Fi USB, una enorme cantidad de cables y expansiones, Dual-LAN y un buen sistema de refrigeración. Sin embargo, existen dos o tres puntos fundamentales que no le permiten competir todavía con productos similares en el mismo mercado. Primero y principal, la falta de un menú independiente para todo lo relacionado con el overclocking, como así también, la falta de un control de clock de a 1 MHz. Otro factor muy importante es el ruido: si bien la disipación de calor es excelente, el ruido es un poco alto y debería, al menos, incluirse alguna forma de control o ajuste. Esperamos que ECS pueda mejorar estos aspectos en futuros productos de alto nivel, para así lograr motherboards de óptima calidad. ■ MaximoPC | www.maximopc.org POWERUSR
50-54-Hard Electronica-P24.qxd
9/2/05
17:53
Page 50
ARIEL PALAZZESI
.hrd
ENTUSIASTA DE LA ELECTRONICA DIGITAL
arielpalazzesi@yahoo.com.ar
«
¡MANOS A LA OBRA!
¿NUNCA SE PREGUNTARON COMO FUNCIONA EL TECLADO DE UNA PC CONVENCIONAL? EN ESTE ARTICULO, NOS DEDICAREMOS NO SOLO A CONTAR COMO LO HACEN, SINO QUE TAMBIEN DESARROLLAREMOS UNO PARA EL PUERTO PARALELO, QUE PODREMOS USAR PARA MUCHOS PROYECTOS DISTINTOS.
ELECTRONICA DIGITAL:
TECLADOS E
s probable que el dispositivo de entrada más difundido sea el teclado. Prácticamente, cualquier aparato electrónico dispone de una o más teclas, en general, pulsadores, por medio de los cuales se le indican las tareas que deben llevar a cabo. Desde un modestísimo timbre que posee una sola tecla hasta el más completo teclado de una PC funcionan, básicamente, de la misma manera: al presionar el pulsador, se cierra un circuito, circula una corriente, y el aparato realiza la acción prevista. La diferencia entre utilizar interruptores o pulsadores radica en que los primeros mantienen el estado de “abierto” o “cerrado” hasta que se los acciona otra vez, mientras que los pulsadores (normalmente abiertos) mantienen el estado de “cerrado” sólo mientras están presionados. Los teclados suelen estar creados a partir de pulsadores.
EL TECLADO MAS SENCILLO: UN SOLO INTERRUPTOR Un teclado, en su forma más simple, es un solo pulsador. Alguien podrá decir que algo tan simple no llega a la categoría de teclado, pero nos servirá para entender el funcionamiento de uno más complejo. Este teclado tiene dos estados posibles: A, con el pulsador abierto (la tecla sin pulsar), y B, con la tecla pulsada. En el estado A, la corriente de la batería no puede circular por el cable para llegar hasta la lámpara, dado que no puede saltar el espacio que hay dentro del interruptor abierto; por lo tanto, la lámpara permanece apagada. En el siguiente gráfico, vemos que el pulsador cerrado efectúa
un puente en el circuito, por el cual la corriente puede cruzar y alcanzar la lámpara, con lo cual ésta se enciende. En un circuito asociado a una computadora, los estados de la lámpara se corresponderían con el “0” y el “1” binarios: la lámpara apagada equivaldría a “0”, y encendida, a “1”.
VARIAS TECLAS: OCHO SIN MULTIPLEXAR Como vimos en notas anteriores, el puerto paralelo de una PC dispone de 8 bits de datos, y mediante el byte de control (concretamente, el bit número 5) pueden configurarse como entradas o salidas. Si nos ajustamos al esquema anterior, por medio de estos 8 bits configurados como entradas, podríamos “leer” el estado de ocho interruptores, como se ve en el esquema. En este caso, en el lugar de las lámparas del párrafo anterior tenemos conectados al pulsador cada uno de los cables correspondientes al byte de datos del puerto. De esta manera, cada vez que se pulse una de las teclas, tendremos un 1 en el bit correspondiente. Los resistores que hemos puesto en serie con los pulsadores tienen como función limitar la corriente que circule hacia el puerto, para evitar dañarlo por accidente. Este esquema funciona a la perfección, y es muy fácil de leer mediante un programa. Simplemente, debemos crear un bucle que lea el byte de datos, y si es distinto de cero, analizar sus bits para ver cuáles están en 1, para saber qué pulsadores están presionados.
LAMPARA ENCENDIDA
LAMPARA APAGADA
PILA
PILA
INTERRUPTOR CERRADO
INTERRUPTOR ABIERTO
«
« 50
FIGURA 1. CON EL INTERRUPTOR ABIERTO, NO CIRCULA CORRIENTE, Y LA LAMPARA ESTA APAGADA.
FIGURA 2. CERRANDO EL INTERRUPTOR, SE ENCIENDE LA LAMPARA AL CIRCULAR CORRIENTE.
POWERUSR
50-54-Hard Electronica-P24.qxd
9/6/05
16:11
Page 51
+5v PUERTO LPT 150Ω D0 (PIN 2) 150Ω D1 (PIN 3)
Esta forma de construir un teclado tiene la desventaja de que necesita un número de conductores igual al número de pulsadores, lo que, generalmente, es poco práctico (imaginen el cable de un teclado de PC con más de 100 teclas, si se construyera de esta manera).
TECNICAS DE MULTIPLEXADO: 16 TECLAS CON 8 CONDUCTORES
POWERUSR
150Ω D3 (PIN 5) 150Ω D4 (PIN 6) 150Ω D5 (PIN 7) 150Ω D6 (PIN 8) 150Ω D7 (PIN 9)
«
Cuando el número de pulsadores empieza a aumentar, se utilizan técnicas de multiplexado, que permiten hacer un uso más eficiente de los conductores disponibles, a costa de hacer ligeramente más complejos los circuitos y el software. Básicamente, consiste en crear una matriz de dos dimensiones con los conductores, y colocar en las intersecciones los pulsadores (es más fácil de entender mirando el esquema correspondiente). De esta manera, cuando pulsamos una tecla, estamos creando un puente en uno de los conductores correspondientes a las filas, y otro correspondiente a las columnas. Analizando un poco el esquema, vemos que para cada pulsador corresponde una sola configuración de fila-columna, por lo que es posible la identificación inequívoca del pulsador presionado. Así, usando matrices cuadradas –es decir, la misma cantidad de filas que de columnas, que es el caso optimo–, podemos tener, con n conductores, (n/2)2 pulsadores.
150Ω D2 (PIN 4)
FIGURA 3. ESQUEMA ELECTRICO DE UN TECLADO DE OCHO TECLAS SIN MULTIPLEXAR.
51
38-39-Ergonomia Gral-P20.qxd 5/5/05 11:41 AM Page 38
TANTO LOS QUE HACEMOS POWERUSR COMO MUCHOS DE NUESTROS LECTORES PASAMOS GRAN PARTE DEL TIEMPO FRENTE A LA PC, DIA TRAS DIA. ES POR ESO QUE DEBEMOS PREVENIRNOS DE PROBLEMAS FISICOS CAUSADOS POR EL “MAL USO” DE LA COMPUTADORA. AQUI VEREMOS ALGUNOS CONSEJOS UTILES PARA TENER EN CUENTA.
PABLO SALABERRI
.erg
ESTUDIANTE DE SISTEMAS
pablitus@mpediciones.com
«
CUIDANDONOS CON LA PC
ERGONOMIA S
38
“Mucha gente no sabe cómo sentarse correctamente ante una PC para no sufrir fatiga y dolores, así que debería escribir un artículo sobre este tema” Ahora sí, comencemos. Mirar cada cierto tiempo, algún objeto lejano.
CONSECUENCIAS QUE TRAE UNA MALA POSTURA La ergonomía, como ya dijimos, estudia la forma en la que tenemos que operar nuestra PC a fin de que no nos provoque fatiga. Algunas de las afecciones que nos puede generar nuestra querida computadora son: ■ ■ ■ ■ ■
■ ■ ■
Teclado a la altura de los codos. ■
Síndrome del túnel carpal (ya detallado antes) Tendinitis “Codo de tenista” Contracturas Sequedad y enrojecimiento de los ojos, debido a que pestañeamos menos cuando estamos frente a un monitor que cuando, por ejemplo, caminamos por la calle. Dolores de cabeza Visión borrosa Dolor de cuello y espalda, porque los ojos se sienten incómodos y, entonces, el cerebro hace que modifiquemos nuestra postura para corregir el ángulo de visión. Dolores de piernas y rodillas a causa de la mala posición
Caramba, larga lista. Nunca hubiese pensado que la PC podía provocar todo esto. ¿Hay manera de solucionarlo? Definitivamente, sí, veamos cómo. Respaldo alto
Apoyabrazos
Altura regulable
Ruedas
«
egún la Real Academia Española, la palabra ergonomía significa: “Estudio de datos biológicos y tecnológicos aplicados a problemas de mutua adaptación entre el hombre y la máquina”. Ahora bien, veamos en detalle qué significa esto, y para explicarlo, nada mejor que un ejemplo basado en la vida real. Hace tres o cuatro meses, mientras estaba en mi trabajo, una sensación extraña se apoderó de mi muñeca derecha. No era un dolor en el sentido estricto del término, sino que era como si me hubiesen atado un hilo muy apretado alrededor de la mano. Al principio no le di importancia, pero al día siguiente sentí un hormigueo en toda la palma de la mano y en la punta de los dedos. Horas más tarde, tenía la mano adormecida, como si estuviese anestesiada. Asustado, fui a visitar a mi traumatólogo de cabecera, y el diagnóstico fue simple: estaba padeciendo el Síndrome del Túnel Carpal (STC), una inflamación de los tendones de la muñeca que hacen presión sobre el nervio mediano, lo cual provoca el adormecimiento. La inflamación estaba dada por un mal uso del mouse, ya que lo estaba empleando con uno de esos pads que nos regalan en las innumerables ferias de computación a las que asistimos. Ese pad hacía que mi mano estuviera “suspendida” en el aire, de modo que hacía un esfuerzo adicional para mover correctamente el puntero del mouse, ya que la mano no tenía un punto de apoyo fijo. En ese momento, mi médico me dijo: “Muchacho, habrá que mejorar tu ergonomía frente a la computadora; deberás sentarte correctamente y, por todos los dioses, comprar un pad con descanso para muñeca. Mientras tanto, tendrás que tomar analgésicos y aplicar hielo en la muñeca cuatro veces por día”. Con esta afección rondando mi mente, y mientras buscaba el susodicho pad (y los susodichos analgésicos), pensé:
EN ESTOS ESQUEMAS RESUMIMOS ALGUNAS DE LAS CONSIDERACIONES MENCIONADAS EN ESTE ARTICULO.
PREVENCIONES Lo primero que hay que hacer es adoptar una postura correcta al sentarnos frente a la PC. Para eso, debemos disponer de un escritorio cómodo, y una silla con regulación de altura y respaldo, además de con apoyabrazos. Tenemos que regular el respaldo lo más recto posible, sin que se convierta en una tabla, y la altura de la silla debe ser tal que podamos observar el monitor con la cabeza y la mirada totalmente recta (nada de bajar los ojos o el cuello). Asimismo, los antebrazos tienen que quedar en ángulo recto, y los brazos deben “posarse” en el escritorio (no apoyarse en un borde de él, porque eso, a la larga, causa dolor e incomodidad). Las POWERUSR
10-Eventos-P20.qxd
5/11/05
10:25 AM
Page 10
EVENTS ATI SE TIÑE DE VERDE-AMARELO
MADE IN BRAZIL EN CONJUNTO CON LAS EMPRESAS DIGITRON Y GIGABYTE, ATI TECHNOLOGIES ANUNCIO EN LA CIUDAD DE SAO PAULO QUE, EN BREVE, COMENZARA A DISTRIBUIR TARJETAS DE VIDEO Y MOTHERBOARDS BASADOS EN CHIPS DE ESTA COMPAÑIA, ENSAMBLADOS EXCLUSIVAMENTE EN BRASIL. ESTUVIMOS EN LA PRESENTACION Y LES CONTAMOS CUALES SON LAS EXPECTATIVAS DE ESTE IMPORTANTE ACONTECIMIENTO. omo bien sabemos, ATI Technologies es una empresa que ha crecido mucho en los últimos años. De hecho, es en nuestra región en donde más se nota su crecimiento y aceptación por parte del público. Hablando con mayor grado de precisión, podemos decir que las ventas de ATI se han incrementado en un 13% en el último año (a nivel mundial), y es justamente en América Latina donde más se ha desarrollado, llegando a una asombrosa cifra superior al 25%. Es por eso que ATI está muy interesada en nuestro mercado, y constantemente brinda a la prensa nuevos productos para probar y nos informa acerca de las novedades. Y no es para menos que, ahora, la empresa brasileña Digitron decida fabricar tarjetas de video y motherboards (bajo el diseño de Gigabyte) basados en chips de ATI, lo cual puede representar una disminución de precio en el Cono Sur de hasta un 40%. Algunos se preguntarán: ¿un 40% con respecto a qué? Y, justamente, en esto pone el énfasis Vicente B. Soares (Director de Marketing de Digitron), al decir que ésa sería la mejora de precio con respecto a las tarjetas adquiridas legalmente. El precio será similar al de las placas contrabandeadas (que, siendo sinceros, son la mayoría de las que se pueden conseguir en nuestros pagos), pero con el soporte y la garantía que aquellas no tienen.
C
DIGITRON Y SU LINEA DE PRODUCTOS La empresa Digitron es un grupo fundado en Sao Paulo en 1986, y que ha comenzado su trabajo fabricando placas de red a principios de la década de 1990. Hace algunos años, inició sus tratativas con Gigabyte, empresa que le encargará la fabricación de algunos de sus productos basados en los chipsets Radeon Xpress 200, tanto para plataformas Intel como AMD. Para los próximos 12 meses, Digitron planea una producción de 2,5 millones de motherboards, mientras que para 2006 pretende ascender a los 3 millones. Pero, obviamente, Digitron no sólo se encargará de realizar motherboards, sino que su plato fuerte serán las tarjetas de video basadas en procesadores gráficos de ATI y memorias del tipo TSOP (que son más económicas que las de formato BGA). Este detalle con respecto a las memorias lo comentamos porque, en un principio, la empresa tratará la mayoría de los productos de gama baja y media, que es la que más se vende en América Latina. Más específicamente, los productos que veremos por parte de Digitron (que ha presentado unas muestras de producción de una interesante calidad) serán: Radeon 9250, Radeon 9550, Radeon 9600XT, Radeon X300SE HyperMemory y Radeon X600 Pro. En un futuro cercano también fabricarán placas de la familia Radeon X700 (tanto PCI Express como AGP, mediante un chip que actúa como puente entre ambas interfaces), y se piensa que, más adelante, hasta se podrán ver poderosas Radeon X800 con la misma flamante etiqueta “Made in Brazil”. 10
LA NOVEDAD: HYPERMEMORY Además de presentar las nuevas placas hechas en Brasil, ATI puso el acento en la nueva tecnología HyperMemory, presente en las Radeon X300SE. En las últimas ediciones de POWERUSR hemos podido ver una nueva estrategia por parte de las compañías de procesadores gráficos en cuanto al segmento económico. Estamos hablando del TurboCache de NVIDIA, el HyperMemory de ATI y el ChroMAT de S3 Graphics, sistemas que tratan de utilizar parte de la memoria RAM principal de la PC como frame buffer de la tarjeta de video. Esto permite optimizar los costos de las tarjetas de video, ya que se incluye en ellas sólo una pequeña cantidad de RAM (entre 32 y 128 MB) de acceso rápido que actúa como caché. El resto del manejo de la memoria es tratado por el software que incluye la placa de video. Para lograr un buen rendimiento, es necesario contar con un sistema que provea de un gran ancho de banda de memoria RAM y que contenga la cantidad de memoria suficiente como para no tener pérdidas de performance. Según ATI, cualquier sistema Pentium 4 con memorias en Dual Channel a 400 MHz y 512 MB debería ser suficiente para tener niveles aceptables de rendimiento (lo óptimo sería 1 GB). El problema surge con los Athlon 64, ya que el acceso a memoria desde la placa de video está limitado por el enlace HyperTransport (el cual, como máximo, otorga un ancho de banda de 4 GB/s). De todos modos, Paulo Fernandes (Gerente de Marketing del canal, de ATI) nos ha comentado que AMD está trabajando en conjunto con los fabricantes de motherboards y chipsets para que, de alguna manera, se pueda acceder más directamente a la memoria. En la próxima edición de POWERUSR vamos a realizar las pruebas correspondientes con la Radeon X300SE HyperMemory, y la compararemos con su contraparte, la GeForce 6200 TurboCache. ■ Ariel Gentile | genaris@mpediciones.com POWERUSR
64-Historieta-P23.qxd
.end
8/8/05
10:31
Page 64
INTRAMUNDO
UN ANTIHEROE LOCAL DESCUBRE ACCIDENTALMENTE EL CAMINO PARA SUMERGIRSE EN LO MAS PROFUNDO DEL MUNDO INFORMATICO. SU MISION: ENFRENTAR LOS RETOS Y PELIGROS QUE ALLI SE LE PRESENTEN, MIENTRAS ENCUENTRA LA MANERA DE VOLVER A CASA.
DIBUJOS: LUCHO | GUION: ANDRES FIOROTTO
64
POWERUSR
10-Modding-P24.qxd
9/2/05
15:08
Page 10
@ MODDING
ESTE MES LES MOSTRAMOS UNO DE LOS MAS IMPRESIONANTES MODS PRESENTADOS EN MAXIMOLAN 05, ESPECIALMENTE, POR SU SISTEMA DE REFRIGERACION, QUE LE PERMITE OBTENER MAXIMOS NIVELES DE OVERCLOCKING. CON USTEDES, PUCHITO’S BLUE DREAM.
plazo: en primer lugar, porque utilizamos un procesador de menos de 200 dólares, y lo hicimos trabajar por encima de la velocidad de uno de más de 1000 dólares; en segundo lugar, porque estaremos disfrutando de velocidades no alcanzadas por ningún procesador actualmente construido y nos permitirá el uso de futuros procesadores con el mismo equipo.
ste equipo fue solicitado por un amigo nuestro. El objetivo era lograr desempeños de alta performance en la placa de video y el procesador, sin perder la sobriedad y la terminación de este gabinete (Lian Li PC70). Para alcanzar ese fin, se diseñó, especialmente, un sistema de refrigeración líquida y se hicieron modificaciones en las tensiones para la placa de video, con lo cual se logró elevar su velocidad de fábrica en un 50%. También se desarrolló un sistema de refrigeración criogénica para el procesador, que le permite funcionar un 60% por encima de la velocidad stock, a -45°C.
E
EL CONTROL ELECTRONICO
GABINETE El gabinete fue totalmente modificado en su interior: se cambió la ubicación de ciertos componentes (la fuente se llevó a la base), se colocó un gigantesco radiador para el sistema de refrigeración líquida de la placa de video, y para albergar el depósito de líquido y la bomba de circula-
FICHA TECNICA ■ Nombre: Puchito’s Blue Dream ■ Autores: Silencer (msporta@2vias.com.ar),
ción. Todo este diseño se debe al aporte de Daniel “@itor” Mujica. Junto con estas modificaciones, se realizó un nuevo cableado, con el fin de ocultar los cables de la vista y, así, lograr una mejora sustancial en la circulación de aire (como así también, en el acabado estético interior). La parte que destaca en este equipo es el sistema propietario de refrigeración por cambio de estado de los gases, realizado por Mariano “Silencer” Porta. Este es el primer sistema totalmente diseñado y fabricado en la Argentina, y existen sólo dos empresas en el mundo que se dedican a fabricar sistemas similares. Este equipo permite refrigerar el procesador de nuestras computadoras a temperaturas inferiores a los 40 grados Celsius bajo cero, con lo cual alarga la vida útil de la placa y permite mantener una velocidad de trabajo continua un 50% por encima de lo que sería capaz con sistemas clásicos de refrigeración. Además, esto significa un ahorro tanto en el corto como en el largo
El sistema de refrigeración se controla junto con la computadora, también por un sistema propietario realizado íntegramente en la Argentina. Este permite la ejecución segura del equipo, automatiza el encendido y el apagado, entrega información de cuatro sondas de alta prestación (-60 a +100°C), permite configurar diferentes niveles de ruido y temperatura, y brinda información tanto de la PC como de los sistemas de refrigeración. Este control electrónico fue desarrollado por Hernán “Goleen Eagle” Martínez Reina. ■
@itor y Golden Eagle. ■ Procesador: AMD Athlon 64 3000 +
(1,8 GHz) @ 3,1 GHz ■ Motherboard: DFI LAN Party UT nF3
250Gb. ■ Memoria RAM: 2 x 512 MB Kingston
DDR400 (Winbond BH5). ■ Placa de video: ATI Radeon X800 Pro
@ X800 XT PE (680 MHz). ■ Refrigeración: Líquida y cambio de
fase gaseoso. 10
POWERUSR
14-Labo MSIGeForce6600-P20.qxd 5/5/05 11:26 AM Page 14
.lab
MSI NX6600GT PCIE ESTA VEZ, LLEGA A NUESTROS LABORATORIOS UNA PLACA BASADA EN EL GEFORCE 6600GT, QUE ES, SIN DUDAS, UNO DE LOS PROCESADORES GRAFICOS MAS INTERESANTES DE LA GAMA MEDIA-ALTA ACTUAL.
as placas PCI Express son cada vez más comunes, y MSI no pierde el tiempo, al ofrecer toda una gama de productos basados en esta interfaz. En esta ocasión, analizaremos un producto basado en un procesador gráfico de NVIDIA, el GeForce 6600GT, una solución nativa para PCI Express. Veamos qué tiene esta empresa para ofrecernos.
L
»
PRESENTACION A simple vista, la placa luce muy bien. Sin embargo, el cooler que decidió utilizar MSI para este producto deja mucho que desear. El fan se encuentra demasiado abierto, por lo que, a la hora de disipar el calor del resto de la superficie, la eficiencia es muy baja. Tanto su terminación como su solidez son muy flojas. Mientras trabaja, la temperatura que levanta es altísima, de modo que hay que tener cuidado a la hora de realizar overclocking con un gabinete cerrado. Otro punto que conviene tener en cuenta es que los soportes de plástico son muy débiles para sostener el cooler, una seria falencia por parte de MSI, que debería pensar en corregir. Los contenidos incluidos en el packaging son fenomenales: la cantidad de software a nuestra disposición es difícil de superar, trae un adaptador DVI a VGA y cable S-Video. También viene el cable reglamentario de MSI para todas las entradas y salidas de la placa; una solución muy apropiada y que muy pocos fabricantes brindan como éste: todo en un solo cable.
PERFORMANCE Las especificaciones técnicas de la placa son muy similares a las que vimos en el modelo 6600GT AGP de Albatron (POWERUSR #18). La diferencia primordial es la falta del puente PCIE-AGP, ya que el GPU 6600GT trabaja nativamente en modo PCIE. La otra distinción fundamental es el soporte de SLI, que no se encuentra en la versión AGP por razones obvias. Realizamos las pruebas de rendimiento en un Pentium 4 550 (3,4 GHz), con un motherboard PC Chips TidalWave T18 (Intel i915G) y 1 GB de RAM DDR2. Todos los resultados fueron comparados con los de una Radeon X700 Pro (la competencia directa de esta placa). En 3DMark 2001 no hay muchos cambios en el horizonte, ya que las plataformas NVIDIA siempre tuvieron un puntaje un tanto menor en comparación con ATI. Pero en 3DMark 03, NVIDIA consiguió mejorar mucho sus resultados: la última vez que evaluamos una 6600GT, rondaba los 7000 puntos, y ahora está ¡pasando los 8500! (con los nuevos ForceWare 71.84). En la mayoría de los juegos podemos observar la supremacía de NVIDIA, especialmente en resoluciones bajas y al utilizar los filtros en resoluciones altas. Estas diferencias en la performance se hacen evidentes cuando observamos bien la configuración del hardware: la X700 Pro trabaja a 425 MHz de clock, mientras que la 6600GT lo hace a 500 MHz. Lo mismo sucede con las memorias, que trabajan a 864 14
»
EXCELENTE PERFORMANCE. POSIBILIDADES DE OVERCLOCKING. MUY BUEN PACKAGING. MALA SOLUCION DE COOLING.
LA SOLUCION DE COOLING OFRECIDA POR MSI ES BASTANTE MODESTA Y NO TIENE EL MEJOR DISEÑO. AUN ASI, PERMITE REALIZAR UN IMPORTANTE OVERCLOCKING.
MHz en la X700 Pro, y a 1 GHz en la 6600GT (por cierto, cuenta con 128 MB). Estas ventajas a nivel hardware se hacen evidentes con la nueva versión de drivers. Ahora, como si esto fuera poco, podemos aplicar overclocking para ver hasta cuánto más llegamos. Desde el estándar de 500/1000 alcanzamos 600/1050, realmente imposible de superar para la GPU. Sin embargo, como explicamos antes, la mala disposición del cooler juega un papel muy negativo en la experiencia, ya que tiende a sobrecalentar las memorias más que a enfriarlas, y éstos son los resultados: BENCHMARKS GEFORCE 6600GT
RADEON X700 PRO
3DMARK 03
8598
7365
UT2004
86,34
87
UT2004 (AA 4X-AF 8X)
82,63
72
DOOM3
59,2
35,7
DOOM3 (AA 4X-AF8X)
27,5
20,7
HALF LIFE 2
69,18
69,6
HALF LIFE 2 (AA 4X-AF 8X)
60,61
58
CONCLUSION Los números hablan por sí solos. MSI se ve profundamente beneficiada por el lanzamiento de los últimos drivers ForceWare 71.84 por parte de NVIDIA y demuestra una performance sin dudas increíble. Es realmente difícil no recomendar esta placa, ya que la serie 6600GT es, en la actualidad, la mejor solución de rango medio en el mercado, superior en la mayoría de sus aspectos a la serie X700 de ATI. MSI merece una mención especial con respecto al packaging, debido a su perfecta inclusión de contenidos, como así también al cable Vi-Vo y a las amplias capacidades de overclocking que brinda. El único punto negativo es su pobre solución de refrigeración. ■
MaximoPC | www.maximopc.org FABRICANTE SITIO WEB PRECIO
MSI WWW.MSI.COM.TW U$S 300 POWERUSR
04-08-News-P27.qxd
12/2/05
12:06
Page 4
NEWS! OTRA MOVIDA DE NVIDIA
EL NUEVO naugurando la nueva sigla “GS”, NVIDIA lanzó al mercado una variante del popular GeForce 6800 a un precio muy razonable y con un desempeño que se asemeja mucho al del modelo GT de esta familia. El principal factor que destaca al 6800 GS (NV42) es su proceso de manufactura de 110 nm, con el cual se pueden incrementar notablemente las velocidades de reloj con respecto al NV41, de 130 nm. De hecho, en materia de clocks, el 6800 GS presenta un core funcionando a 425 MHz (contra los 400 del 6800 Ultra), mientras que la memoria corre a 1000 MHz (en este caso, un poco menor a los 1100 de la versión recién mencionada). La reducción más significativa pasa por el lado
I
de los pipelines: sólo 12 (de los 16 del GT y Ultra), aunque gracias al aumento en el core, la diferencia de rendimiento es menor al 10%. Esta configuración la ubica como la opción más conveniente para reemplazar en el mercado a la GeForce 6800 GT, ya que presenta un precio más accesible y se desempeña muy bien ante su competencia, el ATI Radeon X800 GTO. Muchos afirman que ésta es sólo una maniobra de NVIDIA para opacar, de alguna manera, la retrasada salida del Radeon X1600, presentando una performance que se equipara mucho a este chip de ATI, pero con una diferencia notable en el valor comercial. Por lo pronto, el GeForce 6800 GS domina el rango
»
GEFORCE 6800 GS EL GEFORCE 6800 GS ES UNO DE LOS CHIPSETS CON MEJOR RELACION PRECIO/PERFORMANCE DE LA ACTUALIDAD.
medio con una importante diferencia sobre el Radeon X800 GTO y el X800 XL, donde estas placas suelen costar entre U$S 200 y U$S 240 en EE.UU. Los benchmarks que se han visto en la Web así lo demuestran: NVIDIA ha pegado duro contra la estrategia de lanzamientos de ATI. Veremos cómo responde la empresa canadiense.
EN LA ERA DE LAS COMUNICACIONES
WINDOWS Y OFFICE a empresa liderada por el viejo Billy –naturalmente, estamos hablando de Microsoft– planea ofrecer dos nuevos productos en 2006: se trata de Windows Live y de Office Live. Ninguno reemplazará a los actualmente disponibles en PC, sino que serán versiones reducidas de sus hermanos mayores, accesibles desde cualquier parte del mundo que tenga conexión a Internet. Windows Live se presenta como una serie de herramientas orientadas al uso personal en relación a Internet, como mensajería instantánea, clientes de correo electrónico y comunicaciones de voz. Estos servicios se brindarán de forma gratuita (con la inclusión de publicidades dentro de la interfaz), mientras que otros más avanzados sólo estarán disponibles mediante suscripciones. La
L
4
idea de Microsoft es ofrecer un portal lo suficientemente personalizable como para que parezca que estamos ante el mismo Windows que tenemos en casa, en cualquier lugar que tenga Internet. En cuanto al paquete de aplicaciones de oficina Office Live, surge como una alternativa para pequeñas y medianas empresas, ya que ofrece muchas de las funciones más usadas de este paquete, en forma gratuita y online. Aquí sucede lo mismo que con Windows Live: para aprovechar las características más avanzadas de este nuevo sistema habrá que invertir dinero en las licencias. Entre las ventajas, encontramos la posibilidad de que varias personas trabajen sobre el mismo documento desde distintos sectores del planeta, así como la sincronización de los datos entre ellos y el
»
EN VERSIONES ONLINE EL NUEVO PROYECTO DE NUESTRO AMIGO BILL GATES PROMETE GRANDES BENEFICIOS, SOBRE TODO, PARA MICROSOFT.
acceso a algunas herramientas adicionales. Cuando comiencen las pruebas de estos nuevos productos por parte de Microsoft, podrán participar, en principio, sólo usuarios de los Estados Unidos. Con el mercado de la publicidad en el medio de este proyecto, no hay duda de que el emblemático Bill Gates dará un paso importante con su millonaria compañía californiana, principalmente, en lo que respecta al aspecto económico. POWERUSR
04-08-News-P27.qxd
12/2/05
12:07
Page 6
POWER LOS BENEFICIOS DE LOS 65 NM
BREVES NOTICIAS DOS VECES BUENAS
EN LAS NUEVAS
SE BATIO EL RECORD ABSOLUTO EN 3DMARK
CPU DE INTEL
NUEVO OPTERON 165 Hace algunas semanas, una nueva versión del Opteron (Dual Core, Socket 939) salió al mercado. Este procesador está destinado, principalmente, a servidores chicos y workstations, ya que presenta grandes cantidades de caché (1 MB por núcleo) para tareas que involucren procesos repetitivos. Su velocidad es de 1,8 GHz y trabaja con un link HT de 1 GHz. AMD lo lanzó con un precio original superior a U$S 400 en los Estados Unidos, pero en la actualidad se puede conseguir por menos de U$S 300, un número muy tentador si tenemos en cuenta sus enormes posibilidades de overclocking y el costo del Athlon 64 X2 3800+ “Manchester” (U$S 30 superior), que corre a 2 GHz pero que tiene la mitad de caché. Esto convierte al Opteron 165 en una opción válida a la hora de comprar un procesador, cualquiera sea el uso que se le vaya a dar.
NOVEDADES EN LA GAMA ALTA Por un lado, NVIDIA lanzó al mercado la esperada versión de 512 MB de su última y más potente creación, el GeForce 7800 GTX. A pesar de no denominarse “Ultra”, bien podría haberlo sido, ya que las velocidades de sus componentes han aumentado: de 430 MHz a 550 MHz para el núcleo, y de 1200 MHz a 1700 MHz para la memoria. Son muy buenos números, considerando su manufactura de 110 nm y el hecho de que aún pueden incrementarse mediante overclocking. Este nuevo producto viene a competir con el Radeon X1800 XT de ATI, al cual supera en varios benchmarks gracias a una ganancia de performance del 30% con respecto a su predecesor. Hablando de la compañía canadiense, tenemos que mencionar que la firma Diamond Multimedia sacó una versión AGP de la Radeon X1800 XL. Debido a su interfaz nativa PCI Express, estas placas tienen un puente denominado ATI RialTo. Un buen gesto de la empresa, que no se olvida de los portadores de equipos poderosos con AGP 8x, cuya placa más potente era la Radeon X850 XT Platinum Edition.
a más importante compañía dedicada a la producción y el diseño de microprocesadores será la primera en utilizar el proceso de fabricación de 65 nm para sus próximos dispositivos, como vimos en “Lo que viene”, de POWERUSR #25. Los debutantes serán el Cedar Mill, sucesor natural del actual Prescott, y el Presler, que reemplazará al Smithfield presente hoy en día, heredando su capacidad multicore. Además de la reducción de consumo que ofrecen los 65 nm (por la menor tensión requerida), las otras ventajas principales pasan por la reducción del tamaño del núcleo y una mayor refrigeración. En otras palabras: amplias capacidades de overclocking. Tomando como referencia un Cedar Mill de 3,6 GHz y 1,3 V, las pruebas muestran cómo puede llevarse hasta una frecuencia de 4,25 GHz sin aumentar la tensión o, incluso, se puede configurar a 4,5 GHz, alimentándolo con una tensión un poco mayor, de 1,4125 V. A modo de comparación, recordemos que el actual núcleo Prescott es capaz de lograr unos 4,2 GHz, como mucho, con su tensión nominal y refrigeración por aire, lo que demuestra un incremento razonable. En el caso del Presler, partiendo de 3,4 GHz y 1,3 V, no se pudo romper la barrera de los 3,5 GHz sin aumentar la tensión. Con 1,3625 V, se logró llegar a 4,5 GHz, una buena cifra si tenemos en cuenta que el Smithfield no consiguió superar los 3,9 GHz. A simple vista, los números parecen buenos, pero se esperaban mejores. Sólo resta saber qué sucederá con Conroe, el “as en la manga” de Intel, dispuesto a salir al mercado en el segundo semestre de 2006.
L
»
En Suecia, unos muchachos “overclockers” pertenecientes a un sitio web denominado Hardware Asylum lograron obtener resultados increíbles con este software de benchmarks para placas de video. Obtuvieron las espectaculares cifras de 50614 puntos en 3DMark2001SE, 40061 en 3DMark03 y 17560 en el más reciente 3DMark05. Para nuestra sorpresa, no se usó una máquina de la NASA, sino que se lo consiguió con una configuración conocida por todos ustedes: Athlon 64 FX-57 en un motherboard DFI LAN Party UT nF4 SLI-D, un par de Corsair XMS y dos GeForce 7800 GTX en SLI. El secreto estuvo en el overclocking de los componentes, que alcanzó 3,92 GHz para el procesador (con refrigeración basada en nitrógeno líquido) y 675 MHz/1,58 GHz para el núcleo y las memorias de las placas de NVIDIA, respectivamente. Con esto queda demostrada, una vez más, la importancia del factor overclock en las piezas de hardware disponibles en la actualidad.
6
EL OVERCLOCKING
EL PRESCOTT SE ACERCA AL FINAL DE SU EXISTENCIA, LLEVANDOSE CONSIGO LA ARQUITECTURA NETBURST Y SU ALTO CONSUMO ENERGETICO. POWERUSR
23-Powerzone-P27.qxd
12/5/05
16:59
Page 23
POWER.TECTIMES.COM
EXCLUSIVO LECTORES
COMPRANDO ESTA REVISTA SE OBTIENE DERECHO DE ACCESO A POWER ZONE, EL AREA EXCLUSIVA EN INTERNET PARA LOS LECTORES. ESTE MES ENCONTRARAN LOS SIGUIENTES PROGRAMAS SELECCIONADOS Y COMENTADOS POR NUESTRO EQUIPO. LOS SUSCRIPTORES
POWERZONE
DE LA REVISTA RECIBEN UN CD-ROM CON ESTE MATERIAL. BENCHMARKS: Central Brain Identifier 7.7.0.1 + Chipinfo 1.15 + Ciusbet Hardware BenchMark 1.8.854 + Everest Home Edition 2.20 + HWiNFO32 1.55 + InControl 2.40 + MindSoft Utilities XP 9.03 + OverSoft CPU Informer 0.95 + Whats Running 2.1
OVERCLOCKING: Intel Processor Frequency ID 7.2 + NVidia nTune 2.05.09.08 + Rage3D Tweak 3.9 + RivaTuner 2.0 RC 15.7 + SuperRam 5.10.3 + Throttle 6.10.3 + Tom’s Hardware Guide Clock 1.2 + WinXP Manager 4.93.3
DOWNLOAD MANAGER: Download Accelerator Manager 2.1 + Download Accelerator Plus 7.5 + HTTrack WebSite Copier 3.40 + Internet Download Manager 4.07.02 + LeechGet 2005 1.5 + Lightning Download 1.6 + Mass Downloader 3.2.631 + TD Download Accelerator 1.0
RSS TOOLS: Active Web Reader Customizer 1.23 + eRSS Reader 4.0 + FeedMon 1.0 + OrangeBox for Windows 1.0 + RSS Announcer 1.4 + RSS Captor Pro 2.51 + RSSOwl 1.2 + Taskable 1.0
FREEWARE: Asellus WebRadio 1.0 +
DeepBurner Portable 1.7 + DiskTools ImageMaker 1.1 + EXeem 0.27 + Google Desktop Search 2.0 + GrafxShop 3.9 + MyPixelVault 1.0 + PMsn Paraíso 1.9.65 + Typing Test TQ 6.1 INTERNET: Ares P2P 2.09 + Codebox
BitMeter II 3.2.0 + Forum Proxy Leecher 1.02 + Hide IP Platinum 1.75 + LookAddress All-In-One Toolbar 1.5 + Multi-Browser XP 10.1.4 + Softnik Good Keywords 2.0.072205 + Sylpheed 2.1.50 + Tunnel Me 2.1 MULTIMEDIA: DSS DJ 5.0 + Jajuk 1.0.2 +
MAGIX Digital Foto Maker 2005 2.02 + Mr DJ Music Studio 2.1.927 + Opanda PhotoFilter 1.0 + PhotoWatermark Professional 6.0.5.7 + Speed DVD Creator 4.0.1 + Video-AVI to GIF/JPEG Converter 2.011 + Winamp 5 Full 5.111
POWERUSRUSR
SEGURIDAD: Acronis Privacy Expert Suite
8.0 + CoolWebShredder 2.18 + Deskman SE 6.0 + SpyBot Search & Destroy 1.4 + SpyNoMore 2.22 + Sysinternals RootkitRevealer 1.56 + Twister AntiTrojanVirus 2005 + Xeeon Antifraude 2.6 SERVERS: ADRem Net Crunch 2.30 + Atomic Mail Sender 2.80 + AuditWizard 6.3 + Folder Watchdog Service 1.5 + FreePortScanner 2.1 + IPCheck Server Monitor 5.1.0.345 + PentaSuite 6.0.1 + WebLog Expert 3.1
PMSN PARAISO 1.9.65
TWISTER ANTI-TROJANVIRUS 2005
OPANDA PHOTOFILTER 1.0
TWEAKING: AMS FAST Defrag 2.3 +
Cacheman 5.50 + ItweakU Limited Edition 4.18 + SwiftNet3000 2.5 + Tweaking Toolbox XP 1.5 + WinXP Manager 4.93.3 + XPepius 2.1
+
Programa que sirve como antivirus, antispyware y antitroyano, todo en tiempo real. Tiene un sistema propietario que permite detectar un virus sin siquiera haber hecho la última actualización de la base de datos, ya que puede detectar código malicioso. Además, da la opción de escanear archivos ZIP, RAR, ACE, CAB, CHM y EML.
TOOLS: CCleaner 1.25.201 + CloneCD
5.2.6.1 + JetStart Free 3.0 + Microsoft .NET Framework 2.0 + SBMAV Disk Cleaner 2.7 + Total Uninstall 3.51 + WatchDisk Disk Space Tracker 3.2 + WinRAR 3.51 + WinZip 10
+
Excelente programa que recopila todo tipo de agregados para MSN Messenger. Incluye avatares, emoticones, fondos, GIFs animados, letras, skins y guiños, entre otros. Es totalmente compatible con MSN Messenger 7.5. Además, trae una herramienta que nos permite ver los contactos que nos bloquean.
+
Con este programa podremos dar un toque personal a nuestras fotos, ya que nos permite agregarles más de 100 efectos gráficos provenientes de las empresas Kodak, Cokin y Hoya. Se destaca su excelente interfaz muy fácil de utilizar.
23
58-62-P2P Software-P20.qxd 5/5/05 12:04 PM Page 58
EN ESTA OCASION, REALIZAMOS UN EXAHUSTIVO ANALISIS DE LAS REDES P2P MAS IMPORTANTES DEL MOMENTO. VEREMOS COMO FUNCIONAN GNUTELLA, EDONKEY Y LA POLEMICA FASTTRACK, ENTRE MUCHAS OTRAS.
AGUSTIN CAPELETTO
.p2p
FANATICO DE LOS JUEGOS Y EL SONIDO 3D
forke@mpediciones.com
«
LAS MAS RENOMBRADAS DE INTERNET
REDES P2P
Comenzar a explicar en profundidad el funcionamiento de estas redes sin antes conocer los conceptos básicos del tema sería una imprudencia, así que comentaremos brevemente de qué estamos hablando. En la teoría, una red del tipo Peer-to-Peer pura es un sistema que no se apoya en grandes servidores centralizados para comunicar a los usuarios que se conecten a ella, sino que lo hace en los mismos usuarios que se conectan, y así facilita el intercambio entre ellos. Cada usuario que se conecta a esta red actúa como cliente y servidor (por así decirlo), y en la mayoría de los casos, se lo denomina “nodo”. Como es de suponer, la transferencia de datos se da entre los nodos. Sin embargo, existen algunas redes P2P que no son del todo 58
PRINCIPALES EXPONENTES Ahora que ya tenemos en mente una noción de lo que implica una red P2P, pasemos a analizar en detalle las diferentes alternativas que un usuario de Internet tiene para compartir y descargar información. GNUTELLA
Uno de los mejores ejemplos de una red Peer-to-Peer es la veterana Gnutella, una de las primeras en tener éxito masivo. Fue concebida, inicialmente, por dos visionarios llamados Justin Frankel y Tom Pepper, que trabajaban en Nullsoft (empresa creadora de Winamp) en el momento en que la firma fue vendida a AOL. El proyecto original estuvo sólo unos pocos días en los servidores de Nullsoft, ya que AOL lo prohibió a pocas horas de su salida debido a una maraña de implicaciones legales que no vienen al caso. Sin embargo, esto no detuvo a los ávidos internautas de aquel momento, que pudieron “clonar” el programa y su código fuente aplicando ingeniería inversa. Aunque las primeras versiones no eran del todo estables (debido, en parte, a su dificultoso inicio), con el tiempo se fueron estabilizando y permitieron el uso masivo de este protocolo de
«
CONCEPTOS BASICOS
puras, sino que, en determinados casos, se apoyan en servidores para facilitar su uso y aumentar el rendimiento.
DE LOS CIENTOS DE CLIENTES DISPONIBLES PARA LA RED BITTORRENT, AZUREUS ES EL MAS RECONOCIDO. COMO ESTA PROGRAMADO EN JAVA, PUEDE USARSE EN CUALQUIER SISTEMA OPERATIVO.
«
e las numerosas formas de denominar a Internet, la que mejor se ajusta a sus características es la de “red de redes”. Esto se debe a que Internet es el gran marco donde funcionan los millares de redes que existen alrededor del globo. El tipo de redes que hoy nos concierne es la denominada Peer-to-Peer (o P2P), que hace posible la existencia de los principales programas de intercambio de archivos. A continuación, un profundo análisis sobre el funcionamiento de las redes P2P más importantes de la actualidad.
D
CONFIGURAR UN PROGRAMA PARA UTILIZAR EDONKEY2000 PUEDE SER UN DOLOR DE CABEZA. ES RECOMENDABLE CONSULTAR GUIAS ANTES DE MODIFICAR VALORES.
la mano de clientes como LimeWire o BearShare, que aún continúan con vida. El funcionamiento interno de Gnutella no es demasiado complejo. Al conectarnos con un cliente que soporte esta red, en principio intentaremos comunicarnos con cualquier otro nodo (o usuario conectado), POWERUSR
«
P
58-62-P2P Software-P20.qxd 5/5/05 12:04 PM Page 59
EMULE, EL MOD PARA LA RED EDONKEY2000, ES EL QUE MAS INFORMACION NOS MUESTRA EN PANTALLA. EN ESTA SECCION DEL PROGRAMA, PODEMOS VER TODO TIPO DE ESTADISTICAS Y MONITOREAR LA RED.
para que éste nos envíe una lista de nodos activos. Luego, el cliente utilizará esta lista de usuarios online para conectarse con ellos, y así sucesivamente. Cuando efectuamos una búsqueda y se encuentra un determinado número de archivos, los nodos que poseen esos archivos se conectan con nosotros y, si así lo decidimos, podemos comenzar la descarga. Si se detectan los mismos archivos en diferentes nodos, podremos descargar de todos los que estén disponibles, lo que aumenta significativamente la velocidad de transferencia. En realidad, resulta muy difícil que Gnutella se convierta en una red completamente estable. Esto se debe a que sus nodos, como cualquier usuario de Internet, no sólo cuentan con un ancho de banda limitado, sino que también se desconectan sin previo aviso. Sin embargo, su estructura puramente descentralizada de servidores hace que nunca pueda ser blanco de ataques legales, como le sucedió a Napster y, más recientemente, a KaZaA. Esta característica es la que mantiene con vida a esta “vieja” red. Mientras existan dos usuarios conectados, Gnutella seguirá vivito y coleando.
Luego de conectarnos a algún “supernodo” y de hacer una búsqueda satisfactoria, nos conectaremos directamente con otros “peers” o nodos y comenzaremos la descarga del archivo deseado. Para bajar de múltiples nodos y luego resumir los archivos, esta red utiliza el algoritmo UUHash, que, entre otras cosas, permite reconocer en poco tiempo archivos que hayamos bajado (incluso en máquinas muy viejas). Sin embargo, este algoritmo da la posibilidad de que mucha “corrupción” pase inadvertida, una de las armas principales para frenar la piratería que usan asociaciones como RIAA (Recording Industry Association of America) y MPAA (Motion Picture Association), que introducen archivos falsos dentro de la red. Aunque los problemas legales han afectado en gran medida a esta red, FastTrack aún se encuentra con vida y es utilizada por aquellos que quieren descargar música y compartirla.
FASTTRACK
EDONKEY
Aunque no es reconocida por su nombre “oficial”, FastTrack es una red que ha tenido mucho éxito en el vasto mundo de Internet, si bien ha sido frenada por serias cuestiones legales. Nació en 2001 gracias a dos escandinavos de nombres intrincados, Niklas Zennström y Janus Friis, quienes lograron revitalizar el golpeado mundo de los programas P2P que había sido severamente dañado al desaparecer Napster. FastTrack fue el protocolo que dio vida a KaZaA, el cliente que más usuarios reunió a principios de 2003. La tecnología de esta red se basa en la antes mencionada Gnutella, pero modificada de tal modo que se la considera una red separada y no una simple modificación de ésa. La principal diferencia entre FastTrack y Gnutella son los llamados “supernodos”, usuarios con anchos de banda y recursos muy altos, en los que se apoya toda la red. Cabe destacar que esta categoría se asigna automáticamente dependiendo de la velocidad de nuestra conexión a Internet y de los recursos que tengamos a disposición en el sistema. En vez de buscar cualquier nodo al cual conectarse, FastTrack primero busca “supernodos”, y son éstos los que se encargan de procesar las búsquedas que se realizan en la red.
Pese a que en sus comienzos no fue una red muy conocida, hoy eDonkey es la que más usuarios agrupa. Fue concebida en septiembre de 2000 (de ahí su nombre completo, eDonkey2000) por MetaMachine, una compañía de poca difusión hasta aquel momento. Su éxito se debe, en gran parte, a la gran cantidad de archivos que se comparten en su red, especialmente, música, películas y juegos completos. A diferencia de las redes que vimos antes, eDonkey utiliza servidores para que nos conectemos. Sin embargo, éstos no son los gigantes de otras redes muy centralizadas, sino que cualquiera puede utilizar su máquina como servidor y funcionar como puente entre la conexión de nodos. Así, primero nos conectamos a un servidor y, luego, éste nos comunica con todas las personas que
POWERUSR
estén dentro y también fuera de él, con lo cual se logran conexiones más rápidas que en Gnutella. Una vez conectados a un servidor, se nos asigna un “ID” para identificarnos y, entonces, ya estaremos listos: podremos buscar, descargar y compartir la cantidad de archivos que se nos ocurra. Una característica muy importante de esta red es que permite empezar a compartir archivos aun sin tenerlos completos, lo que garantiza muchísimas conexiones por archivo y, en teoría, mayores velocidades de transferencia. Además, utiliza el algoritmo MD4 para hacer el “hashing” de los archivos y luego los analiza para verificarlos; esto, en definitiva, da la posibilidad de reconocer las piezas que hemos bajado con mucha rapidez y eliminar gran parte de la corrupción que puedan tener. Una de las desventajas de esta red radica en que, al igual que en Gnutella, algunos servidores pueden desconectarse sin previo aviso, con lo cual quedamos a la deriva. Para solucionar este problema de forma más o menos efectiva, los clientes (el mejor ejemplo es eMule) mantienen una lista actualizada de servidores que todavía están en pie. Además, para que funcione a su máxima potencia, es necesario configurar muchísimas opciones, algo bastante molesto y, sobre todo, complicado para aquellos que no conocen el funcionamiento de la red. Sin embargo, y como ya dijimos, eDonkey es la red que más usuarios y archivos agrupa. Habrá eDonkey para rato, ya que gracias a su estructura interna, no podrá correr el mismo nefasto destino que Napster. BITTORRENT
Creada por Bram Cohen en 2002 como una solución para empresas que necesitan distribuir archivos grandes por sus redes internas, BitTorrent es el protocolo Peer-to-Peer 59
20-32 Notapa-P20.qxd
5/10/05
11:23 AM
Page 20
No hay dudas de que las redes son uno de los temas más apasionantes del mundo de la computación. De hecho, el campo de las comunicaciones está entre los tópicos que con más frecuencia tratamos en nuestra revista, puesto que siempre hay mucho para hablar y debemos definir conceptos que van introduciéndose rápidamente con el correr del tiempo, como los nuevos protocolos, las técnicas de hacking (que nuestro especialista Pablo Hauser comenta periódicamente) y las modernas formas de comunicación. Sin embargo, hay algo que en los artículos sobre redes no hemos analizado en detalle, y es, precisamente, lo que intentaremos realizar en esta ocasión. Nos interesa hablar de los fundamentos básicos de las comunicaciones entre computadoras, mencionando tanto el hardware como los protocolos principales para la transmisión de datos. El objetivo de esta nota es explicar, con un importante nivel de detalle, cómo se pasa la información de una máquina a otra dentro de una red, y entender los fundamentos electrónicos y físicos para que esto ocurra. Por eso, en este artículo hablaremos, para empezar, de los tipos de redes, según su escala y forma de conexión; luego, pasaremos a la parte de medios de transmisión, analizando los distintos cables existentes y, también, cómo funcionan las conexiones inalámbricas; finalmente, pasaremos a la parte de Ethernet y los protocolos de transmisión, donde veremos la manera en que se maneja y distribuye la información a lo largo de una red. Ariel Gentile | genaris@mpediciones.com
20
POWERUSR
20-32 Notapa-P20.qxd
5/10/05
11:24 AM
Page 21
E M P E Z A N D O P O R LO B A S I C O
TIPOS DE REDES PARA COMENZAR NUESTRO RECORRIDO A TRAVES DEL MUNDO DE LAS REDES, VAMOS A HABLAR ACERCA DE LOS DIFERENTES TIPOS DE REDES QUE EXISTEN EN LA ACTUALIDAD. ASI, DEFINIREMOS LOS PRIMEROS CONCEPTOS IMPORTANTES, PARA LUEGO IR METIENDONOS MAS DE LLENO EN CADA UNA. ara clasificar a las redes, en general se consideran dos aspectos: la tecnología de transmisión y la escala. En el primer caso, básicamente, podemos hablar de dos clases principales: difusión (broadcasting) y punto a punto (peer-to-peer). En la primera, hay un único canal de comunicación compartido en todas las máquinas de la red. Cada paquete de datos es enviado por una máquina (llamada servidor) con una cabecera que indica el destino, es decir, a qué computadora (o computadoras) está dirigido (clientes), y todas las máquinas de la red lo reciben y aceptan o rechazan según esta información. El broadcasting es algo que ya conocemos mucho en la vida real, ya que es en este concepto en el que se basan las transmisiones de audio y video en tiempo real, como cuando utilizamos algún plug-in de Winamp o Windows Media Encoder para realizar nuestra propia radio en Internet. Por otro lado, cuando hablamos de redes punto a punto, o P2P (tema profundizado en el artículo correspondiente en esta misma edición), nos estamos refiriendo a redes que tienen muchas conexiones realizadas entre pares de máquinas. Esto quiere decir que la información se transmite directamente desde una computadora hacia otra. Sin embargo, no implica que no pase físicamente por otras máquinas que hagan de “puente” entre ellas (en especial, si están en redes de área mundial), como sería el caso de los proveedores de Internet, que transmiten los datos pero (en teoría) no los procesan ni analizan. Por supuesto, ejemplos de este tipo de redes son las transferencias de archivos directas por IRC o algún mensajero instantáneo, o bien directamente redes del tipo BitTorrent o eDonkey 2000.
P
POWERUSR
CLASIFICACION SEGUN LA ESCALA Como comentábamos líneas atrás, la forma más común de clasificar a las redes es según la escala, o sea, la distancia entre las computadoras conectadas a ellas. Aquí veremos las principales denominaciones, comenzando desde las más pequeñas hasta las más grandes redes a nivel físico. REDES DE AREA PERSONAL Este primer tipo de redes es, en realidad, algo que comúnmente no se trata como tal. Estamos hablando de aquellas conexiones inalámbricas entre periféricos, como es el caso de las computadoras con sus teclados, mouses e impresoras. Estas conexiones suelen ser del tipo cliente-servidor, aunque también pueden ser punto a punto, con una conexión directa por medios basados en radiofrecuencia o infrarrojo. REDES DE AREA LOCAL (LAN) Sin lugar a dudas, de los nombres mencionados en esta sección, el más conocido es el referido a las redes de área local, o Local Area Networks (LAN), que abarca todas aquellas conexiones que se realizan entre computadoras ubicadas a distancias pequeñas, en general, en un mismo
edificio o bien a unos pocos kilómetros. Tradicionalmente, las LAN trabajan a una velocidad de 10 mbps a 10 gbps, y se basan en distintos medios y topologías para funcionar, que comentaremos en las próximas páginas, pero que resumiremos aquí mencionando conexiones del tipo bus, anillo y estrella. Las redes de difusión de bus constan de un cable lineal al que están conectadas todas las computadoras, y sólo una de ellas en cada instante es capaz de transmitir un dato. ¿Cómo se determina qué máquina puede enviar información? Mediante un mecanismo de arbitraje, como el conocidísimo Ethernet, usado en las LAN actuales y comentado en detalle más adelante. Por otra parte, también es conocida la topología de anillo, que es bastante similar a la anterior, pero en este caso, el cable no termina, es decir, la conexión es continua. Cada bit de datos se propaga por sí solo, y es en el destino donde se junta con el resto de los del paquete al que pertenece, una vez más, manejado por un mecanismo de
Computadora Computadora
ANILLO
BUS
Cable
VELOCIDAD DE TRANSMISION En el mundo de la informática, se suelen utilizar los prefijos Kilo, Mega y Giga, que representan la multiplicación del valor por una cierta escala basada en el sistema binario (210, 220 y 230, respectivamente). Sin embargo, cuando se habla de transmisión de datos (como en el caso de las redes, estos prefijos en realidad deben ser considerados como una potencia de 10, tal y como se utiliza en las ciencias comúnmente (en estos casos, serían 103, 106 y 109). Formalmente, en este tipo de ocasiones, los prefijos se colocan en minúscula, para diferenciarlos de las unidades de almacenamiento de información. Con esto queremos decir que, cuando decimos que una red transmite los datos a 100 mbps, estamos indicando que se transmiten 100 millones de bits por segundo, algo distinto de los 100.048.576 bits que se trasladan en una red de 100 Mbps. 21
20-32 Notapa-P20.qxd
5/10/05
11:24 AM
Page 22
REDES DE AREA METROPOLITANA (MAN) Las redes de un nivel metropolitano abarcan una ciudad entera, y si bien no son muy normales en el ámbito de las PCs, se pueden ver comúnmente en sistemas como el de la televisión por cable. Esto supone el tipo de conexión que poseen las conexiones a Internet por cable, basadas en esta misma tecnología. Cada computadora (o, mejor dicho, cada hogar) está conectada a la MAN (Metropolitan Area Network) mediante una topología tipo bus, en la que se encuentran muchas otras y se conecta un derivador en
»
arbitraje. Precisamente es éste el sistema con el que trabajan las redes del tipo Token Ring de IBM. Estas redes, descentralizadas, eran comunes hace algunos años, cuando el medio de transmisión más habitual era el cable coaxial. Actualmente, es más difundida la topología de estrella, en la cual existe un hardware especial en el que se concentran todas las computadoras y que permite distribuir los paquetes de datos de una hacia otra. Estamos hablando, naturalmente, de los hubs y switches, cuya diferencia radica en que los segundos disponen de un buffer mediante el cual pueden determinar cuál es la computadora de destino, y la conexión se realiza exclusivamente de una máquina hacia otra, sin que la información “rebote” en todas hasta llegar a la correcta. A simple vista, un hub no es más que una “caja boba” que sólo tiene enchufes (cosa que es cierta), así que una topología tipo estrella con hub no debería de dar mejoras de performance respecto a una de bus o anillo. Sin embargo, la ventaja que tiene el uso de este tipo de topología es que resulta más fácil detectar errores en la transmisión y, de haberlos, se producen inconvenientes sólo en una máquina, en vez de inutilizar toda la red.
INTERNAMENTE, LOS HUBS NO TIENEN MUCHO MAS QUE LAS CONEXIONES PARA COMUNICAR VARIAS COMPUTADORAS. LOS SWITCHES INCLUYEN, ADEMAS, MEMORIAS BUFFER.
su terminación. Esta mini-red se junta con otras en un amplificador por el que las señales pueden viajar con mayor intensidad hacia el servidor. Obviamente, en el caso de la televisión por cable, la transmisión de datos se hace mediante una sola vía (del servidor a los clientes), pero cuando se utiliza Internet, se realiza en dos vías. REDES DE AREA AMPLIA (WAN) Este término se refiere a aquellas redes de un alcance mucho mayor que las anteriores, que va desde países hasta continentes. Incluso, Internet es a veces considerada una red de este tipo. Las redes WAN (Wide Area Network) están basadas, en realidad, en la interconexión de redes del tipo MAN y LAN, mediante el uso de conmutadores o routers. Todo lo referente a la comunicación entre las redes más pequeñas se llama subred, que es una forma de identificar los distintos sectores de la red de área amplia.
ESQUEMA DE CONEXION EN UNA RED TIPO MAN
Caja de derivación
Antena
Amplificador
Internet
22
POWERUSR
20-32 Notapa-P20.qxd
5/10/05
11:24 AM
Page 24
E L H A R DWA R E D E L A S R E D E S
MEDIOS DE TRANSMISION EN ESTAS DOS PAGINAS HABLAREMOS ACERCA DE LA FORMA EN LA QUE SE REALIZA LA TRANSMISION DE LOS DATOS EN LOS DISTINTOS TIPOS DE REDES. HAREMOS EL ANALISIS DE LO QUE SE CONOCE COMO LA CAPA FISICA DE LAS REDES. os lectores de POWERUSR deben estar ya acostumbrados a manejar términos tales como ancho de banda, frecuencia de trabajo, tensión y corriente eléctrica, así que seguramente se verán identificados con esta sección de la nota. Aquí hablaremos de los medios de transmisión dirigidos (cables) e inalámbricos, y volveremos a dar algunas definiciones para comprender un poco más la forma en la que funcionan las transmisiones de datos. Esto también se puede aplicar, en cierta medida, al resto del hardware que todos conocemos.
L
ANCHO DE BANDA Para la recepción de los datos en una red se utiliza mucho un análisis desarrollado por un matemático francés llamado JeanBaptiste Fourier. Se trata de una teoría que dice que cualquier señal periódica se puede descomponer en una suma determinada de funciones seno y coseno (que son simples y fáciles de analizar). Con esto es posible interpretar con mayor facilidad las señales que fueron emitidas originalmente, aunque este análisis es función de parámetros como la frecuencia y la amplitud de la señal, por lo cual, si se produce algún error o degradación de su calidad, no será recibida correctamente. En el caso de la amplitud, no es un gran inconveniente, ya que siempre se considera el hecho de que la señal disminuirá su energía a medida que las distancias sean mayores (de modo que será necesario usar dispositivos que “empujen” a la señal). Sin embargo, no ocurre lo mismo con la modificación de la frecuencia, factor que depende exclusivamente del medio en el que se propaga la señal, y nos da la pauta de las
diferencias entre unas conexiones y otras. ¿Cuáles son los parámetros que hacen a un medio más o menos flexible a las altas frecuencias de trabajo? Obviamente, el conductor con el que está fabricado un cable es determinante, pues su resistividad es fundamental para permitir el pasaje de los electrones en el material. La resistencia es directamente proporcional a la distancia y la resistividad, e indirectamente proporcional al área transversal. Por ende, cuanto más grueso y corto sea el medio de transmisión, mayor será el ancho de banda. Pero también hay algo fundamental en todo tipo de transmisión, y es la relación entre señal y ruido (SNR Ratio), que determina la frecuencia de transmisión de datos máxima sin que haya problemas de interferencia. Por supuesto, esto es preocupante, en especial, en las conexiones inalámbricas, donde no es posible realizar ningún tipo de blindaje (como sí suele hacerse en los cables).
MEDIOS DE TRANSMISION DIRIGIDOS Cuando hablamos de medios de transmisión dirigidos, o guiados, nos estamos refiriendo, principalmente, a los cables, ya que la información se transmite físicamente por un camino determinado (en el aire, las ondas no suelen recorrer un camino fijo, sino que esto depende de las perturbaciones que haya). Los que mencionaremos en esta nota son los más utilizados en la actualidad: el cable coaxial, el par trenzado y la fibra óptica. CABLE COAXIAL El cable coaxial es un medio clásico de transmisiones de datos, tanto analógicas
(por ejemplo, televisión por cable) como digitales. Se llama así porque tiene un alambre de cobre en su núcleo, cubierto por un material aislante, que, a su vez, está rodeado por otro material conductor, todo sobre un mismo eje (axis). Si bien los cables para transmisiones digitales y analógicas pueden ser los mismos, para la primera se suelen utilizar cables con impedancia de 50 ohms, mientras que para la transmisión analógica se usan cables de 75 ohms (que son más gruesos). La información se va transmitiendo mediante impulsos electromagnéticos que quedan encerrados dentro del cable (el cual se suele recubrir con un blindaje especial, además de con un material plástico). Esto permite que la relación entre señal y ruido sea relativamente pequeña y, por lo tanto, que el medio sea idóneo para transmisiones a largas distancias. El problema está en que es bastante costoso, por lo cual no se usa en redes de área local, donde da lugar al par trenzado. PAR TRENZADO El cable de par trenzado consiste en dos alambres aislados de cobre con un grosor de 1 mm. Estos dos cables están trenzados para disminuir la radiación, ya que se cancelan las ondas de las diferentes vueltas. Además, es útil que se encuentren así para evitar interferencias con otros pares trenzados que se suelen utilizar en paralelo, para transmitir un mayor caudal de información por unidad de tiempo. Al ser económicos y poder soportar distancias grandes sin necesidad de repetidores, son adecuados para la mayoría de las redes pequeñas y el cableado telefónico.
» 24
AQUI VEMOS DOS TIPOS DE CABLE COAXIAL (50 Y 75 OHMS). CONSTAN DE UN ALAMBRE DE COBRE RECUBIERTO POR UN AISLANTE, QUE ESTA RODEADO POR CABLES TRENZADOS DE OTRO CONDUCTOR, COMO ALUMINIO. POWERUSR
5/10/05
11:24 AM
Page 25
Por cierto, normalmente se conocen dos tipos de cables de par trenzado: los de las categorías 3 y 5. Se trata de algunos pares de cables, incluidos en una envoltura plástica. La diferencia entre ellos es la cantidad de vueltas por unidad de longitud (cuantas más haya, menores serán las interferencias y, por lo tanto, mayor distancia soportarán). En algunos casos, los cables se blindan para evitar las interferencias en aquellas transmisiones de datos que utilicen una alta tasa de transferencia. Por cierto, los comunes (no blindados) se llaman UTP (Unshielded Twisted Pair).
»
20-32 Notapa-P20.qxd
ESTE ES UN CABLE DE PAR TRENZADO CATEGORIA 5, EL CUAL CONTIENE CUATRO PARES DE CABLES ES APTO PARA SU UTILIZACION EN REDES ETHERNET DE 100 MBPS Y 1 GBPS.
El problema principal de la fibra óptica (además de su costo) es la fragilidad: siempre que se “termina” una fibra, ya sea por un conector o por un empalme, se pierde un importante porcentaje de luz, de entre 10 y 20%.
TRANSMISION INALAMBRICA FIBRA OPTICA La fibra óptica se basa, como su nombre lo indica, en el uso de fenómenos relacionados con la luz para transmitir información. El medio de transmisión en este caso es una fibra de vidrio ultradelgada por la que se emiten pulsos de luz (la existencia de un pulso indica un 1, y la ausencia, un 0), que son recibidos por un detector que genera un pulso eléctrico. El alcance y la velocidad de transferencia sin pérdida de señal depende, principalmente, de la longitud de onda de la luz, que en el caso de las comunicaciones es de 850, 1300 y 1550 nm (el espectro visible es de 400 a 700 nm). La primera es la más usada, debido a que facilita la fabricación de los componentes electrónicos, aunque es también la que ofrece más atenuación. De todas maneras, la pérdida no supera por mucho el 5% por kilómetro, algo que es realmente poderoso teniendo en cuenta que el ancho máximo es de unos 30.000 GHz (o sea, hasta 30 tbps). Los cables de fibra óptica son parecidos a los coaxiales, aunque la diferencia es (obviamente) que su núcleo es de vidrio y su revestimiento también, aunque con un índice de refracción menor, para que toda la luz quede dentro del núcleo. Esto se recubre de plástico y se trenza con otros cables de fibra óptica, y recién después todo se recubre con el plástico exterior.
Como ya bien sabemos, la transmisión inalámbrica se refiere a aquellas conexiones que se realizan sin necesidad de usar cables, es decir, aquellas en las cuales los datos se propagan utilizando como medio el aire. En la figura correspondiente, podemos ver una representación del espectro electromagnético, donde se muestran los distintos tipos de ondas y su ancho de banda. Se puede apreciar que el par trenzado y el coaxial abarcan una frecuencia de hasta el orden del GHz, algo similar a las radio FM, y que la fibra óptica está muy por encima de ese valor. Cuanto mayor sea la frecuencia, mayor será el ancho de banda y se permitirá una mejor transmisión de datos. El problema principal en la transmisión inalámbrica está en que no existe protección alguna de la información, por lo que cualquier objeto puede interferir en la transmisión y atenuar mucho la señal. Por eso se usan tanto las ondas de radio (del orden de 1 a 100 MHz, que son fáciles de generar, soportan una gran distancia y son omnidireccionales (esto hace que el emisor y el receptor no deban estar alineados, como ocurre con la transmisión por infrarrojos). Para la telefonía celular y las redes inalámbricas, actualmente se usan las microondas, que son aquellas que están en el rango de 1 a 10 GHz, más sensibles a la distancia pero con un rendimiento superior.
EL ESPECTRO ELECTROMAGNETICO (Hz) 104
105
106
107
108
109
Satélite
Par trenzado Coaxial
Radio AM
1010
Microondas terrestres
1011
1012
1013
1014
1015
1016
Fibra óptica
Radio FM TV
» POWERUSR
EN ESTE ESQUEMA SE PUEDEN OBSERVAR LAS DISTINTAS FRECUENCIAS A LAS QUE TRABAJAN LAS RADIACIONES ELECTROMAGNETICAS DE CADA MEDIO. 25
52-56-Robotica-P20.qxd 5/5/05 12:07 PM Page 52
GONZALO MON / GONZALO ZABALA
.rob
DESARROLLADORES DE ROBOTS Y AUTOMATAS
gonzalo@mon.com.ar / gonzalo.zabala@vaneduc.edu.ar
INTRODUCCION A LA
«
52
RECUERDOS DEL FUTURO
DESDE EL GOLEM HASTA TERMINATOR, EL SER HUMANO LLEVA SIGLOS SOÑANDO CON LA CREACION DE MAQUINAS AUTONOMAS Y OBEDIENTES, CAPACES DE LLEVAR A CABO LOS TRABAJOS MAS DUROS, MOTIVADO TAL VEZ POR EL DESEO DIVINO DE CREAR A ALGUIEN A SU IMAGEN Y SEMEJANZA. Y AUNQUE PUEDA SONAR A CIENCIA FICCION, LA ROBOTICA ES YA UNA INDUSTRIA ESTABLECIDA, Y LOS ROBOTS NOS RODEAN POR DOQUIER.
ROBOTICA esde la mitología griega, podemos encontrar varios relatos sobre la creación de vida artificial. Por ejemplo, Prometeo creó el primer hombre y la primera mujer con barro, y los animó con el fuego de los cielos. Otro caso es el androide, es decir, el ser orgánico que emula al hombre, que tiene su origen más remoto en la leyenda del Golem, en la que un rabino de Praga infunde vida a una estatua de barro. También los antiguos egipcios unieron brazos mecánicos a las estatuas de sus dioses. Estos brazos eran operados por sacerdotes, quienes clamaban que el movimiento era inspiración de sus deidades. De esta manera, nos damos cuenta de que la humanidad tiene la obsesión de crear vida artificial desde el principio de los tiempos. Muchos han sido los intentos por lograrlo. Si nos preguntamos por el origen de la palabra robot, ésta proviene del checo robotnik o robota, que se podría traducir como trabajo tedioso. El término fue empleado por vez primera en 1917 por el dramaturgo checoslovaco Karel Capek en su obra Opilek. En ella, un científico inventaba máquinas llamadas robots, en alusión a que se encargaban de realizar los trabajos más aburridos. Pero al final de la obra, los robots mataban a sus dueños humanos y tomaban posesión del mundo. Pero fue el escritor Isaac Asimov quien popularizó este concepto con sus numerosos relatos de ciencia ficción, y lo dotó de un componente romántico del que, en realidad, estos artefactos carecen. A él se atribuye el acuña-
D
miento del término robótica. La imagen de robot que aparece en su obra es la de una máquina bien diseñada y con una seguridad garantizada, que actúa de acuerdo con tres principios que el propio autor denominó las Tres Leyes de la Robótica: 1) Un robot no puede actuar contra un ser humano o, mediante la inacción, hacer que un ser humano sufra daños. 2) Un robot debe obedecer las órdenes dadas por los seres humanos, salvo que estén en conflicto con la primera ley.
3) Un robot debe proteger su propia existencia, a no ser que esté en conflicto con las dos primeras leyes. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente, y el robot moriría. Como consecuencia, todos los robots de Asimov son fieles sirvientes del ser humano, a diferencia de la actitud rebelde de los robots de Capek o de los de Terminator. Posteriormente, sus robots más evolucionados lograron desarrollar la ley cero de la robótica (ley Zeroth), según la cual: “Un robot no puede hacer daño a la humanidad o, por inacción, permitir que la humanidad sufra daño”. A finales del siglo XX, este sueño comenzó a ser real. Así, podemos mencionar algunos hechos significativos. En 1962, H. A. Ernst publica el desarrollo de una mano mecánica controlada por computadora mediante sensores táctiles. En 1963, la American Machine and Foundry Company (AMF) genera VERSATRAN, con lo que se empiezan a diseñar brazos para manipuladores. En 1968, Mccarthy y sus colegas en el Stanford
« ROBOSAPIEN, UN ROBOT DE JUGUETE DESARROLLADO POR CIENTIFICOS DE LA NASA, QUE PUEDE BAILAR, CANTAR, CAMINAR, ETC., ¡Y CUESTA SOLO 80 DOLARES! POWERUSR
LINKS
52-56-Robotica-P20.qxd 5/5/05 12:08 PM Page 53
■ HONDA HUMANOID ROBOT ASIMO
world.honda.com/ASIMO
■ THE INSTITUTE OF NANOTECHNOLOGY www.nano.org.uk
■ KOREA ADVANCED INSTITUTE OF SCIENCE & TECHNOLOGY
www.kaist.edu
■ TOYOTA ROBOTS
www.toyota.co.jp/en/special/robot
■ NASA MARS EXPLORER
marsrovers.jpl.nasa.gov/home/index.html
■ EL GOLEM
www.geocities.com/Paris/Arc/8090/jlb1.htm
■ SONY QRIO
www.sony.net/SonyInfo/QRIO
Artificial Intelligence Laboratory desarrollan una computadora con manos (manipuladores), ojos (cámaras) y oídos (micrófonos). En el Japón, la compañía Kawasaki Heavy Industries negocia una licencia con Unimation para sus robots. En 1974, la empresa Cincinnati Milacron introduce un robot industrial controlado por computadora, conocido como “The Tomorrow Tool” o T3. En el mismo año, en el Draper Laboratory, Nevins desarrolla técnicas sensoriales basadas en el control de la fuerza y la posición. El tiempo ha ido transcurriendo aceleradamente desde entonces. El desarrollo de la robótica es vertiginoso, considerando lo que es el paradigma de automatización industrial, donde este concepto se ha vuelto un estándar en nuestra vida. Las expectativas son muchas con el aporte de la informática, sumado a las metodologías actuales de la Inteligencia Artificial. Ya tenemos robots móviles, que pueden salvar obstáculos complejos, con sensores que se acercan cada vez más a nuestros sentidos. Sin embargo, lejos estamos aún de nuestro sueño creador, del robot “a nuestra imagen y semejanza”.
¿QUE ES UN ROBOT? Existen diferentes discusiones de acuerdo con la definición de esta palabra. Tomemos las más relevantes: ■ Según la Asociación Japonesa de Robótica Indus-
trial (JIRA): Los robots son “dispositivos capaces de moverse de modo flexible, análogo al que poseen los organismos vivos, con o sin funciones intelectuales, permitiendo operaciones en respuesta a las órdenes humanas”. ■ Según el Instituto de Robótica de América (RIA): Un robot industrial es “un manipulador multifuncional y reprogramable diseñado para desplazar
«
ROBOT OPPORTUNITY, ENVIADO POR LA NASA A ESTUDIAR EL PLANETA MARTE.
POWERUSR
ESTE ES EL HOAP DE FUJITSU. PESA 7 KG Y TIENE UNA ALTURA DE 48 CM. SU CPU ES UN PENTIUM III A 700 MHZ.
materiales, componentes, herramientas o dispositivos especializados por medio de movimientos programados variables, con el fin de realizar tareas diversas”. La definición japonesa es muy amplia, mientras que la americana es más concreta. Pensemos, por ejemplo, en un robot manipulador que requiere un operador “mecánicamente enlazado”. En el Japón se lo consideraría un robot, pero no sucedería lo mismo en los Estados Unidos. De igual manera, una máquina automática que no es programable entraría en la definición japonesa y no en la estadounidense. Una ventaja de la amplia definición japonesa es que a muchos de los dispositivos automáticos cotidianos se los llama “robots” en el Japón. Es cierto, como acabamos de observar, que los robots son difíciles de definir. Sin embargo, no es necesariamente un problema el que no esté todo el mundo de acuerdo con respecto a su definición. Joseph Engelberg (padre de la robótica industrial) resumió esta situación inmejorablemente cuando dijo “puede que no sea capaz de definir qué es un robot, pero sé cuándo veo uno”. Y la robótica se define, sencillamente, como la ciencia que
estudia el diseño y la fabricación de robots, así como las piezas que los conforman: motores, brazos especializados o sensores, por ejemplo. En cuanto a los elementos que conforman un robot, podríamos dividirlos en tres bloques fundamentales: ■ Unidad de procesamiento: procesa in-
formación recibida a través de sus sensores y toma decisiones. ■ Sensores: captan información del mundo exterior. Pueden ser sensores de luz, de tacto, cámaras de video, etc. ■ Actuadores: son elementos que le permiten realizar acciones en el mundo exterior. Según la energía que consuman, pueden ser de tipo hidráulico, neumático o eléctrico. En este punto podríamos hacer una analogía con el ser humano: su cerebro (unidad de procesamiento) necesita cierta información para tomar decisiones. Esta información se obtiene a través de varios sensores, como la vista, el oído, el tacto, etc., que detectan lo que nosotros llamamos el “mundo real” o mundo exterior, y envían esa información al cerebro para su “procesamiento”. Cuando su cerebro toma una decisión, manda señales a través de su cuerpo para hacer algo en el “mundo exterior” utilizando sus “actuadores”, o sea, piernas, brazos, manos, músculos, etc. En definitiva, su cerebro se está comunicando e interactuando con el mundo exterior.
TIPOS DE ROBOTS Como decíamos en el punto anterior, no existe una definición única y precisa de la 53
52-56-Robotica-P20.qxd 5/10/05 4:51 PM Page 55
« QRIO: EL ROBOT HUMANOIDE DE SONY, QUE DESLUMBRA CON SUS DEMOSTRACIONES, LLEGO A ACTUAR EN LA POPULAR SERIE DE TV “ASTROBOY”.
los materiales y el suministro de energía son los inconvenientes constantes y eternos de esta actividad. Salvo que se descubra algún aspecto revolucionario de la física del universo, estos problemas estarán presentes en todos los robots que construyamos, de aquí a la eternidad. Pero, particularmente en este momento, y debido al grado de desarrollo al cual hemos llegado en la robótica, los más importantes en los cuales se está trabajando son los que analizamos a continuación:
«
ROBOT ASIMO, DE HONDA: EL PRIMER GRAN HUMANOIDE QUE REALMENTE LLEGO A LA SOCIEDAD Y A QUIEN MUCHOS INVESTIGADORES CONSIDERAN “LA BIBLIA DE LA ROBOTICA HUMANOIDE”.
VISIÓN Pocos años atrás, pensar en un robot autónomo con sistema de visión era imposible. El volumen de procesamiento necesario para obtener de una imagen la información del entorno es inmenso. Es por eso que, en los primeros tiempos de la robótica, para la construcción de los robots se utilizaron sensores más sencillos, como infrarrojo, láser, tacto, ultrasonido, etc. Pero la visión ha sido un objetivo constante, probablemente influido por la diversidad y la calidad de información que nos otorga, y por ser, desde el punto de vista humano, el sentido utilizado más conscientemente. El aumento de capacidad de los procesadores y de las memorias nos permite comenzar a trabajar sobre imágenes en tiempo real. Este es un aspecto de la disciplina que aún está en sus primeros pasos. Los desarrollos sobre este tema se hicieron en un primer momento sobre ambientes estables, como visión en un proceso industrial en una línea de montaje, donde los elementos por manipular se encuentran en cierto rango de orden, y donde el tiempo no es una cota tan exigente. En la actualidad, se están desarrollando algoritmos de tiempo real para seguimiento, reconocimiento, construcción de mapas, etc.
usado por uno con ruedas omnidireccionales o por otro con patas. Los algoritmos de pathfinding (búsqueda de caminos) y el comportamiento reactivo o deliberativo en la navegación son algunos de los temas que se están estudiando dentro de este aspecto de la robótica. COMPORTAMIENTO COLABORATIVO Cuando ya no tenemos un solo robot, sino un grupo de ellos actuando en forma conjunta, como puede ser el caso de robots en un supermercado o en una fábrica, necesitamos desarrollar heurísticas de comportamiento colaborativo que permitan coordinar el trabajo de todos para que sea lo más eficiente posible. En este caso, podemos adoptar técnicas de comportamiento emergente, o un sistema de control central que coordine el funcionamiento de los robots, entre otras posibilidades. La inteligencia “grupal” de los robots se ha convertido en otro tema de estudio esencial.
NAVEGACIÓN En los robots móviles, es fundamental optimizar los tiempos de navegación, en muchos casos considerando que el robot no debe chocar contra objetos del ambiente. Los algoritmos de navegación están diseñados basándose fuertemente en la arquitectura del robot. Un robot con dos ruedas laterales utiliza un control completamente distinto del POWERUSR
55
52-56-Robotica-P20.qxd 5/5/05 12:09 PM Page 56
« ROBOT TOYOTA: LA PRECISION DE SUS LABIOS MECANICOS Y DE SUS DEDOS LE PERMITEN TOCAR LA TROMPETA.
INTELIGENCIA Probablemente, el problema en este caso sea establecer qué se entiende por inteligencia. Tomando una de las definiciones más básicas, consideramos que un robot es inteligente cuando puede adaptarse en forma dinámica al mundo que lo rodea, manteniendo su comportamiento para cumplir un objetivo determinado. Cada tipo de robot precisa diversas heurísticas según el problema que deba resolver. El ingrediente adicional –que problemas como el ajedrez u otros de inteligencia artificial no consideraban tan rigurosamente– es la necesidad de responder en tiempo real al cambio del ambiente. Por esta razón, muchos de los algoritmos tradicionales de razonamiento no son de mayor utilidad en el campo de la robótica, y es necesario modificarlos o diseñar otros nuevos, en los que quizá perdamos precisión en pos de la velocidad de respuesta. Estos no son los únicos problemas, como comentamos al principio. Pero si uno busca en los ambientes académicos sobre qué temas se están escribiendo artículos, estos cuatro aspectos de la robótica son los que han sobresalido en los últimos cinco años.
FUTURO En la actualidad, los robots han demostrado ser excelentes sustitutos de los humanos para llevar a cabo ciertas tareas. Ya hay numerosos robots trabajando en minas y excavaciones petrolíferas, fabricando bienes de consumo en cadenas de montaje, explorando el espacio como principales protagonistas y combatiendo en guerras. Algunos niños ya conviven con mascotas robóticas, como es el ejemplo del AIBO, de Sony. Empresas japonesas como Sony, Honda y Toyota han presentado
«
AIBO ERS-7: MASCOTA ROBOT DE SONY, CAPAZ DE RECONOCER A SU AMO POR SU ROSTRO O POR SU VOZ.
56
ejemplares de humanoides que desafían a los personajes de cualquier novela de ciencia ficción. Es decir que, en breve, tendremos en nuestros hogares y trabajos robots de todo tipo colaborando con nuestras tareas. Es por eso que consideramos fundamental que en la educación de nuestros niños se introduzca el tema de la robótica, para que en un futuro ellos los vean con ojos familiares, y entiendan los paradigmas que plantea la robótica en relación a la producción de bienes y servicios en el mundo que les tocará vivir. Realmente, no es sencillo predecir la evolución de la robótica, pero lo que sí está claro es que, si bien el hombre ha buscado crear máquinas que puedan realizar las mismas tareas que él, ahora su meta va más allá: lograr que éstas no sólo reproduzcan conductas inteligentes, sino que también lo hagan utilizando los mismos principios que se han descubierto en los seres vivos y, en particular, en el hombre. Esta ciencia llamada robótica etológica o fisiológica pretende que la naturaleza indique los caminos. Estos robots permiten a los investigadores entender algunas funciones imposibles de desentrañar directamente a través de la experimentación animal. También existe una importante tendencia dirigida a desarrollar micro-robots gracias a los avances logrados en el campo de la nanotecnología. Los robots minúsculos –de unos pocos milímetros– podrían emplearse para avanzar por vasos sanguíneos con el fin de suministrar medicamentos o eliminar bloqueos arteriales; también
podrían trabajar en el interior de grandes máquinas para diagnosticar con antelación posibles problemas mecánicos. Puede que los cambios más espectaculares en los robots del futuro provengan de su capacidad de razonamiento. El campo de la inteligencia artificial, es decir, del desarrollo de artefactos que simulan el funcionamiento del pensamiento humano, avanza rápidamente, y el diagnóstico de fallas en aviones o satélites, el mando en un campo de batalla o el control de grandes fábricas podrían correr cada vez más por cuenta de computadoras inteligentes. Ahora bien, todo esto tiene sus inconvenientes. Es muy probable que estos avances provoquen la pérdida de puestos de trabajo para humanos. La robótica crea empleos en el ámbito de la robótica, el cual exige altísimos niveles de formación. Las sociedades del futuro, entonces, deberán enfrentarse con la tarea de volver a capacitar a los trabajadores que queden desocupados a causa de la automatización. Y quizá esto tenga la ventaja de reorganizar las condiciones de trabajo y la distribución de la riqueza, en un mundo donde gran parte de la producción será realizada por robots. Tal vez sea hora de que, por fin, nos sentemos a descansar más seguido y a disfrutar de aquellas cosas de la vida que un robot, por lo menos por el momento, no puede disfrutar. ■
POWERUSR
12-LaboSeagate-P20.qxd 5/5/05 11:06 AM Page 12
.lab
SEAGATE BARRACUDA 7200.8 P-ATA FABRICANTE SITIO WEB PRECIO
eagate nos tiene acostumbrados a productos de excelente calidad y prestaciones, además de a una extensa garantía de cinco años que ningún otro fabricante ofrece. Hasta hace un tiempo, la compañía dedicaba todos sus esfuerzos a aumentar la densidad de almacenamiento, ya que tenía la filosofía de usar solamente dos platos para almacenar información. De esta manera, el Seagate Barracuda 7200.7 era un disco de “sólo” 200 GB, pero que ostentaba la mayor densidad hasta ese momento: 100 GB por plato. Mientras tanto, la competencia estaba produciendo discos de 300 o más gigabytes al integrar más de tres platos, lo cual dejaba a Seagate en una posición desventajosa. Pero la empresa tenía un as bajo la manga: abandonó su postura de dos platos por unidad y comenzó a implementar tres platos en cada disco. Y no se quedó en medias tintas: aumentó la densidad de almacenamiento a 133 GB por plato, un nuevo récord si consideramos que Maxtor, Hitachi y Western Digital siguen usando platos de 100 GB. Con estas dos novedades, Seagate presenta un disco que tiene una capacidad brutal: 400 GB.
SEAGATE WWW.SEAGATE.COM U$S 300
UN NUEVO DISCO DURO DE SEAGATE QUE SACA EL MAXIMO PROVECHO DE LA “VETUSTA” INTERFAZ ATA100: GRAN DENSIDAD DE INFORMACION, EXCELENTE PERFORMANCE Y, AUN ASI, UNA INSONORIZACION INCREIBLE. ¡PASEN Y VEAN ESTA AUTENTICA MARAVILLA!
S
» ESTE DISCO TIENE LA MAYOR DENSIDAD DE DATOS EXISTENTE HASTA LA ACTUALIDAD: 133 GB POR PLATO.
VARIAS MEJORAS La empresa no sólo se centró en la capacidad, y ha hecho evolucionar muchísimo a su línea Barracuda desde aquellos días del súper ruidoso y caluroso Barracuda SCSI de 9,1 GB. Hoy, el 7200.8 es tan silencioso que, con una mano en el corazón, confieso que tuve que pegar mi oreja al disco para saber si estaba operando, porque el sonido del cooler del procesador no me dejaba escucharlo. Gracias a sus motores con
bolillas llenas de fluido (en vez de rulemanes comunes), el disco es tan silencioso que todos los competidores lo envidian. El único punto criticable es que no posee el SeaShield que protegía a las generaciones anteriores, un cobertor que se ubica sobre la placa de la unidad a fin de que esté menos expuesta a golpes y a cortocircuitos; un mal menor, pero no por eso íbamos a dejar de mencionarlo.
tel Pentium 4 de 3 GHz, 1 GB de RAM y Windows XP con SP2 instalado; los programas de benchmarking usados fueron HD-Tach y Winbench 99. Pese a nuestras reservas con este disco por la interfaz Ultra ATA/100, los resultados fueron sorprendentes. En modo sostenido, el disco supera, incluso, a sus contendientes S-ATA, con una impresionante tasa de 61,8 MB/s, revelando que la interfaz y el acceso al disco fueron refinados enormemente. En modo ráfaga, con 95,3 MB/s, prácticamente alcanza el límite de 100 MB/s de la interfaz, y en las pruebas Winbench estuvo casi a la par del Maxtor Diamondmax 10, que tiene a su favor el hecho de poseer interfaz S-ATA y 16 MB de caché. Estar un poco relegado en estos términos no desluce al disco, ya que los resultados obtenidos con una interfaz considerada “antigua” son impresionantes. El 7200.8 con S-ATA (que evaluaremos en una próxima edición) debe obtener resultados más contundentes.
»
EXCELENTE PERFORMANCE. INSONORIZACION. MUY BUEN PRECIO. NO TRAE EL SEASHIELD.
NUESTRO TEST Seagate nos envió una unidad Parallel ATA para ejecutar nuestras pruebas. Suponíamos que el tope de línea de 400 GB iba a estar reservado sólo a discos S-ATA, pero la compañía ha lanzado todas las capacidades con ambas interfaces (para que tengan una idea, las capacidades son 200, 250, 300 y 400 GB) a fin de garantizar la flexibilidad de elegir. La interfaz S-ATA tiene como agregado la segunda generación de NCQ, dado que el primero en incorporar dicha tecnología fue el Barracuda 7200.7 NCQ. Las pruebas fueron realizadas con un motherboard DFI Lanparty 875P-T, un In-
CONCLUYENDO Este disco tiene un precio aproximado de 300 dólares, muy agresivo ya que uno de la competencia de 300 GB cuesta sólo 40 dólares menos. Las personas que compraron una PC nueva hace relativamente poco tiempo y no tienen S-ATA integrado cuentan con una oportunidad de expandir la capacidad de almacenamiento sin hacer una inversión cuantiosa en migrar ciertos componentes para soportar S-ATA. Este disco de Seagate vale la pena por cada dólar que paguemos por él, ya que su performance es estelar en todo sentido. ■ Pablo Salaberri | pablitus@mpediciones.com
BENCHMARKS
12
TRANSFERENCIA PROMEDIO (MB/S)
HD TACH BURST TRANSFER (MB/S)
WB BUSINESS
WB HIGH END
MAXTOR DIAMONDMAX PLUS 10 (300 GB)
54
135,7
8350
32000
MAXTOR DIAMONDMAX PLUS 9 (200 GB)
40,7
118
4740
20600
SEAGATE BARRACUDA V SATA (120 GB)
38,7
95,3
5310
18100
SEAGATE BARRACUDA 7200.8 PATA (400 GB)
61,8
95,4
7810
30900
POWERUSR
50-51-Soporte Tecnico-P20.qxd 5/5/05 12:36 PM Page 50
.rta
El mismo día en el que se inventó la PC, aparecieron todos los problemas posibles relacionados con estas máquinas. Para hacer frente a las calamidades de esta caja de Pandora, se creó el valeroso servicio de soporte técnico.
S+T
HARDWARE
GRABADORAS DE DVD
[
[SOPORTE +TECNICO HARDWARE
DUDAS CON DISCO DURO
?
Hola, gente de POWERUSR. Les escribo para plantearles una duda: tengo una placa madre DFI PA61 con chipset VIA 693/596, un micro Celeron que está corriendo a 500 MHz y memoria de 256 MB PC133. Ahora quiero cambiar el disco duro por uno de 80 GB. Con mis componentes, ¿puedo hacerlo? ¿Y si quiero que sea Serial ATA? Muchas gracias. Lucas Campos
?
Hace rato que tengo ganas de comprar una grabadora de DVD, Dual Layer, y encontré una Sony DW-D22A por U$S 76. Sin embargo, el mismo modelo se vende hasta en U$S 110, y me dicen que esto se debe a que son variaciones del modelo y a que la más barata no soporta formatos nuevos de DVD Dual Layer. Además, en el sitio web de Sony no hay datos sobre esta grabadora (de hecho, el modelo “no existe”, aunque lo encontré en venta por todo el mundo). ¿Me podrían ayudar a decidir? Aunque no es muy cara, la inversión me resulta un gran esfuerzo y no quisiera equivocarme. Por otro lado, si comparamos un Duron 1600 y un Sempron 2200+, si bien el último tiene más caché y procesa a 1533 MHz, ¿cuál de los dos me conviene más? Según mis cálculos, el Duron es inferior, pero si lo puedo overclockear a 2000 MHz y puedo modear el puente L2 y (con suerte) habilitar los 256 KB de memoria caché, podría tener una mejor performance. ¡Gracias, capos, por iluminar mi existencia y overclockear mi fanatismo por el hardware! Iván Norberto Quaglia
Tu motherboard debería reconocer perfectamente el + disco de 80 GB, aunque es probable que necesites una actualización del BIOS para que funcione correctamente. Si no, como siempre comentamos, utilizando un EZBIOS (BIOS especial que se instala en el sector de arranque del disco duro, para que se reconozca toda su capacidad aun en PCs antiguas) provisto por el fabricante del disco, todo tendría que funcionar a la perfección. Respecto a utilizar un disco Serial ATA, si bien existen adaptadores y placas controladoras, no creemos que sea lo más recomendable. Teniendo en cuenta la velocidad de tu PC, es casi seguro que no notarías ninguna diferencia al utilizar un disco con la interfaz S-ATA, por lo que conviene usar uno con la ATA tradicional, a menos que pienses realizar una actualización muy pronto (aun así, con el costo que tiene una controladora S-ATA externa, dudamos de que valga la pena hacer el gasto). EN PCS ANTIGUAS NO SE SUELE JUSTIFICAR LA COMPRA DE DISCOS S-ATA, QUE REQUIEREN UNA PLACA CONTROLADORA
50
ES MUY COMUN VER MODELOS DE GRABADORAS DE DVD CON DISTINTO PRECIO QUE SON IGUALES TECNICAMENTE, PERO CON OTRO FIRMWARE. ESTO LIMITA LAS CARACTERISTICAS DE LAS MAS BARATAS.
En general, las distintas grabadoras de DVD de series similares (al igual + que muchas de CD) son, a nivel hardware, iguales entre sí, y la diferencia entre ellas está en el firmware. Este programa es el que le indica a la PC lo que la grabadora es capaz de realizar, y pese a que pueda lograr mucho más que eso a nivel hardware, la computadora sólo aprovechará las características que indique el firmware. La pregunta es: ¿cambiando el firmware, una grabadora se “transforma” en otra? Y la respuesta, en la mayoría de los casos, es que sí. Basta con utilizar un programa determinado, y conseguir el firmware de la grabadora que soporta Dual Layer (es decir, discos de doble capa, con 9 GB), para que aquella grabadora de U$S 76 pueda ofrecer lo mismo que la de U$S 110. Sin embargo, hay que tener en cuenta que no todo es tan fácil como parece: una vez cambiado el firmware, se anula totalmente la garantía del equipo, por lo que si algo sale mal, no podrás reclamarle a nadie. Respecto a tu pregunta sobre el Duron y el Sempron, a esa frecuencia de reloj, es mejor el último, especialmente por su bus frontal de 333 MHz y por su caché L2 de mayor tamaño. Si bien es cierto que el Duron puede llegar a 2 GHz, también hay que considerar que muchos Sempron 2200+ alcanzan los 1800 MHz (con bus de 400 MHz), por lo cual su rendimiento puede ser superior, pese a correr a 200 MHz menos de velocidad. Además, no olvides que hay que tener muchísima suerte para poder activar sin problemas los 192 KB de caché L2 restantes del Duron. POWERUSR
02-Sumario-P26.qxd
11/7/05
14:43
Page 2
Gacetillas de prensa redaccion@mpediciones.com Para anunciar publicidad@mpediciones.com Atención al lector lectores@mpediciones.com
AÑO III NUMERO 26
Opiniones y sugerencias power@mpediciones.com Para suscribirse usershop.tectimes.com Comunidad de lectores foros.tectimes.com
« DVD: BUEN MEDIO, MAL FORMATO
SUMARIO POWERNEWS 4 NVIDIA presenta su nueva GPU integrada en mothers, AMD inaugura su planta, ATI mejora el rendimiento con un tweaker… ECS KN1 SLI 10 De la mano de ECS nos llega un nuevo mother con nForce4 SLI para Athlon 64 de Socket 939. CORSAIR XMS2-5400UL 12 Probamos uno de los mejores kits de memoria DDR2, ideales para realizar overclocking.
AUTOPSIA 36 Este mes: el pisapapeles más grande del mundo. SOPORTE TECNICO 38 Respondemos las dudas de nuestros inquietos lectores. TWEAKS 40 Consejos y tips para la PC. SISTEMAS DE REFRIGERACION POR AGUA 44 Fundamentos técnicos del famoso sistema de watercooling.
SAPPHIRE RADEON X550 14 La nueva apuesta de ATI en la gama baja.
MICRO CONTROLADORES 46 Hacemos un programador de PIC16F84 y desarrollamos nuestro primer proyecto.
NOVATECH DDR 333/256 MB 16 Un módulo de memoria económico, con sorprendentes habilidades de overclocking.
SISTEMAS DE ARCHIVOS 50 Un completo informe sobre cómo se almacena la información en los distintos sistemas operativos.
SAMSUNG SPINPOINT SP1213C 16 Un disco suro de 120 GB, muy silencioso.
ROBOTICA 56 En esta oportunidad, vemos el kit Blocky-Tronic y el de Fischertechnik.
HERRAMIENTAS 18 En esta sección, mostramos el mejor software para aprovechar la PC.
EXPLOTANDO CON METASPLOIT 60 Un ejemplo práctico del uso de un framework para la explotación de un servidor.
CODECS 22 Cómo funciona la compresión digital de audio y de video.
LO QUE VIENE 64 El novedoso control del Nintendo Revolution.
COLABORADORES
«
ANDRES FIOROTTO | andres@mpediciones.com ARIEL PALAZZESI | arielpalazzesi@yahoo.com.ar GONZALO MON | gonzalo@mon.com.ar GONZALO ZABALA | gonzalo.zabala@vaneduc.edu.ar JOSE ADRIAN LLIGOÑA BOSCH | jbosch78@argentina.com LEANDRO REOX | leandro.reox@gmail.com NESTOR LOPEZ | www.oc-squadron.com PABLO NAJIMOVICH | naji@mpediciones.com PATRICIO BARBOSA | patriciojb@gmail.com
2
Podría decir que mi experiencia con las películas en DVD es bastante reciente, ya que no fue hasta la popularidad de este formato en América Latina que comencé a mirar películas codificadas en MPEG-2. Al principio, estaba maravillado por la calidad del sonido, ya que se oía realmente muy bien. El video también era bastante bueno, aunque si rippeaba alguna película en un DVD-R de 4,7 GB, se notaban ciertas imperfecciones. Un día, llevé una a la casa de un amigo y nos dispusimos a verla en su monitor de 14 pulgadas, a 2 metros de distancia. Nos costaba un poco visualizar los subtítulos (blancos y sin bordes, de ésos que suelen confundirse con el fondo), así que decidimos cambiarle el color, y aumentar el tamaño de la tipografía. Pasamos un buen rato buscando en PowerDVD alguna opción para modificar los subtítulos, pero no la encontramos; instalamos WinDVD, pero tampoco logramos nuestro cometido. Así, descubrimos que los subtítulos son imágenes superpuestas a la escena y no se pueden modificar. Finalmente, tuvimos que sentarnos más cerca de la pantalla y mirar la película con algo de incomodidad. Parece que los desarrolladores del DVD gastaron más sus cerebros en pensar cómo evitar la piratería, que en buscar un formato versátil que permitiera una mejor interacción con el usuario, y mayor calidad de audio y video. Además, su método anticopia y la división del mundo en regiones no son más que molestias, incluso, para los usuarios que compran los discos legalmente. Por otro lado, la calidad no es tan buena; formatos de compresión como DivX permiten obtener calidades similares con un tercio del espacio que ocupa un DVD. Eso sí: cuando hablo del DVD, me refiero al formato de video; no al medio en sí, que me parece muy bueno debido a su relación entre capacidad, tamaño y velocidad de acceso. Además, ahora se suma el costo, que es bastante bajo y conveniente frente a cualquier otro medio actual. El DVD no está a la par de los algoritmos actuales, que seguramente lo reemplazarán en un futuro. ¿Y cuándo llegará un nuevo formato “oficial” para las películas? No lo sé, pero, sin duda, será dentro de un buen tiempo, pues quedan muchos reproductores MPEG-2 por vender… Ariel Gentile | genaris@mpediciones.com Asesor Editorial General Gabriel Pleszowski
Asesor Comercial Benito de Miguel
POWERSTAFF Coordinador Editorial Miguel Lederkremer
Asesor Editorial Fernando Casale
Redacción Ariel Gentile
Asesora de Corrección Magdalena Porro
Asesor de Diseño Frank Sozzani
Asesor de Diseño Flavio Burstein
Diseño Laura Heer
Diagramación Juan Pablo Gurzi
Publicidad: (54-11) 4959-5000; fax: (54-11) 4954-1791; publicidad@mpediciones.com ❚ Distribuidores: Argentina (Capital): Vaccaro Sánchez y Cía. C.S. - Moreno 794 piso 9 (1091), Ciudad de Buenos Aires | Argentina (Interior): DISA – Pte. Luis Sáenz Peña 1836 | Chile: Distribuidora Vía Directa S.A., Riquelme Nº 840, Santiago, tel. 688-7383 | México: CITEM S.A. de C.V. - Av. del Cristo No. 101 Col. Xocoyahualco Tlalnepantla, Estado de México | Bolivia: Agencia Moderna Ltda. General Acha E-0132 - C. de correo 462 - Cochabamba - Bolivia - tel. 005914-422-1414 | Uruguay: Espert SRL – Ciudadela 1416, Montevideo | Venezuela: Distribuidora Continental Bloque de Armas - Edificio Bloque de Armas Piso 9°, Av. San Martín, cruce con final Av. La Paz, Caracas. | Paraguay - Selecciones S.A.C. Coronel Gracia 225 - Asunción | Perú - Distribuidora Bolivariana - Av. República de Panamá 3635 - San Isidro, Lima POWER.TECTIMES.COM Todas las marcas mencionadas son propiedad de sus respectivos dueños. Impreso en Kollor Press S.A. Uruguay 124, Avellaneda, Bs.As. Copyright © MMV MP Ediciones S.A., Moreno 2062, C1094ABF, Ciudad de Buenos Aires, Argentina. Tel.: (54-11) 4959-5000. Fax: (54-11) 4954-1791. E-mail: correo@mpediciones.com. Hecho el depósito que marca la ley. Esta publicación no puede ser reproducida, ni en todo ni en parte, ni registrada en o transmitida por un sistema de recuperación de información, en ninguna forma ni por ningún medio, sea mecánico, fotoquímico, electrónico, magnético, electroóptico, por fotocopia o cualquier otro, sin el permiso previo y por escrito de esta casa editorial. ISBN 987-526-336-2 Codecs / coordinado por Lederkremer Miguel - 1a ed. - Buenos Aires : MP Ediciones, 2005. v. 25, 64 p. ; 28x0 cm. 1. Programación. I. Miguel, Lederkremer, coord. CDD 005.3
POWERUSR