Software Libre en tiempos de globalización y Copyright

Page 1

Segunda Edición LAS T.I.C.s EN TIEMPOS DE LA GLOBALIZACIÓN Y EL COPYRIGHT Max Morales Escobar

© "El computador no es el enemigo del libro. Es un vástago de la cultura impresa, el resultado de cinco siglos de investigación e invención organizada y colectiva que la imprenta hizo posible. De todas formas he de confesar que espero el surgimiento de una forma literaria basada en el computador aún con más afán del que he sentido por los entornos educativos informáticos en parte porque mi corazón pertenece a los Hackers. Me seduce la posibilidad de hacer que las estúpidas máquinas canten". (Janet H. Murray)

1 de 69


Dedicatoria A quienes me enseĂąaron con el ejemplo que el decir pueblo, libertad, derechos y hasta el protestar no es suficiente, si no va acompaĂąado de una acciĂłn concreta, sea para vivir o morir: Lucio Morales Bonifacio y Ana Rosa Escobar Zalles, mis padres.

2 de 69


Agradecimientos

A Eusebio Gironda Cabrera, prestigioso profesional, por su meritorio criterio y valioso aporte. A Roberto Morales, por el excelente aporte tĂŠcnico y social.

3 de 69


PROLOGO A LA 2da. EDICION Este libro fue escrito a finales del año 2006, mucha agua ha pasado por el puente desde aquel entonces, tuvimos que migrar para buscar mejores horizontes en nuestra tarea de difundir, pero mas que todo en demostrar que la plataforma de Software Libre tenia la suficiente potencialidad para ser plataforma de servidores y desarrollo de Software, tal cual es el caso del exitoso ejemplo del programa de Modernización de la Universidad Boliviana auspiciada por el CEUB, y financiada por la Cooperación holandesa y el Ministerio de Educación con el apoyo del Banco Mundial, y la inapreciable dedicación y trabajo del equipo de Tecnologías Emergentes de La Fundación AUTAPO. Son otros tiempos, mas auspiciosos para el Software Libre y de Código Abierto, Ya no solo es una amenaza, es una alternativa real que incluso esta transformando, en el marco de la democratización del conocimiento:  Modelos de negocios, que pasan a explotar el servicio, no el costo de licencias o cánones, menos el Software para el Escritorio, ya que prácticamente todas las aplicaciones tienden a ser “Web based” (basadas en Web); esto se ve de alguna manera representado por el ascenso de uno de los millonarios más jóvenes del mundo, Mark Zuckerberg (Facebook), o del nuevo millonario “Numero 1” del mundo, un empresario mexicano del área de las Telecomunicaciones (el del negocio del Desktop irá bajando paulatinamente)  Visiones esenciales de la creación de inteligencia colectiva, donde los usuarios ya no son solo consumidores, sino productores en la linea de la Web Social (Web 2.0). Todo esto, incrementado por la alta dinamicidad en la Investigación, Desarrollo e Innovación en el área TIC, por ello es que apelo a la amabilidad y la comprensión del lector, si en algún momento no hemos logrado actualizar y articular adecuadamente el contenido al tiempo actual, tomando en cuenta esos años que separan desde aquella primera vez hasta el día de hoy.

4 de 69


A MANERA DE INTRODUCCION Los pueblos como Macondo, condenados a cien años de soledad, no tienen una segunda oportunidad sobre la tierra. (Gabriel García Marquez). Hay en las calles, laberintos, recovecos y periferia de la postmodernidad, un movimiento que representa y lucha por los excluidos de la cultura oficial, por los globalizados-marginados; ellos son profesionales, técnicos, usuarios y personas comunes de diversas áreas, que día a día y noche tras noche, en esta distopía de la globalización, que hoy vivimos, van construyendo los embriones de una nueva sociedad, tratando de contextualizar una sencilla, pero ambiciosa “utopía” humanista: Lograr que la ciencia, el conocimiento sean un patrimonio de la misma humanidad, de los propios Hombres y Mujeres, no Copyright de empresa alguna y mucho menos privilegio de unos pocos que puedan pagarla. Son una versión renovada pero genéticamente antigua, parte también de una continuidad cultural humana; tienen la capacidad de los viejos alquimistas, yatiris, druidas, chamanes, etc., de recrear los beneficios del conocimiento para bienestar y servicio de los otros. Son aquellos para quienes el problema (llámese enfermedad o necesidad) de un miembro de la comunidad, es problema de toda la comunidad. Su práctica mágica concreta, hoy, obviamente ha cambiado y se concentra esencialmente en la transferencia del conocimiento, la investigación y el desarrollo, la interacción y el trabajo en equipo a través de los tenues cables de Internet. Tal es el caso de la creación de la propia tecnología de Internet, que es el puntal del desarrollo de las Tecnologías de la Información y las Comunicaciones (TIC's). Los caminos que deben recorrer, no son precisamente los mejores, requieren de mucho esfuerzo, creatividad y voluntad, las mas de las veces sin retribución alguna, ni tan siquiera moral y peor suelen ser ingratamente recompensados y hasta perseguidos y tratados como terroristas, pero aún así perseveran en el esfuerzo, porque su pretensión es justa, sus metas legítimas, y los medios los necesarios para generar una posibilidad-viabilidad de un futuro digno de la propia raza humana, son los HACKERS. Ellos todavía tienen el valor de poder ser auténticos, dignos, y orgullosos de su capacidad, de su cultura local, en medio de la homogeneización-desidentificación a la que se quiere someter al mundo; conservan sus respectivos acentos, tonalidades varias, y potencialidades diversas, pero alzan con un objetivo común sus voces de protesta, y son capaces de pasar de esta protesta a una propuesta alternativa: El Software Libre, fruto de un sostenido y tesonero trabajo, para evitar el encapsulamiento del conocimiento en una patente, cuya comercialización monetaria a través de "licencias" profundizaría, mucho más en este mundo, globalizado unilateralmente, las brechas de la pobreza, y con ello mantendría la desigualdad de oportunidades, y anularía la posibilidad de desarrollo de países como el nuestro urgidos de recursos y medios para emprender las ineludibles e inaplazables tareas de desarrollo nacional, cuando no de elemental supervivencia en un mundo sumido en una crisis económica cuyo mayor peso recae sobre las espaldas de los más pobres. En lo particular y específico de nuestra temática, como no podía ser de otra manera, los monopolios, las grandes empresas, tratan de restringir el acceso a la ciencia y la tecnología, esta exclusión es tanto económica como ideológica y se expresa concretamente en su punta de lanza, que son las empresas comercializadoras de software propietario1, que toman acciones en contra del Software Libre, porque lo identifica como un peligro para sus intereses mezquinos, tratan de inviabilizarlo a través de su poder económico y político; En este sentido, el objetivo del Software 1

SOFTWARE PROPIETARIO, es aquel que solo proporciona Licencia de uso de un programa ejecutable (no entrega el código fuente), y suele tener elevados costos; además va ligado a otros “complementos” y actualizaciones, que también hay que pagar.

5 de 69


comercial es globalizante, hegemónico, monopólico y excluyente. Por todo esto se hace imperativo tomar acciones al respecto, pero para ello es preciso conocer más la temática y sus implicancias, de eso trata este trabajo, complementariamente proporciona una propuesta y lineamientos de acción concretos, abiertos a la discusión. Las TIC's, los Hackers y su aporte decisivo al mismo, así como la evolución de su producto esencial, el Software Libre, las implicancias de este, su forma de desarrollo, unido a un complejo entrecruzamiento de otras variables transparentes, han dado paso a la generación de nuevos fenómenos económicos, sociales y hasta de índole geográfica muy peculiares, que a la vez, han abierto nuevas posibilidades a la acción consciente colectiva, e incluso, incorporan connotaciones geopolíticas que hacen insurgir la posibilidad de modelos regionales de economía sustentable, por ello es que para hacer una descripción ordenada y en lo posible concreta, vamos a separar sus componentes, aún a riesgo de perder la integridad temática que hace a nuestra problemática, con la esperanza cifrada en el hilo conductor que son las TIC's.

“De que color es el mundo, con asombro pregunto... justo del color que quiera pintarle tu corazón”.(Matilde Casazola)

6 de 69


CAPITULO I LOS HACKERS “En estos callejones traseros de la sociedad, ya sea en redes electrónicas alternativas o en redes populares de resistencia comunal es donde he percibido los embriones de una nueva sociedad, labrados en los campos de la historia por el poder de la identidad” (Manuel Castells).

1. APROXIMACION A UNA DEFINICION Debemos tener bien claro que Hacker no es sinónimo de criminal. The Jargon File lo define como "aquella persona que disfruta con la exploración de los detalles de los sistemas programables y cómo aprovechar sus posibilidades; al contrario que la mayoría de los usuarios, que prefieren aprender sólo lo imprescindible", por contrapartida un ángel caído es un Cracker, quien es aquel que "rompe la seguridad de un sistema". Con esto no queremos decir que los Hackers sean santos, PERO, debe quedar claro que son caras opuestas de la misma moneda-, ya que cuando es necesario, prestan valiosa colaboración a administradores de sistemas en todo el mundo, desarrollan software libre pensando en las necesidades de los otros, pero también es cierto que en ocasiones actúan de forma legítima en defensa de los derechos, propios y ajenos, poniendo en práctica un dicho "Diez personas en una protesta no hacen nada, diez personas en línea pueden tirar una red", como por ejemplo contra el alza de tarifas de servicios, leyes injustas, etc. Ojo que con esto no queremos hacer apología del delito ni mucho menos. Más peculiarmente en la voz de Mentor: “Nuestro Unico krimen es la curiosidad y ser mas listos ke ustedes algo ke jamás nos podrán perdonar”.

2. LOS HACKERS Y SU DECISIVO APORTE A LAS TICs Más que una historia, estos son los antecedentes de la conformación de una contracultura informática, van ligados al desarrollo mismo de la informática, y al avance científico-tecnológico, es así que sus expresiones más concretas se remontan a finales de la década del 50, cuando existían sólo gigantes supercomputadoras, muy costosas y delicadas, por ello muy bien cuidadas, hasta del acceso prolongado de los usuarios comunes, en ese entonces sólo los programadores más avezados. Esta limitación del acceso, unida a las insuficiencias que aún tenían estos gigantes, generó la necesidad de crear ciertos programas, shortcuts (atajos, cortes de camino) a los que llamaron "hacks", que les permitiera explotar de mejor manera la capacidad de la computadora y el tiempo de su uso, de ahí que quienes hicieron estos "hacks", los programadores, sean llamados "Hackers", y complementariamente a su actividad se la denomine "hacking". Los Hackers gozaban de excelente reputación, tal cual, lo testimonia una docente de Lingüística del MIT, Janet H. Murray, que además hace una breve descripción de ellos: "En ese momento yo era miembro del profesorado de 'Experimental Study Group' (ESG), que atrajo a algunos de los estudiantes más creativos e independientes del MIT, muchos de los cuales eran también Hackers bastante ingeniosos. Escribían sus trabajos en línea, exploraban cavernas imaginarias llenas de troles, intercambiaban chistes con personajes informáticos imaginarios y se enrolaban en una vuelta

7 de 69


al mundo perpetua por Telnet2 jugando a entrar en los computadores ajenos. Creían que el lenguaje de programación que estaban aprendiendo era a la vez el secreto del cerebro y un método mágico para crear cualquier cosa en este mundo a partir de palabras normales. Se consideraban a sí mismos magos y alquimistas, y al computador un lugar encantado”3. Dicen, por ahí, con mucha razón, que el mejor "hack" de todos los tiempos fue hecho en Laboratorios "Bell" (División de investigación de American Telephone and Telegraph Co. AT&T) en 1969, por dos Hackers: Ken Thompson y Dennis Ritchie: el UNIX, un Sistema Operativo. Thompson trataba de lograr mayor eficiencia en la utilización de la memoria de las primigenias y complejas computadoras, que era muy limitada, además de costosa; lo escribió y desarrollo en lenguaje ensamblador, siguiendo la línea de MULTICS, que fue uno de los primeros S.O. multiusuario, desarrollado en el MIT. El Unix aún tuvo algunos problemas, que Thompson supero reescribiendo el código en un lenguaje de alto nivel al que llamo "B", por ser derivado del BPCL. En 1973 Ritchie modificó el "B" de Thompson y lo llamó "C". Este hecho logró hacer portable el UNIX a otros Sistemas, pese a que mantuvo una pequeña parte del código en lenguaje ensamblador. Este código se lo conseguía gratuitamente o a un precio muy económico, además de poder mejorarlo si así lo deseaba. Nacen en esta libertad tendencias (en 1978 habían llegado a ser 7) como el UNIX BSD de la Universidad de California, además de la original de AT&T. En 1969 el Departamento de Defensa de los Estados Unidos por medio de la Advanced Research Project Agency inicia el proyecto DARPA. DARPA en asociación con Universidades de élite y otros organismos de investigación inician una investigación sobre nuevas tecnologías de comunicación de datos; constituyendo más tarde la Red de la Agencia de Proyectos Avanzados de investigación ARPANET. Todo ello por recomendaciones de un equipo encabezado por Rand Co., para que no se interrumpieran las líneas de información al gobierno, en caso de una guerra nuclear, que invertiría la polaridad y anularía las comunicaciones radiales gubernamentales; esta previsión era justificada para su tiempo, en medio de la intensa, aunque subterránea, "guerra fría". En 1974, Cerf y Kahn inventan el TCP/IP, el protocolo de red de interconexión que introdujo la tecnología de "entrada", permitiendo que diferentes tipos de redes se entrelacen, lo cual sería crucial en el desarrollo de Internet. El módem, trascendental para comunicar las computadoras remotamente, fue inventado en 1978, se origino, cuando no, en la necesidad de hallar un sistema para transferirse programas informáticos remotamente, usando en esta ocasión el teléfono común en los duros inviernos de Chicago, por dos Hackers de la Universidad de Chicago, Ward Christensen y Randy Suess, al año siguiente se difundió el protocolo Xmódem que permitió a las computadoras transferir archivos directamente, sin pasar por un sistema receptor; y dentro de la mejor cultura de lo que hoy conocemos como el software libre, difundieron esta tecnología sin costo alguno, tratando de extender lo más ampliamente posible las potencialidades de comunicación que habían desarrollado. Complementariamente, el año 1979 tres Hackers de la Universidad de Duke y la Universidad de Carolina del Norte (también excluidas de ARPANET), crearon una versión modificada del protocolo UNIX, lo cual posibilito conectar computadoras vía dial up, (línea telefónica). Esta tecnología dio inicio a un Foro de discusión informática en línea: 2 3

TELNET es un programa que posibilita el trabajo con computadoras remotas, por seguridad, actualmente se usa OPENssh MURRAY, Janet H. Hamlet en la holocubierta. Ed. PAIDOS. Barcelona 1999.

8 de 69


USENET NEWS, que tuvo un gran éxito entre los investigadores y estudiantes, constituyéndose en el primer sistema de conversación electrónica a gran escala. También, difundieron de manera gratuita el software, código fuente incluido. Es en este contexto histórico que las redes informáticas, excluidas de los esfuerzos oficiales, en especial militares, como fue el proyecto ARPANET que involucro tan sólo a ciertas Universidades científicas de élite, desarrollaron un propio y nuevo método para comunicarse entre si por sus propios medios. Mucho después, cuando la industria informática va madurando, la IBM en 1981, saca al mercado su Personal Computer PC, que extendía ilimitadamente el uso y acceso a las computadoras, el ambiente se revolucionó, las PCs invadieron los escritorios de la mayoría de las empresas, descentralizándolos del Centro de cómputo, también creció la cantidad de programadores, y se desarrolló aún más la capacidad de los super usuarios. Hacia 1983, el Departamento de Defensa de los Estados Unidos financió a la Universidad de California en Berkeley para que integrara el código de TCP/IP (BBN Bolt, Beranek y Newman) en el Sistema Operativo Unix v4.2 de la Distribución de Software de Berkeley. Dada su vital importancia, se ha tenido cuidado siempre de centralizar y estandarizar el desarrollo de TCP/IP, en la actualidad esta responsabilidad recae en el IETF (Internet Engineering Task Force) dependiente de la sociedad Internet (creada en 1992), que se encarga de escribir e implementar los nuevos protocolos como el IPv6; está compuesto por expertos voluntarios, Centros de investigación Universitarios, y comerciales. Los usuarios pueden copiar e instalar este código, ya que es de dominio público, en sus propias computadoras sin tener que pagar Licencias. "TCP/IP se diseño para ser independiente del hardware del host, y de su sistema operativo, así como de las tecnologías de los medios y los enlaces de datos”4. En 1984, un descendiente directo de los primeros Hackers, un docente del MIT, Richard Stallman, creó el Proyecto GNU (GNU No es Unix, sólo para enfatizar que no tenía código propietario de Unix) en la intención de crear un sistema operativo completo que fuera completamente libre, es decir que su código fuente podía ser distribuido, modificado, vendido, y copiado sin pago alguno, sin confrontar por ello problema legal alguno. Un año más tarde, marzo de 1985, lanza el Manifiesto de GNU5. En 1986 Stallman crea la Fundación para el Software Libre FSF (Free Software Foundation), en la intención de apoyar el proyecto GNU y proteger el Software de libre Distribución. En 1988, ante la aparición de un virus que aprovechaba un agujero de seguridad en el correo electrónico, que dañó a cerca del 10% de las computadoras existentes en ese entonces, DARPA crea el CERT (Equipo de respuesta a emergencias de computación) con sede en la Universidad de Carnegie Mellon, en Pittsburg. De este modo, cuando los tableros electrónicos como el ya difundido USENET NEWS, el boletín electrónico más grande del mundo, basado en el protocolo UUCP (Unix to Unix Copy Protocol) desarrollado en "Laboratorios Bell" para el S.O. Unix; se habían hecho populares entre la comunidad científica y estudiantil. El proyecto DARPA (Defense Advanced Research Program) había dado paso ya a ARPANET (Defense Advanced Research Program Network), y esta a su vez estaba transfigurándose sobre la base de todos los avances arriba mencionados, logrando un exitoso "interneeting" (comunicación entre redes heterogéneas), que le 4 5

FEIT, Sidnie, TCP/IP. 1st. Edition, McGraw-Hill School Education Group. 1998 Este proyecto forma parte sustancial de la Fundación para el Software Libre, www.fsf.org

9 de 69


derivaría el nombre, a la postre, de "Internet". Agosto 14 de de 1989 se difunde ampliamente un "Manifiesto Hacker", presentado por Lee Felstein con motivo de la "Galactic Hacker party". 1991 es el año en que un Hacker finlandés escribe en un tablero, en el grupo de noticias comp.os.minix: "hello everybody out there using minix. I'm doing a (free) operating system (just a hobby, won't be big and professional like GNU) for 386 (486) AT clones", era Linus Torvalds, invitando a la comunidad a desarrollar un nuevo sistema operativo (Linux). El 5 de octubre del mismo año sale la versión 0.02 de FREAX (Linux), la primera oficial, se la puso disponible libremente en la red. Básicamente era un Kernel Unix, con un sistema de tiempo compartido, algunos controladores de dispositivo y un sistema de archivos, adaptado para trabajar esencialmente con dos programas del proyecto GNU: un interprete de comandos, el bash, y un compilador de C, el gcc. A partir de ahí, la siguiente versión contó con la colaboración de otros 5 Hackers de distintas partes del mundo, lo que fue aumentando rápidamente con las posteriores versiones. En noviembre de 1994, con el justificativo de que ya “Silicon Valley empezó a alquilar, separadamente de la mayoría de los Hackers de la Universidad de Illinois cerca de Urbana-Champaign, quienes fueron los que escribieron el programa original (MOSAIC6, N. del A.)”7; AT&T, IBM y Digital Equipment, pero en especial NCSA saca una nueva versión, “Mosaic Netscape”, sorprendieron el dinámico mundo de la red, apropiándose de un desarrollo de la comunidad, obligando a la Universidad a tomar medidas para proteger su propiedad intelectual; constituyéndose así, en uno de los primeros antecedentes que dejo la enseñanza de no actuar tan ingenuamente en la liberación de programas, para no hablar de otros aspectos inherentes por ahora. ARPANET, USENET, la participación activa de la contracultura informática, sus diferencias y también su complementación, sus contradicciones, como el aporte del sector empresarial y también el del entonces Senador de los EEUU Al Gore8, y su influencia en el apoyo para la liberación (formal) de Internet que impulsaron conjuntamente con el ex-presidente Bill Clinton, a inicios de los 90s (ambos gobernaron entre los años 1992-2000), además de otros elementos y factores tecnológicos consolidaron LA RED DE REDES, la autopista de la información: Internet, tal cual hoy la conocemos, el elemento fundamental de las TICs. Si hay una hito nefasto en esta historia, éste es el de la película "Juegos de Guerra" donde se dió un enfoque distorsionado, y manipulado del Hacking, y de los Hackers, "previniendo" al público lego contra los "locos" de las computadoras, que podían ocasionar un holocausto nuclear, sin molestarse en hacer diferenciaciones, ni considerar el gran aporte de los Hackers, como mencionamos líneas arriba, mucho menos tener en cuenta que son ellos la mayor referencia y ayuda para los administradores de sistemas de todo el mundo, ante diversos ataques y problemas informáticos diversos. Varios ejemplos los proporciona Melissa Tuya: un Hacker "Adrien Lamo", gracias a quien Excite@Home ha conseguido reparar un agujero de seguridad que dejaba libre acceso a gran parte de su red Internet (unos 3 millones de documentos); descubrió el fallo y decidió poner sobre aviso a Excite, que reconoce que aunque no es algo frecuente, esta no es la primera vez que Hackers bienintencionados le ayudan en temas de seguridad. 6 7 8

MOSAIC, fue el primer browser en Internet que hizo la compleja computación de red, en su inicio, algo muy fácil de usar. TIME, Caught in a web of their own device, noviembre 7, 1994 Vint Cerf y Robert E. Kahn, básicamente los creadores de Internet agradecen a Al Gore (premio Nobel de la paz 2007): “Queremos manifestar nuestro reconocimiento a las contribuciones de Al Gore, como congresista, senador y vicepresidente. Hace mucho tiempo que ningún otro cargo electo, a nuestro entender, ha realizado una contribución tan importante”.

10 de 69


Por otra parte, el que los expertos husmeen no siempre es malo, por ejemplo, los Hackers son los primeros interesados en querer diferenciarse de los comerciantes de pornografía, con quienes se los quiere vincular maliciosamente (como veremos más adelante), es que acaban de desarrollar el gusano Noped que busca en el disco duro de la computadora archivos de imágenes con nombres relacionados con contenido pornográfico infantil. Noped viene con un mensaje "ayúdanos a acabar con la pornografía infantil ahora" y de documentación con diferentes leyes existentes que regulan este delito. Cuando su inspección da positivo, envía un correo electrónico de aviso desde la computadora del sospechoso a diferentes agencias gubernamentales para que actúen en consecuencia. Que lo tomen en cuenta o no, es cosa de los organismos policiales encargados del caso.

3. SUS VARIANTES Es preciso hacer ciertas puntualizaciones, y sacar del mismo saco, al que intencionalmente se quiere introducir a los Hackers, por ello definiremos concretamente a sus mutaciones, emuladores, y hasta los aprovechadores de su trabajo:  Gurú es un Hacker “retirado”, pero aún muy bien informado, que se ha dedicado a enseñar, aunque la mayor parte de las veces restrinja el nivel y contenido de lo que enseña.  Snickers, son especialistas, expertos en sistemas de codificación.  Cracker es un ángel caído, que gusta de la intromisión y prueba de sistemas ajenos, suele dejar su tarjeta de visita por medio de virus o troyanos; tiene sus variantes como los Warezman, que en esencia son crackeadores de software, con intenciones de piratear estos programas en búsqueda de beneficio económico personal.  Lamers, es un principiante, busca en la basura cibernética programas para fastidiar al prójimo, dependiendo de lo que encuentre puede ser muy peligroso; recopila, emplea y ejecuta programas hechos por otros, similares a ellos son los Scriptkiddies, que son aprendices de brujo, que buscan en la red todo lo existente para hacer ataques masivos, en este marco encuentran siempre sitios desprevenidos. Asimismo, el Newbie, es también un novato, aunque menos peligroso.  Copyhackers, en esencia son falsificadores, ponen en práctica todo lo que han podido aprender y deducir de los Hackers, van tras todo lo que genere dinero, son los abastecedores de los Bucaneros.  Wannaber, es aquel que desea e intenta vanamente ser un Hacker.  Bucaneros, en realidad son simples comerciantes de mercado negro de software.

4. LA GRAN GUERRA DE LOS HACKER'S Y como no podía faltar, como en toda comunidad, también hubo una época de desavenencias y enfrentamientos entre ciertos grupos de Hackers, descritos peculiarmente por DarkAngel9: Para llegar al punto de partida de la Gran Guerra de los Hackers, probablemente tendras ke remontarte al a¤o 1984, kuando un chavo ke se llamaba a si mismo: "Lex Luthor" fundo la legion "Of Doom!".Llamado usualmente LOD, tenia la reputacion de atraer a lo 9

http://www.bigfoot.com/~darkangelweb

11 de 69


mejor de lo mejor ­­ hasta ke uno de sus gangsers brillantes llamado Phiber Optik, entro en la legion de "Doomer" Los amigos de Phiber formaron un grupo rival: "the Masters of Deception". Empezando en 1990 LOD and MOD comenzaron algo ke talvez no podrian manejar... Durante dos a¤os de Guerra Online komo le podriamos llamar ellos se kombatian legion kontra legion, interfiriendo Lineas, Monitoreando Llamadas, Entrando en cada una de las komputadoras del contrinkante. Entonces las legiones kayeron: Signifikaba la karcel para Phiber y sus amigos. Era el fin de un era; "The great Hacker's War".

12 de 69


CAPITULO II HARDWARE, SOFTWARE: SUS LICENCIAS Y GARANTIAS "Microsoft teme que se termine el monopolio del que disfruta en el campo de las computadoras de sobremesa, al igual que el dominio de IBM terminó hace ya muchos años atrás. Actualmente, la gente está obligada a cambiar su PC cada dos o tres años, aunque funcione perfectamente. El modelo de Negocios de MS se fundamenta en esta obsolescencia planificada. ¿Cómo lo hacen?. Muy fácil: sacan una nueva versión del sistema operativo, por ej. Windows 95. Comienzan reduciendo el soporte técnico a las versiones previas, como Windows 3.1. Debido a la forma en que está escrito el software, ciertas computadoras no pueden ejecutar Windows 95. Puesto que no hay otra cosa que Windows... ¿Adivina qué?. Pues que termina pagando, viéndose forzado a realizar una actualización a nuevas versiones de la familia de software de Microsoft, lo que, a su vez, le fuerza a actualizar su computadora para poder pagar el software" (ABBEY AND COREY, Michael10). No podemos entender las TICs sin un factor clave que es la informática, remitiéndonos en toda su pertinencia a esa primigenia definición como: El estudio de la información tratada de manera automática. Y la informática tiene dos elementos básicos que son el Hardware y el Software, diferentes, pero intrínsecamente ligados. Así que veamos:

1. EL HARDWARE. En un principio, cuando las primeras computadoras empezaron a desarrollarse y probarse, los sistemas operativos (Software) se creaban para cada plataforma de hardware diferente, así, cada fabricante de hardware era también el fabricante de su propio sistema operativo y éstos se escribían en lenguaje ensamblador, hasta que un buen día, llegó el sistema operativo UNIX. El hardware ha ido desarrollando rápidamente, generando –dialécticamente- la mejor defensa para reducir la demora en la transferencia tecnológica, la obsolescencia, basado en la también rápida innovación tecnológica, tanto es así que Steve Hawkins señala que el ser humano esta evolucionando mucho muy lentamente en comparación con las computadoras, en 20 años hemos recorrido generaciones de computadoras como la 8086, 286, 386, 486, 586 (PI, PII, PIII, y PIV), en sus diversas versiones. Pero como no podía estar fuera del mercantilismo, el hardware tiene quiebres, luego de la generación 486, la siguiente, la 586, Intel la llamó Pentium, nombre generado para ser PATENTADO, puesto que los números no pueden serlo; con tan mala fortuna que sus primeras versiones generaban un error al procesar fracciones decimales, denunciado en Internet por un profesional; Intel trato de “solucionar” este problema, contratando como empleado de planta a la persona que había descubierto el error, para que supuestamente corrigiera el error, cuando no para neutralizarlo. Finalmente se vio obligada a cambiar a muchos clientes este producto. Otra gran polémica desatada por Intel, se dio a raíz de su procesador PENTIUM III ("Katmai"), de 10

ABBEY y COREY, Michael. Oracle 8, Guía de aprendizaje. Ed. Mc Graw-Hill. Madrid 1998.

13 de 69


muy buenas características, como su velocidad, sus nuevas instrucciones, la mayor cantidad de memoria cache, etc. específicamente la inserción del "Procesor Serial Number" PSN, el cual, según admitió, después, Intel, fue diseñado para permitir transacciones "seguras" en Internet así como autenticación en otras aplicaciones de red (chats, visitas a sitios específicos, e-mail, etc.). El PSN es un numero único que identifica al procesador a través del cual una aplicación "cualquiera" envía los datos a través de la red sin que el usuario pueda percatarse de ello. Estos datos pueden ser vendidos a proveedores de servicios en línea, que con ellos pueden trazar un perfil del usuario, ya sea para asuntos de marketing u otros fines más obscuros. Esta actitud de Intel sufrió un fuerte rechazo de los usuarios como la actividad de grupos como "Bigbrotherinside"11, que han hecho que Intel haya decidido alentar a los fabricantes de PC a que pongan en modo de apagado al PSN así como de proveer el "processor serial number control utility" que es un programa con el cual se puede desactivar o activar el PSN. No se olvide que Intel tiene alrededor del 75% de mercado sobre los microprocesadores (además uno de sus socios mayoritarios es Microsoft), y el riesgo a la privacidad que implica el mencionado PSN, así como en la inseguridad que conlleva ya que se ha demostrado que no es necesario "rebootear" la computadora para activar el PSN como dice Intel.

1.1. La Computación De Red La tendencia en el rubro, es hacia la “computación de red” que implica un Hardware mínimo (de “cartón”), incluso sin disco duro, capaz simplemente de acceder a Internet; es un arma de doble filo, por una parte posibilita el abaratamiento de costos del usuario final, y por otra también pone la plataforma ideal (suponiendo la superación de la calidad y el ancho de banda de las comunicaciones) para una dependencia directa de los Servidores de programas (Software diverso, bibliotecas, información en general e incluso educación), por solamente una "módica" cuota mensual, con lo que terminamos de encapsular el conocimiento para su explotación comercial y usurera del nuevo valor: LA INFORMACION Y SU TRANFORMACION CUALITATIVA: EL CONOCIMIENTO.

2. EL SOFTWARE La manera de compartir, distribuir y aplicar el software, tampoco fue siempre como hoy la conocemos, por la década de los 70 las computadoras se vendían con su propio software, es decir, Sistema operativo, programas que hacían que funcione la computadora, y otros programas gratis (con su fuente incluida), que era un plus, parte del servicio o de la propia venta del hardware.

2.1. El Software Comercial "Salga temprano de trabajar" decía el anuncio en la sección de negocios del periódico Sunday Dallas Morning News. "Gerentes, pongan una TRS-80 en su escritorio para mejorar su productividad individual. Úsenla con nuestro software listo para ejecutarse en la planeación financiera, el archivo electrónico y hasta el procesamiento de palabras". Steve Stibbins12 11 12

http://bigbrotherinside.com STIBBINS, Steve. Personal Computers Come out of the closet. Infosystem, Septiembre de 1981

14 de 69


El Software Comercial se constituye en un negocio de manera gradual, sustituyendo a un natural intercambio de programas que hacían los programadores, por los requerimientos cada vez mas específicos de las empresas y usuarios que empiezan a integrarse masivamente al uso de computadoras, al influjo en especial de las PCs (1981), que incluso generó la descentralización de los Centros de Computo (Departamentos de Computación, etc.), sea por necesidades especificas del trabajo individual en la empresa, o por la calidad del centro de cómputo para explotar su información. Lo lamentable fue que el software comercial amplio su mercado y para asegurar sus ganancias se alió estratégicamente con el hardware, vía el software del Sistema Operativo, y lo que es peor con aquel necesario para que funcionen los "drivers" de los dispositivos y periféricos de las computadoras, como por ejemplo de una impresora, sin los cuales no funciona la misma. En estas condiciones, el desarrollo de software implica un gran negocio para muchos programadores y empresas que desarrollan programas con la única finalidad de lucrar, y en la actualidad se ha llegado al grado de que es mejor negocio que la propia venta de hardware, con lo cual son parte de la nueva:

2.1.1. Cultura del MERCADO: La tiranía de los Derechos de Autor y la colonización de las marcas (logos) “Cada centímetro cuadrado del espacio público y privado esta siendo colonizado por las marcas. Esta invasión es apenas la punta visible de un iceberg que ha transformado, desde la década pasada; la faz de la Tierra. Es la consecuencia de una estrategia económica que condena a los empleados del primer mundo a vivir de trabajos precarios y malpagos y a los del tercero a una explotación infrahumana en las fabricas de Asia y América Latina. Frente a la arrogante hegemonía de las corporaciones y las organizaciones internacionales que las apañan (FMI, OMC, G8, etc.). Pero existe otro tipo de censura todavía mas perverso: la tiranía de los derechos de autor. Aquí no se trata de defender la propiedad intelectual de un artista, sino de privatizar el discurso. Es absurdo oponerse a la globalización, hay que apropiársela, como se hizo con Internet creada por el pentágono, para usarlo en favor de sus actuales víctimas” KLEIN, Naomí13. No creo que nadie este estrictamente contra el derecho que tienen las personas de preservar una autoría, o el cobrar por ella, lo que se ha ido distorsionando, y haciendo poco grato, por decir lo menos, en este asunto es que se ha masificado de tal manera, además de haberse extendido a todos los ámbitos de la sociedad, si hasta ya han existido dos intentos por patentar en favor de determinadas empresas el genoma humano; ni la cultura se ha salvado de ello. En el tema del software comercial y también del hardware, lo odioso es que al comprarlo, no adquirimos nada, más que una licencia como explicaremos mas adelante, pero esencialmente conlleva un gran negocio que se contextualiza (para empezar), a nuestro modo de ver, en las siguientes acciones:

13

KLEIN, Naomí. No Logo.

15 de 69


La primera acción es encapsuladora, es la concepción de la “licencias”, que tan solo otorga UN permiso de uso del producto, que es “prestado” para su uso en UNA computadora, y que además no sabemos que contiene, como funciona, y mucho menos podemos acceder a el para aprender, o para mejorarlo, o cambiarlo, si es que no se adecua a nuestros intereses u objetivos. un complemento perverso a la licencia, es la Certificación que implica que aún el experto mas reconocido en determinada herramienta, no es nadie sino tiene una Certificación, ¿de quién?, ... ¡pues de la misma empresa! que vende la herramienta, llámese mocosoft o lo que sea. Negocio redondo, ni duda cabe.

La segunda acción pretende controlar su difusión, eliminar el copiado, ya se ha legislado y lanzado campañas para el control de fotocopias de libros (es conocido el frecuente copiado de libros), pero aún las fotocopiadoras, por su uso y función, no han sido prohibidas; menos suerte han tenido los reproductores de otros medios magnéticos como los copiadores de DVDs o Software que copia música en diversos formatos.

La tercera acción es monopolizadora del conocimiento, a través de la consolidación de grandes Bases de Datos (de conocimiento) a través de servidores mundiales, cuyo acceso será pago, por suscripción o pago periódico, eliminando tan siquiera la posibilidad de transferencia física (real) de los productos de conocimiento, llámense libros, software o únicamente información. Evitando así la menor posibilidad de acceso no autorizado (pirateo), léase mejor no pagado.

Para cerrar este tema es preciso profundizar sobre varios aspectos y abrirlo a la discusión real sobre temas como los siguientes: De quien es el conocimiento, de la persona, de los que se lo transmitieron, de la sociedad; Hasta donde es el conocimiento propiedad de alguien, donde termina su propiedad. Será legitimo o cuando menos legal que alguien encapsule un conocimiento que es producto, en su mayor parte, de la propia humanidad. Quien le paga regalías a Einsten, o a Socrates o a Galileo, y a Da Vinci. Tan leonina es la cuestión que precisamente el código fuente del driver de una impresora del MIT, que tenia un defecto, fue la gota que colmó el vaso, e inició la cruzada de un docente del MIT: Richard Stallman, como veremos más adelante.

2.1.2. La Licencia de Software Comercial Las licencias de software son variadas, afortunadamente, por ello es bueno y necesario conocer sus características e implicancias a la hora de comprar o liberar bajo alguna(s) de ella(s), algún sistema informático. En el Software comercial, estos contratos enfatizan en la protección de sus derechos de autor bajo la legislación local y los convenios internacionales, además de invocar las leyes y tratados nacionales e internacionales sobre la propiedad intelectual, pero lo más interesante es que: El "producto" Software es concedido en licencia, no vendido. O sea que cuando compramos Software comercial (propietario) pagamos por algo que nos prestan, en realidad no adquirimos nada, ni una copia tan siquiera. 16 de 69


Lo que puede hacer usted con el producto prestado esta limitado a:  Instalar y usar una copia del PRODUCTO SOFTWARE en la computadora.  Es más, sí la computadora funciona como un servidor de red, y permite a sus computadoras clientes el uso del software, deberá adquirir y dedicar una licencia del producto para cada una de ellas en el que éste es usado o en el cual es distribuido. La licencia del producto software no puede ser compartida o usada concurrentemente en varias computadoras.  Absorbentemente, la empresa apropia los Derechos de autor de todo: los títulos y derechos de autor del producto software, imágenes, fotografías, figuras animadas, vídeo, audio, música, texto, "applets", etc., incorporados dentro de él, además de los materiales impresos que lo acompañen y cualquier otra(s) copia(s) del producto.  Esta licencia involucra, ampliando interesadamente, a las leyes de derechos de autor y las disposiciones de los tratados internacionales, para respaldar sus derechos; esto por la inexistencia de esta figura legal en las economías jurídicas de varios países. En esta línea, en 1988 se creó la BSA (Busines Software Alliance), consorcio de varias empresas que defienden en el ámbito internacional sus derechos de autor y propugnan el pago de LICENCIAS de uso de sus productos. Entre ellas obviamente Microsoft, cuyas practicas, poco ortodoxas (por decir lo menos), incluso han llegado a que el gobierno federal y 19 estados de los EEUU le inicien en 1999 un juicio que incluso había merecido, del Juez federal Thomas Phenfield Jackson, un fallo en junio del 2000, que dictaminaba que "Microsoft había incurrido en prácticas comerciales que atentaban contra la competencia justa, disponiendo que se dividiera la compañía en dos entidades independientes. El juicio pasó entonces al Tribunal Supremo de Justicia, que podía haber liquidado el caso en pocas semanas, pero prefirió devolverlo a un tribunal de Apelaciones para que allí se discutan los detalles. El nuevo presidente no tendrá el mismo brío que Bill Clinton en su pulseta con Microsoft. De hecho el candidato Republicano George W. Busch, ha expresado dudas acerca del papel del gobierno federal en una disputa de esta magnitud y numerosos miembros republicanos del congreso se oponen a lo que consideran una intromisión del Estado en el mercado"14. De entonces a la fecha, muchos "intereses" se movieron, y, como se ve finalmente la "afinidad" ideológica entre el entonces candidato presidencial republicano George W. Busch y el dueño de Microsoft dio sus frutos con un acuerdo extrajudicial alcanzado entre el gobierno federal, en la cartera del Departamento de Justicia, con Microsoft; sin embargo "Los nueve estados que rechazaron el acuerdo extrajudicial entre Microsoft y el Departamento de Justicia, han terminado esta semana (otra en la que el coloso de Redmond ha hecho desfilar a los testigos de su elección) acusando a la compañía de Gates de querer copar el mercado del vídeo y audio por Internet en 1999 con las mismas malas artes que empleó en la guerra de los navegadores15. El arma era el programa para descarga de contenido audiovisual Netshow, y el enemigo a batir en este caso no era Netscape16, sino RealNetworks. Los estados rebeldes sostienen su afirmación apoyándose en un correo electrónico, fechado 14 15 16

EL DIARIO, Economía, pág. 4, 10 de diciembre. La Paz 2000) http://www.baquia.com/com//20020124/art00012.html Netscape, Browser comercial, hecho en base de un desarrollo comunitario liberado por los Hackers de la Universidad de Illinois, actualmente liberado con la Licencia Mozilla.

17 de 69


el 3 de enero de 1999, en el que el directivo de Microsoft Anthony Bay se dirigía a Bill Gates asegurando que debían llevar a cabo la misma estrategia que con Internet Explorer. Es decir, integrarlo de serie en el sistema operativo Windows. Los representantes estatales han esgrimido este correo ante el último testigo de Microsoft: Will Poole, vicepresidente de la división Windows New Media Platform. Poole ha reconocido no estar seguro de si la estrategia de Bay llego a adoptarse, aunque ha asegurado que hay aspectos en esta batalla que no tienen nada que ver con la de los navegadores. Con todo esto, los nueve estados quieren que reforzar la idea de que debería distribuirse una versión de Windows que no incluyera determinado software de serie, como el navegador o como Windows Media Player para evitar futuros abusos del gigante del software. De hecho, uno de los testigos convocados en marzo por los representantes estatales fue el vicepresidente de RealNetworks David Richards, que reconoció que su programa funcionaba peor en los sistemas operativos de Microsoft que Windows Media Player. La asunción de una versión modular de Windows está resultando ser el aspecto fundamental en el proceso, ya que los estados se niegan a renunciar a ello, y Microsoft a acatarlo"17. Seguramente no acabaran acá las acciones torpes, por decir lo menos, de Microsoft, pues no hay que olvidar que ya el año 1998 se ha manifestado concreta pero subrepticiamente contra el Software Libre, por medio de sendos documentos conocidos como manifiestos "Halloween I" en fecha 11 de agosto de 1998, el "Halloween II" inmediatamente, y el "Halloween III" el 5 de noviembre de 199818.

2.1.3. La Garantía del Software Comercial 

El Software Comercial proporciona únicamente una Garantía Limitada, en la que el fabricante de PCs garantiza que: a) El Software funcionará adecuadamente como esta documentado durante un cierto periodo de días. b) El Hardware que acompaña al SOFTWARE no tiene defectos en el material ni en la confección, durante un cierto plazo limitado, siempre y cuando haya tenido un buen "uso". Como en algunos Estados/territorios no se permiten límites a la duración de la garantía, simplemente ésta no se aplica, y ya.

La responsabilidad total que asume el fabricante de PCs y de sus proveedores será únicamente: a) La devolución del pago efectuado, o b) La reparación o sustitución del software o hardware que no cumpla la Garantía Limitada, la misma será nula si el software o el hardware fallan como resultado de: accidente, abuso o mala aplicación. No existe responsabilidad por daños emergentes, incluyendo entre otros, daños directos o indirectos por lesiones a las personas, lucro cesante, interrupción de actividad comercial, pérdida de información comercial o cualquier otra pérdida pecuniaria derivada del uso o incapacidad de usar el producto, sea software o hardware, incluso si el fabricante de PCs ha sido informado de la posibilidad de tales

17 18

http://www.baquia.com/com/noticias.html Documentos Halloween, formulan planes para inviabilizar el desarrollo del sistema GNU/Linux , utilizando diversas estrategias, entre ellas, utilizar formatos y protocolos secretos, http://www.ctu.es

18 de 69


daños. Toda la responsabilidad se limitará a la cantidad efectivamente pagada por el software y/o el hardware.

2.2. El Software Libre "Para seguir usando las computadoras sin menoscabo de mi honor he decidido conjuntar un cuerpo de software libre para competir con todo el software que no es libre." Richard Stallman19 La connotación contracultural de este movimiento se expresa en su filosofía y también en la economía jurídica generada por el Software Libre sobre el Licenciamiento del Software hecho por sus propietarios, que antes que en las propias, piensan en las necesidades de los demás; antes que lucrar con ellas, en aplicar sus capacidades como realización personal y profesional. El Software Libre tiene un amplio espectro de programas y sistemas para satisfacer los requerimientos del mercado, desde la investigación astronómica, hasta las aplicaciones para celulares.

2.2.1. La Filosofía del Software Libre En 1983 un investigador del departamento de Inteligencia Artificial del MIT inicia el proyecto GNU, basado en la filosofía que todo el software debe ser libre, que se debe cobrar sólo por los discos, el transporte, el manual, etc.. La filosofía del Software Libre, soportada por miles de desarrolladores a lo largo de todo el planeta, que sin esperar recompensa económica sino mas bien por superación y desafió personal, garantiza soluciones adecuadas y transparentes para los diversos propósitos de los usuarios finales del software y lo que es más importante hace realidad el postulado conocido de la UNESCO: La ciencia patrimonio de la humanidad. Esta filosofía esta asentada en el servicio a los demás, que es el mejor servicio que podemos realizar. De este proyecto, de su filosofía nace la Fundación por el Software Libre FSF (Free Software Foundation), para respaldar el trabajo del Software Libre legal y legítimamente. En esta línea, Stallman libera inicialmente su procesador de textos "Emacs", como software Libre, y además da inicio al desarrollo de sistema Operativo al que le llaman GNU (GNU no es Unix), con un kernel muy parecido a Unix, llamado Hurd, pero con herramientas compatibles; paralelamente para completar este proyecto se crea un compilador de C, el GCC (GNU C Compiler); el cat (manejo de texto), ls (manejo de archivos), bison (generador de compiladores), flex (analizador léxico), gas (ensamblador), bash (shell), g77 (compilador Fortran), y la emblemática catedral, el Emacs (procesador de textos). De forma paralela y complementaria, un joven hacker finlandés Linus Torvalds, lanza una convocatoria/desafío en un tablero electrónico para desarrollar un sistema operativo, el que inicialmente sería nombrado FREAX, y luego definitivamente, LINUX. Actualmente la plataforma estándar -no única- del Software Libre es el GNU/Linux, donde el kernel (núcleo del S.O.) es el del proyecto de Linus Torvalds, el Linux, mientras el original de GNU sigue en perfeccionamiento. Además de Linux, con herramientas GNU se 19

STALLMAN, Richard. Fundador de la Free Software Foundation FSF.

19 de 69


desarrolló, por ejemplo el Sistema Operativo FreeBSD de la Universidad de Berkeley (California).

2.2.2. La Licencia del Software Libre El futuro de la cultura del Software Libre pertenecerá a personas que puedan comunicarse y crear comunidades para sus Proyectos, y tal vez no solo el futuro del Software Libre. Las licencias en su conjunto, tienen algunas características propias, que hacen que en líneas generales se las catalogue como hace Miguel de Icaza20 en cuatro categorías, pese a que una licencia puede incorporar una o varias de ellas en una sola dependiendo de las modalidades de uso y concesión de la licencia que provee, entendiendo como uso, también el acceso al código fuente: 1. Gratuitos Libre distribución 2. Gratuitos Comerciales 3. Pagos Libre Distribución 4. Pagos Comerciales Dentro de estas categorías tenemos una amplia variedad de software licenciado, entre ellos el Software Libre se ubica como GRATUITO Y DE LIBRE DISTRIBUCION. 2.2.2.1. La Licencia GNU, GPL o CopyLeft Los programas del Software Libre ahora se distribuyen bajo la filosofía GNU y la licencia GPL (GNU Public License), muchas herramientas de Linux están bajo esta licencia, que esencialmente proporciona las siguientes 4 libertades: 2.2.2.2. Las 4 libertades del Usuario Libertad 1.- Correr el programa con cualquier propósito. Libertad 2.- Estudiar como funciona el programa y adaptarlo a sus necesidades. El acceso al código fuente es una precondición para esto. Libertad 3.- Distribuir copias de manera que se pueda ayudar al vecino. Libertad 4.- Mejorar el programa y liberar las mejoras al público de tal manera que toda la comunidad se beneficie. El acceso al código fuente es una precondición para esto: ¡SI NO HAY CODIGO FUENTE NO ES SOFTWARE LIBRE!. La GPL, más conocida como Copyleft es un tipo de licencia clara de NO-PROPIEDAD, que permite a todo aquel que desarrolle programas conservar sus derechos de autor, pero otorga al usuario el derecho de accesar al código fuente del programa con la posibilidad de modificarlo y mejorarlo, puede hasta venderlo si lo desea pero sin algún tipo de limitación para este nuevo código, así los demás usuarios también tienen derecho a utilizar este código fuente mejorado. En el mundo del Software Libre, el mundo es su programador, de ahí se acuño la frase: "Los buenos programadores saben que escribir. Los grandes saben que reescribir (y reusar).". 20

ICAZA, Miguel. Líder del proyecto Ximian

20 de 69


Técnicamente esta Licencia requiere modificaciones de la Licencia para ser licenciado, pero bajo la misma Licencia, esta inheritancia (capacidad de heredar) es una ventaja porque asegura que las licencias tengan reciprocidad, como una manera de retribuir la contribución a la sociedad. Cabe aclarar que la inheritancia del Copyleft consiste, concretamente, en que sí se utiliza Software Libre para hacer un desarrollo, ese desarrollo DEBE SER Software Libre también, lo que es el centro de las discusiones y el ataque de las empresas comercializadoras de software que aseveran que eso se constituye en una "ilegalidad", para contrarrestarla, entre sus diversas estrategias esta UCITA21. Un proyecto de Ley que todavía hoy levanta polémicas en la comunidad, pues como dice Stallman: “algunos amigos del software libre han discutido que UCITA beneficiaría a nuestra comunidad, al hacer al software no libre intolerablemente restrictivo, y de este modo conduciendo usuarios hacia nosotros. Hablando de manera realista, esto es improbable, porque supone que los desarrolladores de software propietario actuarán contra sus propios intereses. Podrán ser codiciosos y despiadados, pero no son estúpidos. UCITA no se aplica sólo al software. Se aplica a cualquier tipo de información legible por una computadora. Incluso si usted usa sólo software libre, es probable que lea artículos en su computadora, y que acceda a bases de datos. UCITA le permitirá a los editores imponerle las restricciones más indignantes. Podrían cambiar la licencia retroactivamente en cualquier momento, y obligarlo a borrar el material si usted no acepta el cambio. Podrían incluso prohibirle describir lo que usted percibe como fallas en el material. Esta es una injusticia demasiado indignante como para desearla a alguien, incluso si beneficiara indirectamente a una buena causa. Como seres éticos, no debemos favorecer la imposición de dificultades e injusticia sobre otros basándose en que los conduciría a unirse a nuestra causa. No debemos ser Maquiavélicos. La esencia del software libre es la preocupación por los demás. Nuestro único plan inteligente, nuestro único plan ético, es... ¡derrotar a UCITA!”22. Finalmente, debemos enfatizar que la licencia GPL tiene por objeto asegurar que el Software Libre siga siendo gratuito y a la vez estándar. El proyecto GNU ha licenciado muchos componentes de Linux bajo la Licencia General Pública GNU, Linus Torvalds protege sus trabajos bajo la licencia GPL, también programas como lo son GNU/Linux, XFree23, etc..

2.2.3. La Garantía del Software Libre. En lo referente a la garantía, se ha incidido maliciosamente que el Software Libre no ofrece ninguna garantía, para rebatir esto fácilmente podríamos remitirnos a la garantía del Software Comercial, QUE TAMPOCO LA OFRECE, como vimos en el punto anterior, pero preferimos explicar su conceptualización en el Software Libre: El Software Libre es desarrollado por los mejores talentos que existen en el área de informática, y en sus correspondientes áreas complementarias, y es hecha para demostrar la superación y capacidad de los programadores, que piensan en la necesidad de los demás antes que en sus propios intereses, no por lucro alguno, por ello constantemente se andan 21 22 23

UCITA, proyecto de ley, elaborado por las empresas desarrolladoras de software propietario, quienes han solicitado su adopción a los 50 estados de Estados Unidos. http://www.4cite.org y http://www.badsoftware.com STALLMAN, Richard. Free Software Foundation. Implementación de código abierto del sistema X Window (Red transparente del sistema de Ventanas que se ejecuta en una amplia gama de máquinas de computación y gráficos.) libremente redistribuible. www.xfree86.org

21 de 69


renovando e innovando en sus contenidos, y no solo en sus formas y presentación; además remarcar acá que su forma de desarrollo (el bazar), la integración e interacción, además del control permanente y estricto entre ellos, asegura una gestión de Calidad Total en su desarrollo, con lo cual el Software Libre se constituye en un mejor producto que sus competidores, y además es Libre, si usted necesita algo más, puede incorporarlo o personalizarlo a su medida -lo que no ofrece el software comercial- con lo que podemos concluir que una mayor garantía en software, la da el Software Libre: la Garantía de CALIDAD.

2.3. Las otras Licencias Pese a su calidad, la GPL no es la única, existen otras parecidas, que están dentro de las otras 3 modalidades ya definidas, que difieren en el grado de libertad que pueden otorgar a quienes deseen modificar el código fuente original, con diversos fines, veamos como: Licencia BSD.- Virtualmente no supone restricciones mayores. Se puede modificar la licencia del Software y crear versiones propietarias, puesto que otorga permiso de usar el software de manera libre y permite que los programadores lo tomen y modifiquen pero el grupo (cerrado) de Desarrollo no tiene la obligación de regresar ese código (si es que es tomado en cuenta) a los demás usuarios y puede incluso ser vendido. Licencia Apache.- Característica del servidor Web Apache, le permite hacer prácticamente cualquier cosa con el código fuente, pero usted debe cambiar a ese programa “transformado” el nombre, esta licencia se adecua más a quienes desean proteger el Trade Mark, el nombre de un producto. Licencia MPL.- Esta supone un nivel intermedio de libertad; define que las modificaciones a archivos individuales que contengan código licenciado deben ser licenciados nuevamente por la misma Licencia, pero los nuevos archivos que simplemente trabajen con el código licenciado no necesitan licenciarse. Licencia SISSL.- Permite modificaciones de la Licencia Software mientras la licencia cumple con todos los requerimientos del cuerpo de estándares. Es muy adecuada cuando se quiere proteger los estándares del Software. Licencia Mozilla.- Utilizada en especial por Netscape, son software libre para usuarios comunes (no comerciales) y se tornan en propietarias en situaciones especiales, como por ejemplo cuando se les da un uso comercial, o cuando se la instala separadamente, es decir, no vienen como parte estándar de alguna Distribución autorizada. Librerías gratuitas.- Pueden ser usadas y distribuidas libremente al igual que su código fuente y binario, pero no pueden ser modificados, por ejemplo las librerías de C ++. Shareware.- Software completo y de libre Distribución, su licencia impone el pago por su uso prolongado, como el compresor Winamp, WinZip, etc. Freeware.- Software en formato binario, que puede ser usado y distribuido libremente, tal el caso de Iexplorer. 22 de 69


23 de 69


CAPITULO III TRANSNACIONALES, ESTADO, LEYES Y DERECHOS "Las fronteras nacionales son solamente superbaches en la superautopista de la información". (Tim Martin). El gran desafío que las TICs, su uso generalizado y lo libertario, y hasta cierto punto incontrolable de Internet, plantea a los Estados es que incorpora conceptos en los que la realidad-fantasía, tangibilidad-intangibilidad, y hasta lo mágico se entrecruzan en el marco de la concepción y contextualización de lo VIRTUAL; de ahí que las primeras “afectadas” sean sus estructura y economías jurídicas, los medios precisos y eficaces que posibilitan que el Estado mantenga el monopolio weberiano de la violencia. Así, una de las primeras cuestiones a dirimir es la medida en que el bien común puede infringir, para su consecución, ciertas dinámicas básicas de raíz individual. Lamentablemente la homogeneización de los individuos, característica de la globalización, implica extrañamente, una disgregación perversa de cada uno, paralela y peligrosamente, una cuasi desaparición de límites entre la vida pública y la vida privada. En este escenario: “Es necesario recordar que los cambios producidos en las relaciones económicas han determinado en los últimos decenios profundas erosiones en la sociedad, desestabilizan los sistemas políticos y desnudan los modelos económicos neoliberales y sus efectos perversos. La humanidad experimenta movimientos desconocidos y se encamina hacia cambios que necesitan ser explicados en su verdadera dimensión y sin prejuicios. Los intentos de los poderes imperiales por estandarizar la vida y comportamiento de los hombres, traen aparejadas la destrucción de identidades, de culturas, naciones, modos de vida, bajo la cobertura del "pensamiento único", que favorece a las grandes potencias y sus objetivos geoestratégicos, pero margina a grandes masas populares y establece nuevas modalidades de dominación y control social”24.

1. ESTADO Y LEYES. La ley es un código de violencia pública, afirma Eusebio Gironda25, y nada más cercano a la verdad, pues se manipula a esta según los intereses “sacrosantos” del Estado, y el gobierno de turno, en este sentido, es que los estados, en un principio, ante la falta de legislación de esta área, por lo nuevo, recurrieron primero a hacer extensiones interpretativas de la legislación existente, símiles como derechos de autor, estafa, violación de privacidad, intromisión, espionaje, vandalismo, etc., asociado a daño económico. Esto aún acontece en muchos países que tienen serias deficiencias al respecto, hay avances significativos, aunque van en la línea dura del Gobierno norteamericano. Interesadamente se ha relacionado esta temática con la del "pirateo" (referido con mayor énfasis a las copias no autorizadas, plagio -más relacionado con el campo de los derechos de autor-), para estigmatizar aún más y justificar sus draconianas acciones, de ahí que se asocie a los crackers con Hackers y éstos con "piratas", por si fuera poco en algunas legislaciones, como la británica, el trato es similar a los TERRORISTAS; y para coronar la cereza en el pastel, a raíz de los acontecimientos 24 25

GIRONDA, Eusebio. Teoría del Estado. Ed. Edobol, La Paz 2002. GIRONDA, Eusebio. Sociedad, Estado y Globalización. Ed. Druck, La Paz 2000

24 de 69


del 11 de septiembre, se ha endurecido el trato y , la vigilancia, por encima de las normativas legales, “aprovechando“ la emergencia y la solidaridad con el dolor de las víctimas de ese atentado. Afortunadamente, aún en esta realidad, la mayor parte de las legislaciones en nuestros países garantizan derechos elementales como el de expresión, el derecho a la privacidad. Dada su constitución y desarrollo, Internet tiene también como algo inherente a su desarrollo y constitución amplias libertades, que muchas veces asusta a quienes están acostumbrados a limitar y censurar todo, ya, afortunadamente, la Corte Suprema de Justicia de Estados Unidos ha fallado en contra de algunos de estos intentos, ¿hasta cuando?. Falta saber. En Bolivia, la Constitución Política del Estado en su Art. 7o garantiza a todas las personas, derechos fundamentales, como el derecho: “b) a emitir libremente sus ideas y opiniones, por cualquier medio de difusión “ (conc. 15, 112 inc. 4o). En este mismo sentido, la Constitución Política de los Estados Unidos Mexicanos, por ejemplo, dice al respecto: "Es inviolable la libertad de escribir y publicar escritos sobre cualquier materia. Ninguna ley ni autoridad puede establecer previa censura, ni exigir fianza a los autores...". Pero existen muchos vacíos en lo concerniente a la normatividad específica, de temas cruciales y nuevos:           

La Propiedad intelectual de obras informáticas; El resguardo de los derechos de autor de obras informáticas; La regulación de los derechos de autor sobre obras informáticas; La protección del consumidor de obras informáticas; La protección del libre comercio del software y de la Data26; La regulación y el resguardo del Software Libre La preservación de la data y de sus medios de transmisión como las telecomunicaciones, La incorporación de la institución del Habeas Data en la Constitución; El resguardo al procesamiento y recuperación de Data de intercepciones de índole delictiva; La penalización de la distribución ilegal de obras de informática, bases de datos y Data en general; El resguardo de otros bienes jurídicos ante la insurgencia de nuevas tipologías y metodologías de delitos basadas en el uso de elementos y medios informáticos.

Podemos afirmar que, por ejemplo, en nuestro país, recién en marzo de 1997, se incorpora en el Código Penal el: Capitulo XI DELITOS INFORMATICOS. ART. 363 bis (Manipulación Informática).- El que con la intención de obtener un beneficio indebido para si o un tercero, manipule un procesamiento o transferencia de datos informáticos que conduzca a un resultado incorrecto o evite un proceso tal cuyo resultado habría sido correcto, ocasionando de esta manera una transferencia patrimonial en perjuicio de tercero, será sancionado con reclusión de uno a cinco años y con multa de sesenta a doscientos días. ART. 363 ter (Alteración, acceso y uso indebido de datos informáticos).- El que sin estar autorizado se apodere, acceda, utilice, modifique, suprima o inutilice datos almacenados en una computadora o en cualquier soporte informático, ocasionando perjuicio al titular de la información, será sancionado con prestación de trabajo hasta un año o multa hasta 26

DATA, conjunto de Datos, almacenados sistemáticamente, elemento central de información, su valor agregado es el conocimiento.

25 de 69


doscientos días. De tal manera, en nuestro país y en esta línea, las más importantes acciones y réditos, han estado orientadas al cobro de Licencias por el uso del software, la BSA (cuatro empresas de software asociadas, en el marco de Convenios y Tratados internacionales) encarna la empresa responsable de “luchar contra el pirateo” en el ámbito internacional y cobrar a los usuarios “delincuentes” los pagos por el uso de sus productos; en una primera fase actuaron duramente contra las empresas que utilizaban “software pirata”, y obtuvieron relativo éxito, aunque ello fue gracias a la intervención del gobierno de turno. Luego de estas acciones dirigidas a los sectores empresariales, actualmente ya van en una segunda fase orientada a exigir al usuario común un certificado del uso de Software con Licencia, conocido en el país como COA27. Las posteriores acciones obviamente son las de esperar, el Upgrade eterno, pero como se dice comúnmente “al que quiere celeste que le cueste”. Finalmente, en nuestra legislación, el DS No 24582 que versa sobre el REGLAMENTO DEL SOPORTE LOGICO O SOFTWARE, fue aprobado el 25 de abril de 1997, como consecuencia de lo determinado por la Ley 1322 de Derecho de Autor, de 13 de abril de 1992, en su Art. 6o inc l), se convierte en uno de los pocos instrumentos específicos y concretos sobre esta materia, se aplica a la mayoría de las relaciones jurídicas y el software (programas de computación), aunque todavía no sea algo acabado.

2. ACCIONES Y “LEGISLACIÓN” ANTIHACK En este ámbito, una de las primeras acciones concretas del gobierno norteamericano se dio ya en 1986, ante varios "cracks" de los sistemas por "crackeo" de seguridad, efectuados contra instituciones estatales, el Congreso de los EEUU emite una ley, "The Federal Computer Fraud and Abuse Act." Producto de la cual Robert Morris que cuelga 6000 computadoras en red, es arrestado y sancionado bajo esta normativa en el año1988. Complementariamente, ese mismo año, 1988, DARPA crea el CERT, que es un equipo de respuesta a emergencias de computación, pero no es punitivo, solo orienta y recomienda ciertos procedimientos para evitar los ataques, proporciona soluciones, informa y coordina estos, además se asegura que quienes hagan denuncias sobre ataques e intrusiones a sus sistemas puedan documentar de la mejor manera éste, y puedan hacer que la justicia los penalice adecuadamente, evitando errores en las diligencias policiales. Arrestos como el de Morris y otros que van desde simples accesos no autorizados hasta de beneficio económico, generan que el término Hacker se asocie, interesadamente con el de "cracker", o peor con el de cybercriminal, y se actue en consecuencia al tratarlos como criminales. En este mismo sentido, la actitud prejuiciosa, y los intentos de limitar los derechos (y subrepticiamente el acceso a las Tecnologías), por transnacionales y los propios estados, se pueden ver ilustrados al analizar la entrevista que hace JAVIER CANDEIRA28 a Eric Corley (un Hacker, periodista y cineasta, más conocido como EMMANUEL GOLDSTEIN29) en su artículo «Las leyes de Copyright favorecen a las grandes compañías y perjudican a los ciudadanos»: 27 COA, certificado de autenticidad del producto, por sus siglas en ingles. 28CANDEIRA, Javier. Diario del Navegante, especial para elmundo.es 29 GOLDSTEIN, Emmanuel, Director de la Revista Digital 2600, http://www.2600.com 26 de 69


 

DN (Diario del Navegante): Usted es un adversario declarado del Digital Millenium Copyright Act30 (DMCA),¿Por qué esa postura contraria? EG (Emmanuel Goldstein): Esa ley forma parte de una peligrosa tendencia en la legislación norteamericana actual: las grandes corporaciones reciben tratamiento preferente, mientras que los derechos del individuo se ven cada vez más erosionados. Es una situación contra la que todos deberíamos declararnos en contra, pero mucha gente ni siquiera entiende que sus derechos están siendo pisoteados. Es una tendencia muy familiar, ha pasado antes, pero en este caso las corporaciones están comprando la ley sobre derechos que los ciudadanos no saben claramente que son suyos”. Estas tendencias son tan peligrosas, que van a limitar, incluso, nuestros más personales comportamientos y deseos, sigamos: DN: Y el código DeCSS31 (Decoder Content Scramblins System) es, además, un programa que en principio sirve para ver en un sistema Linux una película que uno ha comprado; no parece que esto sea un delito. EG : La idea del programa es que puedes ver un DVD que has comprado en una plataforma distinta, que es Linux. Esto es un derecho que uno tiene, si a alguien se le ocurre un sistema para ver DVDs en su tostadora, tiene derecho a hacerlo, para eso compró la película, para verla. Pero la MPAA32 (Motion Picture Association of America), la industria cinematográfica quiere tener el control de dónde y cuándo puede ver uno las películas que compra. Es un asunto de control corporativo contra derechos individuales”.

El más afectado, además de él mismo, en este tema que trata GOLDSTEIN , fue un joven Hacker de 15 años, Jon Johansen, creador del DeCSS, requisaron su domicilio, confiscaron sus computadoras y celular, estuvo detenido brevemente. Esta acción fue propiciada por la industria cinematográfica (MPAA), la misma que confrontó problemas al momento de fundamentar jurídicamente sus acusaciones, “Finalmente recurrieron a una interpretación nunca probada ante un tribunal de 2 leyes noruegas. Debemos recordar que en Noruega, donde se programó DeCSS, no es ilegal la ingeniería inversa cuando tenga por objeto la interoperabilidad. Recientemente el Parlamento noruego ha pedido formalmente disculpas a Johansen por el trato recibido, y el gobierno le ha concedido un premio por su aportación a la sociedad al crear el DeCSS”33. Lo que esta en cuestión aquí es el derecho del consumidor al "uso justo", derecho básico del consumidor establecido en la convención de Berna, Suiza, sobre copyright. Cualquiera tiene derecho a hacer copias de seguridad o copias en cualquier otro medio de películas o música que ha comprado, siempre y cuando estas copias sean sólo para uso particular, en razón a diversas circunstancias, como deterioro o mala manipulación. Es más copiar DVDs actualmente se hace inviable económicamente, pero aún así, reivindicamos el derecho a hacerlo. La MPAA pretende determinar que aún después de haberlo comprado, el usuario no es dueño de lo que compra, con el argumento de considerar al DVD un "programa de computadora", y quiere obligar a reproducirlo sólo en sistemas propietarios como Guindous y MacOS, además de limitar este uso a regiones como Europa, EEUU, Australia, etc.. Por si fuera poco La DVD CCA (DVD 30 31 32 33

Digital Millenium Copyright Act, Ley norteamericana de copyright sobre información digital. Ha quedado definitivamente claro en los Tribunales de Nueva York, que DeCSS no esta relacionado con la pirateria de DVDs, sino para romper la encriptación CSS del DVD, que protege la reproducción (en otro sistema operativo), también elimina el control mediante códigos regionales que evita que se pueda ver en Europa una película comprada en EEUU. La MPAA se lanzó a demandar a todo sitio y/o personas que almacenaban una copia de DeCSS o incluso que ponía un enlace a un mirror con el código, aún a sabiendas que la demanda no prosperaría, en caso de llegar a los tribunales, la mayoría quito los enlaces para evitarse problemas y gastos. Goldstein, su revista 2600, mantuvo el enlace. VALDEZ, Dardo A., Planeta Linux 03/03/2002

27 de 69


Copy Control Association) tiene especificaciones de sus reproductores de DVD totalmente cerradas y aún los fabricantes requieren una autorización especifica. Todo es limitación, control, abuso, pero sobre todo, nuevamente, violación de los derechos ciudadanos. Por otra parte es de destacar el análisis de Melisa Tuya: "el miedo siempre acaba generando dinero en concepto de protección. Sin querer insinuar que las empresas que se lucran proporcionando seguridad informática estén actuando como los gángsters de los años 30 (que vendían seguridad contra ataques a los negocios, N.A.), lo que es incuestionable es que se están viendo beneficiados por la concepción generalizada que se tiene de la Red como un mundo poblado por maliciosos y superdotados crackers dispuestos a robar y romper lo que haga falta"34. Así, el miedo recurrente, facilitado por los magnificados y distorsionados ataques, las necesidades y apetito de jugosas ganancias que esto significa para empresas del sector, como ya mencionamos, y por si fuera poco están también las constantes colgadas, los molestos virus, la impotencia ante la imposibilidad de una fácil intromisión en las comunicaciones de personas capacitadas, y por si fuera poco, los ataques del 11 de septiembre, han generado actitudes "defensivistas" como las adoptadas en el tema de la seguridad informática, por parte del FBI y su Gobierno. El FBI, su unidad especializada, el NIPC (National Infraestructure Protection Center) con un presupuesto anual de 27 millones de dólares, acusado de incompetencia en varios asuntos, uno de los más sonados fue el caso del terrorista Timothy McVeigh; se vio envuelto en un otro escándalo a raíz de que uno de sus "consultores de seguridad", es el ex director de la KGB rusa. Para reorientar sus actividades, y mejorar su imagen, en el campo de la "cyberprotección", ha logrado un financiamiento de 8,6 millones de dólares para becar a estudiantes informáticos, y emplearlos como "cyberpolicías". Esta práctica del Gobierno y de las empresas, de reclutar Hackers para ejercer de consultores, o de “sheriff's”, no es algo nuevo; los mejores cazarecompensas del “Far West” siempre fueron los pistoleros reconvertidos, tal es el caso de Mudge, que a iniciativa del expresidente Bill Clinton, coopera en un centro de "seguridad cibernética", con un financiamiento inicial de 9 millones de dólares, destinado a estudiar las prácticas, tácticas, formas de comunicación y todo sobre los Hackers. Esto a raíz de que en una entrevista en el sitio de Internet de CNN, durante la conversación su respuesta fue cambiada a "me gustaría ver más pornografía en Internet". "Por lo pronto se dice que el monitoreo propuesto por Clinton no pretende crear mecanismos de censura. La manutención de la libertad irrestricta de la expresión, es una de las mayores conquistas del mundo.com”35. ¿Mr. Doble V, opinará lo mismo?, el tiempo lo dirá. Estos ya son extremos que han posibilitado los comerciantes de la industria de la "seguridad", que han acuñado el termino cybercrimen para reunir en una misma bolsa delitos muy heterogéneos que va desde fraude por correo hasta apropiación de la propiedad intelectual. Los nuevos negocios, los más lucrativos, avanzan en el mismo sentido, heterogéneo y revuelto, como el de la "seguridad" del filtrado de contenidos, que según estimaciones confiables de IDC facturará alrededor de 646 millones de dólares para el año 2005, y que esta orientado a la "protección" de la infancia de los “pervertidores” de Internet, pero que curiosamente es realmente utilizado por las empresas para controlar el acceso de sus empleados a Internet. Por otra parte “Yankee Group” informa que el negocio de "protección" en Internet va subiendo vertiginosamente de unos 140 millones de dólares el 2000 a 1.700 millones previstos para el 2005. 34 35

TUYA, Melisa. Los cybercriminales y el próspero negocio de la protección. 31 de mayo del /2001 Revista "Mundo Digital". La Paz, 2000

28 de 69


De todas maneras, las cosas así presentadas, hacen que los Hackers, crackers, script kiddies, etc. revueltos en una misma bolsa, sean tratados peor que delincuentes. En china fueron sentenciados a muerte varios, y las legislaciones de muchos países tienen penalidades draconianas para con ellos, de tal manera, por ejemplo, que "Los intrusos informáticos ya cuentan en el Reino Unido con una nueva calificación: TERRORISTAS. Bajo el decreto sobre terrorismo del año 2000, en vigencia a partir del (26/02/2002 NA), aquellos que pongan la vida ajena en peligro mediante la manipulación de sistemas informáticos serán castigados bajo las mismas leyes que cualquier terrorista" y acotan "No existe una sección específica que trate sobre delito informático como tal, sino que resulta cubierto por las distintas secciones, pero cualquiera que interfiera o perturbe gravemente un sistema electrónico será procesado de acuerdo a las mismas leyes", dijeron en la oficina de Asuntos Domésticos36. También es de considerar la denuncia de Vlad a raíz de la publicación el día 17 de Mayo de 1999 en el Diario Oficial Mexicano, de legislación sobre el: Acceso ilícito a sistemas y equipos de informática: "Al parecer el Gobierno se esta cansando de que sus servidores sean continuamente hackeados y para no verse tan obvios decidieron legislar para particulares, sistema financiero y el mismo Estado. A ̈ qué le tiene miedo el Estado?, a que un día alguno de nosotros encuentre información que les perjudique si se divulga?, que se encuentre información que lleve a fondos mal empleados?, a que se sepa que algunos de ellos goza gastando fondos en visitar sitios pornos?. El movimiento Hack en México ha ido en incremento en una forma considerable y una forma de frenarlo es legislando al respecto, diseñando leyes con la esperanza de que algún día caiga alguien y ponerlo de ejemplo para los demás Hackers. Ahora es tiempo de andarse con mas cuidado, hacer no solo uso del proxy sino un abuso del proxy. Y que este tipo de leyes pendejas no frenen el movimiento Hack en México"37. Por otra parte, coordinando su cruzada “anticybercrimen”, la Comunidad Europea CE y los EEUU, a través de una Comisión integrada por sus expertos ha creado el “Tratado Internacional del Cybercrimen” que trata de armonizar las legislaciones de los diferentes países miembros o adscritos, en lo relativo esencialmente a:  La actividad criminal electrónica  La cooperación policial entre países  Los procedimientos judiciales que regirán tanto en Europa y Estados Unidos. Interesadamente, porque ingenuos no son, mezclan las tipificaciones de delitos informáticos, con la producción, distribución y posesión de pornografía infantil, que como sabemos no puede producirse en Internet, ¡no se originan ahí!. Una prueba de fuego para los países miembros, su apego a la ley y los derechos ciudadanos, se presentará al momento de elegir entre: a) Adecuar las figuras delictivas a su legislación, para que de darse las conductas típificadas no sean automáticamente consideradas delictuosas, además que deba añadirse los elementos de prueba que cada economía jurídica contemple. b) Adoptar como ley directamente aplicable cada delito del Tratado, con lo que sin más, están habilitados inmediatamente para perseguir judicialmente a los cybercriminales. 36 37

CNN, La Razón 25 de febrero de 2001 v14d@usa.net

29 de 69


Las prácticas sancionadas como cybercrímenes son esencialmente: alterar, falsificar y eliminar datos electrónicos ajenos e interceptar comunicaciones privadas. Obviamente no se hizo esto pensando en las prácticas de UKUSA o en las confesiones del ex-director de la CIA, James Wolsey. Las facultades conferidas a los países miembros, son: promover la aprobación de leyes que permitan a las agencias gubernamentales patrullar la Red sin limitación alguna, aunque para ello deban imponer a los ISPs y gestores de la Red, rompiendo normativas legales como la de requerir para ello orden judicial expresa, el acceso a toda la información almacenada, incluidos los datos personales de los presuntos delincuentes, y las claves de cifrado. Aquí es preciso recordar el problema de PGP y Phil Zimmermann en el tema de prohibiciones de programas de encriptación que veremos más adelante. La propuesta de la Unión Europea y los expertos estadounidenses "determina que todo lo relacionado con Internet, dado que este no tiene límites, es competencia directa de las autoridades federales y no de las locales. O lo que es lo mismo, le firma un cheque en blanco a agencias como el FBI estadounidense para husmear en las esquinas que le venga en gana. A ponerse a temblar toca..."38 Y toca, porque a fines de mayo del 2002, producto de pedidos del gobierno estadounidense –con la excusa del 11 de septiembre- la CE ha cambiado la normativa relativa a las telecomunicaciones: “ El cambio habilita a los 15 estados miembros a adoptar leyes nacionales que exijan a las empresas telefónicas y proveedoras de servicios Internet registrar y retener información sobre llamadas telefónicas, mensajes de correo electrónico, facsímiles, y conexiones a Internet de sus clientes, y brindarle acceso a esa información a los organismos de seguridad. El gobierno británico reaccionó rápidamente y esta semana envió al Parlamento un proyecto de ley que pondría ese tipo de información personal, sin orden judicial, a disposición no sólo de la policía y otros servicios de seguridad –que ya cuentan con amplios poderes de investigación-, sino también de numerosos organismos nacionales y locales”39. Ahora que ya vimos las acciones, la "legislación" antihack, y el miedo recurrente que las alimenta, pasemos a analizar las poco ortodoxas, por decir lo menos, acciones de los estados, que en nombre de la seguridad interna, seguridad nacional, o del mundo libre, violan elementales derechos del individuo y de los pueblos.

3. EL FIN DE LA INTIMIDAD: ATENTADOS A LOS DERECHOS, LIBERTADES Y SEGURIDAD "... en los años venideros los estados-nación lucharan por controlar la circulación de la información en las redes de telecomunicaciones interconectadas a escala global. En mi opinión es una batalla perdida y, con su derrota final llegará la pérdida de una piedra angular del poder estatal" El derecho a la intimidad como parte de los Derechos Humanos, de los derechos del ciudadano, en una época como la presente, tiene tal importancia, que es el centro de las nuevas luchas en defensa 38 39

Melisa Tuya BIRD, Maryann. Una cuestión de privacidad. TIME Magazine, AOL Américas. Junio 23/2002

30 de 69


de la información inherente a la privacidad de las personas ante la sistematización y almacenamiento de las mismas en archivos y BASES DE DATOS, facilitando su explotación indiscriminada con fines, "posiblemente" atentatorios de derechos como el del trabajo, la ideología, el sexo, la religión, etc. pues un simple cruce de Bases de Datos de instituciones como Impuestos internos, que tiene mucha información sobre la economía personal y profesional de los ciudadanos. a través de las declaraciones que se hacen mensualmente tanto de personas como instituciones; el Seguro de salud; Policía en especial Tránsito; la Banca; Derechos Reales, etc., puede fácilmente generar un perfil que restrinja, el derecho de los individuos, o grupos, de forma más efectiva que el que hacían los organismos de represión en épocas dictatoriales. Esta posibilidad/realidad hizo que ya el 7 de abril de 1970 el Estado alemán de Hesse promulgara la "Ley de protección de datos” (Datenshutz); y tres años mas tarde, el 11 de mayo de 1973, Suecia emita la "Ley de datos” (Data Lag). En esta misma tendencia, el 31 de diciembre de 1974, el gobierno federal de los EEUU emite la "Privacy Act" (Ley de Privacidad). En 1977 es puesta en vigencia la “Ley de protección de datos” alemana. Y en Inglaterra el año 1984 se emite la "Ley de protección de datos” (Data protection Act). La contextualización de la preocupación por la defensa del derecho a la intimidad en un mundo cada vez mas informativizado, ha llevado que Leyes, pioneras, como las arriba mencionadas, hayan generado nuevos conceptos en la economía jurídica mundial, como el de "HABEAS DATA", que es una institución similar al "Habeas Corpus", pero destinada a proteger la información personal, la información confidencial, la intimidad de cada persona. Esta garantía constitucional se la ha definido como los derechos que tiene la persona para pedir judicialmente que se le muestre la información que le concierna y que esté en registros públicos o privados, para diversos fines como el de preservar su exactitud, o en su caso eliminar de la misma aquellos datos no trascendentes para el objetivo de los registros y que pudiera generar, potencialmente, un atentado discriminatorio a sus intereses. En Latinoamérica las pioneras son la Constitución del Brasil que incorpora el Habeas Data, al igual que la Constitución de 1993 del Perú. Ecuador en 1998 y la Argentina en el 2000. En el caso boliviano, por Ley Nº 2631, 20 de febrero de 2004: Artículo 23º I. Toda persona que creyere estar indebida o ilegalmente impedido de conocer objetar u obtener la eliminación o rectificación de los datos registrados por cualquier medio físico, electrónico, magnético, informático en archivos o bancos, de datos públicos o privados que afecten su derechofundamental a la intimidad y privacidad personal y familiar, a su imagen, honra y reputación reconocidos en esta Constitución, podrá interponer el recurso de Habeas Data ante la Corte Superior del Distrito o ante cualquier Juez de Partido a elección suya. II. Si el Tribunal o Juez competente declara procedente el recurso, ordenará la revelación, eliminación o rectificación de los datos personales cuyo registro fue impugnado. En virtud a la inexistencia de leyes específicas, genéricamente se hace extensiones y aplicaciones también genéricas y hasta interpretativas de la legislación existente, como por ejemplo en nuestro país, la ya “común” violación de correspondencia se "remitiría" en el Código Penal a los art. 300 y 301. Y en el Código Civil en sus Arts. 18, 19 y 20, pues tratan del derecho a la intimidad, la inviolabilidad de las comunicaciones y correspondencia, conocida como el documento físico; mientras que el email (correo electrónico) es intangible. Obviamente haciendo esfuerzos, puede 31 de 69


hacerse extensivo a las nuevas figuras jurídicas y la nueva realidad. La columna vertebral de las TICs son las telecomunicaciones, y en nuestro país, la ley 1632 de Telecomunicaciones, de 5 de julio de1995, en su art. 37 dice: "Los servicios de Telecomunicaciones son declarados de utilidad pública. Salvo disposición judicial a favor de autoridad competente, queda terminantemente, queda terminantemente prohibido interceptar, interferir, obstruir, alterar, desviar publicar o divulgar el contenido de las telecomunicaciones", Aquí, lo típico de los famosos "huecos", por los cuales se escurre la Ley: el SALVO viola el Art. 20 de la Constitución Política del Estado, que en su segundo párrafo a la letra dice “Ni la autoridad pública, ni persona u organismo alguno podrán interceptar conversaciones y comunicaciones privadas mediante instalación que las controle o centralice”. (conc. 7o inc. b), con lo cual denota el verdadero carácter y origen de su faccionamiento. Finalmente las normativas mencionadas son un resumen de las varias que existen, en especial del sector de telecomunicaciones, pero es de remarcar también que son insuficientes para efectos claros de aplicabilidad, cobertura y protección, también, de los derechos del ciudadano, en especial su intimidad; en general se hace preciso analizar, encauzar (en lo óptimo), todo el marco jurídico regulatorio, pero esa es otra historia. Aunque la lucha por los derechos ciudadanos, en especial la privacidad, no es reciente, hay muchas personas e instituciones que se han ido encargando de su defensa en todo el mundo, en distintas formas, con diversos enfoques, podemos citar a las siguientes organizaciones, no únicas, pero sí las mas difundidas. Especial mención nos merece la revista digital del hacker Emmanuel Goldstein (www.2600.com): CLI, Comisión de Libertades e Informática, creada en 1990 Privacy International (www.privacy.org) CPSR, Computer Profesional for social Responsability (www.cpsr.org) EPIC, Electronic Privacy Information Center (www.epic.org) Censura en USA (www.ati.es). Las TICs han impactado fuertemente sobre el poder político. El desarrollo de los sistemas de comunicación basados en la informática desafían a reconstruir las nociones fundamentales del poder. El Estado se ha descentralizado y el poder es cada vez más disperso, reflejado en la configuración de los estado-ciudad; de ahí que los servicios de inteligencia estén obligados a colaborar entre distintos servicios nacionales de seguridad e inteligencia, al peor estilo "Plan Cóndor"40, para supervisar el nuevo orden internacional. Whitakeer41 analiza los parámetros cambiantes del poder bajo el impacto de una evolución tecnológica sostenida, y prevé algunas de sus consecuencias. Por todo esto, como no podía ser de otra manera, las TICs, sus aplicaciones en la "seguridad" y "vigilancia" están transformando rápidamente la naturaleza de los peligros que acechan al derecho a la intimidad de las personas. En esta senda, el caso más sonado, ha sido un proyecto (de los varios que existen), denunciado por el periodista Duncan Campbell y publicado en "Prensa Latina" en junio del 2000, que informó sobre un sistema de espionaje llamado "UKUSA" (Tramar un permiso legal para husmear) de Gran Bretaña y USA, cuyo proyecto conocido como "Echelon" con una flota de 120 satélites se dedica a objetivos no militares de gobiernos, organizaciones y empresas de prácticamente todo el mundo, y 40 41

Plan Condor, de colaboración entre los aparatos represivos de las dictaduras latinoamericanas de la década del 70 WHITAKER, Reg, El fin de la privacidad. Cómo la vigilancia total se está convirtiendo en realidad. Paidós, España 2000.

32 de 69


esta manejado por la Agencia de Seguridad Nacional de los EEUU (NSA). Varias estaciones, entre ellas "Menwith" usan medios de inteligencia artificial como "Memex" que detecta y cierne palabras clave y sólo extrae lo que tenga valor, tanto en comunicaciones telefónicas, telex, fax, correo y modernamente ampliaron su capacidad con la creación de Intelsat, mucho mas en Internet. Tienen una monumental capacidad de monitoreo aún en comunicaciones personales, industriales y comerciales, habiendo llegado, en el colmo, hasta el espionaje al Papa Juan Pablo II, hecho denunciado por el diario británico "Sunday Times" y radicado e investigado por la Procuraduría de Roma desde marzo de ese año, asimismo, para rematar, la NSA muy suelta de cuerpo afirmó que: "las telecomunicaciones de Sudamérica son presa fácil". El proyecto “Echelon” se inició realmente en 1948, los aliados triunfantes, con toda la experiencia de la II guerra mundial, crearon UKUSA para interceptar comunicaciones secretas de radio; en esta idea se trabajo y desarrollo varios sistemas, donde las innovaciones tecnológicas fueron apropiadas e implementadas para superar sus sistemas; pero no es hasta 1984 que se conoce este proyecto, gracias a la denuncia de Campbell. Pese a esta denuncia, en 1995 el gobierno federal de EEUU intentó el uso del "Clipper chip", que es un dispositivo de cifrado para poder controlar el flujo de transmisiones encriptadas en las redes digitales de telecomunicaciones, que son los nuevos medios de comunicaciones a controlar. A principios del nuevo milenio, la guerra de las Balcanes propició el marco para la creación de ENFOPOL, descendiente natural de “Echelon”, un sistema de espionaje para "pinchar" Internet, (en esencia para contrarrestar la guerra que iban perdiendo en Internet a manos de Hackers Serbios y Rusos); ENFOPOL, es capaz de interceptar todas las tramas de Internet, y bajo un sistema de inteligencia artificial (similar al de “Echelon”, descrito líneas arriba) filtrar la información deseada. Ahora bien la tecnología y métodos del espionaje, en sus inicios, se asentaron básicamente en métodos de interceptación de comunicaciones radiales, independientemente de su ancho de banda; luego las nuevas tecnologías aportaron con poderosísimas cámaras de vídeo y lentes ópticos con una nitidez asombrosa (se dice que se puede ver la cabeza de un clavo) que facilitan el espionaje desde los satélites; asimismo Internet no se libra de las interceptaciones, ni mucho menos la telefonía celular. Todas estas intervenciones son enviadas a centros de control y filtrado, donde se obtiene información útil para ser explotada con fines nada claros. En esta realidad, la única, y a saber una de las últimas, formas de mantener la privacidad de las personas en Internet es el cifrado con programas como PGP, GPG (GNU Privacy Guard), OpenPGP y otros que evitan se vea su contenido al pasar por la telaraña de la red, o del acceso no autorizado y a veces directo que hacen algunos estados a la información que consideran afecta a sus intereses. Es por ello que por ejemplo Phil Zimmerman el creador de PGP42 recibe muchas felicitaciones de distintas partes del mundo, en especial de Instituciones de defensa de los Derechos Humanos. Esto de todas maneras tampoco es una garantía ya que sistemas de espionaje como TEMPEST, denunciado por Nicky Hagar43, que aprovecha la radiación electromagnética de la pantalla del monitor para interceptar (ver) en el momento que, por ejemplo, se escribe este libro. Para entender las constantes arremetidas contra la encriptación, el software libre y otros temas inherentes, sepa Usted que una normativa, como ITAR44 International Traffic in Arms Regulations , destinada a las Regulaciones sobre Tráfico Internacional de Armas, que se encarga de controlar la 42 43 44

Prety Guard Privacy, Sistema de encriptación de un solo sentido (one way). www.pgp.com HAGAR Nicky. Secret Power. EEUU 1996 Baje el texto completo comprimido como GNUzip, de ftp://ftp.cygnus.com/pub/export/itar.in.full.gz

33 de 69


exportación desde EEUU de municiones especiales, componentes de aviones militares, armas químicas y biológicas es también la encargada del control del SOFTWARE CRIPTOGRÁFICO; en la práctica, ITAR controla que los residentes en EEUU no deben exportar, por ejemplo, PGP, que de hecho está disponible en muchos sitios ftp de todo el mundo. Por esto controlar la exportación de software gratuito disponible así, parecería insulso, pero debe tenerse en cuenta que las penas por violación de ITAR son draconianas, van desde $us 1.000.000 de dólares de multa, hasta 10 años de cárcel por cada exportación. Existen paralelamente estrictos controles de exportación; por si fuera poco, muchos gobiernos extranjeros imponen serias penas contra quien use comunicaciones encriptadas en su país. En algunos países la pena es la muerte. En 1991 ante el Senado fue propuesta la ley 266 por el gobierno norteamericano. Esta ley “anticrimen” tenía un apartado que forzaba, a todo software de encriptación poseer una puerta trasera (back door). Ante lo cual, el creador de PGP Phil Zimmerman dijo: “El New York Times de 17 abril 1991 informa sobre una inquietante proposición del senado norteamericano que es parte de una ley contraterrorista. Si esta resolución no vinculante se convierte en ley, obligará a los fabricantes de equipos para comunicaciones seguras a insertar "puertas trampa" especiales en sus productos, con lo que el gobierno puede leer los mensajes cifrados de cualquier”. Concluye: "Es opinión del Congreso que los proveedores de servicios de comunicación electrónica y fabricantes de equipos para servicios de comunicaciones electrónicas se aseguren que los sistemas de comunicaciones permitan al gobierno obtener los contenidos en texto no cifrado de voz, datos y otras comunicaciones cuando esté apropiadamente autorizado por la ley."45. Afortunadamente esta propuesta de ley no llegó a convertirse en tal, que sepamos, aún. James Wolsey ex Director de la CIA confeso el montaje de una red de espionaje46 que proporcionaba información importante a las empresas norteamericanas para ser más competitivas ante sus pares extranjeras, lo que motivo una serie de reacciones y reclamos, pero que nada mas trae al tapete algo que ya conocemos. Otras actitudes contrarias y atentatorias contra los derechos de las personas serían largas de enumerar, concluyamos con la intención, en enero de 1996, del Ministerio de Tecnologías de la Información del gobierno Francés, de proporcionar a la Unión Europea una serie de medidas para prohibir el libre acceso a Internet (similares intentos se presentaron en EEUU, China y Alemania). Finalmente, las redes de espionaje, cuya finalidad supuestamente es la seguridad, antiguamente se dedicaban a la vigilancia especifica de aquellos sujetos sospechosos, pero en la actualidad han masificado sus acciones a todos los ciudadanos, pues no se escapa ni el Papa, con lo que a nombre de la seguridad nacional, el mundo libre, etc., se invade la privacidad y los derechos individuales de toda la sociedad, que es algo con lo que nadie puede estar de acuerdo. Sin embargo el 11 de septiembre ha puesto al descubierto que no es tan sencillo como aparenta controlar las comunicaciones actuales; lastimosamente, también han dado pie para acciones desproporcionadas, en nombre del “derecho a la defensa”, el resguardo mesiánico de la paz mundial (que no sabemos quién se los dio), y lo que es peor se “endurezcan” sus acciones para con los “cyberterroristas”, entre los que ya están, abusiva e ilegalmente, los Hackers, que era algo que buscaban siempre; por todo esto, no nos parece nada nuevo (menos increíble) las teorías de que altas autoridades de la inteligencia norteamericana habrían sabido, mucho antes, del ataque a las torres gemelas y no 45 46

Compilación y fichero original: Adam Back, Correo electrónico: aba@dcs.ex.ac.uk RevistaDoLinux. Fejos, sucios y malvados. 3er número www.revistadolinux.com.br.

34 de 69


hicieron nada. Lastimosamente la nueva legislación de la Unión Europea sobre telecomunicaciones, que ya mencionamos, es producto directo de esto; “Mientras se caldean los ánimos los cientos de millones de usuarios de teléfono y cuentas de correo electrónico en Europa podrán consolarse con su gran cantidad y las decenas de millones de euros que costaría una vigilancia mayor. Harald Summa, director del Foro de Comercio Electrónico, de Alemania observo que “los investigadores se quedaran aplastados bajo toda esa información chatarra”. Lo mismo podría ocurrir con el derecho a la privacidad, una víctima más de la “guerra contra el terrorismo”.”47.

4. Y LOS DERECHOS HUMANOS, ¿QUÉ? Artículo 19.- Nadie será objeto de injerencias arbitrarias a su vida privada, su familia, su domicilio o su correspondencia, ni de ataques a su honra o a su reputación. Toda persona tiene derecho a la protección de la ley contra tales ataques o injerencias48. La Resolución de la Asamblea General de la ONU, de 10 de diciembre de 1948, más conocido como la Declaración Universal de Derechos Humanos, dice esencialmente: “La Asamblea General Proclama la presente Declaración Universal de Derechos Humanos como ideal común por el que todos los pueblos y naciones deben esforzarse, a fin de que tanto los individuos como las instituciones, inspirándose constantemente en ella, promuevan mediante la enseñanza y la educación, el respeto a estos derechos y libertades, y aseguren por medidas progresivas de carácter nacional e internacional, su reconocimiento y aplicación universales y efectivos”49. Actualmente existe una resolución más actualizada de la propia Asamblea General de Naciones Unidas, que se trata de un anexo importante en esta temática, que la Declaración de 1948, se titula “Declaración sobre el derecho y el deber de los individuos, los grupos y las instituciones de promover y proteger los derechos humanos y las libertades fundamentales universalmente reconocidos”, y trata sobre el derecho de protección de los Derechos Humanos y su consecuente observancia. La cuestión es que sería viable la elaboración de leyes a sabiendas que vulneran ciertos derechos elementales de los individuos, como el último de la Unión Europea sobre telecomunicaciones. Paralelamente, como se prevería el autoritarismo (cuando no, totalitarismo) de ciertos Estados, para evitar que estos monopolicen el conocimiento y, aprovechen el valor agregado del mismo: la información. La trama de películas como “La red”, “El final de la violencia” y “Enemigo público”, son una muestra palpable de que la problemática relacionada con la transgresión de los códigos privados, puede dejar de ser solamente una ficción novelesca y volverse una cruda realidad. Propuestas, de las varias intentonas, hechas por el Departamento de Justicia de EEUU, que presentó un proyecto de ley que, “permitiría que agentes policiales penetren en secreto en casas y oficinas de individuos sospechosos para buscar en sus computadoras claves de acceso o aplicaciones de criptografía que permitan consultar archivos con información de índole presuntamente delictiva. Igualmente, los investigadores podrían instalar en las computadoras intervenidas, dispositivos para inhabilitar programas de encriptación”50, muestran la tendencia y línea dura que quiere imponer el 47 48 49 50

BIRD, Maryann. Una cuestión de privacidad. TIME Magazine, AOL Américas. Junio 23/2002. Resolución de la Asamblea General de la ONU, de 10 de diciembre de 1948. Resolución de la Asamblea General de la ONU, de 10 de diciembre de 1948. SIMPOSIO LATINOAMERICANO Y DEL CARIBE: las tecnologías de información en la sociedad. Aguas Calientes, México, 1999 derechos

35 de 69


gobierno norteamericano, que como ya vimos tiene seguidores incondicionales, tal el caso de las nuevas normativas en tratamiento en el Parlamento Británico, fruto de las directrices de la Unión Europea, ya mencionadas. Como todo se vale, cuando de proteger el sistema se trata, actualmente el abanderado de la lucha antihack de los norteamericanos es un ex espía ruso, aunque se dice que en este negocio nunca se retira nadie. Él ha desarrollado y patentado un programa, llamado INVICTA, basado en un algoritmo capaz de enmascarar la dirección IP (variándola) en fracción de segundos. Victor Sheymov fue el responsable de la KGB en el sector códigos secretos y comunicaciones cifradas en todo el mundo. En plena "Guerra Fría" era el encargado de proteger las operaciones de los agentes de Moscú. Con la ayuda de la CIA escapó hace unos años a Occidente. "Sheymov fundó una compañía, la Invicta Networks, muy cercana al cuartel general en Maryland de la Agencia de Seguridad Nacional de los Estados Unidos NSA; y entre sus más cercanos colaboradores está James Wolsey, el ex jefe de la CIA (ya mencionado). Caído el Muro de Berlín, los viejos enemigos iniciaron una próspera sociedad en el cyberespacio"51. Con estos amigos, no se necesita enemigos; habrá que ver qué empresas confían su seguridad a estos funestos "personajes" del espionaje mundial.

51

humanos e informática Carlos Antonio de la Sierra Bo Carlsson B. Patricia Arévalo Pérez Grupo Brainware, S.A. de C.V. Carlsson y Asociados, S.A. de C.V. gbwpap@mail.internet.com.mx BRIDS, Ted. The wall Street Journal Online, 21 de mayo de 2001

36 de 69


CAPITULO IV LAS TICs Y EL DESARROLLO NACIONAL Protestar contra la globalización es ingenuo, bien utilizada, aprehendida, puede ser altamente positiva, lamentablemente al presente las pruebas apuntan en sentido negativo. (Umberto Eco) ¿Cómo empezar mi acusación?, ¿Cómo terminarla?, ¿Qué decir en medio? ... 52, Desde que podamos recordar, algunos “intelectuales” desde la comodidad de sus atalayas critican, denostan y acusan de "seguidismo", “snobismo”, de "autocontemplación" y hasta de "autogratificación", cuando se trata de hablar de temas como industrialización, desarrollo sostenible, medio ambiente, tecnificación del agro, etc.; pero sobre todo cuando se trata de CIENCIA y TECNOLOGIA enfocados a las tareas de Desarrollo nacional; en el otro extremo, algunos otros los santifican y lucran con su comercio y jugosas comisiones, creando los enormes elefantes blancos que conocemos. Buscando un punto de equilibrio, partamos de un criterio de Octavio Paz que decía: "no se si la modernidad es una bendición, una maldición o las dos cosas, sé que es un destino, si un país quiere ser tal, deberá ser moderno", lo cual se hace descarnadamente cierto en este mundo altamente tecnificado, globalizado, hipercomunicado, en el que el motor de la nueva sociedad ha devenido en la información, cuyo valor agregado es su conversión en conocimiento, y el factor crucial del éxito es la: Innovación; esta nueva realidad deriva básicamente del desarrollo amplio y rápido de la ciencia y la tecnología, en especial de la informática, de cuya mano han llegado las ICT (TIC, Tecnologías de la información y las Comunicaciones) en sus diferentes formas y modalidades. Las TICs han transformado el mundo en sus formas de comunicarse, de hacer negocios y hasta de distraerse; se hace cada vez mas cotidiano el uso de las tecnologías, con un bajo costo de almacenamiento y transmisión de la información en sus diferentes formas y tipos; esto conlleva en sí tremendas innovaciones de tipo organizacional (las redes de trabajo, las jerarquías que se aplanan, los círculos de calidad); sociales (movimientos ecologistas, feministas, antiglobalizadores, la contracultura informática, etc.); y jurídicos (los nuevos derechos del individuo, los nuevos ámbitos de la justicia, el copyleft, la transparencia de las fronteras, la soberanía, la genética). De esta manera, la transformación en los órdenes económico y tecnológico están contextualizando una nueva sociedad, la sociedad red; con una economía informacionalizada y una peculiar cultura, la virtualidad real53 cuya base tecnológica es precisamente la red de redes: Internet. Se hace impostergable en este contexto, pasar de lo hecho, a lo posible, y este desafió-oportunidad exige una urgente deconstrucción y reconstrucción histórico-social y política, un nuevo paradigma y mentalidad sin remilgos hacia la modernización de las estructuras sociales a todo nivel, pero sobre todo de sus formas de relacionamiento y hasta de lucha. Se hace imprescindible una actitud y una acción nueva e innovadora frente a la coyuntura, camino que ya han andado movimientos constitutivos como el de los Hackers, contracultura libertaria y hasta utópica, continuidad histórica de los movimientos de los 60's, que ha sido parte decisiva en la construcción de un nuevo canal de expresión para los excluidos de la historia oficial; un medio de comunicación alternativo, amplio y 52 53

ESQUILO, Electra. Tragedia griega. CASTELLS, Manuel.. Sociedad Red. ........

37 de 69


libre: Internet, muy diferente a los deseos de la cultura "oficial". De manera similar, otro de los movimientos populares en utilizar Internet como instrumento de lucha, que le permitió organizarse, difundirse, consolidarse, pero sobre todo poder concientizar a la sociedad sobre su lucha, fue el de la guerrilla Zapatista: "Queremos la oportunidad de ser innecesarios" decía el Sub Marcos, y ese mensaje, el de una guerrilla para lograr la paz, cuyos fusiles llevan una banderilla blanca (el símbolo de paz) -que quiere desaparecer, como apareció, de madrugada y anónima- de ahí el pasamontañas cubriendo el rostro, fue escuchado en todos los confines del planeta. Y ni que decir del movimiento antiglobalización cuya existencia y poder de convocatoria, sólo se explica por medio de Internet, o el gobierno iraquí que lo uso para suplir sus deficiencias en comunicaciones altamente deterioradas por los bombardeos, en la guerra del golfo.

1. INTERNET, LA TIC POR EXCELENCIA. Así, como ya dijimos, uno de los elementos centrales de las TICs es la tecnología de Internet, pues además de ser un medio de comunicación e interacción, que ha abierto nuevos canales de comunicación, es un medio de organización social en el que se basa una nueva forma de sociedad, la sociedad en red. Internet nació como producto de la interacción entre la ciencia (la investigación universitaria de élite), los programas de investigación militar de Estados Unidos, que constituyen primero DARPA y luego ARPANET; y una contracultura libertaria y contestataria, a las que años más tarde, se sumaría la cultura empresarial, en la década de los noventa, propiciando el salto entre Internet y la sociedad, bajo la influencia de un parlamentario demócrata, Al Gore, y el Presidente Bill Clinton. Este programa con financiamiento militar, nunca tuvo un uso militar real; sino que los científicos la utilizaron para hacer estudios informáticos y la creación de redes tecnológicas. La contracultura que buscaba en ello un instrumento de liberación y de autonomía respecto al Estado y a las grandes empresas, aportó significativamente al desarrollo de sus tecnologías, como ya explicamos en el capítulo "I". Esto denota hasta qué punto es un tipo nuevo de tecnología, especialmente, en su forma de organización. El que Internet sea libertario y un medio idóneo para la superación de la sociedad, dependerá de la acción política de sus usuarios, pues está en la tecnología, pero es porque esta tecnología ha sido diseñada, como explicamos, con esa intención, creado de forma conjunta, en equipos, por usuarios, círculos científicos e innovadores que querían construir un instrumento de comunicación libre. En este sentido, hay que tener presente que las tecnologías son producidas en un proceso histórico de constitución, y no simplemente son resultado de sus diseños originales. Es preciso remarcar por ello, que los productores de la tecnología de Internet no fueron otros que sus propios usuarios, como todos los que construyeron el software libre, en especial los Hackers, realizando un trabajo de modificación constante de aplicaciones y nuevos desarrollos tecnológicos, en un proceso de retroacción constante: liberando, probando, corrigiendo, y nuevamente liberando; permanentemente, lo que se constituye en la base del dinamismo y el desarrollo de las nuevas tecnologías. Técnicamente Internet se desarrolla a partir de una arquitectura informática abierta y de libre acceso desde el principio. Los protocolos TCP/IP, característicos de Internet, creados en 1973-78, se distribuyen gratuitamente y se tiene acceso libre a su fuente de código. Esto es la base de la capacidad de innovación tecnológica constante que se ha desarrollado en Internet. También el UNIX, es un código abierto que permitió el desarrollo de USENET News, la red alternativa de Internet, el world wide web (www) es abierto. Apache, que es el programa de 38 de 69


software que hoy en día maneja más de dos terceras partes de los servidores www del mundo, es también un programa de código abierto. Y tal es, “obviamente, el caso de Linux, aunque Linux es fundamentalmente para las máquinas UNIX a través de las cuales funciona Internet”54; que confluyen en la generación de la filosofía y la forma de desarrollo del Software Libre (acceso al código y distribución gratuitas). El amplio y variado uso de Internet se denota claramente en su exponencial crecimiento, pues si a comienzos del año 2001 había más de 400 millones de usuarios de Internet, fuentes fiables pronostican que para el año 2005, los usuarios estarán alrededor de 1.000 millones de usuarios y/o organizaciones conectadas, preveyéndose también que para el 2010 serán 2.000 millones, así Internet es hoy en día el medio de comunicación más utilizado y en boga abierto a todo el mundo, capaz de transmitir hipermedia: texto, sonido, información e imágenes a velocidades hasta hace poco inconcebibles. Tal es su demanda que ya esta lista (En GNU/Linux desde hace varios años) la nueva generación de numeración IP (v6), para sustituir a la IP v4, que ya ha, prácticamente, quedado sin números IP para distribuir a los usuarios.

2. LA INNOVACION. Como dijimos, Internet es una expresión cabal de las TICs, pues resume en sí sus mejores características, entre ellas el constante cambio y superación: la INNOVACION. Dada su vital trascendencia, debemos precisar bien su definición, alcance y objetivo; la innovación tecnológica no es un acontecimiento aislado, ni producto de un acto mágico, éste, permea en un estado determinado de conocimiento, se despliega en un entorno institucional e industrial concreto, y expresa ciertas competencias para definir un problema técnico, además de construir una aplicación de solución, consiguientemente una mentalidad económica para hacer que esta aplicación sea rentable, y una red de productores y consumidores que sepan comunicar y retroalimentar sus experiencias, aprendiendo al utilizar y crear, porque las élites aprenden creando, con lo que modifican estas aplicaciones de la tecnología, mientras que la mayoría de la gente aprende utilizando, con lo que permanece dentro de las limitaciones de los formatos de la tecnología. Poniéndolo en perspectiva Nathan Rosemberg afirma: "La interactividad de los sistemas de innovación tecnológica, y su dependencia de ciertos “medios” de intercambio de ideas, problemas y soluciones, es un rasgo crítico que cabe generalizar de la experiencia de pasadas revoluciones a la actual”55.

3. SUS CARACTERISTICAS E INFLUENCIA. La innovación no es un término postmoderno, mucho menos es ahistórica, pues precisamente el desarrollo histórico de las tecnologías de la información demuestra cómo a cada fase de crecimiento económico capitalista le corresponden nuevas innovaciones tecnológicas, liderizadas en especial por el sector de la producción. Es precisamente este paradigma, la integración de sus aspectos tecno-económicos y político-institucionales, que basamentan buena parte de su éxito. A su vez, los cambios en la base tecnológica, han de repercutir directa e indirectamente en lo económico, social, educativo y cultural, con lo cual abren nuevas oportunidades a la acción consciente colectiva, pero a la vez, también, a imprevisibles peligros que es preciso identificar y evitar. Entre estos peligros podemos ver como las nuevas formas de acumulación de la riqueza y el nuevo 54 55

CASTELLS, Manuel. Sociedad Red. ...... NATHAN, Rosenberg. Perspectives on technology and economics, Cambridge University press, Cambridge 1999.

39 de 69


trabajo, generadas por las nuevas tecnologías pueden contribuir a ensanchar aún más las diferencias entre los países del tercer y los del primer mundo, como dice Eco: "puede producirse una nueva división de clases no basada en la riqueza sino en la información"; Entre sus particularidades estructurales más importantes podemos citar tres, en las que varios estudios coinciden, no únicas pero fundamentales:

3.1. La informacionalidad. Dada por su capacidad de procesar y transmitir la información de forma muy rápida y con bastante flexibilidad, lo que influye directamente en ciertas características centrales de ésta economía: la productividad y la competitividad. En la productividad, la sistematización de procesos y la robotización de las tareas, han sido tremendamente efectivas al aumentar los niveles de producción a gran escala pero con bajos costos. Por su parte, la competitividad de las compañías se ha visto multiplicada al ampliar y ganar mayores mercados; con diversas estrategias (geocéntricas o etnocéntricas) que les han permitido ingresar en otros países.

3.2. La Globalización. Asentada en la interconexión de redes, la globalización trabaja como una unidad en tiempo real, a escala mundial, aprovechando la interrelación de las redes, las grandes bases de datos y la amplia cobertura de las telecomunicaciones. Tal es el caso de Asea Brown Boveri que "en realidad no tiene un país que sea su "hogar". Aunque las oficinas centrales se encuentran en Zurich, Suiza, sólo 100 de los 240.000 empleados trabajan allí”56.

3.3. La Interconexión de Redes. Esta entrelazada entre sí, su estructura como la red de una telaraña, proporciona la capacidad de interrelación con otras (con todas), es el medio a través del cual funciona esta economía, por ejemplo los mercados de capitales y valores, el Nasdaq. La ventaja de la flexibilidad inherente se ve facilitada por la retroalimentación deveniente de la adaptación rápida a la demanda de circuitos definidos de tecnología global, organizados en redes de trabajo (asociaciones especificas y/o permanentes), donde se compra, se vende, se difunde y se transmiten tecnologías; con una tendencia innegablemente orientada a la apertura, pues lo contrario significaría quedarse obsoleto; por mas que, no siempre éste sea transparente, ni inmediato; la interacción es ineludible. En este sentido, de una u otra manera, todos se ven -o se verán- impelidos a, también, abrir su tecnología, so pena de no poder interactuar con otras (estandarizaciones, interconectividad, etc.). En esta dinámica, los mercados se interrelacionan directamente, dado que la situación de las empresas en el mercado internacional es muy importante en lo estratégico; por consiguiente parte de la producción esta también globalizada. Otros ejemplos de la globalización de la economía, son el comercio electrónico, el llamado B2C (Bussines to Consumers), la venta a los consumidores en Internet, que esta dando buenas utilidades a las empresas; paralelamente el de transacciones comerciales entre las empresas B2B (Bussines to Bussines, de empresa a empresa), que tienden a crecer cada vez más, con el complemento de que al crecer éste volumen global, también crecerá el número de transacciones hacia los consumidores. 56

KOONTZ, Harold y Weihrich Heinz. Administración una Perspectiva Global. Mc Graw Hill, México DF 1995.

40 de 69


Esto muestra además que gran parte del trabajo interior de la empresa, su relación con sus proveedores y clientes se está haciendo también por la red.

3.4. Su impacto en lo socio-económico. Sobre la base de lo ya dicho, y otras variables multicausales, se buscan explicar en este marco, fenómenos tales como la pérdida de peso específico de las asimetrías sociales (desigualdades) que están basadas en la propiedad de los medios de producción y en la acumulación de capital, debido al acceso y uso de las TICs y, particularmente, del capital cultural capaz de transformar la información en conocimiento. Sin embargo, paralelamente, emergen los peligros en la generación de nuevas asimetrías sociales y formas de exclusión social, en especial las geográficas, por la inaccesibilidad a la TICs, además la exclusión intelectual, por la incapacidad de regular y utilizar la información para convertirla en conocimiento; la exclusión etárea y de hábitos culturales que imposibilitan una readecuación a las nuevas tecnologías; concretamente el empleo, el desempleo, la alta movilidad en los puestos de trabajo; como se ve, en el ojo de la tormenta: el trabajo, la capacidad de acceder a él, conservarlo, pero sobre todo la importancia fundamental de la educación y los valores culturales que dicen de la identidad de los pueblos y su futuro, y pasan por una profunda reflexión y reestructuración.

3.4.1. El empleo. La interconectividad y la interpenetración entre todas las partes del mundo, en tiempo real, redimensiona los conceptos tradicionales de tiempo y espacio. El trabajo prescinde cada vez más de un espacio definido y un tiempo concreto para realizarse, por ejemplo, un obrero latinoamericano en su horario de día normal, es el vigilante nocturno de un circuito cerrado de un banco en Japón a través de la red, él puede ser mucho más eficiente porque su reloj biológico no está alterado, aunque no estará tan bien pagado y menos podrá (posiblemente) asociarse con sus pares, por ello no generará un gremio. En este contexto el fenómeno central que afecta al movimiento obrero y popular, es la desestructuración de la clase obrera - organizada en sindicatos y luchando en negociaciones colectivas-, a través de conceptos y prácticas de la “flexibilidad sostenible” y un nuevo tipo de relacionamiento empresario-trabajador, individualizado. La globalización contextualiza así, un nuevo tipo de trabajo -y un consiguiente trabajador- que por sus características posee dos concepciones esenciales: 1. El trabajo autoprogramable, desarrollado por un trabajador con la capacidad de redefinir su propia capacidad, conforme cambia la tecnología y su movimiento a otro puesto de trabajo según se requiera. En esta realidad lo aprendido por un Bachiller o un profesional en sus primeros años queda obsoleto en términos de la tecnología que haya aprendido, del nuevo tipo de empresas, o de gestión que se trate, en un, también, diferente tipo de mercado. Así es que las personas tienen una alta movilidad en el trabajo y hasta en la profesión la cual cambiará varias veces en su vida, esto los ubica como personas que nunca serán obsoletas, pues son capaces de redefinir sus funciones y acciones, reaprender y repensar sus actividades. 2. El trabajo genérico, desarrollado por trabajadores que tienen determinadas 41 de 69


capacidades y un nivel de educación básico, caracterizados por ser instrumentales, hacen solo lo que se les dice y/o a veces no les permiten hacer más que eso, obviamente, son los que pueden ser reemplazados, sea por otra persona más apta o por una máquina. Su disponibilidad esta atada a la decisión táctica de su empresa, lo cierto es que pierde su valor, como persona y como conjunto (gremio). Esta situación puede ser superada a través de las políticas de reconversión laboral, capacitación permanente, reforma educativa, mejoramiento de la calidad en los centros educativos de distinto nivel y la redefinición de perfiles académico-profesionales en la educación superior.

3.4.2. El desempleo. Siempre se ha acusado al desarrollo tecnológico de afectar el empleo, pero está comprobado por diversos estudios que no existe relación entre tecnología y desempleo, tampoco con el empleo, este último depende de muchas otras variables, en especial de políticas, que explicitaremos mas adelante, de gobierno, empresariales, educacionales, de los tipos de puestos de trabajo y de las tecnologías de que se trate. Lo cierto es que el empleo crece, aunque no en la medida requerida. Aquí es preciso diferenciar la cuestión de creación de empleos y los niveles de remuneración y los estándares de vida; cada vez es mayor la creación de empleos alta y medianamente calificados, el problema es que muchas veces no existen los trabajadores con este perfil.

3.5. Su impacto en lo educativo y cultural. La virtualidad nos ayuda narrar y reflexionar sobre el impacto de las nuevas tecnologías en nuestras vidas. (Edmundo Paz Soldán). La nueva realidad ha impactado también lo educativo, de tal manera que se ha transformado la concepción de la educación como un proceso permanente y de generación de valor agregado y factor de competitividad de las personas, así como esencial para la convivencia entre ellas, la solidaridad y respeto a la diversidad; de tal manera es vital su importancia, que ha tenido que traspasar su propios muros y salir hacia la comunidad de la que es parte. Sin embargo, y como ya dijimos, la cultura de los pueblos, su característica de convivencia, se torna en un factor clave, como una transversal a la formación académica, para el dialogo y la paz, en tiempos que ciertamente son negadores de lo regional y reivindican la globalización, hasta en la cultura. Asimismo, la capacidad de reconversión y reinserción laboral de una mayoritaria, por ello barata, mano de obra no calificada se hace imperativo, así la educación juega un rol importante en la generación de un tipo de trabajador autoprogramable, como ya lo describimos, capaz de responder tanto a la movilidad, cuanto a la tecnificación e intelectualización del nuevo trabajo. > Toc Toc < ­ ¿Quién es? ­ dijo Banano'sBar imitando perfectamente el comportamiento de ABUE10B Soy tu nieto HaBit0 ­ Ah!, pasa mijo, pasa.

42 de 69


Te traje estos parches y un dibujo ASCII57. ­Que bueno fíjate! Porque estos bugs no me dejan. Oye abuelita, ¿Por qué tu tama¤o aumento en 13 Kb? ­ Esteee... Es que me a¤adi una subrutina ¿Por qué ahora tienes un HEADER58 distinto? ­ Para ejecutarme mejor ¿Qué hay en esa subrutina inaccesible? ­ Ahí guardo mi ropa ¿Y porque tienes una subrutina llamada infect_file? ­ Para infectarte mejor! (BadBit59)

La cultura local, en este contexto, ha sufrido y sufre aún tremendas agresiones por el mismo proceso globalizador- homogeneizador que pretende anular la identidad particular de los pueblos, el derecho a su idiosincrasia, sus voces, sus tonalidades, que ha llevado a la articulación de movimientos contestatarios, que reivindican su elemental derecho a ser diferentes, y a ser respetados y escuchados como tales en el contexto mundial de naciones, por esto: "Se impone una discusión sobre lo que se entiende por libertad de expresión en una cultura donde todo esta patentado. En este contexto, decirle a un cineasta que no puede utilizar comerciales viejos o a un músico que no pueden samplear o distorsionar otras melodías es como prohibir la guitarra o el uso del rojo en un cuadro", que de hecho esta sucediendo desde hace mucho, por ejemplo "en 1991 la Disney obligó a un grupo de padres neocelandeses a borrar las figuras de pluto y Donald de un mural pintado en el patio. El grupo Lyons aduce que cualquier padre dentro de un disfraz de dinosaurio violeta hace uso indebido de la marca registrada... y no importa de que tono de violeta. Mc Donald's continúa acosando a los pequeños propietarios gastronómicos descendientes de escoceses que se empecinan en utilizar ese molesto prefijo Mc al comienzo de sus apellidos; la empresa ha querellado a salchichas dinamarquesas Mc Allen y al local de sándwichs escoceses Mc Munchies, etc." ... "El mensaje subyacente parece ser que la cultura es algo que a uno le sucede. Uno lo compra en la disqueria, en la juguetería o lo alquila en Blockbuster. No es algo en lo que uno participa, ni algo a lo que uno tiene derecho a responder"60. La globalización, como paradigma, tiene un papel decisivo en el desarrollo del nuevo imperialismo cultural, y afecta a la vez, hasta la estructura y concepción estatal, ya que se determina en relación con el nuevo rol que deberán jugar los Estados- nación, sino los Estados-ciudad o Estados-región, como promotores de una cultura nacional. Este fenómeno tiene factores y aspectos concomitantes que han generado a su vez la acuñación de conceptos como el de "culturas híbridas" (que van más allá y difieren del sincretismo cultural) por la mezcla impuesta, en especial por los mass media asentados básicamente en las TICs; lo "postcolonial"; también lo “postmoderno” y otros fenómenos contemporáneos cuya tendencia es hacia la constitución de una nueva y homogeneizante cultura de consumo, nuevamente mas-de-lo-mismo-de-siempre. Mas, lo concreto en la producción cultural escrita de la nueva sociedad (red), es que es más influenciada por la transformación de la oferta textual que la caracteriza. Cuando la televisión, el vídeo funden la imagen con el texto, mérito ya muy característico de la historieta, hoy, esto ha trastocado nuevamente la esencia de los códigos del lenguaje narrativo clásico, y construyen un 57 58 59 60

ASCII, Código Americano para el intercambio de información, posee 7 bits, más un 8vo como control de paridad. Define un máximo de 128 caracteres. HEADER, Encabezado, Cabecera de un programa, identificador de un paquete, o conjunto, de datos BadBit, badbit@yahoo.com, www.raza-mexicana.org.mx KLEIN, Naomi. No Logo.

43 de 69


nuevo contexto, que ha pasado de lo audiovisual, a lo portátil y multimedia61, lo cual transforma radical y definitivamente la idea de narratividad clásica; de ahí que la visión de Murray sea pertinente en las diversas áreas de la producción cultural: "En algún momento dejaremos de mirar el medio para mirar a través de él. Entonces dejaremos de interesarnos por saber si los personajes con los que nos comunicamos son actores que siguen un guión, otros jugadores o charlarrobots. Cuando hayamos llegado a ese punto, cuando el propio medio se convierta en transparente, estaremos perdidos en la representación y nos preocuparemos sólo de la historia. Cuando esto suceda, no nos daremos cuenta, pero en ese momento nos sentiremos tan a gusto en la holocubierta como si estuviéramos en casa (...) Cuando entendamos que las simulaciones son interpretaciones del mundo, la mano que controla el argumento multiforme nos parecerá tan firme y presente como la mano del autor tradicional. Según nos vayamos familiarizando con las historias multiformes, nos daremos cuenta de que un autor de hipertextos puede dar forma a una yuxtaposición o a un punto de ramificación en la historia con tanta habilidad como la que usa un autor tradicional para dar forma a un diálogo en una obra de teatro o a un capítulo en una novela"62. El futuro de la narrativa en el cyberespacio se avizora en el tercer milenio como cierto entretenimiento que involucrará todos nuestros sentidos al más puro estilo de Aldous Huxley, aplicando lo último y aun lo no inventado en tecnologías cibernéticas al antiquísimo arte de contar historias, es pertinente aclara aquí que el término Cyberespacio y sus derivaciones, aunque como algo aun en discusión o en construcción, lo asumimos de William Gibson63: “Un nuevo universo, un universo paralelo creado y sustentado por los computadores del mundo y líneas de comunicación... La tablilla se convierte en una página, la página se convierte en una pantalla, la pantalla se convierte en un mundo, un mundo virtual... Una geografía mental común, construida, a su vez, por el consenso y la revolución, el canon y el experimento. . . Sus corredores se forman dondequiera que corra la electricidad con inteligencia... El reino de completa información...”. Ahora bien cuando hablamos de imperialismo cultural, hoy, seguro que lo hacemos en forma distinta de la de hace, sin ir muy lejos, dos décadas atrás, como lo testimonia Sinclair, no sin algo de causticidad: "el Mattelart de hoy no es el joven profesor que escribió el libro sobre el Pato Donald, sino un pensador e investigador muy complejo, en cuya obra se puede descubrir la incorporación de muchas ideas nuevas, incluyendo la de 'dependencia' en vez de 'imperialismo'."64. De ahí que los elementos y conceptos que entrecruzan esta discusión, como lo social, y lo político, por su importancia y magnitud, merezcan una discusión aparte, y detallada.

4. LAS OPORTUNIDADES: POLITICAS Y ESTRATEGIAS. "Estos proyectos esbozan una superación de los movimientos sociales agotados de la sociedad industrial para reanudar en formas históricamente apropiadas la antigua dialéctica entre dominación y resistencia, entre realpolitik y utopía, entre cinismo y esperanza." En esta problemática, también se abren espacios que brindan grandes oportunidades para avanzar en 61 62 63 64

MULTIMEDIA, técnicamente incorporan a la comunicación el texto, gráficos, sonido e imagen en movimiento. MURRAY, Janeth. Ob Cit. GIBSON, William. Escritor de ciencia ficción, aprox. 1984... SINCLAIR, John. Televisión: comunicación global y regionalización. Gedisa, Barcelona 2000.

44 de 69


sentido positivo, en beneficio de los pueblos. Así, podemos vislumbrar que contextualiza espacios de autoorganización, que es preciso activar, como lo hicieron los Hackers o el movimiento antiglobalización. Esto se ve reforzado por un elemento muy importante: la intelectualización del trabajo y de la comunicación, pues ahora se exige al trabajador un trabajo intelectual, de trabajo en redes y de comunicación global, esto abre posibilidades reales de cambio, aunque este no sea inmediato ni automático, mucho menos una varita mágica que ha de liberarnos, ésta posibilidad es cierta, pero no se construirá si no se toman acciones políticas en ese sentido.

4.1. Las Políticas "Queremos tener la oportunidad de ser innecesarios". (Sub Marcos, Chiapas) Definir como plataforma base para la implementación, desarrollo y explotación de las TICs EL SOFTWARE LIBRE. El Software Libre es el fruto de un sostenido y tesonero trabajo, para evitar el encapsulamiento del conocimiento en una patente, cuya comercialización monetaria a través de "licencias" profundizaría, mucho mas en este mundo, globalizado unilateralmente, las brechas de la pobreza, y con ello mantendría la desigualdad de oportunidades, y anula la posibilidad de desarrollo de países como el nuestro urgidos de recursos y medios para emprender las ineludibles e inaplazables tareas de desarrollo nacional, cuando no de elemental supervivencia en un mundo sumido en una crisis económica cuyo mayor peso recae, precisamente, sobre las espaldas de los más pobres.

4.2. Las estrategias "Sí tienes 10 personas en una protesta, no hacen nada. Sí tienes 10 personas en-linea, pueden tirar una red" (cDc65). La ciencia y la tecnología en este sentido, no solo han modelado la nueva sociedad, sino que ahora la están administrando, de varias maneras, y a diferente nivel y escala; con lo cual queda patentizada su alta influencia en el mundo que vivimos hoy. Lastimosamente los Estados e instituciones de nuestros países, no han sabido o peor no han podido, ponerse a la altura de esta nueva realidad, ya no tan solo de la modernidad, sino de la postmodernidad; donde conceptos venerados, como el del espacio (la distancia geográfica), la soberanía, las fronteras, el papel moneda, lo reservado, la propia intimidad, y hasta la demora en la transferencia tecnológica han quedado desfasados, por decir lo menos, ante la emergencia, de las Tecnologías de la información y las comunicaciones, TIC que han posibilitado la comunicación directa y en línea con el mundo entero, nuevas formas de hacer negocios o trabajar, nuevas formas de asociación, el dinero de plástico, la interrelación de grupos de interés en todo el mundo, generando nuevos canales de expresión. Lo antedicho muestra como la tecnología esta impactando en nuestros estados, y sus instituciones; como con ello afectan sus estructuras, los derechos de los ciudadanos, su forma de vida, etc.. Como los Estados tratan también a partir o por medio de ellos, restringir las libertades ciudadanas. En países como el nuestro, por su rezago en la inserción de las nuevas tecnologías, aún estos hechos no se manifiestan fuertemente, pero no por ello deben dejar de servirnos para reflexionar sobre ello; 65

cDc es un Hacker mexicano

45 de 69


Pero a falta de esto tenemos por contrapartida, dramáticamente por cierto, un componente elevado de corrupción, en Bolivia por ejemplo, en escenarios de participación de la sociedad, tal el "Dialogo por la pobreza", o las jornadas del "Jubileo", se ha precisado que uno de los mayores factores de la pobreza es la corrupción en las diversas instituciones estatales. Y es que precisamente la falta de información de la ciudadanía, de las organizaciones sociales intelectuales como populares, conlleva administraciones estatales oscuras, secretas y por ello desligadas de un mínimo control social, que ha posteriori, producto de investigaciones de prensa, o confrontación política, se conocen, y han servido para demeritar el ejercicio y el rol de los Partidos Políticos y la falta de confianza de la ciudadanía en estos Partidos, con lo que no solo pierden los Partidos, sino la democracia en su conjunto, por la falta de calidad en la participación ciudadana. Sin embargo no podemos dejar de resaltar el papel trascendental que pueden jugar las TICs en el desarrollo de nuestros pueblos, pero como tarea y voluntad propia, orientando el mismo en los términos de equidad y justicia acordes con los nuevos tiempos y una democracia más consolidada. Porque, definitivamente, no hay peor ciego que el que no quiere ver, ya que la tecnocracia, entiende plenamente la problemática, aunque le falta el plus de creatividad y riesgo que involucra el recomendar o apoyar el amplio uso de las "nuevas" Tecnologías de la Información, para algo más que hacer cartas, enviar y recibir email, o chatear, si hasta el ex-presidente Clinton, en la conferencia sobre la "Nueva economía" el 2000, decía "el computador e Internet nos dan una oportunidad de sacar a la gente de la pobreza más de prisa que en cualquier momento de la historia", y complementaba además -para alegría nuestra- (estoy siendo irónico) que "podemos dirigir el poder de la nueva economía para ayudar a la gente de todas partes a cumplir sus sueños". Por si fuera poco, el Presidente de la Reserva Federal, Alan Greenspan resaltaba la importancia del uso generalizado de las computadoras e Internet en la continuación de la Bonanza económica continua de los EEUU durante la última década. Nuestros políticos tradicionales tal vez lo que quieran es que otros hagan realidad sus sueños, o peor quizás ni los tienen, en cuyo caso debemos recordarles que “la vida sin sueños, es un ensayo para la muerte”66, por ello la estrategia se torna pues en la estructuración de proyectos populares que constituyan una alternativa a más-de-siempre-lo-mismo, al que nos quieren condenar desde la sensibilidad de la dominación. En esta senda, como ya dijimos, caminan movimientos contraculturales y contestatarios, como el "movimiento antiglobalización", sus componentes como "Reclaim the street", "National Labor Commitee" y muchos otros. En este sentido es que la problemática de la corrupción, y la religitimizacion del Estado y la Política, debe constituirse en nuestra realidad como el punto de partida para modernizar nuestro Estado y sus instituciones, la lucha contra la corrupción debe ser el eje a través del cual podamos Superar esta situación, pues la única forma de combatir la corrupción es generar un mayor control de los actores y sus acciones, y esto para nosotros tiene un nombre especifico, no único, pero central: LA TRANSPARENCIA. Y la TRANSPARENCIA para nosotros, tiene que ver con la información amplia y completa, que permita a la ciudadanía el acceso al control social de la administración gubernamental, en temas tales como la: elaboración de los POAs, Selección de proyectos, la contratación de servicios diversos, el costo de los mismos, la ejecución presupuestaria de los recursos, el desempeño y la labor de los funcionarios público de todo nivel, etc. con ello es posible lograr un transito efectivo de una democracia representativa a una democracia más participativa, lo cual fortalecerá la 66

SERRAT, Joan Manuel. Utopías.

46 de 69


participación ciudadana y con ello la propia democracia, asegurando asimismo la legitimidad del propio Estado y la política tan venida a menos últimamente, por la corrupción, el mal desempeño de los funcionarios públicos, el incumplimiento de las ofertas electorales, etc. Para ello los poderes del Estado, las diversas instituciones estatales centralizadas, descentralizadas, etc., deben poner a disposición de la ciudadanía la información concerniente a la gestión de los recursos público, única excepción de aquellos ESTRICTAMENTE, ligados con la seguridad nacional no interna; porque no hay nada secreto (o no debiera) en un Estado de Derecho con apego y cumplimiento de la ley. Mientras escribíamos este libro se concretizaba una ley con cierta parte de alguna manera, parecida, a lo expuesto. Paralelamente es necesario rescatar y aprovechar el potencial para los negocios que tiene Internet, a través de conceptos como el eBusiness y el eCommerce, apuntalando a los esfuerzos de mercadeo y exportaciones de los pequeños y medianos productores bolivianos. Y si hablamos de seguridad, cómo podemos pensar en seguridad cuando las FFAA emplean Software propietario, que son dudosas cajas negras, que no sabemos que puede contener, no se olvide la experiencia del golfo pérsico, además que no han enlazado sus redes de manera adecuada y segura. La policía no tiene comunicación efectiva y en línea con las fronteras, La Aduana Nacional emplea un Software extremadamente propietario que solo corre en plataforma Guin 95 o 98, (si se les puede llamar plataforma), etc.

5. EL OBJETIVO. En este dinámico mundo donde se ha pasado de la economía llamada de las chimeneas al de las computadoras, es crucial el desarrollo informático y por ello es necesario dar soluciones que puedan garantizar, no solo el acceso sino el éxito y la competitividad en el área informática. Potenciar procesos y mecanismos que generen una transparencia efectiva y total de la administración y gestión de las entidades públicas, facilitando la participación ciudadana y fortalezca la democracia y sus instituciones, a través de la implementación y el desarrollo de las Tecnologías de la información y las comunicaciones TICs; Para ello es preciso en lo mínimo, cumplir las siguientes tareas básicas:    

  47 de 69

Consolidar la independencia tecnológica en el área informática con el uso del Software Libre y la I+D+i. Establecer la red gubernamental, al mas bajo costo y con el parque computacional existente. Las Intranets Institucionales y la Extranet gubernamental. Desarrollar un Sistema informático que consolide la interrelación entre las diversas instituciones estatales. Enfatizar en el sistema el componente de información amplia y sistematizada, pero sobre todo en línea de la gestión y administración gubernamental. En una primera etapa las licitaciones, contratos, presupuestos, e información de uso cotidiano. Organizar la oferta de servicios, ruta de tramites, etc. a través de un Work Flow en cada institución para agilizar los tramites burocráticos en estas dependencias. Coordinar labores interinstitucionales que eviten la duplicidad de funciones, gasto


 

48 de 69

innecesario y confusión en el público usuario. Facilitar el trabajo en equipo (factor importante de la cultura de calidad), que aprovecha y optimiza el trabajo y la experiencia de personal especializado y de calidad, muchas veces escasas, tanto interno como interinstitucional para asegurar la posibilidad de canalización de recursos (inversiones y/o préstamos). Potenciar la interrelación con pares extranjeros, aprovechando experiencias y capacidades especificas. Vía el B2B y garantizar, las exportaciones de pequeños y medianos productores hacia el mundo entero, aprovechando además el desarrollo de, por ejemplo, "tiendas" virtuales interactivas.


CAPITULO V LOS MEDIOS: GNU/LINUX "Linux es subversivo, quién iba a pensar cinco años atrás que un Sistema Operativo de clase mundial podría surgir como por arte de magia en el tiempo libre de millones de colaboradores, esparcidos por todo el planeta, conectados únicamente por el tenue cable de Internet".(Erick S. Raymond) Esta es la introducción que hace uno de los conversos a esta filosofía, el Hacker más productivo, en su libro "Catedral & Bazar"67, y es que quiérase o no, GNU/Linux se ha convertido en emblema del Software Libre, y ha contextualizado sobre si las características, la particularidad del desarrollo, pero sobre todo la filosofía; Lamentablemente, también, los ataques y críticas más enconados.

1. UNA HISTORIA OBLIGADA. Linux es la conjunción afortunada de tres factores claves, esta basado en el Minix, sistema operativo desarrollado por Andrew Tanenbaun en la Universidad de Vrije en Amsterdam, como parte complementaria práctica de su libro "Sistemas Operativos: Diseño e implementación", asimismo, es preciso enfatizar en que es un Kernel UNIX adaptado para trabajar con software del Proyecto GNU (interprete de comandos, bash; compilador C, gcc; emacs, procesador de texto; etc.), por lo cual se influyen e interrelacionan directamente; por ello se conoce a la plataforma en su conjunto como GNU/Linux (Sistema operativo/Kernel); finalmente no se entendería la existencia de Linux sin la red, que es el tercer factor, pero involucra a la característica más importante: su forma de Desarrollo por la comunidad, el Bazar.

2. LA FORMA DE DESARROLLO: EL BAZAR. A excepción de GNU/Linux, los sistemas operativos se desarrollan conjuncionando equipos de trabajo cerrados, que crean éstos y los lanzan al mercado, posteriormente si lo consideran necesario, y dependiendo de la demanda existente, se reunirá nuevamente el mismo u otro equipo, para hacerle estas modificaciones y/o mejoras. A este modo de Desarrollo se lo conoce como: Catedral. Por otra parte el Desarrollo de Linux y del software libre en general, que es hecho por los propios usuarios a través de los tenues cables de Internet, utiliza conceptos como el de:  Trabajo en equipo, elemento clave de la cultura de la calidad total.  Optimización de recursos: "Los buenos programadores saben que escribir, los mejores que reescribir". Con esto se valora el esfuerzo, y el buen trabajo hecho por alguien, para no tener que empezar desde cero, siempre reinventando la pólvora.  Se facilita el ensamble de varios sistemas para construir uno diferente, aprovechando diversas potencialidades.  En el mundo del Software Libre, su programador es el mundo.  A diferencia de la gente común, las elites aprenden creando. 67

RAYMOND S., Erick. The Cathedral and the Bazaar. http://www.tuxedo.org/~esr/writings/cathedral-bazaar/

49 de 69


  

Si alguien necesita alguna característica en especial debe programarla él mismo o generar un grupo de interés para llevar a cabo la tarea de manera conjunta, que luego de ser sometida a pruebas de consistencia será liberada en Internet. No todos los colaboradores son expertos informáticos, hay muchos usuarios comunes que ayudan con: las pruebas, la documentación, la traducción de la documentación, etc.. Una vez que la característica desarrollada por el grupo de interés funciona adecuadamente, se la incluye en el kernel. Las correcciones de errores, y posibles problemas, como ataques, son corregidos inmediatamente por los propios usuarios.

Por todo esto es que se lo asemeja con un bazar, y de ahí recoge el nombre, esta nueva e importante forma de desarrollo. En lo educativo, esta forma de desarrollo, genera como veremos en el capitulo "VI", mejores condiciones para el aprendizaje significativo y la I+D, e incorpora valores humanos como la solidaridad, la fe y la confianza en el equipo, en el otro, además de hacer un servicio desinteresado al prójimo.

3. LAS DISTRIBUCIONES. Una distribución es una versión determinada del Kernel y del sistema operativo y programas GNU, que son empaquetadas por una organización, para ser comercializada, sin que ello le implique derechos sobre ella, mas de los que tiene Usted o yo. El valor agregado que venden generalmente esta referido a los instaladores, las prestaciones gráficas, y los drivers para diferentes dispositivos. Existen, según mis cuentas, más de cuarenta, entre ellas las más conocidas: Red Hat, del cual derivan Mandrake, Conectiva y Andinux; Debian, de la cual también deriva Corel Linux, Slackware, SuSE, Caldera, etc. Existen diversas Distribuciones para prácticamente todas las plataformas y equipos, además de capacidades, que van desde un diskette hasta varios CDs o DVD. Por esto también se las conoce como los diversos sabores de Linux (o Unix). La Distribución RedHat es una muestra patente de que es posible hacer negocios en el marco del Software Libre, cotiza en el Nasdaq, y es una empresa muy exitosa, Suse de manera similar. Por otra parte Instituciones como Canonical productora de “Ubuntu” han facilitado el uso de GNU/Linux en el escritorio, con herramientas de detección y configuración de dispositivos, que ciertamente era una dificultad molestosa; de igual manera Distribuciones nacionales como “EduLinex” en España han aprovechado las potencialidades didácticas y económicas del Software Libre.

4. LA PROPUESTA Hay diferentes formas de utilización de los medios de comunicación que no sean simplemente para masificar o comprar. Lo importante es recatar formas de relación social que no pasen por el dinero. (Ricardo Bolaño68). 68

BOLAÑO, Ricardo. EPTIC-On Line

50 de 69


En este punto es preciso remarcar que no se debe entrar en el snobismo, y la falsa idea que emplear tecnología de punta es, por ejemplo, usar una Pentium IV para hacer cartas, o peor para tenerla en la oficina de los altos ejecutivos, solo para exhibirla. Creemos firmemente que este proceso, en lo óptimo, no debe requerir mayores recursos que los que actualmente se tienen, seguramente podríamos pensar en mucha tecnología de punta, pero esta es cara y fácilmente para la escala de mercado que manejamos, debemos arreglarnos con algo menos sofisticado, pero que funcione y bien, ese es fuerte de GNU/Linux. En este sentido, proponemos el uso de la plataforma GNU/Linux, que implica aspectos esenciales:  La independencia de monopolios que cobran altos costos por el uso del software, las licencias, y su complemento perverso las Certificaciones, que nos atan a una carrera de actualizaciones y con ello gastos continuos en cada vez más sofisticado hardware, las mas de las veces innecesarias, salvo el de uso especifico para investigación y desarrollo científico.  La posibilidad cierta de tener la solución en mano propia, la disponibilidad del código fuente, y con ello la seguridad de poder adecuarlo óptimamente, trabajando como un conjunto bien afinado, no como productos asociados (o superpuestos), respondiendo así de mejor manera a nuestras necesidades y sin tener que pagar por ello.  Seguridad, básicamente de que nuestros Sistemas no se cuelguen, no sean afectados continuamente por virus, no tengan en el código un troyano con un código e instrucciones maliciosas y lesivas a nuestros intereses y seguridad, etc.  Posibilitar canales de comunicación en línea y baratos, integrando el País en su conjunto.  Generar Participación ciudadana, con ello control social, y transparencia en la práctica y gestión.  Discusión amplia y generalizada de la temática de las TICs, y su impacto en las diversas áreas del conocimiento.  Popularizar el uso y empleo de tecnologías y técnicas informacionales de forma extensiva en todos los ámbitos.  Consolidar una Red real de interconexión física y de interacción investigativa y administrativa.  Informativizar los procesos administrativos, e incorporar el componente de control y seguimiento al desarrollo de las investigaciones, a fin de coadyuvar a su mejor desarrollo y cumplimiento, promoviendo la interdisciplinariedad. Además de proporcionar la mejor base de datos para generar Data Warehouse institucional, que pueda asistir a la toma de decisiones gerenciales de validación, reconducción y apoyo; sentando en este sentido las bases para el desarrollo de un sistema integrado de Egovernment. Incorporar el GNU/Linux como plataforma oficial presenta indudables retos, que como parte de ANDINUX, la Primera Distribución de Linux boliviana, hemos podido constatar. Si bien es de destacar a la Universidad Salesiana que tiene su plataforma académica en GNU/Linux, a la cual tuvimos el agrado de colaborar decididamente, tuvimos que lamentar también que otras Universidades privadas de La Paz prefieran otra plataforma; algo común a ellas que se animaron a instalar la plataforma GNU/Linux, es que son instituciones de tipo privado, porque en las Instituciones públicas, como la vicepresidencia que durante la gestión del entonces vicepresidente Quiroga, compraron Licencias (papel) de Microsoft, por alrededor de 200 MIL DOLARES. Hoy esto ha cambiado, ya que el gobierno del Presidente Morales y en particular del Vicepresidente 51 de 69


Alvaro Garcia Linera están utilizando Software Libre en sus sistemas y para la gestión parlamentaria, al ser cabeza del Parlamento Nacional, en directa colaboración con la Fundación AUTAPO. Lo más destacable entre las instituciones públicas es la Universidad Autónoma Juan Misael Saracho de Tarija, que de la mano de la Dirección de Tecnologías de la Información y las Comunicaciones, cuando estaba a cargo de la Lic. Sulma Farfan y un equipo de expertos bajo el iderazgo de Roberto Morales Escobar, generaron el Desarrollo69 e implementación más clara y significativa de TICs en el país. Como se vera, aparte de estas experiencias, otras en que también de alguna manera hemos participado son la Universidad Católica de Tarija, y otras varias instituciones que adoptaron parcialmente la solución Linux, otras donde hicimos pilotos pero que no podemos aún mencionar (aqui entra el tema represalías aunque no crean). A esto debe sumarse obviamente experiencias meritorias particulares de otras instituciones y personas que adoptan de manera parcial soluciones basadas en GNU/Linux. Se hace necesario una mentalidad menos conservadora y abierta al cambio, precisa también una redefinición de la formación de los profesionales del área: la masificación, pues como se dice "con clicks en los botoncitos de colores, en un entorno gráfico y en Guindous, ¿quién no es un programador?", lo que habla de su calidad, de su formación (toda universidad privada que existe tiene esta carrera; en la Universidad pública es una de las mas masificadas). Esto puede y debe ser enfrentado con una selección más natural, como en todas las otras carreras, los postulantes deben tener un talento especial para seguir su carrera; pues las competencias y las prácticas especificas que deben poseer los profesionales de esta área han de ser las más eficientes, orientadas a proveer soluciones de clase mundial, trabajo real y duro, pero gratificante en su profesión, y la plataforma que hace posible esto es precisamente Unix/Linux. Por esto es que la resistencia mayor a la implementación de Linux viene de la gente de ... Sistemas. Aunque hay que reconocer que en muchos de ellos es más por una resistencia (natural, aunque injustificada) al cambio, y por desconocimiento debido a la desactualización, lo que conlleva un temor (natural), pero también injustificado. Lo que se torna inconcebible es que los profesionales de la burocracia estatal y política del país no se hayan preguntado: ¿cómo un país pobre como el nuestro puede darse el lujo de gastos superfluos e innecesarios?, ¿Por qué somos tan actualizados con la moda?, y siendo aún más exigente ¿por qué nos gusta el camino del esfuerzo mínimo?. Algunas almas piadosas y caritativas ilustraron este cuestionamiento, haciendo la siguiente lista, que resumimos así:      

69

Las licitaciones, cuanto mayor monto involucren son mejores negocios para las burocracias, el 10% de nada es NADA. El hombre es un animal de costumbres, resistente al cambio por naturaleza. La comodidad de lo ya "conocido" (Del libro perejil -raído como tal, por su uso centenario-) La comodidad de la repetición de la labor, el automatismo. El temor al cambio, la inseguridad en sí mismos. La vanidad, y el snobismo, tener lo más moderno (aunque no se use) lo hace a uno más moderno, de ahí las últimas Pentium (IV), empolvándose, porque hay que exhibirlas, en la oficina de los “jefes” o peor de las “secres”.

http://coimata.uajms.edu.bo, http://3k.uajms.edu.bo, etc.

52 de 69


4.1. Lo Técnico. Linux aporta la velocidad, eficiencia, seguridad y flexibilidad del Unix a las PCs, aprovechando toda la capacidad que los PCs pueden proporcionar hoy en día. Es completamente compatible POSIX y con muchos Sistemas de archivos. Si queremos valorar realmente a Linux, en lo que vale, es necesario conocer el contexto especial en el que fue desarrollado Unix del cual deriva, a diferencia de la mayoría de los demás Sistemas Operativos, éste fue desarrollado en un entorno académico y de investigación. En el mundo, tanto en universidades como en laboratorios de investigación, Unix es el sistema Preferido. su desarrollo ha ido, a la par, de la revolución de la informática y las comunicaciones que han tenido lugar durante las últimas décadas. Los profesionales de la informática desarrollaron frecuentemente en Unix las nuevas tecnologías, tales como las desarrolladas para Internet, como ya explicamos en la historia de su desarrollo. Actualmente corre en casi todas las plataformas de hardware: 80x86, Power Mac, Alpha, Sparc, etc.; en arquitectura de 64 bits, DEC, Alpha, e Intel Merced. El sistema de enumeración de las versiones del Kernel tiene un formato que consta de tres partes: versión.estabilidad.lanzamiento(que varia casi cada mes), por ejemplo: 1.0.5 2.1.11

Versión 1.Estable (porque "0" es par). Lanzamiento 5 Versión 2.Inestable (porque "1" es impar). Lanzamiento 11

La Inestabilidad debe entenderse como la versión de desarrollo que tiene características innovadoras a prueba, y no necesariamente insegura. Como una muestra palpable, más, de las fortalezas de GNU/linux, podemos constatar que actualmente una de las 10 supercomputadoras en el mundo, es un Cluster Linux. Esto explica su amplio y difundido uso, y en especial en instituciones que hacen trabajos importantes y de alta precisión, y el porque: "Linux ha empezado hace poco a tener un impacto importante dentro de la industria de la informática, pero ha sido una herramienta poderosa para los investigadores en informática durante muchos años. Aparte de los beneficios obvios de trabajar con un sistema operativo abierto eficiente, fiable y de libre distribución, la llegada de la computación clusterizada siguiendo el estilo Beowulf -empezada por Donald Becker, Thomas Sterling, en el NASA's Goddard Space Flight Center- extiende la utilidad del Linux al mundo de la computación paralela de alto rendimiento. Hoy en día, estos valiosos clusters basados en PCs están apareciendo en laboratorios de investigación federales, departamentos de I+D de empresas, universidades e incluso pequeñas facultades. Si un problema informático no puede solucionarse en un entorno de memoria distribuida flojamente acoplada, un cluster Beowulf -o Pila de PCs (POP - Pile of PCs)- puede ser la respuesta, a un precio que los fabricantes tradicionales de computadoras paralelas no pueden llegar"70.

4.2. Lo Económico. La sustentabilidad y sostenibilidad económica son características del software Libre, ya que al emplear y desarrollar sistemas dentro de la filosofía del Software Libre, y en lo concreto en GNU/Linux, asegura tres aspectos esenciales ligados a la sustentabilidad y sostenibilidad de cualquier proyecto: La cuestión económica: 1. Se anula los gastos de compra de Software propietario (comercial), así como el costo de sus 70

www.esd.ornl.gov/facilities/beowulf

53 de 69


licencias por cada equipo. 2. Se hace un aprovechamiento de la actual infraestructura informática, se pueden aprovechar y reusar equipos 386, y 486; la necesidad de comprar nuevos equipos es remota. 3. Los costos de inversión en el sistema tienen un retorno inmediato al potenciar la solución en manos del propio usuario, sin tener que depender del desarrollo de una sola empresa. Evitando el abuso que se hace con prácticas monopólicas en esta área. Colateralmente el costo cero del software, su filosofía de desarrollo y Distribución, además de tener la solución informática en mano propia, no dependiendo de una empresa, hace sustentable y sostenible el mantenimiento y desarrollo futuro del sistema, sin tener que grabar sus costos, que como ya explicamos, son prácticamente nulos.

4.3. Lo Artístico La potencialidad y mayor capacidad de Linux se muestran por la preferencia que va ganando en diversas instituciones de nvestigación, donde los requerimientos son realmente grandes, tal es el caso de la misma NASA, con Clusters (computación paralela), Investigación avanzada del medio ambiente a través de satélites, investigación astronómica, y aplicaciones en diseño y manipulación gráfica, por lo que "La compañía Dreamworks, de la cual es copropietario el “Rey Midas” de Hollywood, Steven Spielberg, ha migrado totalmente a la plataforma Linux. Prueba de ello es la anunciada película “Spirit: Stallion of the Cimarron”. Dreamworks consideró varias plataformas, entre ellas Windows 2000 y Mac OS X. Sin embargo, su conclusión fue que ambas eran demasiado ligeras. En lugar de ello, la compañía estandarizará sus sistemas en Linux, con X Server y Red Hat. La primera película de animación de Dreamworks creada totalmente con Linux es “Spirit: Stallion of the Cimarron”. Para poder crear la cinta, la compañía comenzó con 250 máquinas en serie. Luego fue necesario incorporar 750 nuevos computadores, todos equipados con los procesadores más potentes que pueden ser adquiridos en el mercado actualmente. Según DreamWorks, la animación exige muchos mayores recursos informáticos que las películas tradicionales. En particular, esto se debe a que DreamWorks prefiere hacer las películas según el sistema antiguo, en que cada imagen es creada por separado. Las máquinas Linux son usadas en la edición de las imágenes y para la operación de herramientas de efectos tridimensionales. El estreno de la película está programado para fines de mayo71.

4.4. Lo Ecológico. Como no podía ser de otra manera, el tema ecológico, tan importante, ha sido considerado también por los desarrolladores del Software Libre, en esta ocasión, en un área de mucha importancia: la computación paralela orientada a Super computadoras económicas y poderosas, hechas con computadoras en desuso, "antiguas", y que como hasta ahora no hay una costumbre de disponer de ellas convenientemente son potenciales factores contaminantes, dadas las características de algunos de sus componentes. Esto se debe en mucho al desconocimiento y la falta de información al respecto, de ahí que resulte importante tomar en cuenta un informe de una institución especialista en el tema y defensora de la ecología como Worldwatch Institute en un artículo denominado “Vital Signs” donde proporciona datos reveladores sobre un tema que la industria está haciendo lo posible 71

www.ugr.es, 26 de abril del 2002

54 de 69


por esconder: “Un monitor (pantalla) de computadora contiene entre 1,8 y 3,6 kilogramos de plomo, un metal que provoca daños al sistema nervioso y que envenena el desarrollo de las células de la sangre, provocando graves trastornos a la salud y hasta la muerte. Las baterías (del BIOS) de computadoras contienen cadmio, que aumenta el riesgo de cáncer, provoca daños en los fetos y daña el sistema reproductivo de los seres humanos , y las nuevas pantallas planas contienen mercurio, que perjudica el desarrollo del sistema nervioso. En 2001, el mundo produjo 60 millones de transistores (con los cuales se elaboran los semiconductores) por cada uno de sus habitantes, y para 2010 se calcula que se estarán produciendo 1.000 millones de transistores por persona. El problema es que la producción de estas “maravillas de la alta tecnología” requiere el uso de entre 500 y mil productos químicos, y genera “enormes volúmenes de basura química”72.” "Nos involucramos en la computación clusterizada hace más de dos años, después de desarrollar una propuesta para la construcción de un cluster Beowulf para soportar una gran cantidad de proyectos de investigación. La propuesta fue rechazada, pero dado que habíamos empezado el desarrollo de una nueva aplicación de alta resolución para el diseño ecológico, decidimos construir un cluster hecho a partir de PCs (principalmente Intel 486s) destinados a ser renovados. Empezamos interceptando, con facilidades federales, las máquinas sobrantes en Oak Ridge, y procesándolas en nodos útiles. En Septiembre del 77, teníamos un sistema de computación paralela construido enteramente con hardware sin coste. Hoy en día tenemos un cluster de estilo Beowulf con 126 nodos heterogéneos en constante evolución, llamado el Stone SuperComputer, el cual se actualiza constantemente a medida que se dispone de nuevo hardware y que es usado para el desarrollo de algoritmos y para ejecutar aplicaciones paralelas"73.

72 73

EL DIARIO. La basura tóxica genera graves problemas de salud a las personas, de 23 de junio de 2002. Despacho DPA, Washington 22 junio 2002. HOFFMAN, Forrest M. especialista informático, División de Ciencias Ambientales, Laboratorio Nacional de Oak Ridge. HARGROVE, William W., Facultad de investigación en la Universidad de Energía, Medio Ambiente y Centro de Recursos de Tenesse, sirviendo a contrato al Laboratorio Nacional de Información Geográfica y espacial de Oak Ridge, experiencia en algoritmos informáticos, sistemas de Información Geográfica, diseño ecológico y simulación.

55 de 69


CAPITULO VI LA EDUCACION Es preciso evitar que la tecnología, con sus facilidades y atajos, atrofie el funcionamiento del cerebro, más allá que reduzca el espacio de pensar. En un mundo en que para comprenderlo mejor, es necesario saber cada vez más, sabemos cada vez menos (José Sarámago)

1. LA PROBLEMATICA. En "Galaxia Internet"74 Castells afirma taxativamente: "Cómo podemos encomendar el futuro de nuestros hijos a unos gobiernos controlados por partidos que operan, en muchos casos, dentro de una corrupción sistemática (como consecuencia de sus financiación ilegal), que dependen completamente de la política de la imagen y que están dirigidos por políticos profesionales que únicamente rinden cuentas en época de elecciones y que se basan en burocracias aisladas, tecnológicamente desfasadas y generalmente desconectadas de la vida real de sus ciudadanos?”. Y es que en un tema como el educativo tan ligado con la política y el Estado, debemos andar con mucho cuidado, pues la política la instrumentaliza para reproducirse y mediatizar el accionar de la sociedad (generaciones de ellas), con ello religitiman al propio Estado; peor aún cuando estos políticos están tan desconectados de las innovaciones tecnológicas, máxime si tenemos en cuenta sus características de calculadores de riesgo, enemigos de los cambios por naturaleza, pues defienden siempre un estado de cosas a su favor y pretenden mantenerlo así a toda costa, por lo cual el impacto de las TICs les resulta cuando menos preocupante. Un trabajador infatigable, Antonio Sagrista, esclarecido sacerdote Jesuita, fundador de CEMSE75, casi 18 años atrás cuando hacíamos una labor de voluntariado76 para enseñar computación (Word, Logo, Basic, graficadores, etc.) a niños y jóvenes de escuelas FISCALES, él nos comentaba que cuando buscaba financiamiento para el laboratorio de computación de CEMSE, los diversos organismos internacionales a quienes acudía, le respondían mas o menos lo mismo, “Para qué quiere un país del tercer mundo computadoras, le podemos dar trigo, aceite, en fin comida”, que denota el menosprecio típico que viene desde la sensibilidad de la dominación; obviamente al final de ésta odisea el “padre Tuco”, como cariñosamente lo llamábamos, obtuvo el financiamiento, con lo que su tesón mas el trabajo de otros voluntarios hizo que realmente ROMPIERAMOS LA BRECHA DIGITAL, pues en esas computadoras dábamos clases (con criterios educativos basados esencialmente en Piaget) todos los días desde 7:30 de la mañana hasta las 21:30, en grupos de 15 cada hora y media, capacitando a cientos de niños y jóvenes de escasos recursos. Estamos seguros que este grano de arena que pusimos en la Educación de estos jóvenes de la zona norte, ha dado sus frutos, pero aún no es suficiente, la brecha digital todavía existe, pero está mucho más viva en nuestros propios prejuicios. De todas maneras, esta experiencia de CEMSE enseña el camino para que otros colegios fiscales y 74 75 76

CASTELLS, Manuel. La Galaxia Internet. Reflexiones sobre Internet, empresa y sociedad. Plaza & Janés, Madrid 2001 CEMSE, Centro de Multi Servicios Educativos, obra de la Iglesia Católica, ubicada en la zona norte de la ciudad de La Paz, c. Pichincha. El voluntariado involucraba trabajo ad honorem, con la posibilidad de practicar e investigar en el laboratorio cuando había equipos disponibles, generalmente sólo pasadas las 21 hrs. o el domingo.

56 de 69


particulares incorporaran a marchas forzadas, con mucho esfuerzo y creatividad, un laboratorio de computación. Hay proyectos como el del gobierno municipal en la zona sur, que reunió en un solo ambiente computadoras para atender los requerimientos de los colegios de esa zona. Los más deberán persistir en este empeño, pues sin estas capacidades, no se entiende este nuevo mundo, se sabe que el mayor escollo es lo económico, por ello debemos entender este problema como parte de la discusión de la problemática educativa en su conjunto. En este sentido, lamentablemente, LAS POLITICAS de reforma educativa tendientes a superar la problemática educativa, entre las que se halla lo arriba mencionado, han sufrido una serie de reveses en su contextualización, desde un inicio, no se la consensuó con los más importantes actores: los maestros. Este fue el motivo, luego el pretexto, para ser el blanco de las criticas, hasta del sabotaje; sus detractores desconocen los fundamentos esenciales de la misma, los mas de ellos con muy bajo nivel profesional, temerosos resistentes al cambio, por decir lo menos, que se enmascaran en una posición sindicalista de oposición de principio, o en la del critico experto que ya ha juzgado y sentenciado un proyecto como este. Los resultados de estas posiciones antagónicas son los altos índices de reprobación en las pruebas de admisión académica a la Universidad, y los perdedores son generaciones de jóvenes que ven frustrados sus deseos de superación. Y es que en este mundo, donde lo que abunda es la información, se requiere una capacidad y competencias básicas como el del aprender a aprender, y más allá –la realización personal- el llegar a ser, para equilibrar una educación responsable. y eso la educación tradicional no lo está haciendo, y tal como van las cosas no lo hará, por ello es que en lo concreto de la educación Secundaria se impone, aunque no sea un gran descubrimiento, el desarrollo de los contenidos y los proyectos originales de la Reforma Educativa: El Constructivismo, el bachillerato diversificado, en el marco de una educación para la vida. El aporte que pueden hacer las TICs en este nivel es inicialmente a través del apoyo a la educación mediada por la computadora (CAE77) en el marco de una nueva pedagogía basada en la interacción hombre-máquina (la máquina deviene otro hombre, un maestro, un facilitador, un compañero); con un alto grado de individualidad, cada persona aprende a su propio ritmo, que le proporcionen la competencia esencial de aprender a aprender, y razonar de forma autónoma, para que sea un hombre de proyecto continuo, el mayor de los cuales será su propia vida. El grado de implementación de este tipo de educación debe ser adecuado a las posibilidades, muy limitadas por cierto, de infraestructura computacional que tienen los colegios, en especial públicos, emulando proyectos como el de los brasileños con los centros de popularización de la computación construidos en los diferentes barrios populares, para uso de los alumnos de la zona y también para la reconversión laboral de los vecinos en general. En lo óptimo, la influencia de las TICs irá en el marco de chortt-L (Computers in Humanities: Overcoming Resistance to Teaching with Technology - Los Computadores en las Humanidades: Venciendo la Resistencia a Enseñar con Tecnología), un libro que trata sobre la enseñanza en medioambientes mediados por computador; ya que este su característica multimedial es capaz de comunicar sensaciones, que serán aprehendidas de manera muy íntima por el receptor (en términos de la educación tradicional), despertando un interés mayor que cualquier medio lineal al constituirse en objetos liminares bordeando entre la realidad exterior y la ilusión, evitando, lo más posible, que su capacidad enciclopédica lo abrume. Con estos antecedentes es que podemos animarnos a hacer un análisis y su correspondiente planteamiento, orientado a la superación y al cambio de los moldes tradicionales dentro de los 77

CAE, Computer Aideed Education, que esta siendo reemplazado por el término Educación Mediada por Computadora CMC.

57 de 69


cuales se ha desarrollado hasta ahora la educación en general:

1.1. La Teoría y la Práctica “El aprendizaje sólo se da en la invención, en la reinvención, en la búsqueda inquieta, impaciente, permanente, que los Hombres hacen en el mundo, con el mundo y con los otros. Búsqueda también animada por la esperanza” (Judith Leon Guevara O.P.). El alumno accede al conocimiento por medio de su acción sobre el objeto al que transforma. En este sentido se opone rotundamente a la enseñanza tradicional, absolutista y dogmática, y asigna al alumno un rol más activo, ya que este no es un espejo que registre pasivamente las informaciones y sensaciones originadas en el medio ambiente, sino que transforma los datos que el ambiente le proporciona. Subyace también una concepción de ciencia que enfatiza un carácter instrumental para la transformación de la realidad y que asocia el proceso de producción científica con las necesidades sociales, es decir, no es una ciencia acumulativa, sino transformadora.

1.2. El aprender a aprender El alumno debe estar capacitado para solucionar la problemática y los problemas que le presente la realidad, no simplemente ejercicios académicos y mucho menos tan solo una acreditación académica; pues hoy en día, cuando lo único absoluto es el cambio mismo, los volúmenes de información, los medios que nos transmiten esa información, y las formas de la misma, son tan enormes, que sobrepasan con creces el tiempo que el individuo dispone en toda su vida; la conocida “autopista de la información”, Internet se constituye en la expresión más portentosa de este fenómeno.. Por ello es que lo sensiblemente importante en la actualidad es la generación de una capacidad general educativa de cultura general, de capacidad de asociación, de definir las capacidades y destrezas que necesita un profesional para saber que hacer, dónde buscar, cómo aprender y cómo aplicarlo. Esto necesariamente implica una redifinición del sistema de educación que en esencia es la capacidad social de ese sistema para estructurar los puentes necesarios entre los requerimientos del trabajo (lo profesional), y la educación (lo académico), cuyas dinámicas son, de hecho, muy diferentes. En lo concreto, esto se expresa esencialmente en la definición o reconceptualización de los perfiles académico-profesionales. Dada la capacidad de Internet de proveer una cantidad enorme de datos e información, se requiere la capacidad de transformarla en conocimiento específico, esta capacidad es socialmente desigual y está ligada a los orígenes sociales, familiares, culturales, pero sobre todo a la educación.

1.3. La crisis de la Educación Superior. La crisis es tan generalizada, que, también se manifiesta en la educación superior, pues "Paradójicamente, las universidades propiamente dichas se dedican a producir desempleados, porque, porque no se ha sabido resolver el problema de la masificación de la enseñanza, consecuencia de la democratización... no pueden estar preparando a personas de una forma que no sean útiles a la sociedad y no pueden, por presión de la misma sociedad, preparar gente competente

58 de 69


sin producir ciudadanos"78 cabe enfatizar que lo académico y lo humano tienen una relación biunívoca; en este contexto es preciso determinar el impacto de las TICs en las mismas instituciones configurativas de nuestra sociedad: la Universidad. Este es el desafío de la educación hoy en día y es preciso responder de acuerdo a la altura de los acontecimientos, puesto que países como el nuestro urgidos de desarrollo, olvidados, cuando no excluidos de un futuro como naciones, la prioridad más sentida es el desarrollo humano, estrechamente ligado al sistema educativo y a las políticas y tareas del desarrollo nacional.

2. LA PROPUESTA EN LO EDUCATIVO. Una de las mayores trabas para enfrentar un proceso real de modernización vienen dadas principalmente, aunque no son únicas, por las deficiencias (demora, prohibición, elevados costos, etc.) en la transferencia tecnológica. Sin embargo esto es mucho menos sensible en el área informática, por el vertiginosos desarrollo de la ciencia y la tecnología que hace anticuados herramientas, componentes y hasta conceptos en pocos meses; más aún si hablamos de la implementación de las TICs con la filosofía y Sistemas del Software Libre, que precisamente van destinadas a eliminar estas odiosas barreras que hacen a la ciencia patrimonio y lucro de unas pocas empresas; y obligan a los usuarios a adoptar soluciones propietarias sobre las que no tienen ningún control, ya que en el fondo son peligrosas cajas negras, pero sobre todo muy costosas.

2.1. La redefinición de los Perfiles académico-profesionales. En estas condiciones se impone la opción por el cambio, establecer como parte sustancial de la Visión de la Educación Superior, las tareas del desarrollo nacional, que no pasan solamente por la certificación profesional que provee, sino por la capacidad y calidad que otorga a los estudiantes para poder dar respuestas a las exigencias de la sociedad a que se debe y al mercado profesional ya descrito, donde una transversal esencial serán las TICs, lo cual es parte de la Misión de una Universidad responsable, que se contextualiza en la redefinición de sus perfiles académico-profesionales, que son la única garantía de desarrollo real de un sistema educativo cuyo producto final sea un profesional integro, crítico, investigativo y capaz de ser exitoso en el nuevo mercado profesional. Entendemos aquí el perfil académico-profesional, como el conjunto de orientaciones, disposiciones, conocimientos, habilidades y destrezas que se consideran deseables y factibles para obtener un grado académico determinado y para ejercer las labores ocupacionales coincidentes con el área de dicho título. Orientaciones, disposiciones y capacidades, tienen una significación destinada a marcar los contenidos históricos, sociales, culturales y políticos del perfil académico-profesional; expresan una intención de ruptura respecto a cualquier visión científico-tecnocrática.

2.2. La Reconceptualización y reestructuración del curriculum “El curriculum se traduce en actividades y adquiere significados concretos a través de ellas. 78

SARAMAGO, José. Premio Nobel de Literatura.

59 de 69


Esos contextos son producto de tradiciones, valores y creencias muy asentadas que muestran su presencia y obstinación al cambio cuando una propuesta metodológica alternativa se pretende instalar en unas condiciones ya dadas”79. El Currículo, como expresión de la relación teoría-práctica en el ámbito social y cultural, moldea la misma relación en la práctica educativa concreta y es, a su vez, afectada por la misma. Así pues, el cambio y la mejora de la calidad de la enseñanza se plantea no solo en la preocupación más común de poner al día los conocimientos -que comprende el currículo- para acomodarse, mejor a la evolución de la sociedad, de la cultura y para responder de mejor manera a la igualdad de oportunidades, sino además, en tanto que instrumento para incidir en la regulación de la acción, transformar la práctica de los Docentes, liberar los márgenes de la actuación profesional, etc. Aunque en su desarrollo debe tenerse en cuenta aspectos generales que pueden demorar su implementación, pero aseguran una correcta contextualización y desarrollo del mismo.

2.3. Lo particular En lo central, debe tomarse en cuenta que a diferencia de otras propuestas, esta nace de un nuevo perfil académico-profesional, y se expresa en el currículo, en su contenido y en su concepción formal en cuanto tiene una relación inversamente proporcional en el desarrollo de lo “teórico” y lo “práctico”, entendido esto último como investigación, acción y la respectiva transversalidad de valores y actitudes centradas en la dimensión persona-profesional. De todas maneras estos conceptos no son ajenos al tratamiento del conjunto de materias comprendidas en lo “teórico”. En las universidades, los modelos tradicionales de perfiles académicos basados en rigurosos estudios que basan sus perfiles en sus presupuestos academicistas, o en el mejor de los casos en simples demanda de mercado, no han sido capaces de superar la calidad de la oferta educativa, mucho menos responder a las cambiantes exigencias del mercado laboral de hoy; es mas han generado profesionales con bajos perfiles académicos.

2.3.1. El quehacer: La I+D “En estos callejones traseros de la sociedad, ya sea en redes electrónicas alternativas o en redes populares de resistencia comunal, es donde he percibido los embriones de una nueva sociedad, labrados en los campos de la historia, por el poder de la identidad." Es en este contexto que una Universidad pública (o privada) tiene en la filosofía, la forma de investigación y desarrollo de una poderosa Plataforma de desarrollo GNU/Linux la fortaleza para facilitar y cualificar la formación de recursos humanos altamente capacitados, comprometidos y críticos con su realidad, con una visión amplia del mundo y tecnológicamente competitivos, en un nuevo mundo tan impactado por las TICs; estos recursos humanos tendrán una alta valoración aun en mercados laborales no locales, por su alta competitividad y fiel representación del constante cambio. 

79

Facilitar el acceso a tecnologías de punta Conlleva una obligación ineludible pues en el mundo que vivimos es la condición

SACRISTA, J Gimeno. Una reflexión sobre la práctica. Ed. Morata, 3ra. edición, Madrid 1991.

60 de 69


sine quanon para garantizar la competitividad tecnológica de nuestros profesionales y su éxito en el mercado laboral, en los marcos ya descritos. Impulsar la I+D En este contexto, se constituye en un imperativo hablar de la necesidad de Investigación+Desarrollo, como la única respuesta factible que haga posible ese futuro. A través de los Institutos de Investigación, la interacción con Instituciones y profesionales en el mundo entero, acelera y garantiza los procesos de transferencia tecnológica, en especial en los grupos de Investigación y Desarrollo en Internet, que al igual que la Comunidad del Software Libre, evitará que la ciencia sea patrimonio de una(s) empresa(s). Ubicar los procesos de investigación en tiempo y espacio, asociándolos a la malla curricular, pero sin atarlos, desde los elementales que podemos conocer, como son la aplicación de Auxiliaturas de Cátedra, que suele generar una suerte de cátedras paralelas, pasando por los incipientes procesos finales de carrera donde se trata de sumergir al futuro profesional en la práctica, con talleres e incluso materias que no logran ni el mas mínimo objetivo: el capacitar al futuro profesional en metodología de investigación. Esto se hace más patente cuando analizamos el alto numero de profesionales sin titularse; o peor de aquellos que no trabajan en su profesión. Otro modelo implementado es el de acercar al individuo en diferentes niveles a los procesos laborales, llámese pasantías u otra cosa, los mismos sólo fomentan la "curriculitis", dotando de una experiencia laboral curricular como única arma al nuevo profesional.

Debemos entender la investigación como la adaptabilidad futura para un profesional y mucho más en su condición de ser humano, concretamente en ésta época "no sobrevive el mas fuerte sino el mas adaptable, y no solo cuenta su capacidad de adaptabilidad, sino la rapidez con la que reconoce y enfrenta los cambios" como afirma acertadamente Kotler. La comunidad científica en Internet ha permitido, empleando esta metodología, acercar al individuo al proceso de investigación científica de una forma más real y transparente, haciendo patente el modo de desarrollo, de Investigación en trabajo en equipo y de asentar un trabajo sobre el de otro superándolo y planteándolo de tal manera que otro venga a poner luego su aporte y mejorarlo mucho más; en un ambiente humano y de condiciones que lo facilite, sea este un laboratorio, un aula, ó el Internet.

2.3.2. Los Círculos de Calidad Estos procesos se hacen factibles en la aplicación de los CIRCULOS DE CALIDAD, formados alrededor de intereses o por niveles, a los procesos de formación académica, asegurando una interacción como la ya señalada, como única herramienta para plasmar en realidad la unión de TEORIA y PRACTICA. Como conjuntos humanos, se constituyen en la piedra angular para el desarrollo de una trabajo efectivo y eficiente, ya que se forman alrededor de intereses comunes, conllevan implícitamente reglas, normas y protocolos preacordados y exigibles, una sociedad a escala micro, facilita la administración y también su control, seguimiento y reconducción.

61 de 69


Investigación asimilativa->Replica/Emulación Círculos de calidad { Investigación generativa ->Generación/Producto Investigación Asimilativa - (pasiva) los procesos de aprendizaje se basan en la invención y reinvencion. Investigación Generativa - (activa) los procesos de aprendizaje deben ser propositivos, es mas deben tener un producto.

Estos dos únicos procesos nos dan la certeza de convertir el simple conocimiento en competencia INVENCION COMPETENCIA <-> CONOCIMIENTO { REINVENCION

El modelo de Gestión de Calidad Total contextualizado en los CIRCULOS de CALIDAD se basa en: CULTURALES CONCEPTOS { ANTROPOLOGICOS

Los mismos se definen en dos grandes grupos y son:  FACTORES  VALORES El individuo, en este contexto adquiere:  Habilidades y Destrezas  Valores (éticos, morales, trabajo en equipo, transparencia, etc.) En el proceso el individuo es capaz de interactuar con su ambiente socializando más sus destrezas hasta convertirlas en competencias; en la interacción con su círculo de calidad reconocerá: Grupo --> Liderazgo Institucional Individuo

{ Círculo --> Liderazgo Natural

2.3.3. La evaluación En la sociedad, y de manera sustancialmente cualificada, en los círculos de calidad, la relación de cada uno con los demás se torna en una fuente reveladora de acción, de compromiso, de intercambio, de confrontación de puntos de vista, de reacción, de interacción, pero sobre todo de evaluación. Sin que por ello se pierda la particularidad, la originalidad “es darle un profundo significado al grupo y a que exista una complementación y perfeccionamiento que parte de cada uno para los demás. La verdadera originalidad se desarrolla en Comunidad”80. Esta relación debe ser interrogada, el medio es la evaluación; la evaluación conlleva factores inherentes a la cultura de la calidad e incorpora aspectos, como la transparencia, en los círculos de calidad. Esencialmente está fundada en la formación ética 80

CHICO Gonzalez, Pedro, Estilo Personalizado en Educación. Bruño, Madrid 1979

62 de 69


y crítica (los valores), estrechamente ligada a la responsabilidad común (el círculo de calidad); en este contexto, la disciplina, y la responsabilidad expresada en el compromiso del cumplimiento de objetivos por etapas (los quarters, y/o el half time) son estrictamente controlados, evaluados y reconducidos, en un ciclo continuo de mejoramiento. Lo más positivo y la única garantía de éxito de los objetivos será el cumplimiento de objetivos por etapas, es que los márgenes, tareas, horarios, sanciones, sean consensuados y conocidos por el grupo, pues la disciplina será el resultado de una interiorización, de un proceso en la conquista de la Libertad, jamás de una imposición. Esto además de generar políticas, enseñara a diseñarlas y administrarlas, valorando su utilidad. Un ejemplo de esto es la AUTOEVALUACION, donde se hace realidad que la mejor crítica es la autocrítica; así la responsabilidad compartida en el trabajo en equipo, la calidad en el servicio porque el otro confía en nosotros (el siguiente es el cliente), etc., se contextualiza en un debe y un haber; concretizado en el control continuo y permanente; la reconducción consiguiente y luego reiniciamos el ciclo de perfeccionamiento. “Todo lo que vale ha sido mortificado... Ved si hay algo que no haya pasado por el fuego, o por la sierra, o por el martillo, o por la lima... retorciéndose, estrechándose, mortificándose" aseveraba Alexis Carrel. En este sentido creemos que en la evaluación necesariamente debe haber “bajas”, como en el mundo real: La Sanción, ésta deberá ser ejemplarizadora, pero siempre basada en los acuerdos logrados por el grupo en el principio, proveniente del control registrado, para que la sanción tenga el aval de la censura social de todo el equipo.

3. EL OBJETIVO El objetivo de esta propuesta no solo se centra en la generación de nuevos procesos investigativos, o el desarrollo de nuevos productos, estos procesos son solo un medio que permita al alumno ser: NUEVA PERSONA --> NUEVO PROFESIONAL

Una educación centrada en la persona, llevará progresivamente a una unificación-del-ser-en-la-vida: Ser en relación con capacidad para interrogar al ser, al mundo, a sí mismo, con vocación a la superación de si mismo, con capacidad para crear algo original; ser abierto al mundo, a los otros, capaz de comprometerse libremente, ser único e irrepetible; por lo que se trata de que, a través de la enseñanza y por medio de la relación personal que implican las actividades orientadoras, el estudiante realice el importante y lento aprendizaje del vivir humano: Trabajar que es comunicarse con las cosas; y convivir que es comunicarse con las personas81. En este marco, el propósito fundamental es lograr un desarrollo integral en los alumnos, tanto en los EJES CURRICULARES, como en lo COMPONENTES CURRICULARES; alumnos con capacidades para la imaginación, la investigación y la creación (Eje heurístico); la reflexión, la relación y la expresión (Eje simbólico); la interrogación, la deliberación, la valoración (Eje crítico); y la vocación, la decisión y la acción (Eje de autodesarrollo). En este contexto, los Ejes curriculares constituyen los puntos sobre los cuales debe administrarse la actividad pedagógica, son el centro de atención de la organización de la práctica educativa. Por su parte los Componentes Curriculares encarnan la reunión y organización de los objetivos y 81

LEON GUEVARA, Judith O.P. Fundamentos para una personalización liberadora. Indo American Press Service-Editores, Bogota 1987

63 de 69


contenidos instruccionales según se proyecten sobre tres campos básicos: La formación científica básica, la formación profesional especializada y la formación general de Autodesarrollo. En cierta medida estos tres componentes persiguen que el estudiante adquiera una conciencia adecuada para Sentir (Estudios generales), Pensar (Estudios básicos) y Hacer (Estudios profesionales). Además de lograr un equilibrio psíquico y la seguridad existencial del sujeto de aprendizaje, y en lo formativo académico logrará su eficiencia, racionalidad, criticidad y el autodesarrollo, es decir favorecerá la consecución del Perfil Académico-Profesional. En una sociedad hipercomunicada como la nuestra, la propia mente del individuo ha creado mecanismos de defensa contra el gran volumen de las comunicaciones (resumenitis, ceguera publicitaria, etc.), y selecciona aquella que considera útil y rechaza la que no; por lo general acepta aquello que se relaciona con sus conocimientos y experiencia previas, generando aquello que Vigotsky denomina la zona de desarrollo próximo, que es la zona potencial de adquisición de nuevos y mas significativo, cuanto cualitativo conocimiento. Así ante la saturación de comunicación, cuando solo una mínima parte del mensaje que se envía lograra llegar a destino, -en términos de una educación tradicional- se precisa concentrar en el que recibirá el mensaje (receptor) y secundariamente en el que lo envió (emisor), en otros términos: priorizar los esfuerzos en los procesos de aprendizaje, antes que en los de enseñanza.

3.1. Objetivo Estratégico. "El triunfo es la conciencia personal dentro de una ética inflexible. ¡Ay de los que prefieren atajos y facilidades" (Juan Filloy). Sentar las bases para la construcción de la sostenibilidad social y económica de acciones tendientes a la constitución de políticas de investigación y desarrollo amplio de las TICs, que apuntalen la independencia tecnológica en el área informática de tal manera que permita encarar con más éxito un desarrollo económico, justicia y equidad social.

3.2. Sustentabilidad y sostenibilidad económica Las pautas que nos permitimos poner en consideración, se basan en los presupuestos teóricos ya explicados y en la sustentabilidad y sostenibilidad económica del caso, para instituciones como la Universidad Pública, con muchas limitaciones presupuestarias. El emplear y desarrollar sistemas dentro de la filosofía del Software Libre aseguran el aspecto esencial de cualquier proyecto: la cuestión económica, en el marco ya explicado en el punto 4.2. del Capitulo V.

4. LAS TAREAS INMEDIATAS    

64 de 69

Discusión amplia y generalizada de la temática de las TICs, y su impacto en las diversas áreas del conocimiento. Popularizar el uso y empleo de tecnologías y técnicas informacionales de forma extensiva en todos los ámbitos de las Carreras Universitarias. Consolidar una Red Universitaria real de interconexión física y de interacción investigativa y administrativa. Informativizar los procesos administrativos, e incorporar el componente de control y seguimiento al desarrollo de las investigaciones, a fin de coadyuvar a su mejor desarrollo y


 

65 de 69

cumplimiento, promoviendo la interdisciplinariedad. Además de proporcionar la mejor base de datos para generar Data Warehouse institucional, académico y administrativo, que pueda asistir a la toma de decisiones gerenciales de validación, rectificación y apoyo. Vinculación a través de Interacción Social, con Instituciones educativas para el desarrollo de software educativo. Apuntalar el desarrollo del Derecho Informático, asentado en el respeto de los derechos humanos, consolidando los derechos de los ciudadanos.


BIBLIOGRAFIA Y REFERENCIAS. ABBEY and COREY, Michael. Oracle 8, Guía de aprendizaje. Ed. Mc Graw-Hill. Madrid 1998. ALPER, Joseph. 11 December 1998. "From Army of Hackers, an Upstart Operating System." Science, Vol. 282, No. 5396, pp. 1976-1979. BADBIT, Revista digital La Raza. badbit@yahoo.com, http://www.raza-mexicana.org.mx BARRIOS, Gabriela y PEREZ Muñoz, Internet y derecho en México. McGraw Hill-Sociedad Internet de México, México 1998. BECKER, Donald J., Thomas Sterling, Daniel Savarese, John E. Dorband, Udaya A. Ranawak, Charles V. Packer. 1995. Beowulf: A Parallel Workstation for Scientific Computation. Proceedings, International Conference on Parallel Processing. BERST, Jesse. Anchordesk, "Now you are an enemy of the State", revista virtual ZDNet . 23 de agosto 2001 BOLAÑO, Ricardo. EPTIC-On Line BRIDS, Ted. The wall Street Journal Online, 21 de mayo de 2001 CANDEIRA, Javier. Diario del Navegante, especial para elmundo.es CASTELLS, Manuel. La Galaxia Internet. Reflexiones sobre Internet, empresa y sociedad. Ed. Plaza & Janés, Madrid 2001 CASTELLS, Manuel.. Sociedad Red ... CHICO Gonzalez, Pedro, Estilo Personalizado en Educación. Bruño, Madrid 1979 CNN, La Razón 25 de febrero de 2001 DEL POZO Y CONTRERAS, Luz María. El derecho informático. Edición del autor. México, 1987. FEIT, Sidnie, TCP/IP, McGraw-Hill FORBES Magazine. http://www.forbes.com/forbes/98/0810/6203094s1.htm GIRONDA, Eusebio. Sociedad, Estado y Globalización. Ed. Druck, La Paz 2000 GIRONDA, Eusebio. Teoría del Estado. Ed. Edobol, La Paz 2002 GOLDSTEIN, Emmanuel, Director de la Revista Digital 2600, http://www.2600.com HAGAR Nicky, Secret Power, EEUU 1996 HERNÁNDEZ CAMARGO, Emiliano. La informática jurídica y legislativa en México (México, Conacyt, 1990) HOFFMAN Y HARGROVE, www.esd.ornl.gov/facilities/beowulf". INTEL, http://support.intel.com/support/processors/pentiumiii/psqa.htm, http://www.intel.com/pentiumiii/utility.htm. KLEIN, Naomí. No Logo. Ed. KOONTZ, Harold y Weihrich Heinz. Administración una Perspectiva Global. Mc Graw Hill, México DF 1995 LEON GUEVARA, Judith O.P. Fundamentos para una personalización liberadora. Indo American Press Service-Editores, Bogota 1987May, Mike. March 1998. "Piles of PCs." American Scientist, Vol. 26, pp. 128-129. MUNDO DIGITAL, Revista informática. La Paz, 2000 MURRAY, Janet H. Hamlet en la holocubierta, PAIDOS 1999 NATHAN, Rosenberg. Perspectives on technology and economics, Cambridge University press, Cambridge 1999. RAYMOND S., Erick. The Cathedral and the Bazaar. http://www.tuxedo.org/~esr/writings/cathedral-bazaar/ Resolución de la Asamblea General de la ONU, de 10 de diciembre de 1948 66 de 69


SACRISTA, J Gimeno. Una reflexión sobre la práctica, Ed. Morata, 3ra. edición, Madrid 1991 SIMPOSIO LATINOAMERICANO Y DEL CARIBE: las tecnologías de información en la sociedad. Aguas Calientes, México, 1999 derechos humanos e informática Carlos Antonio de la Sierra Bo Carlsson B. Patricia Arévalo Pérez Grupo Brainware, S.A. de C.V. Carlsson y Asociados, S.A. de C.V. gbwpap@mail.internet.com.mx STIBBINS, Steve. Personal Computers Come out of the closet, Infosystem Septiembre de 1981 THE ECONOMIST. "Supercomputers: Plug and Play." 21 November 1998. THE LINUX DOCUMENT PROJECT, http://susite.unc.edu/LDP/ VALDEZ, Dardo A., Planeta Linux 03/03/2002 VIRTUALIA, suplemento de Cibercultura y Nuevas tecnologías. Periódico La Jornada. Mexico DF, Martes 24 de agosto de 1999. WHITAKER, Reg, El fin de la privacidad. Cómo la vigilancia total se está convirtiendo en realidad, Paidós, España 2000 WIRED Magazine. Moody, Glyn. The Greatest OS that (N)ever was. http://www.wired.com/wired/5.08/linux.html http://www.fundaciondike.org Fundación Dike http://slug.ctv.es/~sanvila/ GNU en espa¤ol http://www.cs.pdx.edu/~trent/gnu/ GNU no es Unix http://www.fsf.org Free Software Foundation http://www.gnu.org Pagina oficial de GNU http://www.xfree86.org Sitio del Servidor gráfico XFree86 http://delitos.8m.com http://www.baquia.com/com/noticias.html http://www.bigbrotherinside.com/ http://www.heise.de/ct/english/99/05/news1/

67 de 69


INDICE

Tabla de Contenidos A MANERA DE INTRODUCCION................................................................................................... 5 CAPITULO I........................................................................................................................................ 7 1. APROXIMACION A UNA DEFINICION......................................................................................7 2. LOS HACKERS Y SU DECISIVO APORTE A LAS TICs........................................................... 7 3. SUS VARIANTES......................................................................................................................... 11 4. LA GRAN GUERRA DE LOS HACKER'S..................................................................................11 CAPITULO II.....................................................................................................................................13 1. EL HARDWARE........................................................................................................................... 13 1.1. La Computación De Red.........................................................................................................14 2. EL SOFTWARE.............................................................................................................................14 2.1. El Software Comercial............................................................................................................14 2.1.1. Cultura del MERCADO: La tiranía de los Derechos de Autor y la colonización de las marcas (logos)........................................................................................................................... 15 2.1.2. La Licencia de Software Comercial................................................................................16 2.1.3. La Garantía del Software Comercial...............................................................................18 2.2. El Software Libre....................................................................................................................19 2.2.1. La Filosofía del Software Libre...................................................................................... 19 2.2.2. La Licencia del Software Libre.......................................................................................20 2.2.3. La Garantía del Software Libre.......................................................................................21 2.3. Las otras Licencias..................................................................................................................22 CAPITULO III................................................................................................................................... 24 1. ESTADO Y LEYES....................................................................................................................... 24 2. ACCIONES Y “LEGISLACIÓN” ANTIHACK........................................................................... 26 3. EL FIN DE LA INTIMIDAD: ATENTADOS A LOS DERECHOS, LIBERTADES Y SEGURIDAD..................................................................................................................................... 30 4. Y LOS DERECHOS HUMANOS, ¿QUÉ?....................................................................................35 CAPITULO IV................................................................................................................................... 37 1. INTERNET, LA TIC POR EXCELENCIA................................................................................... 38 2. LA INNOVACION........................................................................................................................ 39 3. SUS CARACTERISTICAS E INFLUENCIA............................................................................... 39 3.1. La informacionalidad............................................................................................................. 40 3.2. La Globalización.....................................................................................................................40 3.3. La Interconexión de Redes..................................................................................................... 40 3.4. Su impacto en lo socio-económico......................................................................................... 41 3.4.1. El empleo........................................................................................................................ 41 3.4.2. El desempleo................................................................................................................... 42 3.5. Su impacto en lo educativo y cultural.....................................................................................42 4. LAS OPORTUNIDADES: POLITICAS Y ESTRATEGIAS........................................................44 4.1. Las Políticas............................................................................................................................ 45 4.2. Las estrategias.........................................................................................................................45 5. EL OBJETIVO............................................................................................................................... 47 CAPITULO V.................................................................................................................................... 49 1. UNA HISTORIA OBLIGADA...................................................................................................... 49 2. LA FORMA DE DESARROLLO: EL BAZAR............................................................................ 49 3. LAS DISTRIBUCIONES...............................................................................................................50 68 de 69


4. LA PROPUESTA........................................................................................................................... 50 4.1. Lo Técnico.............................................................................................................................. 53 4.2. Lo Económico.........................................................................................................................53 4.3. Lo Artístico............................................................................................................................. 54 4.4. Lo Ecológico...........................................................................................................................54 CAPITULO VI................................................................................................................................... 56 1. LA PROBLEMATICA...................................................................................................................56 1.1. La Teoría y la Práctica............................................................................................................ 58 1.2. El aprender a aprender............................................................................................................ 58 1.3. La crisis de la Educación Superior......................................................................................... 58 2. LA PROPUESTA EN LO EDUCATIVO...................................................................................... 59 2.1. La redefinición de los Perfiles académico-profesionales....................................................... 59 2.2. La Reconceptualización y reestructuración del curriculum....................................................59 2.3. Lo particular............................................................................................................................60 2.3.1. El quehacer: La I+D........................................................................................................ 60 2.3.2. Los Círculos de Calidad.................................................................................................. 61 2.3.3. La evaluación.................................................................................................................. 62 3. EL OBJETIVO............................................................................................................................... 63 3.1. Objetivo Estratégico............................................................................................................... 64 3.2. Sustentabilidad y sostenibilidad económica........................................................................... 64 4. LAS TAREAS INMEDIATAS...................................................................................................... 64 EPILOGO PARA UN PROXIMO PROLOGO................................................................................. 65 BIBLIOGRAFIA Y REFERENCIAS................................................................................................ 66

69 de 69


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.