Internet para profesionales de la Salud JosĂŠ Luis Fresquet Febrer
Internet para profesionales de la Salud
Internet para profesionales de la Salud JosĂŠ Luis Fresquet Febrer
© Fundación Uriach 1838 Polígono Industrial Riera de Caldes Avda. Camí Reial 51-57 Palau-solità i Plegamans (Barcelona-Spain) www.fu1838.org Diseño y maquetación: CIURANA DISSENY, S.C.P Impresión: GRÀFIQUES MANLLEU Quedan rigurosamente prohibidas, sin la utorización escrita del titular de copyright, bajo las sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamo públicos. Impreso en España Printed in Spain ISBN: 978-84-87452-19-2 Depósito legal: B-32225-2008
4
El Presidente de la Fundación Uriach 1838 y el autor del presente libro quieren dedicar la edición de éste al Dr. Moisés Broggi Vallès, con motivo de cumplir sus cien años de vida y ser testigo de las grandes transformaciones de las Ciencias de la Salud
Sumario Prólogo ..............................................................................................................................
9
Introducción . ....................................................................................................................
11
Internet . ............................................................................................................................ Algunos datos sobre el uso de Internet . ........................................................................................ Nociones sobre Internet .................................................................................................................. Los servicios básicos de Internet .................................................................................................... Un poco de historia ......................................................................................................................... Internet como fenómeno social ......................................................................................................
13 13 15 17 19 25
Buscar en Internet ............................................................................................................ Introducción ..................................................................................................................................... Los buscadores locales . .................................................................................................................. Los directorios. Directorios generales . .......................................................................................... Directorios específicos de medicina y ciencias de la salud .......................................................... Motores de búsqueda. Los motores de búsqueda generales ..................................................... Los motores de búsqueda específicos para medicina y ciencias de la salud . ........................... Los Metabuscadores ........................................................................................................................
29 29 29 30 33 36 43 45
Bases de datos médicas en Internet ................................................................................. Introducción ..................................................................................................................................... Medline, pubMed ............................................................................................................................. Embase . ............................................................................................................................................ Índice Médico Español (IME) .......................................................................................................... Biosis . ................................................................................................................................................ Bases de datos de la MBE (Medicina basada en la evidencia) .................................................... The Cochrane Library . .................................................................................................................... Bases de datos de la Biblioteca Cochrane Plus . ........................................................................... Buscar en Cochrane Library plus ................................................................................................... Clinical evidence o BMJ Clinical Evidence ...................................................................................... Otras bases de datos ....................................................................................................................... Imágenes en medicina. Bases de datos de imágenes . .................................................................
47 47 48 59 59 62 64 66 67 68 70 72 74
Comunicarse ..................................................................................................................... El correo electrónico ........................................................................................................................ Seguridad en el uso del correo electrónico ................................................................................... La comunicación inmediata ............................................................................................................ Mensajería instantánea y correo electrónico en la asistencia médica . .......................................
79 79 83 85 89
Participar y mantenerse informado ................................................................................. Los foros . .......................................................................................................................................... Las listas de correo . .........................................................................................................................
93 93 95
7
Grupos de discusión ........................................................................................................................ RSS (Really Simple Syndication) . ...................................................................................................
97 99
La World Wide Web . ......................................................................................................... Introducción ..................................................................................................................................... Los navegadores o browsers .......................................................................................................... Funcionamiento de los navegadores Web .................................................................................... Las interfaces .................................................................................................................................... ¿Cuáles son los principales elementos de una interfaz Web? ..................................................... Un concepto importante: la facilidad de uso ................................................................................ Los contenidos de las páginas Web de tipo médico y sanitario . ................................................ Portales de tipo médico en la World Wide Web ...........................................................................
103 103 108 111 114 118 120 123 126
La Web 2.0 o la Web participativa .................................................................................... Introducción ..................................................................................................................................... Las redes sociales . ........................................................................................................................... Compartir marcadores .................................................................................................................... Los blogs o bitácoras ....................................................................................................................... Buscadores de blogs de medicina . ................................................................................................ Crear un blog . .................................................................................................................................. Los podcasts . ................................................................................................................................... YouTube y otros sitios de vídeos científicos ................................................................................... Alternativas específicas a YouTube para vídeos educativos y científicos .................................... Flirck e imágenes médicas en la red ............................................................................................... Slideshare o el YouTube de las presentaciones . ........................................................................... Enciclopedias Web 2.0 y las wikis ................................................................................................... Las wikis ............................................................................................................................................ Aplicaciones Web de ofimática .......................................................................................................
129 129 132 134 136 137 139 141 145 146 147 149 150 153 154
Publicar en Internet ......................................................................................................... Publicar en revistas y repositorios .................................................................................................. Las publicaciones tradicionales ...................................................................................................... Otro tipo de publicaciones . ............................................................................................................ La Declaración de Budapest para el Acceso abierto .................................................................... Revistas de acceso abierto ..............................................................................................................
157 157 158 159 159 163
Los pacientes e Internet ................................................................................................... Introducción ..................................................................................................................................... El derecho a una información rigurosa y adecuada ..................................................................... Iniciativas llevadas a cabo por profesionales ................................................................................. Iniciativas gubernamentales ............................................................................................................ Iniciativas que surgen de los pacientes y su entorno . ..................................................................
167 167 167 169 173 175
Noticia sobre la Telemedicina . ......................................................................................... Una introducción al tema ................................................................................................................
179 179
8
Prólogo
S
i, tal y como indica la RAE, el adjetivo“útil”se dice de todo aquello que puede servir y aprovechar en alguna línea, entonces podemos, verdaderamente, aplicarlo de forma certera a la obra que nos ocupa. El autor es muy consciente de que, sin embargo, esta utilidad pueda verse limitada por la vorágine de novedades que se producen a diario en Internet, que puede condenar a la obsolescencia parte de los contenidos en un plazo de tiempo muy limitado. Sin embargo, a nuestro entender, el interés que para los profesionales sanitarios tiene este volumen, radica, en gran medida, en que sitúa y contextualiza las herramientas que ofrece la red de redes, de tal modo, que proporciona un análisis muy interesante y una reflexión, en cierto modo, intemporal. Y ello no es casual tratándose de una persona con una trayectoria conocida y respetada en el mundo de la historia de la medicina que ha sido capaz de aunar un trabajo muy sólido como historiador, con una curiosidad intelectual y un esfuerzo constante de actualización, en el terreno de las Tecnologías de la Información y Comunicación (TIC) aplicadas a áreas sanitarias, en especial a las histórico-sanitarias. La experiencia de más de una década en este terreno no se improvisa y el lector puede apreciar el resultado en este libro cuya edición, una vez mas, hay que agradecer a la generosidad y el buen hacer de la Fundación Uriach. A destacar, el tratar de forma conjunta todas las posibilidades interesantes que Internet puede ofrecer a los profesionales de la salud. Aunque en el mercado editorial pueden encontrarse algunas monografías, mas o menos extensas, que se ocupan de una o varias de las utilidades que la Red ofrece, la gran ventaja de este libro es que el usuario va a poder encontrar aquí toda la gama de herramientas, desde la búsqueda de información sistemática y reglada hasta la telemedicina y los recursos de información dirigidos a los pacientes. Los contenidos, que el propio Fresquet glosa en la introducción, tienen, además, la virtualidad de resultar de interés para cualquier profesional en el ámbito de la salud, trabaje en cualquiera de las áreas o especialidades en la que trabaje y el estar tamizados por un sentido crítico que confiere un valor añadido. El autor no se deja deslumbrar, como sucede no pocas veces en este tipo de obras, por la magnitud y la novedad por la novedad, sino que es capaz de colocar cada innovación en su lugar adecuado. Los destinatarios del trabajo no son sólo aquellos sanitarios que han sido capaces de continuar aprendiendo, no sólo en sus campos específicos, sino en la aportación que las TIC han ido proporcionando a dichos campos y estar muy al día de las mismas. Este tipo de profesionales no se va a sentir defraudado puesto que va a encontrar muchas novedades y estrategias de comunicación e información que son menos conocidas, como los RSS o las ventajas que ofrece la Web 2.0 o la Web participativa. Junto a ellos, también los mas 9
rezagados o los que sienten todavía una especie de temor reverencial frente a estas técnicas van a sentirse cómodos, ya que las explicaciones son muy claras y al alcance de cualquier profesional responsable que sea capaz de valorar lo que estas novedades pueden ayudarle a mejorar lo que es la parte mas sustantiva de su oficio: mejorar la vida y la salud de las personas. Una última apreciación: el modo de enfocar y resolver los diferentes temas que aparecen en el libro, va mas allá de la pura moda coyuntural y sólo hay que esperar y animar al autor para que continúe transitando por unos caminos que nos son tan útiles y necesarios. Rosa Ballester
Catedrático de Historia de la Ciencia Dept. Salud Pública e Historia de la Ciencia. Facultad de Medicina Universidad Miguel Hernández. Sant Joan d’Alacant.
10
Introducción
I
nternet está cambiando rápidamente la forma en la que hacemos las cosas: buscar información, comunicarnos, publicar, opinar, dialogar, enseñar, aprender, comprar y un largo etcétera. Aunque este invento se desarrolló y restringió durante un tiempo al ámbito de la investigación, en los años ochenta traspasó esa barrera y, desde entonces, ha evolucionado hasta la actualidad de forma imparable. Los especialistas dicen que en uno o dos años la Red se habrá instalado por completo en nuestras vidas y su uso será imprescindible. Podremos conectar en cualquier momento y lugar gracias a nuevos dispositivos móviles. La influencia de Internet ha llegado a todas las capas sociales, prácticamente a todos los grupos de edad, especialmente los más jóvenes, y a todos los ámbitos sociales y culturales, aunque con diferencias que se deben a factores sociales, culturales y psicológicos. El campo de la medicina es uno de ellos. Para la enseñanza de grado, postgrado y de actualización; para la comunicación entre profesionales, entre estos y las instituciones asistenciales, y entre estos y los pacientes; para la búsqueda de información; para la consulta de revistas científicas, libros, enciclopedias y publicaciones científicas; para la discusión y el debate entre profesionales; para la formación de grupos salvando las barreas geográficas; para publicar; para mejorar la asistencia; para proporcionar información rigurosa a los pacientes; y para que estos hagan oír sus opiniones, experiencias y pensamientos. No es poco. Todos estos cambios requieren actitudes, conocimientos, competencias y habilidades para manejar las nuevas tecnologías de la información y la comunicación, y poder beneficiarse de ellas. Este libro pretende ser una contribución destinada al profesional de la medicina para lograr estos objetivos. Desde el principio no se ha concebido como un repertorio de enlaces que lleven a sitios Web específicos, sino como una guía que plantea el enorme potencial de las TIC. En la medida de lo posible se han introducido aspectos históricos y teóricos, ya que no está de más conocer la procedencia de las ideas y cuáles son sus fundamentos. Un libro sobre Internet corre el peligro de que quede anticuado en el intervalo de tiempo que va desde la redacción a su salida a la calle. Mientras redacto estas líneas ha surgido la noticia de que Microsoft quiere adquirir Yahoo! Si esto sucede, muchas de las cosas que se mencionan en el texto serán historia, pero esto es irremediable. He hecho lo posible para que pueda ser útil durante un tiempo. También pretendo que no sólo sea de utilidad para las cuestiones profesionales sino que lo sea además para otros aspectos de la vida cotidiana. He estructurado el libro en diez capítulos. El primero se dedica, sobre todo, a demostrar la importancia de Internet, anotar algo de su funcionamien11
to y enumerar los principales hitos que han marcado su historia. El segundo capítulo aborda un tema crucial para cualquier científico: la búsqueda de información. El tercero se detiene en las bases de datos que, sin duda, conocen todos los profesionales de la medicina, pero que no viene mal un repaso al tema. El cuarto capítulo revisa las diferentes maneras de comunicarse a través de la Red, sobre todo las distintas al correo electrónico, tan devaluado por su falta de seguridad y por el exceso de publicidad. Se aprovecha también para hacer referencia al tema de la seguridad y la criptografía. El capítulo cinco se ocupa de la participación y de mantenerse al día en cuanto a noticias se refiere, gracias a los medios que Internet pone para ello. El extenso capítulo seis aborda uno de los logros más importantes de Internet: el World Wide Web. En él se da noticia de su creación y evolución, de los navegadores, del lenguaje HTML, de la importancia que tienen las interfaces de programas y de páginas Web, y de lo que ahora se llama “usabilidad”. Hemos incluido en este capítulo una breve descripción de los sistemas que se están desarrollando para garantizar la calidad de información de tipo médico, y algo sobre los portales destinados a los profesionales. El séptimo capítulo se detiene en uno de los fenómenos más importantes actualmente en la Red: la llamada Web participativa o Web 2.0, surgida después de la llamada explosión de la burbuja tecnológica. En el capítulo ocho se explican las posibilidades de publicación en la Red que no se han analizado en otros capítulos, y se habla especialmente de las revistas de acceso abierto y de los repositorios. El décimo capítulo se consagra a la información dirigida a los pacientes, por un lado, y a la que procede de ellos, por otro. Finalmente, el décimo capítulo hace una breve incursión en lo que se denomina telemedicina o eSalud. Señalar, por último, que se ha optado casi siempre por mencionar y comentar los sitios Web y los servicios gratuitos.
12
Internet
La creación y el desarrollo de Internet1 es considerada por muchos como una extraordinaria aventura en la que se aprecia la capacidad de los humanos por trascender las reglas institucionales, subvertir los valores establecidos en el proceso de creación de un nuevo mundo y superar las barreras burocráticas. Como señalan muchos expertos en el tema, ha demostrado algo de gran importancia: los derechos de propiedad y la competencia han sido superados ampliamente por una innovación apoyada en los principios de cooperación y en la libertad de información2. Internet se ha constituido en el símbolo e instrumento clave del nuevo sistema tecnológico. Es libre e interactivo porque sus creadores lo hicieron público sin derechos de propiedad; si no lo hubieran hecho así quizás hoy no existiría.
Algunos datos sobre el uso de Internet El porcentaje de personas que conocen y utilizan Internet ha crecido de forma extraordinaria en pocos años. Ha sucedido lo mismo que con los teléfonos celulares o móviles. Al principio sólo unos pocos los conocían y utilizaban; era una etapa en la que las zonas o territorios con cobertura eran escasas y los precios de los aparatos, muy altos. Con el tiempo, sólo unos cuantos años, se han generalizado entre la población. En estos momentos hay más teléfonos móviles en España que habitantes. Según los datos estadísticos de 2007 de Internet World Stats3 en España, sobre una población estimada de 40.448.191 de habitantes, utilizan Internet 22.843.915, con una penetración del 56,5 por ciento y con un crecimiento experimentado para el período 2000-2007 del 324 por ciento. En el año 2006, según datos de Telefónica, se superó en el mundo la barrera de los 1.000 millones de internautas (en torno al diez por ciento de la población mundial). En lo que respecta al grado de penetración de Internet en la Unión Europea, en el año 2006 se mantenía el liderazgo de los países nórdicos frente a los países de la cuenca mediterránea y del este europeo. El caso de Estonia, con una alta penetración, es particular debido al flujo económico y de ideas que recibe de Finlandia. De los países mediterráneos, Francia y España lideran el grupo con tasas inferiores a las de los países nórdicos y del centro de Europa. Según el informe de Telefónica4, el lugar de acceso preferido a Internet en España y los países de nuestro entorno es el hogar. De hecho, existe una correlación entre el grado de desarrollo del acceso a la red en un país y el lugar
1 Para el Federal Networking Council, Internet se refiere al sistema de información global que (1) está lógicamente vinculado por un espacio de dirección globalmente único basado en el Protocolo Internet (IP) o las subsiguientes extensiones o continuaciones; (2) es capaz de soportar comunicaciones usando el juego Protocolo de Control de Transmisión / Protocolo Internet (TCP/IP) o sus subsiguientes extensiones, continuaciones u otros protocolos compatibles con IP; y (3), proporciona, usa o hace accesible, bien pública o privadamente, servicios de alto nivel provistos por la infraestructura de comunicaciones y afines. 2 Abbate, J. Inventing the Internet, Cambridge, MIT Press, 1999; Naughton, J. A Brief History of the Future. The Origins of the Internet. London, Weidenfeld & Nicolson, 1999. 3 Véase: http://www.Internetworldstats.com/stats4.htm#europe [Consultado el 28 de enero de 2008]. 4 La Sociedad de la Información en España (2006), Madrid, Ariel – Fundación Telefónica, 2007.
13
desde donde se producen mayoritariamente estos accesos. En los países con mayores tasas de uso, se realizan fundamentalmente desde casa. Hay diferencias significativas en los hogares en función del tipo de familia que lo habita. Es más frecuente en los hogares habitados por familias con hijos, mientras que es muy raro que exista en los hogares donde sólo viven jubilados. En lo que se refiere al perfil sociodemográfico: (a) Género. Diferencias poco perceptibles que están disminuyendo; (b) Edad. Mayor acceso a Internet de los más jóvenes y una disminución progresiva de la proporción a medida que la edad del grupo aumenta; (c) Clase social. Mayor acceso cuanto más alto es el nivel económico; (d) Mayor acceso cuanto más alto sea el nivel de estudios o de formación; (e) Situación laboral. Profundas correspondencias con la situación respecto a la edad. La proporción de estudiantes que utilizan Internet es muy alta, con valores muy semejantes a los que en el análisis por edad tenía el grupo de jóvenes. Teniendo en cuenta los datos de la Fundación Telefónica (2006), los porcentajes más altos en lo que se refiere a los usos de Internet para servicios de comunicación, predominan las búsquedas, el correo electrónico y la mensajería instantánea, en este orden. Respecto a la información, la mayoría entra en las categorías de ocio o interés personal, seguido por noticias de actualidad y por temas de tipo profesional o formativos. En cuanto a las descargas, los tres primeros lugares los ocupan la de antivirus, la de películas y la de software, por este orden (Véase Imagen 1)
Imagen 1. Servicios usados por los internautas (España). Fuente: La Sociedad de la Información en España (2006), Madrid, Ariel – Fundación Telefónica.
14
Nociones sobre Internet Si seguimos con el ejemplo de los teléfonos móviles, el uso que se les dio al principio fue una prolongación del que damos a los fijos. Pronto se han ido añadiendo nuevas funciones y posibilidades como mandar mensajes, acceder a Internet, escuchar archivos mp3, recibir noticias, hacer fotografías o vídeo, etc. Los servicios que presta la telefonía móvil siguen creciendo. Quienes los utilizan tienen una idea de la infraestructura que subyace tras algo aparentemente tan sencillo de usar. Nos imaginamos una extensísima red de redes donde circula, por ejemplo, nuestra voz; unas veces por cables, otras por ondas, etc. Internet viene a ser algo parecido incluso en sus fundamentos. Es un conjunto de redes de ordenadores, una red de redes que abarca todo el globo; de hecho, “Internet” significa “entre redes”. Cada vez que accedemos a ella a través de un ordenador o de un teléfono u otro dispositivo, nos convertimos en una extensión de la misma. También podemos considerar Internet como la colección de protocolos (conjunto de reglas que se establecen en el proceso de comunicación entre dos sistemas) que permiten la interconexión; estos consiguen ver de una forma homogénea el conjunto heterogéneo de redes. ¿Quién dirige Internet? No existe una gestión centralizada de esta red global, sino un extenso conjunto de organizaciones que dirigen y financian sus redes. Todas éstas cooperan entre sí para facilitar y dirigir el tráfico de datos que se produce entre unas y otras y, en su conjunto, todas forman un inmenso “cableado mundial”. Sin embargo, son necesarios una serie de acuerdos y unos mínimos en lo que se refiere a los procedimientos y estándares. Varios grupos se ocupan de guiar el crecimiento de Internet, de los temas de su arquitectura, de la evolución de los protocolos o del desarrollo de los estándares Web. Entre éstas podemos mencionar la Internet Society, el Internet Architecture Board, Internet Engineering Task Force o el World Wide Web Consortium. La mayoría son grupos sin ánimo de lucro. Existen también empresas privadas que supervisan los dominios de Internet y venden registros de los mismos. Cooperan para garantizar que sólo una persona, una empresa, un grupo o una institución posea un determinado dominio. Aparte de las organizaciones hemos dicho que lo importante son las redes locales. Éstas pueden encontrarse en una empresa, instituciones como las universidades, agencias del gobierno o en servicios en línea. Para que Internet llegue a nuestros hogares es necesario que una empresa de telefonía o de cable nos conecte a cambio de una cuota. De esta manera contribuimos a financiar las redes igual que lo hacemos con nuestros impuestos (redes gubernamentales, académicas, etc.). Algunas empresas privadas obtienen beneficios vendiendo acceso a sus líneas de alta capacidad que transportan enormes volúmenes de tráfico. Otras veces están financiadas por gobiernos o agencias gubernamentales como la NASA. El gobierno de los Estados Unidos, por ejemplo, financia una red de alta velocidad, denominada Internet2, para el servicio de sus universidades. Esto beneficia, sin lugar a dudas, a la investigación y la creación de nuevos usos de Internet. ¿Cómo viajan los datos por Internet? Se trata de un proceso algo complejo. Los ordenadores utilizan un protocolo para enviar información a la red. Este protocolo recibe el nombre de TCP (Transmision Control Protocol) y garan15
5 Se trata de un tipo de red de computadoras que cubre desde 100 a 1000 Km y da servicio a un país o continente. Un ejemplo es la RedIRIS, la red española para la Interconexión de los Recursos Informáticos de las universidades y centros de investigación.
16
tiza que los datos se entreguen a su destino sin errores y en el mismo orden en el que se transmitieron. Por otro lado, el TCP da soporte a las distintas aplicaciones de Internet como el http, o el SMTP o protocolo simple de transferencia de correo, o el SSH o Secure Hell, que sirve para acceder a máquinas remotas a través de una red. El TCP divide la información en bloques o paquetes pequeños que incluyen, además, datos que ayudan a esos paquetes a viajar por Internet. Del ordenador van a la red local y de ahí van por los distintos niveles de red, ordenadores y líneas de comunicación antes de llegar a su destino. Cuando las distancias son grandes, la señal que envía los datos puede debilitarse, por lo que, durante el viaje, se encuentra con repetidores que amplifican datos a intervalos. También puede encontrarse con los llamados routers o enrutadores, que son dispositivos de hardware que desempeñan un papel fundamental en la gestión del tráfico; garantizan que la información llegue a su destino porque lo determinan al analizar los paquetes o bloques de información. Entran en funcionamiento cuando los datos se envían de una red a otra. El nivel más local está constituido por las LAN (Local Area Network). Las redes de nivel medio conectan las LAN entre sí utilizando líneas de teléfono de alta velocidad, ethernet (nombre de una tecnología de redes de computadoras de área local basada en tramas de datos) y enlaces de microondas. Una red media puede ser, por ejemplo, una red regional o una WAN5 (Wide Area Network) o área amplia (estructura con muchos sitios de red conectados entre sí). Si la información va de un ordenador que está en una LAN dentro de una red de tipo medio a otro punto de la red de nivel medio, un router o sistema de routers envía el bloque de información a su destino final. Si éste se halla en una red media distinta, lo manda a un punto de acceso de red (NAP o Network Access Point) desde donde se envía por una determinada zona geográfica a un eje central. Estos ejes transmiten la información a una velocidad muy alta a otra red regional, y de aquí a una red más específica o local y de ahí al ordenador. Hemos dicho que la información viaja en paquetes o bloques pequeños que se forman en el ordenador que emite y que se recomponen en el que recibe. Intervienen ahí el TCP, que ya hemos mencionado, y el IP. El primero descompone y vuelve a unir los bloques. El IP, protocolo de Internet, es el responsable de garantizar que los paquetes o bloques se envían al destino adecuado. Cada uno de estos puede viajar por rutas distintas. Habitualmente vemos escrito TCP/IP. Los ordenadores que compramos ya llevan incorporado un software que interpreta estos protocolos. Tienen dos formas de conectarse a la red: a través de una LAN o línea DSL (se necesita entonces una tarjeta de red), o mediante marcado usando un MODEM. ¿Cuál es la estructura del software de Internet? Con las redes de ordenadores aparece el concepto de programación distribuida. Las tareas se realizan de forma cooperativa. Una aplicación distribuida está constituida por distintos programas que se ejecutan en diferentes ordenadores y se comunican a través de la red que los une. Es necesaria la colaboración de todos para que la aplicación en conjunto pueda producir resultados útiles; cada programa por sí solo no puede hacer nada. La cooperación debe seguir un protocolo. En la mayoría de ocasiones se han definido estándares que son seguidos en todo el mundo. Se garantiza, de esta forma, que se pueda interactuar con
productos de varios fabricantes. El estándar que se ha generalizado es el que sigue el modelo cliente/servidor. En éste la aplicación se divide en dos partes con roles diferenciados. Por un lado, el servidor y por otra, el cliente. El primero ofrece, como su nombre indica, un servicio como el acceso a páginas web, a operaciones matemáticas complejas, u otros recursos. El segundo, el cliente, realiza una petición al servidor y espera resultados. Lo que llamamos “cliente” puede ser una persona u otra aplicación. Cuando es un humano el programa dispone de una interfaz de usuario a través de la cual aquél “dialoga” con éste canalizando las órdenes y mostrando resultados. Cliente y servidor son programas autónomos, se ejecutan en máquinas diferentes que, a menudo, tienen sistemas operativos distintos. Las órdenes y las respuestas del uno al otro llegan a través de un protocolo de red; en nuestro caso el de Internet. El modelo cliente/servidor puede ser muy complejo si se añaden muchas entidades a la aplicación distribuida. Por ejemplo, si el cliente manda una petición a un servidor y éste no dispone de la misma, puede solicitarla a la vez a otro servidor con el que mantiene contacto para que la sirva. Los servidores, por tanto, también pueden dialogar entre sí. La conexión entre ambos se realiza a través de una LAN, a través de la línea telefónica, de forma inalámbrica o de otra manera. Varios ordenadores pueden acceder a la vez, y pueden ser de marcas y sistemas operativos diferentes. Utilizan distintos softwares; el navegador, es el cliente de los servicios www, que envía una petición al host y éste devuelve una página web que se visualiza en el navegador. La conexión entre el cliente y el servidor se corta cuando se ha servido la información aunque el ISP del ordenador mantiene la conexión TCP/IP a Internet.
Los servicios básicos de Internet Hemos visto que el protocolo IP señala que cada dispositivo que está conectado a la red debe tener su dirección. Cuando un ordenador se conecta necesita tener adjudicada una de estas direcciones. Según su configuración o el funcionamiento del proveedor de servicios, este IP puede ser estático o dinámico. En el primer caso la dirección no variará. En el segundo sí, porque hay que tener en cuenta que las direcciones IP no son ilimitadas. Así, cada vez que desde casa conectamos el ordenador a la red, el proveedor adjudica una IP que tenga disponible. De esta forma estas IP se comparten por varios ordenadores en momentos diferentes. Las direcciones IP son números de 32 bits, como éste: 11000001 10001100 11000100 00010100 No es una forma cómoda para que la utilicen los humanos. Lo que se hace es agrupar los bits de ocho en ocho (en bytes) y cada byte se expresa en decimal. Así, la notación anterior se convierte en: 193.140.196.20 No debe haber ninguna IP repetida en la red. La asignación de direcciones en el ámbito mundial corre a cargo de la organización Internet Corporation 17
for Assigned Names and Numbers (ICANN). Con el fin de simplificar la gestión y dado que todos los ordenadores están en una red local o LAN, las direcciones IP tienen dos partes: una que identifica la red y otra que identifica el ordenador dentro de la red. Cada vez que ponemos un nombre de máquina en algún programa, éste debe encargarse, en primer término, de averiguar la IP que le corresponde. Hay que tener en cuenta que cuando se creen los paquetes IP que deben circular por la red, deben llevar la dirección numérica de 32 bits. El mapeo de la dirección IP se realiza mediante el servicio DNS (Domain Name Service). Éste funciona como una base de datos. Los pares nombre-dirección IP no están en un solo ordenador, sino que están distribuidos en diferentes máquinas. Si se pide a un servidor información sobre un nodo que no se encuentra en su zona, se encargará de averiguar en cual se encuentra. Cuando lo sepa, se lo indicará al cliente. Los nombres que se dan a los ordenadores se agrupan en una estructura jerárquica tipo árbol. El nombre de dominio que corresponde a un nodo se define como la secuencia formada por los nombres que hay en el camino entre éste y el punto más alto. Los dominios más altos o top level domains son “.com” (empresas y organizaciones comerciales), “.edu” (centros educativos), “.gov” (organizaciones gubernamentales), “.mil” (organizaciones militares); “.net” (organizaciones de control de la red), “.org” (diferentes de los anteriores). Se trata de los primeros tipos de dominio y con el tiempo hemos visto que han ido ampliándose. Cada país, por ejemplo, tiene el suyo (“.es”, “.fr”, “.de”, etc.). Dentro de cada dominio puede haber otros dominios hasta la profundidad que se quiera, pero habitualmente no se utilizan más de tres. Así como un ordenador debe tener una sóla dirección IP, puede tener más de un nombre o ninguno, cuando a él no accede ningún usuario humano.
Imagen 2. Alrededor de TCP e IP hay otros protocolos. UDP, ICMP y ARP son colaboradores directos de TCP e IP. Fuente: Redes y comunicaciones informáticas6.
6 Paig, E.; Castán, D. Redes y comunicaciones informáticas, Barcelona, UOC, [sa].
18
Otras aplicaciones o servicios básicos de Internet son la emulación de terminal, la transferencia de archivos o FTP, el correo electrónico y el World Wide Web, que veremos más adelante.
Un poco de historia Es quizás muy pronto para hacer una historia de Internet seria y rigurosa. Mientras tanto recurrimos a una serie de tópicos que repetimos una y otra vez, de acontecimientos que ni siquiera conectamos entre sí, de noticias que tomamos de aquí y de allí. Habría que remontarse a la aparición de las tecnologías electrónicas de información y comunicación cuyos antecedentes se remontan al siglo XIX y hacer referencia al desarrollo histórico de varias disciplinas científicas y sociales para poder entender cabalmente los cambios que vivimos en la actualidad. Por supuesto no estamos capacitados para ello ni éste es el lugar adecuado para hacerlo. Nos limitaremos, por tanto, a dar una breve noticia de los hitos más importantes hasta el surgimiento del World Wide Web, del que nos ocuparemos en el capítulo correspondiente7. Enumeración de los hitos más destacados en el desarrollo de Internet – En 1930 un grupo dirigido por Vanneva Bush, del Massachussetts Institute of Technology, puso en funcionamiento el primer ordenador de grandes dimensiones que se basaba en el empleo de dispositivos electromecánicos. – En 1941 el ingeniero alemán Honrad Zuse presentó el autómata digital de cálculo Zuse Z3 que construyó. Poseía un mecanismo de cálculo binario formado por 600 relés, empleados como conmutadores biestables y una memoria formada por 1.400 relés. – En 1942 John V. Atanasoff construyó en Estados Unidos la primera instalación electrónica de cálculo a base de válvulas. Pensó que el uso del sistema binario y los procedimientos digitales eran los más adecuados para este tipo de máquinas. – En 1944 Howard H. Aiken, de IBM, presentó una máquina que tenía una memoria de 72 posiciones decimales. Cada una consistía en 24 ruedas de contador de 10 posiciones. El programa utilizaba instrucciones de 24 cifras introducidas gracias a una cinta perforada. 250.000 piezas y 800 kilómetros de cable formaban parte del hardware. Realizaba multiplicaciones de dos números de diez cifras en 6 segundos, y la división, en 10. – En 1945 entró en funcionamiento en la Universidad de Pensilvania ENIAC, (Electronic Numerical Integrator and Computer), la primera instalación electrónica de cálculo de grandes dimensiones. Fue construido por John P. Eckert y John W. Mauchly. Su velocidad era 2.000 veces superior a la de un ordenador de relés. Funcionaba con válvulas y de acuerdo con el sistema decimal. – En 1946 se crea el proyecto RAND por la United Status Army Air Forces con un contrato con Douglas Aircraft Company. En 1948 se separa de esta última y se convierte en una organización sin ánimo de lucro con propósitos científicos, educativos y benéficos para el bienestar público y seguridad de los Estados Unidos. Durante años, junto con la UCLA y el MIT, estuvieron desa-
7 Sobre la historia de Internet véase: Hobbes’ Internet Timeline v.8.2 (http://www.zakon.org/robert/Internet/timeline/); Computer History Museums. Exhibits: Timeline of Computer History. (http://www. computerhistory.org/timeline/); History of Internet (Wikipedia) (http://en.wikipedia.org/wiki/History_of_the_Internet). [Consultados el 15 de diciembre de 2007].
19
rrollando un proyecto en el más estricto secreto. El objetivo era crear una red de comunicaciones que pudiera subsistir tras una hipotética guerra nuclear y transmitir órdenes a los puntos estratégicos. Necesitaban elaborar un sistema descentralizado que pudiera ser operativo desde varios lugares. – A partir de 1948 los ordenadores se utilizaron para realizar cálculos en astronomía. – En 1949 en la Universidad de Manchester se instaló el primer ordenador programable provisto de memoria. IBM montó otro de parecidas características, en Nueva York. – En 1955 en los Laboratorios Bell de los Estados Unidos entró en funcionamiento el primer ordenador con transistores como elementos de conmutación (TRADIC). Las dos posiciones de conmutación 0/1 fueron fundamentales en el tratamiento de la información. Fue construido por J.H. Felker. Se trata de los ordenadores llamados de “segunda generación”. Esta tecnología reducía los costes, el tamaño, las averías y el consumo. Pronto empezaron a utilizase para la investigación, la administración, la industria y el comercio. Igual que las guerras han significado notables avances para la cirugía, han desempeñado un papel destacado en el tema que nos ocupa. La información y la comunicación en los conflictos han tenido siempre un papel fundamental. Después de la Segunda Guerra Mundial, especialmente durante el período de la Guerra Fría, se pensó en algún sistema de información que pudiera sobrevivir a los conflictos.
8 Véase: http://www.rand.org/ about/history/baran.list.html Sobre la historia de RAND véase: http://www.rand.org/about/history/ [Consultados el 11 de noviembre de 2007].
20
– A comienzos de la década de los sesenta del siglo XX Leonard Kleinrock (1915-1990) del Massachussetts Institut of Technology (MIT), presentó el primer trabajo sobre conmutación de paquetes: “Information Flow in Large Communication Nets”, RLE Quarterly Progress Report, julio 1961. – La prueba práctica de este sistema se realizó en la Agencia de Proyectos de Investigación Avanzada (ARPA), del Pentágono. – En 1961 la IBM alemana presentó el proceso llamado “teleproceso”. Un ordenador procesaba los datos que le llegaban por vía telefónica desde otro ordenador. – En 1962 J.C.R. Licklider y W. Clark hablan del concepto “Red Galáctica” como un conjunto de ordenadores interconectados para dar acceso a almacenes de datos: On-Line Man Computer Communication. – Ese mismo año Paul Baran y otros colegas de RAND hablan de On Distributed Communications Network8. – En esos años en el NPL (Nacional Physics Laboratory), de Gran Bretaña, Donald Davies y Roger Scantlebury están trabajando también en el concepto de red de paquetes. – En DARPA, Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts se convencen de la importancia del concepto de trabajo en red. – En 1962 se desarrolla el código ASCII (American Standard Code for Information Interchange), el primer código estándar universal para ordenadores que permite el intercambio de datos entre ordenadores de distinto tipo.
– El 26 de julio de 1963 los Estados Unidos pusieron en órbita el satélite de telecomunicaciones Syncom, que permitió el establecimiento de comunicaciones telefónicas vía satélite. – L. Kleinrock publica el libro Communication Nets: Stochastic Message Flow and Delay, New York, Mcgraw-Hill, 1964. – En 1964 P. Baran (RAND) escribió un documento sobre redes de conmutación de paquetes para comunicación segura en el ámbito militar (P. Baran, “On Distributed Communications Networks”, IEEE Trans. Comm. Systems, Marzo 1964). – En 1965 los ordenadores ya comenzaron a usarse de forma regular para una serie de procesos. Por ejemplo, ese mismo año se instaló uno en Berlín para regular el tráfico. – En 1965 Donald Davies (1924-2000) del Nacional Physical Laboratory, desarrolló un nuevo método de manejar los datos que bautizó “conmutación de paquetes”. – Ese mismo año (1965), Lawrence G. Roberts conectó un ordenador TX2 en Massachussetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad. Se comprobó que los ordenadores podían trabajar juntos correctamente, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. Kleinrock tenía razón. – Larry Roberts & T. Merrill publican “Toward a Cooperative Network of Time-Shared Computers”, Fall AFIPS Conf., Oct. 19669. – En 1967 Larry Roberts10 (1937-)se incorpora a ARPA para gestionar la investigación y desarrollo de una amplia gama de ordenadores para el gobierno. Fue responsable del diseño, puesta en marcha, planificación y el desarrollo de ARPANET, la primera gran red de paquetes. También contribuyeron Robert Kahn (1938-) y Vinton Cerf (1943-). Todos idearon los protocolos informáticos TCP/IP, con el fin de conectar ordenadores con independencia del tipo de conexión -estaciones de radio, satélites y líneas telefónicas-. – En 1967 tuvo lugar en Gatlinburg, Tennesse, el primer simposio sobre principios de sistemas operativos (ACM Symposium on Operative Systems Principles). Lawrence G. Roberts presenta “Multiple Computer Networks and Intercomputer Communication”. Por su parte D. W. Davies, K. A. Bartlett, R. A. Scantlebury, P. T. Wilkinson, del National Physical Laboratory, presentan “A digital communication network for computers giving rapid response at remote terminals”. – Convergen los trabajos del MIT desarrollados entre 1961 y 1967, los de la Rand Corporation (entre 1962 y 1965), y los del Nacional Physical Laboratory (1964-1967), que habían llevado a cabo de forma independiente. – El Laboratorio Nacional de Física (National Physical Laboratory) de Inglaterra desarrolla la red NPL Data Network, supervisada por Donald W. Davies. La red NPL, un experimento en conmutación por paquetes utilizaba líneas telefónicas de 768 kbps. – En 1968, con el empleo de los circuitos integrados y la miniaturización en la técnica de cálculo y procesamiento de la información, se inició la “cuarta generación de ordenadores”. En estos años ya realizaban tareas científicas, técnicas y comerciales.
9 Puede consultarse este trabajo en esta URL: http://www.packet.cc/files/toward-coop-net.html [Conultado el 15 de diciembre de 2007]. 10 Fue premiado en el año 2002 con el Premio Príncipe de Asturias de Investigación Científica y Técnica, junto con Robert Kahn, Vinton Cerft y Tim Berners Lee.
21
11 Puede consultarse en esta URL: http://www.packet.cc/files/compnet-dev.html [Consultado el 15 de diciembre de 2007].
22
– En 1968 se presenta la red conmutada por paquetes (PS - Network) ante el ARPA. A Bolt Beranek y Newman, Inc. (BBN) se le otorga el contrato de conmutación por paquetes con el objetivo de crear una interfaz Procesadora de Mensajes (Interface Message Processors)(IMPs). El Network Working Group (NWG)(Grupo de trabajo de redes), liderado por Steve Crocker, se organiza también para desarrollar protocolos a nivel host con el fin de establecer comunicaciones en ARPANET. – En 1969 en la UCLA (Los Ángeles) se lanza el primer mensaje por la red hasta otro nodo que se sitúa en el Instituto de Investigaciones de Stanford. Un mes más tarde ya existían cuatro nodos. – En 1969 el Ministerio de Defensa designa a ARPANET para la tarea de investigación de redes. – En 1969 en la Universidad de California se abrió el primer nodo de la red ARPANET. El nodo 2 se crea en el Instituto de Investigaciones de Stanford. El 3 en la Universidad de California, Santa Bárbara. El 4 en la Universidad de UTA. – Primer informe de ARPANET: Lawrence G. Roberts y Barry D. Wessler: “Computer network development to achieve resource sharing”, Advanced Research Projects Agency, 197011– En 1970 Los hosts o servidores de ARPANET comienzan a utilizar los Protocolos de Control de Redes (NCP). Se trata del primer protocolo host-ahost. AT&T instala el primer enlace costa a costa entre la UCLA y BBN a 56 kbps. Fue reemplazada más tarde por otra entre BBN (Bolt, Beranek and Newman) y RAND. Se agrega una segunda línea entre MIT y UTA. – Ya hay quince nodos en funcionamiento y 23 servidores o hosts. Ray Tomlinson de BBN (Bolt, Beranek and Newman) adaptó su programa SNDMSG para enviar mensajes entre distintas terminales, para que sirviera para enviarlos entre diferentes usuarios conectados a una red más amplia. También utilizó para ello un programa experimental de transferencia de archivos (CPYNET). Se les ocurre utilizar la conocida arroba “@”. Por su parte, Larry Roberts crea el primer programa de administración de correo electrónico (RD) para listar, leer selectivamente, guardar, reenviar y responder mensajes. – Se celebra la primera International Conference on Computer Communications (ICCC)) en el Hotel Hilton de Washington D.C. ARPANET hace una demostración entre 40 máquinas y el Procesador Terminal Interface (TIP) organizada por Bob Kahn. También se produce el primer Chat. – Se crea el International Network Working Group (INWG). Surge la necesidad de realizar un esfuerzo conjunto con el fin de lograr un avance en las tecnologías de redes. Vint Cerf fue el primer Presidente. – Hacia 1972 se implanta el sistema multiusuario en el tratamiento electrónico. – Se realizan las primeras conexiones internacionales a la red ARPANET: University College of London (Inglaterra) y el Royal Radar Establishment (Noruega). – Vint Cerf diseña un nuevo protocolo de interconexión de redes y en septiembre de ese año, conjuntamente con Kahn, presentan el protocolo TCP (Transmission Control Protocol), Protocolo de Control de Transmisión. Se crea el sistema Ethernet para enlazar a través de un cable único a los orde-
nadores de una red local, LAN, idea que surge de la tesis doctoral de Bob Metcalfe en Harvard. Este concepto fue probado en las computadoras Xerox PARC’s Alto y la primera red de Ethernet se denominó Alto Aloha System. – Especificación (RFC 741) para Protocolo de Voz en Redes (NVP) e implementación para permitir llamadas en conferencia a través de la ARPANET. – SRI (NIC) comienza a publicar ARPANET News en Marzo; el número de usuarios de ARPANET se estima en 2.000. Un estudio de ARPA muestra que el correo electrónico constituye el 75% del tráfico total. – Vinton Cerf y Bob Kahn publican “Protocolo para Interconexión de Redes por paquetes” (“A Protocol for Packet Network Interconnection”, IEEE Trans on Comms, Vol Com-22, No 5 Mayo 1974) que especifica en detalle el diseño del Programa de Control de Transmisión (TCP)12. – BBN recluta a Larry Roberts para dirigir Telenet, el primer servicio público de paquetes de información (una versión comercial de ARPANET). Además de DARPA, la Fundación Nacional de Ciencias (NSF) está apoyando activamente la creación de redes de informática y en casi 120 universidades. – Steve Walker crea la primera lista de correo de distribución de ARPANET, “MsgGroup”. Einar Stefferud asume la tarea de moderador, ya que la lista al principio no estaba automatizada. La lista de ciencia ficción, SF-Lovers, se convirtió en la lista no oficial más popular por entonces. John Vittal desarrolla MSG, el primer programa de correo electrónico realmente completo que incluye la posibilidad de contestar, reenviar y guardar mensajes. – En 1977 Cerf y Kahn realizan una demostración “entre redes-inter-nets”, inter-netting PRNET, SATNET, y ARPANET. Se envían mensajes desde la bahía de San Francisco a través de Estados Unidos sobre ARPANET, desde allí al University College of London, de vuelta vía satélite a Virginia y de regreso a través de ARPANET al University of Southern California’s Information Sciences Institute. Primera demostración de las posibilidades internacionales del naciente Internet. – En 1978 aparecen los primeros ordenadores PCs con potencial real de comunicarse vía módem a servicios vía telefónica. Se desarrollan los modems y el software necesario para la conexión a Internet. El protocolo TCP se divide en TCP e IP. – En 1979 Vint Cerf de ARPA continúa con su visión de Internet formando el Internet Configuration Control Board. – En 1979 comienza la red de los “newsgroups” o grupos de noticias. Se basa en la relación cliente-servidor en la cual los usuarios se conectan mediante línea telefónica con un servidor de newsgroups para recibir los últimos mensajes del grupo. Se establece USENET usando UUCP. Se forman 3 grupos de noticias. – Se conectan más de 200 ordenadores del CSNET, Computer Science NET, Red de Ciencias de la Computación y se suma BITNET, otra red que incluye la transferencia de archivos por e-mail, en vez de hacerlo por el protocolo FTP (Files Transmission Protocol), Protocolo de Transmisión de Archivos creado por ARPA. – En 1981Telecom de Francia despliega Minitel (Teletel) por todo el país vecino. – En 1982 DCA y ARPA establecen el Transmission Control Protocol (TCP)
Disponible en formato pdf en: http://www.cs.princeton.edu/ courses/archive/fall06/cos561/ papers/cerf74.pdf [Consultado el 15 de diciembre de 2007].
12
23
e Internet Protocol (IP), como protocolo conjunto, comúnmente conocido como TCP/IP. Esto lleva a una de las primeras definiciones de Internet como un conjunto de redes conectadas, específicamente, a través del pro-
Imagen 3. Mapa contemporáneo de Internet en fase de semi-producción (varios hosts unidos a ARPANET cuando aún se usaba el NCP) en Febrero de 1982. Los óvalos son sitios/ conexiones (algunos sitios incluían más de una conexión física), los rectángulos son routers individuales. Dibujado por Jon Postel del Instituto para la Información Científica. Imagen procedente de Wikipedia, con licencia CC.
tocolo TCP/IP, e “Internet” como Internets conectadas TCP/IP. El Departamento de Defensa de Estados Unidos declara el conjunto TCP/IP como protocolo estándar. – En enero de 1983 ARPANET hace del TCP/IP su estándar y el DOD, Departamento de Defensa, decide partir DARPANET en dos: una ARPANET pública y una MILNET o Red Militar clasificada. Dado el incremento de la cantidad de nodos y al complicarse los rotulados de los nodos y hosts (servidores), Jon Postel y Paul Mockapetris de USC/ISI y Craig Partridge de BBN desarrollan el Sistema de Nombres de Dominio (Domain Name System (DNS), recomendando el uso del sistema de direccionamiento actual user@host.domain. – En 1983 se establece la EARN, European Academic and Research Network (Red Académica de Investigaciones Europea). Funciona de manera similar a la BITNET con un acceso financiado por IBM. – En 1984 William Gibson acuña el término cyberspace (ciberespacio) en su novela Neuromancer. Se introduce el Sistema de Nombres de Dominio 24
DNS en Internet con los nuevos dominios .gov, .mil, .edu, .org, .net y .com. El dominio denominado .int, para identificar entidades internacionales, no se usa en ese momento. Se pone en marcha el código de dos letras para identificar a los países. Symbolics.com se convierte en el primer dominio registrado el 15 de Marzo – En 1985 el Instituto de Ciencias de la Información (ISI) en USC recibe la responsabilidad de administrar el árbol de DNS por medio de DCA, y SRI para los registros de DNS NIC. – En 1985 Stewart Brand y Larry Brillian crean la primera comunidad de usuarios: Well (Whole Earth ‘Lectronic Link). – El número de hosts (servidores) se incrementa de 80.000 en enero a 130.000 en julio, y a 160.000 en noviembre de 1989. Comienza la explosión del fenómeno Internet. Una serie de países se unen a Internet: Australia, Alemania, Israel, Italia, Japón, México, Holanda, Nueva Zelanda y Reino Unido. También aumenta la velocidad NSFNET a T3 (45Mbps). Las LAN (Local Area Networks) operan a 100Mbps. Las compañías telefónicas comienzan a trabajar en sus propias WAN (Wide Area Networks), Redes Extendidas, con tecnología de paquetes a velocidades mucho mayores. – En 1989 en el CERN de Suiza, Tim Berners-Lee trabaja en el desarrollo de un hipertexto de que correría con distintos sistemas operativos, dando origen al nacimiento la World Wide Web. – En 1989 ARPANET se cierra formalmente. En 20 años la red ha crecido de 4 a 300.000 hosts. Se unen también a la red Argentina, Austria, Bélgica, Brasil, Chile, Grecia, India, Irlanda, Corea del Sur, España y Suiza. Aparecen diferentes recursos Internet como ARCHIE, Gopher y WAIS. En los Gophers de las universidades se concentra el conocimiento humano y aparecen en Internet instituciones tales como la Biblioteca del Congreso de los Estados Unidos o Dow Jones.
Internet como fenómeno social Según Castells, Internet puede ser considerada como una cultura o como parte de una cultura, es decir, conjunto de ideas, creencias, normas, valores, etc. que conforman un comportamiento compartido por los miembros que lo crean, utilizan y lo integran en sus vidas. Sus cimientos son, por un lado, la tradición académica, que incluye tanto los profesores como los estudiantes de doctorado, la investigación compartida, el prestigio, la evaluación y la difusión de las novedades. Ese conjunto cultural fue asumido por lo que se conoce como “cultura hacker”, que constituiría el segundo pilar. Los hackers han desempeñado un papel fundamental en el desarrollo de Internet por dos razones13. En el seno de esta cultura surgen innovaciones tecnológicas mediante la cooperación y la libre comunicación, y actúa de puente o de conexión entre la “tecno-meritocracia” de la Academia y el mundo empresarial que difunde Internet al conjunto de la sociedad. En la red está muy viva esta cultura, que crece día a día y se enfrenta a no pocos intentos de desmantelamiento. Su lucha por los códigos abiertos, por el software libre y por la creación colectiva, son bien patentes en la actualidad. En este grupo también se da el prestigio y el reconocimiento, pero no a cambio de algo, como medio para lograr otros fines, sino por el goce de la creatividad, de las aportaciones
13 Castells, Manuel. La galaxia Internet. Barcelona, Areté, 2001, pp. 56-57
25
14 Castells, M., Internet, libertad y sociedad: una perspectiva analítica. Lección inaugural del curso académico 2001-2002 de la UOC. Fecha de publicación: octubre de 2001: http://www.uoc.edu/web/ esp/launiversidad/inaugural01/intro_conc.html
26
útiles y de la reciprocidad. Uno de sus valores más sólidos es la libertad: para crear, para absorber los conocimientos disponibles y para redistribuir dichos conocimientos. Los integrantes de la cultura hacker no dependen de ninguna institución, pero sí de una comunidad estructurada en torno a costumbres y principios de una organización social informal (un ejemplo lo podemos hallar en la comunidad Linux). Herederas de esta cultura son las comunidades on line, cercanas a los movimientos contraculturales y formas de vida alternativa surgidas en los años setenta, que, con el tiempo, fueron perdiendo ese vínculo. No obstante, mantienen dos características culturales compartidas: el valor de la comunicación horizontal y libre, que ha acabado convirtiéndose en uno de los valores generales de Internet, por un lado, y la capacidad de cualquier persona para encontrar su propio destino en la red, por otro. Por último, otro pilar o fundamento sobre el que descansa el desarrollo de Internet está constituido por los llamados emprendedores que se han encargado, sobre todo, de su difusión desde los círculos mencionados a la sociedad en general o al gran público. Cronológicamente su actuación ha sido más bien tardía; no apareció hasta los años noventa, aunque su desarrollo haya sido vertiginoso. En este sentido, Internet se ha ido configurando de acuerdo con los usos comerciales. No hay que olvidar tampoco el hecho de que igual que la empresa ha influido en Internet, éste ha influido también en la empresa; ha sido el motor y el medio de formación de una nueva economía. En los países democráticos Internet, como medio de expresión y comunicación libres, recibe protección constitucional y judicial. Excepto en las teocracias, en el resto, debido a su importancia económica y tecnológica, no hay más remedio que tolerarlo. Sin embargo, este asunto apenas ha aflorado; hay que tener en cuenta que todavía es muy elevada la cifra de ciudadanos que no acceden a esta tecnología. En los últimos meses se está hablando de que pueden ser las empresas que nos conectan a la red, las que podrían reducir la libertad de acceso a determinados sitios o establecer barreras económicas a su acceso. No obstante, es necesario saber que buena parte de esa libertad asienta sobre la forma de funcionar de Internet (servidores, nodos, protocolos TCP/IP, etc.). Como señala una sentencia del Tribunal Federal del Distrito Este de Pensilvania, la ausencia de regulación gubernativa de los contenidos de Internet ha producido una especie de caos, pero en ese caos es donde reside su éxito y su fuerza. Sin duda se trata de un tema apasionante sobre el que no nos podemos detener14. Sirva como resumen de esta introducción el hecho de que Internet se está consolidando como instrumento esencial de expresión, información y comunicación horizontal entre los ciudadanos. Es el momento de formularnos, pues, la pregunta: ¿cuál es la situación de la medicina en Internet? Como señala Castells, la sociedad red es la estructura social de nuestro tiempo, que se mezcla “en sus formas, en sus instituciones y en sus vivencias, con la estructura social de la sociedad de donde surgió”. No obstante, ni todos los grupos sociales, ni todas las sociedades y culturas, ni todas las actividades y territorios se organizan de acuerdo con la estructura y la lógica de la sociedad red. Es más, los que la integramos somos una minoría respecto al resto del mundo que, para bien o para mal, o para ambas cosas a la vez, sufre las consecuencias de las acciones de la sociedad red. Debemos tener en cuenta que en nuestra sociedad se dan las redes que incluyen y organizan lo
esencial de la riqueza, el poder, el conocimiento, la comunicación y la tecnología mundiales15. El sistema tecnológico basado en el desarrollo de las nuevas tecnologías de la información y la comunicación ha permitido que se forme una nueva economía, una nueva forma de comunicarse, una nueva manera de gestionar, tanto en el mundo empresarial como en la administración, una nueva cultura con el consiguiente cambio de pautas de comportamiento. El desarrollo de estas nuevas tecnologías tiene un fuerte impacto en los campos de la educación, de la investigación y de la difusión de conocimientos. Conocimiento e innovación son las fuentes de riqueza, de poder y calidad de vida. Los cambios también han afectado al mundo de la medicina en sentido amplio: desde la formación hasta la asistencia, pasando por la investigación. Lo estamos viviendo día a día. Los de más edad hemos tenido el privilegio de vivir el extraordinario desarrollo de las tecnologías de la información y comunicación, especialmente del desarrollo de Internet, desde comienzos de los años noventa; ni siquiera han transcurrido veinte años.
15 Castells, M.; Tubella, I.; Sancho, T.; Roca, M. La transición a la sociedad red, Barcelona, Ariel, 2007.
27
Buscar en Internet
Introducción La tarea de buscar en Internet es aparentemente fácil, pero en ocasiones llega a convertirse en una tarea ardua. Aunque parezca poco creíble, España es uno de los principales usuarios de Google. En la tabla 1 observamos el porcentaje de uso del buscador Google en España (2006).
Tabla 1. Porcentajes de uso del buscador web de Google en diferentes países del mundo País Porcentaje España 99 Alemania 91 Holanda 91 Francia 85 Bélgica 85 Australia 80 Reino Unido 75 Estados Unidos de América 42 Fuente: Google.dirson.com (http://google.dirson.com/post/3020-porcentaje-uso-google-paises/)
Esto puede ser un reflejo de la realidad. Habitualmente utilizamos Google y como este buscador es bastante eficaz, nos conformamos con los resultados que nos proporciona. Sólo en el caso de que éstos sean pobres, recurrimos a otras fuentes. Además, tampoco explotamos Google en toda su amplitud, ya que muchos desconocen algunas de sus posibilidades. A continuación analizaremos una serie de herramientas de búsqueda disponibles en Internet y cuando algunas nos parezcan más interesantes para los profesionales de la salud, nos detendremos en ellas.
Los buscadores locales Nos referimos, en primer lugar, a los buscadores internos de un sitio Web. Los profesionales de la medicina saben que existen instituciones, organizaciones y empresas que cuentan con sitios Web que alojan miles de páginas. Estos 29
suelen disponer de estos buscadores internos que son de cierta utilidad. Hay que tenerlos en cuenta porque, generalmente, al existir tanta información, la navegación por los menús y submenús se hace difícil y nos perdemos. También es útil hojear el “Mapa del sitio” si éste existe, ya que nos ofrece un índice jerárquico del conjunto de páginas que componen el sitio Web. Algunos ejemplos de estos grandes sitios Web son: – Organización Mundial de la Salud (http://www.who.org) (http://www. who.int/es/), en español). El sitio aloja miles de páginas. Se puede decir que la versión más completa es la inglesa. La española, francesa, y restantes no contienen toda la información. Su buscador puede ser útil y habría que hacer la búsqueda tanto en la versión inglesa del sitio como en la de castellano. – Oficina Panamericana de Salud (http://www.paho.org/default_spa.htm). – El portal de la Unión europea (http://europa.eu/index_es.htm) – Ministerio de Sanidad y Consumo (http://www.msc.es/) – Ministerio de Educación y ciencia (http://www.mec.es/) – Consejo Superior de Investigaciones Científicas (http://www.csic.es) – El conjunto de Universidades y centros docentes tanto españoles como del resto del mundo
Los directorios. Directorios generales En su momento los directorios fueron la única herramienta de búsqueda que existió cuando comenzó a crecer el número de páginas Web alojadas en los servidores. Al principio eran listas jerárquicas o índices de las páginas que una persona, grupo o institución recopilaba y compartía con los demás. Para los temas más específicos todavía siguen funcionando. Cuando crecía el número de páginas recolectadas se impuso confeccionar una clasificación en categorías y subcategorías; fue así como nacieron los directorios. Eran equivalentes a los directorios impresos que existen en papel como las páginas amarillas, el directorio de una biblioteca, de una universidad, etc. Los directorios pueden ser reducidos, elaborados casi de forma artesanal, o de enorme tamaño, cuando se requiere el uso de bases de datos. La información que contienen es mínima: título de la página, un resumen y un enlace a la fuente correspondiente. Entre los directorios más tempranos podemos mencionar a Yahoo!, que comenzó a funcionar en 1996 (http://dir.yahoo.com/). En la imagen 1 podemos ver parte del directorio de la sección de medicina (http://dir.yahoo.com/Health/medicine/). Yahoo también tiene directorios en otros idiomas, por ejemplo en castellano (http://es.dir.yahoo.com/), donde podemos buscar sólo en los sitios de España. La categoría “Salud” en este caso contiene, en estos momentos, 38 subcategorías. En el caso del castellano hemos de señalar que el número de referencias disminuye mucho respecto a la misma categoría en inglés. A esta última podemos acceder desde el directorio en castellano pulsando en el enlace situado al final de la página “Ver esta categoría en Yahoo! EEUU”. Lo mismo desde la página de cada subcategoría. Hay otros directorios Yahoo! castellano o español para otros países latinoamericanos como Argentina, México, Uruguay, Cuba, etc. 30
Imagen 1. Captura de pantalla que muestra parte del directorio de la sección de medicina del Directorio de Yahoo! (http://dir. yahoo.com/Health/ medicine/).
Los directorios de Yahoo! permiten suscribirse mediante RSS (véase el capítulo correspondiente) a algunas categorías y subcategorías; de momento sólo en el directorio de los Estados Unidos. En la página principal del directorio (http://dir.yahoo.com/) al final del menú vertical izquierdo tenemos el enlace “New Additions via RSS”. Si pulsamos, en la nueva página aparecen las categorías y subcategorías a las que podemos suscribirnos para recibir las actualizaciones. – Junto al de Yahoo!, otro directorio interesante es el Open Directory Project (http://www.dmoz.org/), elaborado por una comunidad de miles de voluntarios, que se llaman editores. Funcionan con una especie de foros internos en los que se aporta y discute la información. Una de las 16 grandes categorías es “Health” o salud que se divide, a la vez, en 40 subcategorías (http://www.dmoz.org/Health/) y éstas, a su vez, en otras (Imagen 2). Junto al enlace que conduce a ellas figura el número de páginas. En total, para “Health” hay 62.825 entradas. Lo interesante es que cada categoría también se desarrolla en otros idiomas. En castellano, “Salud” contiene 2.707 referencias (http://www.dmoz.org/World/Espa%c3%b1ol/Salud/), en catalán 1.036 (http://www.dmoz.org/World/Catal%c3%a0/Medicina_i_salut/), y en euskera 30 (http://www.dmoz.org/World/Euskara/Osasuna/). A título de curiosidad también hay aportaciones en esperanto y latín. En cada página se nos informa del número de referencias de la categoría en otras lenguas (alemán, holandés, danés, francés, etc.). Creo que se trata 31
de un excelente repertorio que hay que tener en cuenta y es de alabar la iniciativa de incluir páginas en otras lenguas que son sistemáticamente ignoradas en los directorios más anglos. No es descabellado contribuir a su construcción. Para más detalles dirigirse a la página “About the Open Directory Project”, donde se encuentran todos los detalles.
Imagen 2. Captura parcial de pantalla de la sección Salud del Directorio dmoz (open directory Project). (http://www.dmoz.org/ Health/).
1 Sobre este sistema y su autor véase Wikipedia: http://es.wikipedia. org/wiki/Sistema_Dewey_de_ clasificaci%C3%B3n
32
Tanto Yahoo! como dmoz permiten hacer búsquedas más sofisticadas utilizando frases completas u operadores boleanos. También ofrecen la posibilidad de hacer “busquedas avanzadas” (http://search.yahoo.com/dir/ advanced) y (http://search.dmoz.org/cgi-bin/advanced_search.html). – Otro directorio es Internet Public Library (IPL) (http://www.ipl.org), donde encontramos secciones de ciencia y tecnología, salud, ciencias sociales, libros u obras de referencia, entre otras. Fue creado en la School of Information de la Universidad de Michigan, y en 2007 se ha trasladado a la Drexel University College of Information Science and Technology; es mantenido por un consorcio. Los resultados, como en muchos directorios, están escorados hacia el mundo de habla inglesa. – 01WebDirectory (http://www.01webdirectory.com/) es otro directorio que selecciona una serie de páginas de calidad. Una de las categorías es “Salud y Medicina”, que contiene, a la vez, 23 subcategorías. Se pueden sugerir direcciones que un equipo analizará antes de que sean incluidas en el directorio. – Finalmente debemos referirnos a BULB Link Catalogue of Internet Resources (http://bubl.ac.uk/). Se elabora en el Centre for Digital Library Research, de la Strathclyde University de Glasgow. Es un directorio genérico pero enfocado al mundo académico y de investigación. Está estructurado según el sistema Dewey de clasificación o Clasificación decimal de Dewey (CDD)1. Según la misma, la medicina y las ciencias médicas tienen asigna-
do el número 610 (http://bubl.ac.uk/link/linkbrowse.cfm?menuid=8180). Aparte de navegar por el amplio directorio, se pueden hacer búsquedas sencillas, combinadas y avanzadas. Cada uno de los enlaces seleccionados se acompaña de una pequeña descripción con un resumen, palabras clave, autor o autores de cada sitio Web, tipo de recurso, el país de localización y la fecha de acceso. Trucos Si en algún directorio nos interesa conservar la dirección de una de sus secciones podemos hacerlo si es posible, como en Yahoo!, recurriendo a la opción “Envía esta categoría a un amigo” (esta opción está en la parte superior derecha) mediante el correo electrónico. Nos lo mandamos a nosotros mismos. Otra opción es agregar la dirección de la página a “favoritos” de nuestro navegador, pero sólo estará disponible en ese ordenador.
Directorios específicos de medicina y ciencias de la salud – Medical Matrix (http://www.medmatrix.org/index.asp). Se trata de un directorio especializado en medicina y ciencias de la salud dirigido sobre todo –según se dice en su página–, a los médicos prácticos de los Estados Unidos. Detrás hay un comité editorial procedente del American Medical Informatics Association’s Internet Working Group. En estos momentos tiene más de 8.700 entradas que llevan a sitios Web de calidad evaluada, distribuidos jerárquicamente en un directorio. En el nivel superior hay ocho categorías. Éstas y el número de entradas correspondientes puede verse en la Tabla 2.
Tabla 2. Niveles superiores del directorio de Medical Matrix y número de entradas respectivo Nombre del nivel Entradas Specialties 5227 Diseases 1310 Clinical Practice 478 Literature 392 Education 559 Healthcare and Professionals 530 Medical Computing, Internet and Technology 117 Marketplace 100 Fuente: Página web de Medical Matrix
En la misma página inicial ya encontramos enlaces a los niveles inferiores de cada una de estas categorías. Si pulsamos sobre “[more…]”, visualizaremos en otra página las subcategorías junto con el número de entradas de cada una de ellas. Si seleccionamos una, se nos muestra una página con un menú superior, el nombre de los editores de esa subcategoría, y luego 33
las ramas inferiores agrupadas de la siguiente manera: Searches, News, Fulltext/Multimedia, Journals, Textbooks, Major sites / Home pages, Procedures, Practice Guidelines / FAQs, Cases, Images, Path./Clinical, CME, Patient Education, Directories, Educational Materials, Classifieds, Forums. Esta agrupación, que varía según los casos, facilita mucho la búsqueda o la localización de recursos. Los enlaces, que se acompañan de una breve descripción, nos llevan a los sitios correspondientes; algunos son de pago y otros no. Cada uno se acompaña de una serie de estrellas. Para otorgar este tipo de distintivo se tiene en cuenta, entre otras cosas, la existencia o no de contenido, la rigurosidad del mismo, la actualización, y el diseño web (facilidad de uso, la estructura). Los cuatro y cinco estrellas serían los mejores en cuanto a contenidos y navegabilidad. Desde la página principal se nos proporciona la posibilidad de buscar en todo el sitio o por determinados tipos de recursos. Cuando se muestran los resultados, en la cabecera de la nueva página nos permite refinar la búsqueda o ampliarla. También podemos seleccionar el tipo de recursos.
Imagen 3. Captura de pantalla de la página principal del directorio médico Medical Matrix (http:// www.medmatrix.org/ index.asp).
– Omni (http://www.intute.ac.uk/healthandlifesciences/medicine/). Omni significa Organising Medical Networked Information; es un recurso del Reino Unido que ahora está integrado en el portal de Intute: Health and Life Sciences. Este portal provee los mejores recursos sobre educación e investigación en los siguientes ámbitos: medicina (lo que era Omni); enfermería, matronas y otros profesionales afines; agricultura, alimentación y ciencias forestales; veterinaria; bioinvestigación; e historia natural. Además incluye recursos que proporciona The Wellcome Trust en las siguientes áreas: ética médica, historia de la medicina y compromiso público con la ciencia y la tecnología. Se puede recorrer el directorio y buscar. Para lo primero iremos al enlace “Browse”, que está en la sección “Internet” del menú de la izquierda. Nos 34
muestra entonces los grandes encabezamientos: “Agriculture; Food and Forestry; Bioresearch; Natural History; Nursing, Midwifery and allied health; Medicine; Veterinary; BioethicsWeb; MedHist; Psi-com”. Si pulsamos sobre el enlace “Medicine”, se abre el directorio correspondiente con encabezados MeSH Medical Subject Headings. Cada uno de estos es un enlace y junto a él se nos muestra el número de recursos que contiene entre paréntesis. Pulsamos y nos lleva a un listado de los mismos. Cada recurso contiene una descripción muy útil así como el URL. Nos encontramos, además, con su tipología, un enlace que nos suministra más datos sobre el sitio, otro que nos lleva al sitio web correspondiente, y una casilla de verificación para seleccionarlo (si es así queda en color verde). Podremos recuperar posteriormente los recursos seleccionados si pulsamos el enlace “Collect records”, que se encuentra en la parte inferior de la columna izquierda de menús, bajo el epígrafe “Myintute”. Asimismo los resultados pueden ordenarse por fecha (enlace “Order by date”). En la parte superior de las páginas de resultados se nos muestra la categoría y las subcategorías, con sus correspondientes enlaces. Se nos permite, además, hacer búsquedas y establecer filtros según el tipo de recursos (Véase la imagen 4).
Imagen 4. Captura de pantalla de la página de Intute, donde se recogen los resultados. Se han marcado los aspectos que hemos destacado en el texto.
Hemos dicho que en Intute se puede navegar por el directorio y se puede buscar. Las búsquedas son de dos clases: simples o más sofisticadas. En el segundo caso podemos elegir palabras de la descripción del sitio, título, palabras clave o todos los campos a la vez. Además, podemos limitar la búsqueda al tipo de recurso (imágenes, materiales docentes, asociaciones, instituciones, etc.), al área correspondiente (medicina -antes Omni- o 35
ampliarla a cualquiera de las ocho restantes antes mencionadas), y ceñirnos sólo a los recursos del Reino Unido o no. Finalmente podemos optar que se nos muestren las referencias ordenadas por orden alfabético o por orden de relevancia. Tanto para navegar como para buscar, el sitio ofrece una ayuda sencilla pero valiosa (http://www.intute.ac.uk/help.html). Los resultados que proporciona Intute Health and Life Sciences son de calidad, ya que están seleccionados por un equipo de profesionales en las distintas áreas. En estos momentos cuenta con 31.000 referencias. – Karolinska Institutet. Biomedical links (http://ki.se/ki/jsp/polopoly. jsp?d=1388&a=4145&l=en). Se trata de una recopilación de recursos web sobre medicina desarrollada por la Biblioteca del Instituto Karolinska. Están agrupados en forma de directorio y su calidad ha sido controlada por un grupo de expertos. En estos momentos la lista incluye más de 16.000 referencias. Más que de un directorio se puede hablar de varios: uno de enlaces de tipo general; otro de imágenes e ilustraciones médicas; un tercero, el más reciente, de estudios de casos clínicos; otro sobre enfermedades; finalmente un quinto que se limita a los recursos de Suecia. Los resultados ofrecen el título del recurso (enlace, que lleva al sitio), el autor, caso de que exista, el origen y lugar geográfico de procedencia. – Hardin.MD. The University of Oiwa (http://www.lib.uiowa.edu/hardin/ md/index.html). Nació en el año 1996 como un metadirectorio o directorio de directorios de medicina y salud (de hecho se llamaba Harin Meta Directory), pero en los últimos años se han ido añadiendo gran cantidad de enlaces de otro tipo como los que llevan directamente a páginas Web, documentos y, sobre todo, imágenes. Hay disponible una versión en español, pero muy reducida en cuanto a contenidos (http://www.lib.uiowa. edu/hardin/md/espanol/index.html). – CISMeF (Catalogue e Index des Sites Medicaux Francophones) (http:// www.chu-rouen.fr/cismef/). Se trata de un proyecto que fue iniciado en el Centre Hospitalier Universitaire de Rouen en 1995. Indiza los principales sitios web y documentos de tipo médico francófonos. En 2003 contaba con 12.000 recursos. El menú de la página principal indica que cuenta con un índice alfabético, otro temático y también se puede acceder por el tipo de recurso. De la misma forma podemos entrar en el directorio terminológico. La terminología que utiliza se basa en el tesauro MeSH (versión 2007) que elaboran en el Département de l’information scientifique et de la communication. Cuenta con una sección de información para los enfermos y otra sobre enseñanza y formación. Este menú inicial nos proporciona igualmente una herramienta de búsquedas sencillas y otra más sofisticada.
Motores de búsqueda. Los motores de búsqueda generales Los directorios son limitados y los hacen personas. En estos momentos debe haber unos quince grandes robots que rastrean la red constantemente recopilando información sobre contenido de las páginas. Cada cierto tiempo vuelven a cada sitio para comprobar si ha habido cambios o actualizaciones. Toda la información se almacena en grandes bases de datos. Sin embargo, la forma de buscar y el almacenamiento de los datos no es la misma en todos 36
los casos. Algunos indizan sólo determinadas partes de la red, otros indizan la página principal de un sitio y unas cuantas más, y otros indizan la totalidad de los sitios. Algunos incluyen sólo páginas Web y otros añaden también documentos en formato pdf, documentos de texto (txt, doc), presentaciones (ppt), etc.; algunos son incapaces de rastrear páginas con frames o marcos o simplemente las rechazan, y otros no. Cuando buscamos algún tema de medicina nos daremos cuenta de que entre los resultados aparece en ocasiones algún artículo que procede de Medline, pero esto no significa que se muestre la lista entera como si estuviéramos buscando en esa base de datos. Este detalle hay que tenerlo en cuenta. A continuación nos ocuparemos de los motores de búsqueda generales, como Google (http://www.google.com). Podemos situar el comienzo de Google cuando Sergey Brin y Larry Page se conocieron en un acto que organizó la Universidad de Stanford. El primero de ellos era licenciado en informática y matemáticas, y el segundo, ingeniero electrónico con mucha experiencia en diseño de páginas web. A los pocos meses se pusieron a trabajar en el proyecto Biblioteca Digital de la misma universidad. Para las búsquedas idearon un algoritmo que más tarde sería el corazón del conocido buscador. Page llamó a esta tecnología “PageRank”2. Su objetivo era conseguir información relevante a partir de una inmensa cantidad de datos. En enero de 1996 comenzaron a desarrollar un buscador al que bautizaron, en principio, BackRub, haciendo referencia a su habilidad para analizar los enlaces que apuntan a una determinada página o “back links”. Los primeros usuarios fueron los docentes y los estudiantes de la Universidad de Stanford. Pronto pudieron comprobar la precisión de los resultados que ofrecía el motor de búsqueda, lo que no era frecuente en otros buscadores que llevaban tiempo funcionando en la red. Por ello, Page y Brin obtuvieron una merecida reputación en el campus. En 1997 el buscador BackRub se transformó en Google. Eligieron este nombre por su parecido a la palabra “googol”, que en inglés es equivalente a diez elevado a cien, es decir, un uno seguido de cien ceros. Por entonces ya habían indizado millones de páginas. La elección de este término refleja el objetivo de la compañía de organizar la inmensa cantidad de información disponible en la World Wide Web y en el mundo. En 1998, mientras perfeccionaban su tecnología, se dedicaron a buscar inversores. Era el momento de las llamadas “puntocom”, pero Page y Brin no querían montar su propia empresa. Uno de sus amigos, David Filo, cofundador de Yahoo! les animó a que lo hicieran, ya que no habían recibido ofertas importantes. Andy Bechtolsheim, uno de los creadores de Sun Microsystems y vicepresidente de Cisco Systems, se percató de que Google tenía un potencial enorme. Una pequeña demostración fue suficiente para que les firmara un cheque por valor de 100.000 $ a nombre de Google Inc. Pero surgió un problema: la empresa Google Inc. no existía y no podían cobrar ni ingresar el cheque. Dos semanas más tarde decidieron buscar nuevos inversores entre familiares y amigos para poner en marcha la compañía. El 7 de septiembre de ese mismo año Google Inc ya se había constituido e instalado en Menlo Park, California, en un garaje que un amigo les alquiló. En esta etapa el buscador Google, en la dirección www.google.com, estaba en fase beta y realizaba al día unas diez mil búsquedas. El número de páginas
2 En 1997 lo presentó en su página web, con el título PageRank: Bringing Order to the Web
37
El alojamiento de las páginas es un dato a tener en cuenta, ya que en estos momentos es posible que un sitio elaborado en España, en castellano y sobre temas que hacen referencia sólo a España, puede estar alojado en un servidor de otro país. Esta costumbre está extendida en todo el mundo y es posible gracias a las posibilidades que ofrece la red. Por tanto, a la hora de buscar y establecer barreras geográficas habrá que tenerlo en cuenta. 4 La expresión OR puede sustituirse por ‘|’, que corresponde a las teclas (AltGr+1) 3
38
indizadas rondaba los 25 millones. La prensa empezó a alabar las virtudes del buscador. Por ejemplo, la influyente revista PC Magazine lo incluyó dentro de su lista “Top 100 Web Sites” de 1998. Al año siguiente, en 1999, consiguieron nuevas inversiones procedentes de Sequoia Capital y Kleiner Perkins Caufield & Buyers. El crecimiento de las instalaciones les obligó a trasladarse a lo que hoy es Googleplex, la actual sede central de Google en Mountain View, California. El 21 de septiembre de 1999 desapareció definitivamente de la página la etiqueta “En fase beta”. Las visitas y las búsquedas seguían creciendo y en ello tuvo mucho que ver el boca a boca, tanto en el mundo físico como en la red. Google se convirtió en la marca más valiosa del mundo en abril de 2007, alcanzando la suma de 66.000 millones de dólares y superando ya a empresas tan emblemáticas como Coca-cola o Microsoft. Desde luego, en España es el motor de búsqueda más utilizado y conocido. Antes de su existencia muchos utilizaban Altavista, pero en cada búsqueda se obtenían demasiadas referencias con un exceso de ruido. Cuando la gente fue comprobando la eficacia de Google abandonaron Altavista y otros buscadores parecidos. Por otro lado, siempre se ha dicho que la interfaz que ofrece, tan simple y limpia, favorece su uso. No menos despreciable es la cifra de las páginas que indiza: en torno a los cinco mil millones. No hay problema en el uso de Google. Introducimos una palabra o una frase o un conjunto de términos y enseguida tenemos resultados a nuestra disposición. Para filtrar los no deseados de forma sencilla, tendremos que ser lo más precisos posible: añadiremos más de una palabra, o el nombre de alguien o de una institución, etc. Es cuestión de ir probando distintas posibilidades y fijarse en la opción que más nos convenga. También podemos utilizar la posibilidad de buscar “Páginas en español” y “Páginas en España”; en este último caso las páginas están alojadas en España pero pueden estar redactadas en otros idiomas3. Este filtro también es importante y reduce el número de resultados. Otro tipo de filtrado consiste en introducir una frase bien construida entre comillas. El buscador nos proporcionará las referencias que contengan esa oración en concreto. Aparte de la frase, ya fuera de las comillas, también podemos incluir otras palabras. Si no conocemos alguna de las palabras que componen una frase la sustituimos por un comodín o asterisco; por ejemplo “Espíritu del * de febrero”. Google lo encuentra y sustituye el “*” por 12, en este ejemplo concreto. Cuando introducimos varias palabras el buscador añade por defecto AND entre las mismas. Se podría dar el caso de que en una búsqueda obtuviéramos resultados pobres y nos interesaría ampliarlos. Entonces debemos añadir nosotros entre cada palabra “OR”4. Así pueden hacerse varias combinaciones: Por ejemplo: término A AND (término B OR término C OR término D). AND y OR son operadores boleanos y deben escribirse en mayúsculas. Por otra parte, antes Google no tenía en cuenta “en” o “de” entre palabras, pero en la actualidad sí los considera. Si introducimos el símbolo combining tilde “~” delante de una palabra le indicamos a Google que busque ese término y los posibles sinónimos. También podemos decir al navegador que busque una palabra, pero que excluya los resultados cuando se asocia con otra que no nos interesa. Por
ejemplo, podemos buscar “Ceguera”; después “Ceguera ONCE”; y después “Ceguera –ONCE”. En el primer caso aparecen resultados entre los cuales algunos hacen referencia a la ceguera en relación con la ONCE; en el segundo los resultados que se ofrecen unen las dos cosas; en el tercero, al poner un guión delante de ONCE, estamos diciendo que excluya los resultados en lo que ceguera se asocia con ONCE. Google nos permite acotar fechas. Por ejemplo, podemos buscar “Barcelona” 1990. 2000. Los resultados contendrán las páginas que hablen de Barcelona y aparezcan las cifras que van de 1990 a 2000. Como se ve, hay que separarlas con puntos. Si necesitamos conocer el significado de un acrónimo, no tenemos más que preguntarlo de esta forma: define: USA. Enseguida tendremos una o más respuestas. Con Google también podemos hacer cálculos. Para utilizar la función de calculadora integrada en el buscador, simplemente debemos introducir la expresión que deseemos evaluar en la casilla de búsqueda, hacer clic en la tecla [Intro] o bien en el botón de [Búsqueda en Google]. Calcula expresiones matemáticas de aritmética básica (10+2*2 o 2^20) y matemáticas más complicadas (e^(i pi)+1). También opera con otros sistemas numéricos como hexadecimales o binarios. Google también es un conversor de unidades de medida, moneda, temperatura, etc. Sólo hay que tener en cuenta que debemos utilizar el inglés. Por ejemplo: 10 dollars in euros; la respuesta es “10 US dollars = 6.9228 Euros”. O también, 100 km in miles; el resultado es “100 kilometers = 62.137 miles”. Google contesta también preguntas concretas. Por ejemplo, si en el campo de búsqueda introducimos Población Valencia, el primer resultado es: “Valencia – Población: 805304 Hab. (INE 2006)”. Si queremos hacer una pregunta, también podemos hacerlo: quién es Santiago Ramón y Cajal?, y lo mismo respecto a las definiciones. Si ponemos en el campo de búsqueda: define proteína, el primer resultado junto al icono de un libro cerrado nos proporciona un enlace: “Definiciones en la web para Proteína” (Imagen 5).
Imagen 5. Captura parcial de pantalla de los resultados de “define proteína” en el buscador Google.
Cuando hacemos una búsqueda en Google observamos que debajo de la dirección en verde aparece un enlace que dice “páginas similares”. Si alguno de los resultados de la búsqueda nos parece muy adecuado a lo que quere39
mos, podemos pulsar ese enlace, porque nos llevará a páginas cuyo contenido es similar al que creemos que se ajusta más a nuestras necesidades. Otro enlace que está junto al que acabamos de mencionar es “En caché”. Este debe utilizarse cuando el de la página no funciona por algún motivo o porque simplemente ha desaparecido o ha sido borrado. Los buscadores suelen guardar una copia de la páginas indizadas durante un tiempo. El vínculo “Caché” no estará presente en los sitios que no han sido indexados, ni tampoco en aquellos cuyos propietarios han solicitado que se elimine el contenido almacenado en caché. Truco El recurso “En caché” también nos sirve para un fin distinto. Cuando buscamos uno o más términos obtenemos varias referencias que nos llevan, en ocasiones, a páginas largas o con gran cantidad de texto. Una forma de no perder tiempo localizando lo que buscamos en toda la superficie de la página es hacerlo vía “En caché”, porque las palabras que buscamos aparecen marcadas en color. Con este procedimiento enseguida localizamos los términos que buscamos, por ejemplo, un nombre propio en una larga lista. Con Google seguimos teniendo más posibilidades de encontrar información. Si queremos saber qué páginas apuntan a nuestra página o a otra cualquiera tenemos que poner en el cajetín de búsqueda: link:www.google.es, es decir la palabra link seguida de dos puntos y la dirección de la página que investigamos. Enseguida se nos muestran los enlaces a las páginas que contienen un enlace a la nuestra o la que interesa. Los resultados de Google incluyen en la actualidad archivos en pdf, doc y ppt, como hemos dicho. Los pdf (Adobe Portable Document Format) se abren perfectamente si se tiene instalado el plugin correspondiente. Para los doc (documentos de texto) y los ppt (presentaciones) hace falta llamar a la aplicación correspondiente si se tiene instalada en el ordenador. Cuando hacemos las búsquedas podemos introducir la restricción “solo archivos pdf” de la siguiente forma: junto a los términos de búsqueda añadir filetype:pdf. Con los archivos pdf, el vínculo “En caché” se reemplaza con “Versión texto”. Ésta es una copia del documento pdf con todos los comandos de formato ausentes. Aparte del tipo de archivos mencionados también encuentra otros como xls, ps, swf, etc. Google, como es natural, tiene páginas de ayuda para realizar búsquedas (http://www.google.es/support/?hl=es) a las que podemos recurrir si tenemos dudas. Conviene consultarlas de vez en cuando para estar al día en las mejoras que se van introduciendo en el buscador. Finalmente nos queda la opción “Búsqueda avanzada”. Si pulsamos el enlace con ese nombre que se encuentra junto al cajetín de búsqueda, se abre una nueva página desde la que podremos hacer búsquedas mucho más sofisticadas. Es una opción que solemos pasar por alto. Nos queda analizar los buscadores temáticos de Google. Google cuenta con buscadores específicos o temáticos aparte del motor de búsqueda general. Los que más nos pueden interesar son: – Google Académico (http://scholar.google.es). En 2006 Google puso en línea Google Académico, versión en español de Scholar Google. Este re40
curso devuelve resultados relativos a aportaciones académicas como tesis, artículos, libros, capítulos de libro, actas, etc., muchos de acceso libre y muchos publicados en la World Wide Web. Es una excelente fuente de bibliografía. Google Académico contribuye también a difundir los trabajos de investigación españoles en todo el mundo. Los resultados se ordenan de acuerdo a su relevancia, garantizando que los más pertinentes aparezcan en los primeros puestos. La tecnología de ranking toma en consideración el texto completo de cada artículo, así como el autor, dónde fue publicado y con qué asiduidad ha sido citado en otras fuentes especializadas. Cada trabajo contiene información bibliográfica: título, nombres de los autores y publicación original. Siempre que sea posible, Google Académico realiza la búsqueda en todo el texto del artículo, y no sólo en extractos o en resúmenes del mismo. En cada referencia podemos distinguir: (1) Título del recurso; es un enlace al resumen o al artículo entero, si es posible; (2) “Citado por”, es un vínculo que identifica otros documentos que citan el trabajo; (3) “Artículos relacionados” o enlace que lleva a documentación similar a la referencia; (5) “Grupo de”, encuentra otros artículos incluidos en este grupo de trabajos académicos, como son los trabajos previos a la impresión, resúmenes, conferencias u otras adaptaciones; (6) “Búsqueda en la web”, busca información sobre esta investigación en el buscador Google (7) Búsqueda en Rebium (Red de bibliotecas universitarias). A veces puede aparecer un enlace al recurso de la biblioteca del campus universitario en el que nos encontremos. Tanto para este último caso como para que nos proporcione el enlace a búsqueda en Rebium, es necesario activarlo en las preferencias (enlace junto al cajetín de búsqueda) (Véase imagen 6).
Imagen 6. Captura de la página de búsqueda en Google Académico. Se puede acceder a la versión de Google Scholar, en inglés. Es conveniente antes de buscar seleccionar las preferencias.
Entre los resultados que muestra Google Académico algunas referencias van precedidas de [CITAS]. Se trata de una referencia en la que se cita alguno de los trabajos de la búsqueda principal. Cuando la referencia va precedida de [LIBRO], se trata de un libro. Google Académico también permite hacer búsquedas más sofisticadas. Para ello es conveniente dirigirse a la ayuda de la propia página. – Google libros (http://books.google.es). Se trata de un proyecto que crece día a día. Se encuentra en fase beta. Su objetivo, de momento, es dar acceso a los usuarios a la mayor cantidad de libros posible. Google está 41
escaneando ejemplares de las bibliotecas que se han adherido al mismo, como bibliotecas universitarias, públicas, etc. La Universidad Complutense y otras cinco bibliotecas de Cataluña han llegado a un acuerdo con Google para volcar miles de libros. El buscador de Google libros no sólo busca en el título o el autor, sino que también lo hace en el contenido. De momento sólo muestra los que están libres de derechos de autor o estos han sido cedidos de forma expresa. Asimismo tiene en cuenta los libros modernos cuyos editores se han afiliado al proyecto Google; de estos se enseña la portada, alguna página, el índice o sumario, etc., lo que ya de por sí es interesante. En algunos casos también se indica en qué biblioteca hay algún ejemplar para consulta. Cuando el libro está completo y libre de derechos se puede descargar en formato pdf como, por ejemplo, alguna obra de Juan Fragoso, Anastasio Chinchilla, François Magendie, Johannes Müller, Theodor Schawann, Mateo Buenaventura Orfila, etc. Para los historiadores de la medicina constituye una valiosísima herramienta. El proyecto Google Books y Google libros tiene sus defensores y también sus detractores. Los motivos difieren y uno de ellos se basa en el hecho de ver cómo Google detenta cada día que pasa mayor cantidad de información. No obstante, los libros serán accesibles para todos. Para buscar obras o autores concretos es de gran utilidad recurrir a la “Búsqueda avanzada”, enlace que se encuentra junto al cajetín de entrada de texto. Otros buscadores genéricos – Altavista (http://www.altavista.com): Nació en el año 1995 como uno de los primeros servicios de búsqueda de texto completo en Internet. Un equipo del laboratorio de investigaciones de Digital Equipment Corporation, de Palo Alto (California), crearon una forma de almacenar todas las palabras de una página web. En 1997 se añadió la utilidad de realizar búsquedas multilingües. Entre 1999 y 2001 creó sitios locales en diferentes países y también incluyó la posibilidad de buscar archivos multimedia. – Yahoo! Search (http://es.search.yahoo.com). Aparte del directorio que hemos comentado, Yahoo! también ofrece un buscador. – Live Search (http://search.live.com). Es el buscador de Microsoft. – Ask.com (http://www.ask.com). Ask.com fue conocido en un principio como Ask Jeeves, donde Jeeves era el nombre de un mayordomo virtual que buscaba las respuestas a cualquier pregunta. El programa fue implementado por Gary Chevsky. La idea original que había detrás de Ask Jeeves era permitir que los usuarios obtuvieran las respuestas a las preguntas que se formulan a diario en un lenguaje natural. Con el éxito de Google, Ask Jeeves comenzó a perder usuarios, pero tras una serie de reajustes tecnológicos, permitió que existieran palabras claves para que se basara en otros buscadores para sus respuestas. Hoy es parte de la compañía InterActive Corporation, fundada en 1996 por Garrett Gruener y David Warthen en Berkeley (California). Ofrece varias herramientas. Una de las más conocidas son unos prismáticos que se situan junto a algunas referencias; pasando el cursor del ratón por encima se abre un previo de la página web correspondiente. También permite guardar referencias de las búsquedas en una carpeta (MiAsk) y organizarlas en subcarpetas, que son consulta42
bles desde cualquier ordenador previo registro. Otra herramienta es Smart Answers o respuesta inteligente. Busca también blogs y permite hacer búsquedas avanzadas.
Los motores de búsqueda específicos para la medicina y ciencias de la salud Los buscadores médicos tienen sus ventajas y sus inconvenientes. Entre las primeras, la que tiene mucho valor es la de filtrar sólo las páginas que tengan relación con la medicina y la salud. Si buscamos algo en los buscadores generales y nos devuelven centenares de resultados, lo mejor será recurrir a los motores de búsqueda médicos. Suelen utilizar diccionarios de términos médicos bastante amplios. Entre los inconvenientes está que se pueden escapar resultados importantes. ¿Por qué? Una causa posible es que los robots que visitan los sitios web lo hacen con una frecuencia inferior a la de los generales. Otra podría estar precisamente en los conflictos terminológicos o en los diccionarios que se usan para indizar, especialmente cuando se utilizan palabras en distintas lenguas. A continuación ofrecemos una selección de los más destacados. – Scirus (http://www.scirus.com). Se trata de un buscador de ámbito internacional especializado en información de carácter científico-técnico. Fue lanzado en abril de 2001. Tiene una cobertura de más de 450 millones de páginas5 y documentos pdf e indiza también unas 1.200 revistas científicas disponibles en línea. Tiene en cuenta documentos que son opacos para otros buscadores6. Está desarrollado por Elsevier Science, uno de los principales grupos editores de información científica. Utiliza la misma tecnología avanzada sobre la que se sustenta el motor AllTheWeb.com de FAST, uno de los motores de búsqueda más completo de la Red. Scirus utiliza algoritmos de búsqueda lingüística especializada diseñados específicamente para localizar contenidos científicos. La interfaz de búsqueda es sencilla. Scirus arroja resultados de páginas web y de artículos, que no siempre son accesibles si no se está suscrito. Se pueden realizar búsquedas más sofisticadas. Permite seleccionar el tipo de publicación, los formatos de los archivos, el origen de los recursos, así como el área temática. También admite operadores boleanos. Nos permite igualmente establecer unas preferencias para mostrar los resultados. – Medhunt (http://www.hon.ch/MedHunt): Se trata de un buscador desarrollado por Health on the Net Foundation. Esta Fundación surgió cuando en septiembre de 1995 se reunieron en Ginebra varios expertos en telemedicina para participar en la conferencia The Use of the Internet and WorldWide Web for Telematics in Healthcare. Cuando el encuentro finalizó, se decidió crear un órgano permanente para promover el uso fiable y eficaz de las nuevas tecnologías en la atención sanitaria. En marzo de 1996 apareció HON (www.hon.ch). Con el tiempo se ha convertido en un portal sin ánimo de lucro de referencia en lo que a información médica en Internet se refiere. Coopera con los hospitales universitarios de Ginebra y con el Instituto Suizo de Bioinformática. Los miembros que integran el consejo de HON proceden de los Estados Unidos y de varios países europeos7. Se tra-
Por ejemplo, indiza 156 millones de páginas con el dominio “edu”, 54 millones con “org”, 9 millones con “ac.uk”, 52 millones con “com” y 36 millones con “gov”. 6 Los detalles de su cobertura pueden encontrase en esta página: http://www.scirus.com/srsapp/ aboutus/ 7 Véase “About Health On the Net Foundation”, en Health On the Net Foundation (http://www.hon.ch/ Global/about_HON.html) 5
43
ta de una herramienta de búsqueda que guía a los usuarios hacia recursos fiables, analizando el contenido médico en línea para ayudar a los usuarios no profesionales a manejar el número creciente de páginas Web relacionadas con la salud. Utiliza un motor de búsqueda llamado MAVIN (Multi-Agent Retrieval Vagabond on Information Networks)8, desarrollado por la Health On the Net Foundation y el Molecular Imaging and Bioinformatics Laboratory, en el Hospital Universitario de Ginebra. Para recuperar los sitios Web de forma automática este buscador utiliza un diccionario médico que contiene unos 12.000 términos. A cada uno se le ha dado un valor según su relevancia y especificidad en la descripción de páginas Web sobre medicina y salud previa realización de estudios estadísticos de documentos de este tipo. MARVIN realiza búsquedas y selecciona exclusivamente los documentos pertinentes sobre salud y medicina. Su relevancia se calcula de acuerdo al número de términos del diccionario que contiene y a su valor o “peso”. Los documentos seleccionados se almacenan en MedHunt, base de datos que se organiza en cuatro categorías: una general, que contiene todos los sitios Web sobre medicina y salud, y otras tres dedicadas a hospitales, apoyo a personas, y a conferencias. Desde la página señalada podemos buscar en los sitios acreditados HONcode, en todos los sitios, nos permite acceder a HONselect, a la sección de noticias, conferencias y, finalmente, imágenes. Podemos trabajar en cuatro idiomas, entre los que está el castellano. Desde la página inicial también podemos establecer algunas limitaciones. Cuando buscamos en “Todos los sitios” u “All web sites”, se nos muestran de forma independiente (color diferenciado) tres tipos de resultados: los sitios que cumplen el código de calidad de la HON, sitios que no lo cumplen pero que han sido revisados por personal de la HON, y finalmente, sitios que ha indizado el motor MARVIN, pero que nadie ha revisado. Junto a esta información también aparece el porcentaje de relevancia, las palabras clave, la última fecha de visita de MARVIN al sitio, si se trata de sitios institucionales, comerciales, etc., una descripción o meta-descripción, así como el lugar geográfico de procedencia. Si no se obtiene ningún resultado, MedHunt sugiere otros términos de su diccionario de significado parecido. Este buscador va mucho más allá de los sitios escritos en inglés, lo que le aporta un valor añadido indiscutible. HONselect es un catálogo de términos médicos y un integrador de búsqueda para recuperar temas médicos y de salud. Combina cinco tipos de información (un tesauro de referencia, términos MeSH, artículos científicos, noticias sobre atención de salud, sitios Web y multimedia) en un solo servicio para refinar y acelerar su búsqueda. También incluye un verificador ortográfico. Por otro lado está el HONcode, que se encarga de desarrollar estudios con el fin de crear criterios de acreditación (códigos de conducta) para los sitios Web médicos y sobre la salud (http://www.hon.ch/HONcode/ Conduct_t.html).
Véase: http://www.hon.ch/MedHunt/Marvin.html
8
44
Hay que mencionar también otros proyectos dentro de Health On the Net Foundation: – BioHunt (http://www.expasy.ch/BioHunt/). Se centra en el ámbito de la biología molecular. Su diccionario se reduce, en este caso, a 3.000 términos.
– 2D Hunt (http://www.expasy.ch/ch2d/2DHunt/). Se ciñe al tema de la electroforesis 2 D. – HONindex (http://www.hon.ch/cgi-bin/HONHunt/find). Es un buscador local o interno del sitio Health On the Net web Site. – Medical World Search (http://www.mwsearch.com). Se trata de un servicio de pago9 dirigido a los profesionales de la medicina y a los investigadores, así como a las personas que posean unos conocimientos médicos básicos, a los que ofrece información y motores de búsqueda especializados. Opera sólo en inglés. Utiliza un tesauro por el que traduce las expresiones o palabras a la terminología médica y, de esta forma, busca también términos relacionados en otros motores de búsqueda10. Puede decirse, pues, que su fuerza es la utilización de sinónimos seguros. Medical World Search permite hacer búsquedas sofisticadas. Pueden utilizarse operadores boleanos y permite dirigir la búsqueda a sitios seleccionados. Detrás hay un comité editorial que verifica el nivel de calidad, lo que es una garantía de que los resultados reunirán una serie de requisitos mínimos. Sin embargo, la preselección puede tener el inconveniente de que apunte a un enlace vacío porque el recurso haya sido cambiado de dirección o haya sido borrado. Este servicio está muy escorado hacia la producción en inglés.
Los Metabuscadores Los metabuscadores se caracterizan por no tener una base de datos propia sino que buscan en los buscadores y devuelven una lista de resultados que es una combinación de las mejores páginas que devuelve cada uno. Es, por tanto, un buscador de buscadores. Si hacemos una búsqueda en Google, la repetimos en Yahoo!, en Live Search y en otros, encontraremos diferencias en los resultados. Deberíamos hacer una selección de las referencias más interesantes para nosotros de cada una de las búsquedas. En este sentido, el metabuscador es útil, ya que amplía el ámbito de las búsquedas y elimina las referencias duplicadas. Muchos metabuscadores muestran en los resultados la posición de la página en los buscadores, lo que nos permite evaluar, en cierta manera, la relevancia de cada referencia mostrada. Sin embargo, no tienen en cuenta la sintaxis que utiliza cada buscador, no sabemos cómo escogen y ordenan los resultados, y no permiten búsquedas tan sofisticadas como las de los buscadores. Cuantos más motores de búsqueda tenga en cuenta un metabuscador mejor será. Entre los más utilizados podemos mencionar los siguientes: – Metacrawler (http://www.metacrawler.com). Se desarrolló en 1994 en la Universidad de Washington por Erik Selberg y Oren Etzioni. En estos momentos pertenece a InfoSpace, Inc. Busca en los siguientes motores: Google, Yahoo! Search, MSN Search, Ask Jeeves, About, MIVA, LookSmart y otros. Busca páginas Web, audio, vídeo, noticias, etc. Permite hacer búsquedas relativamente avanzadas y establecer filtros como el idioma, las fechas, el dominio, entre otros. – Ixquick (http://www.ixquick.com). Se creó en Nueva York y fue lanzado en 1998. Hoy pertenece a la empresa holandesa Surfboard Holding BV. Se di-
9 La suscripción está sobre los 30 dólares por año. 10 Utiliza el Unified Medical Language System (UMLS), un gran proyecto de la Nacional Library of Medicine, que vendría a ser un metatesauro que reúne MeSH, Current Procedural Terminology (CPT), International Classification of Diseases ( (ICD-9-CM), Systematic Nomenclature for Medicicine (SNOMED-2, y SNOMED international), entre otros.
45
ce que es uno de los más completos y exactos. Ixquick traduce la petición que se le formula a la sintaxis de cada motor de búsqueda. La interfaz es muy sencilla y limpia. Desde ella podemos hacer búsquedas directamente con una serie de opciones: directorio telefónico internacional, vídeo, imágenes, Web, así como el idioma. También hay un enlace para acceder a una página de búsquedas más sofisticadas. Cuando aparece la página de los resultados, en la parte superior hay una lista que nos permite activar o desactivar motores a los que ha recurrido Ixquick en la primera búsqueda. Cada referencia se acompaña de estrellas, un aspa y la marca de verificación (una especie de v). Pueden utilizarse para mejorar la búsqueda. Si la referencia es buena clicamos la marca de verificación para hallar sitios similares. Por el contrario, si no es lo que deseamos, hacemos clic en el aspa y se eliminarán los resultados asociados. Respecto a las estrellas, un resultado de Ixquick recibe una estrella por cada motor de búsqueda que lo selecciona como uno de los diez mejores resultados de la búsqueda. En consecuencia, un resultado de cinco estrellas significa que cinco motores de búsqueda coincidieron en el resultado. Debajo de cada referencia nos aparecen varios enlaces: opción de descartarla, los buscadores en los que aparece y el orden (un 1 si ocupa el primer lugar); si hacemos clic nos lleva a la página de ese buscador con sus resultados.
46
Bases de datos médicas en Internet Introducción Las bases de datos se han constituido en herramientas imprescindibles en todos los ámbitos, desde los más tradicionales, como la investigación, la educación o los negocios, hasta los más novedosos como la banca y el comercio electrónico, los motores de búsqueda o la distribución de noticias. Tras los grandes proyectos de Internet como Yahoo!, Google, Amazon, eBay, Wikipedia, etc. se esconden inmensas bases de datos construidas de diversas formas. La información, los datos, son esenciales en cualquier proyecto y la gestión de los mismos puede asegurar el éxito, pero también el fracaso. Las bases de datos permiten manejar de forma eficiente la información, de organizarla y de almacenarla. Hace unas décadas los sistemas de gestión de las bases de datos estaban al alcance de los pocos que contaban con recursos financieros suficientes para hacerse cargo de lo que era una tecnología económicamente costosa. La aparición de sistemas de gestión de bases de datos gratuitos que compiten con software comercial, y la generalización de los ordenadores personales, ha hecho que la creación, gestión y mantenimiento de una base de datos esté prácticamente al alcance de todos. Una base de datos debe facilitar la búsqueda, clasificación y reorganización de los datos. Los principales componentes son el hardware, el software, los datos y el personal encargado de la puesta en marcha del sistema. El software se llama también SGBD (Sistema Manejador de Bases de Datos) o, en inglés, DBMS (Data Base Management System) y es un conjunto de aplicaciones que permite la creación de una base de datos, la manipulación de la información que ésta contiene, y la realización de todas las tareas administrativas necesarias para mantenerla operativa. Las bases de datos ya existían antes de la revolución digital, pero ésta les ha otorgado un papel central en la sociedad de la información. Hoy en día todos demandamos al World Wide Web gran cantidad de contenidos. Es necesario que alguien recopile, sistematice y presente la ingente cantidad de información que circula por la red. Las bases de datos constituyen una pieza clave. Es por ello que éstas poseen un régimen jurídico. Su protección depende de la presencia o no de originalidad. Así el artículo 12.2 TRLPI proporciona una definición de lo que debe entenderse por base de datos: “A los efectos de la presente Ley, y sin perjuicio de lo dispuesto en el apartado anterior, se consideran bases de datos las colecciones de obras, datos, o de otros elementos independientes dispuestos de manera sistemática o metódica y accesibles individualmente por medios electrónicos o de otra forma.”. El artículo 12.1 alude a las bases de datos que son originales y ostentan, por 47
tanto, el carácter de obra. El número 12.2 contempla y define todas las bases, sean o no obra. Cuando se “sube” una base de datos a la red hay que tener en cuenta todos los aspectos legales relacionados ya que, como hemos visto, son objeto de consideración por la Ley de la Propiedad Intelectual. Las bases de datos pueden ser totalmente originales, pero también puede haberlas que derivan de otras bases o de elementos en cuya creación no se ha intervenido. No hay que justificar la importancia que las bases de datos tienen hoy en medicina. Las más importantes desde el punto de vista médico pueden agruparse en varios epígrafes: a) Bases de datos y repertorios acerca de la medicina en su conjunto. b) Bases de datos y repertorios de cobertura científica general que incluyen una elevada proporción de registros sobre cuestiones médicas. c) Bases de datos y repertorios más destacados en el campo de la química, de las ciencias sociales y humanas, que son indispensables para la información relativa a las amplias intersecciones de la medicina con dichas áreas. d) Bases de datos y repertorios dedicados de forma monográfica a disciplinas o materias médicas. e) Bases de datos y repertorios dedicados de forma monográfica a géneros documentales determinados. Nosotros sólo haremos referencia a las bases de datos más destacadas sobre medicina en su conjunto. Actualmente Medline y Embase son las bases de datos internacionales más importantes dedicadas a todos los aspectos de la medicina. Junto a ellas es obligado situar a BIOSIS, que destaca entre las relativas a las ciencias biológicas. Por otro lado, IME es la base de datos española de cobertura médica general.
Medline, pubMed
1 En 1879 se publicó el primer volumen del Index Medicus y en 1880, el primer volumen del Index Catalogue. En 1895 el Index-Catalogue of the Library of the Surgeon General’s Office, United States Army, había alcanzado los dieciséis volúmenes. Se puede acceder a la base de datos del Index Catalogue en la National Library of Medicine (http://www.nlm.nih.gov/hmd/indexcat/ichome.html) [Consultado el 8 de enero de 2008].
48
MEDLINE significa MEDical Literature Análisis and Retrieval System on LINE. Fue la parte general del sistema de ficheros automatizados de la National Library of Medicine de los Estados Unidos de América. Desde su creación en 1966 hasta 1975 ofrecía sólo las referencias bibliográficas y, a partir de esta última fecha, incluyó resúmenes de una buena parte de los artículos o trabajos indizados. Al principio tuvo en cuenta capítulos de libro además de los artículos, reseñas, cartas, editoriales y artículos biográficos. En esta base de datos no encontramos referencias de libros, conferencias, abstracts de congresos, tesis ni anuncios, ni los capítulos de libro a partir de 1982, como hemos señalado. Sin embargo hay excepciones. Las versiones impresas son los repertorios Index Medicus, Index to Dental Literature e Internacional Nursing Index. La etapa actual del Index Medicus comenzó en 1960 aunque hubo otras anteriores; la primera data de 18791. En la actualidad contiene más de 16 millones de referencias de trabajos de medicina desde 1950. En los últimos años se han implementado referencias retrospectivas pertenecientes a las versiones impresas o se han incluido referencias de otras bases de datos como la de Historia de la medicina HISTLINE. El 80 por ciento de las referencias son de trabajos en inglés o que tienen resumen en este idioma.
Medline es, en la actualidad, la fuente de información más conocida y utilizada en el ámbito de las ciencias médicas. Es tan popular que a menudo los profesionales sólo recurren a ella, lo que puede llegar a constituir una mala práctica. La National Library of Medicine es la mayor biblioteca médica del mundo. Además de MEDLINE produce otras bases de datos especializadas en áreas médicas diferentes. Algunas de ellas se encuentran accesibles sobre el formulario de búsqueda. Entre éstas podemos mencionar: Nucleotide: Secuencias de ADN del GenBank Protein: Secuencias de aminoácidos Genome: Acceso a referencias y gráficos de genomas completos y cromosomas, etc. Structure: Estructuras moleculares en 3-D de la Molecular Modeling Database (MMDB) ONIM: Online Mendelian Inheritance in Man. Se trata de una base de datos de genes humanos y de alteraciones genéticas. Taxonomy: Base de datos que contiene los nombres de todos los organismos que se encuentran representados en todas las bases de datos genéticas. Books: Colección de libros a texto completo. Imagen 1. Menú superior horizontal desde donde se puede acceder a diferentes bases de datos PubMed.
Imagen 2. Totalidad de las bases de datos. Pantalla accesibe desde “All Databases”.
MEDLINE es de acceso libre, aunque se ha licenciado a diversas empresas como OVID, SilverPlatter y Ebsco, que la distribuyen junto con otros soft49
wares. Por tanto, podemos decir que existen diversas versiones o modos de consultarla. La opinión de los responsables de la National Library es que la interfaz pública (Pub Med) es la mejor. PubMed es un sistema gratuito de acceso a la base de datos MEDLINE. Como hemos señalado, la mayor parte de los artículos se refieren a medicina, pero también cubren enfermería, áreas médicas afines y otras relacionadas, como bioquímica y biología celular. Es una parte de Entrez information retrieval system. Los trabajos proceden de unas 5.000 revistas publicadas en los Estados Unidos y otros ochenta países. Las posibilidades de búsqueda en la base de datos pueden ser varias. Aunque en algunos casos es sencillo encontrar lo que se busca, en otros es más complicado, especialmente si se pretende que los resultados se ajusten cuantitativa y cualitativamente a lo que uno busca. Si en la pantalla de inicio introducimos, por ejemplo, “prostatic cancer”, obtenemos casi 6.000 referencias. Algunos de los trabajos serán relevantes para nosotros, pero la mayor parte no. La manera de solucionar el problema es realizar búsquedas más sofisticadas. Veamos un ejemplo. Queremos encontrar trabajos sobre el uso de la radioterapia en el cáncer de próstata. En la pantalla inicial introducimos “prostatic cancer” (los términos deben estar en inglés) y pulsamos el botón “GO”. Obtenemos un resultado de miles de artículos. Hacemos clic sobre el botón “clear” que hay junto al campo de texto. Ahora introducimos “Radiotherapy” y pulsamos de nuevo “GO”. El resultado es una gran cantidad de trabajos. Vamos ahora a cruzar las dos búsquedas. Seleccionamos la solapa “History” que se encuentra justo debajo del campo de texto. En la pantalla aparecen reflejadas las búsquedas que hemos realizado precedidas del signo almohadilla (#). Seleccionamos el número de la búsqueda de “prostatic cancer” (por ejemplo #1) y con el operador AND seleccionamos la búsqueda “radiotherapy” (#2). El campo de texto quedaría así: (#1)AND (#2). Cuando pulsamos “GO”, la cifra de trabajos se ha reducido a 598 Véase Imagen 3).
Imagen 3. Pantalla de PubMed.
Sobre esta cifra, que todavía es muy alta, podemos aplicar límites. Seleccionamos la solapa “Limits” y nos aparece la pantalla en la que haremos nuestra selección (Véase en la tabla 1 los límites que podemos establecer). Por ejem50
plo en “Date”, optaremos por los dos últimos años, y en “Languages” por el inglés (Véase Imagen 4). La cifra de trabajos se ha reducido a 5. Se trata, por tanto, de hacer pruebas y observar la relación existente entre lo que uno busca y lo que uno obtiene; es la mejor forma de aprender, adquiriendo experiencia.
Imagen 4. Pantalla de PubMed donde establecemos los límites a la búsqueda.
Igual que hemos buscado trabajos sobre un tema, podemos hacerlo por el nombre del autor o por el de la revista. Los nombres de autores deben introducirse en la forma: Brown JM, aunque las iniciales son opcionales. PubMed trunca el apellido del autor para permitir las distintas variaciones y designaciones tales como Jr. Si sólo introducimos el apellido, PubMed buscará esa palabra en todos los campos. Respecto a los títulos de las revistas podemos buscar por el título completo, por las abreviaturas válidas para MEDLINE o incluso por el ISSN. Fijémonos que en el menú horizontal superior tenemos la posibilidad de ir a “Journals”. Si pulsamos, accedemos a la base de datos de revistas por temas, títulos completos y abreviados, ISSN, etc. De cada revista se muestra una ficha con los datos más importantes: idioma, año de inicio, año final de publicación, editor, áreas que abarca, etc. También puede ser interesante utilizar “Index”, que nos permite acceder a una lista de términos dentro de un campo específico: “MeSH Terms”, “Autor Name”, etc. y seleccionar los términos para elaborar una estrategia de búsqueda usando los operadores boleanos. Por ejemplo, para ver los términos MeSH que comiencen por “history”, seleccionamos “MeSH Terms” del menú desplegable, introducimos el texto y pulsamos “Index” (Véase Imagen 5). 51
Tabla 1 Tipos de límites que se pueden establecer en las búsquedas en PubMed
52
Límite
Descripción
Limitar el nombre del autor o autores
Nos permite limitar la búsqueda a uno o más autores determinados (todos o cualquiera de ellos)
Limitar el nombre de la revista o revistas
Nos permite limitar la búsqueda a una o más revistas determinadas
Campo
Permite que la búsqueda se limite a un campo específico de los definidos en la tabla
Texto completo, texto libre completo o resúmenes
Nos permite seleccionar los artículos en los que se enlaza al texto completo (posiblemente de pago), a texto completo de acceso gratuito, o a los que tienen resumen.
Tipo de publicación
Permite seleccionar entre ensayos clínicos, editoriales, cartas, meta-análisis, guías, ensayos randomizados controlados o revisiones
Edad
Podemos seleccionar un determinado rango: 0-23 meses, infancia (0-18 años), edad adulta (19 o más años), período neonatal (1-23 meses), preescolar (2-5 años), escolar (6-12 años), adolescencia (13-18 años), adultos (19-44 años), edad mediana (45-64 años), edad mediana y mayores (45 o más años); mayores (65 o más años) y 80 años y mayores.
Fecha de entrada
Fecha en que la referencia se incorporó a PubMed, que no coincide con la fecha de publicación). Permite seleccionar lo incorporado los últimos 30, 60, 90 o 180 días, así como 1,2,5 y 10 años.
Fecha de publicación
Hay que poner el intervalo que nos interesa, pero hay que rellenar año, mes y día. Mes y día son opcionales.
Limitar por idioma
Podemos limitar la búsqueda a trabajos que se hayan publicado en un determinado idioma
Humano o animal
Permite seleccionar si los estudios se realizaron con humanos o con animales.
Subgrupos
Nos permite limitar la búsqueda a alguno de los subtemas que contiene PubMed. Véase tabla 2.
Sexo
Nos permite limitar la búsqueda a cualquiera de los dos sexos.
Tabla 2 Subtemas que contiene PubMed (Dentro de Límites)
Subtema
Descripción
AIDS
El filtro de búsqueda AIDS localiza referencias sobre Sida. Por ejemplo: “tuberculosis AND aids [sb]
Bioethics
Limita la búsqueda a temas de tipo ético. Los registros son suministrados por el Bioethics Information Retrieval Project del Kennedy Institute of Ethics at Georgetown University. Por ejemplo: “euthanasia AND bioethics [sb].
Cáncer
Creado por la NLM y el Instituto Nacional del Cáncer para facilitar la búsqueda de temas en todas las áreas de cáncer, que van desde la atención clínica a la investigación básica. Ejemplo: “survivors AND cancer [sb]”.
Complementary Medicine
Esta estrategia fue creada usando términos de la rama de “Medicina Alternativa MeSH”, así como otros y nombres de las revistas que proporciona el The National Center for Complementary and Alternative Medicine. Ejemplo: “osteoarthritis AND cam [sb]”.
History of Medicine
Estrategia de búsqueda creada por la History of Medicine Division de la NLM Ejemplo: “anthrax AND history [sb]”.
Space Life Sciences
Estrategia desarrollada por la NLM y la NASA SPACELINE Office, que se centra en trabajos sobre medicina del espacio.
Systematic reviews
Estrategia destinada a recuperar las referencias identificadas como revisiones sistemáticas, meta-análisis, revisiones de ensayos clínicos, medicina basada en la evidencia, conferencias, directrices, y citas a los artículos de revistas especializadas en estudios de revisión de interés para los clínicos. Ejemplo: “exercise hypertension AND systematic [sb]”
Toxicology
Creada por la NLM para facilitar la búsqueda en temas de toxicología Ejemplo: “lead AND tox [sb]”
Journals groups Dental Journals
Limitará la búsqueda a los títulos de revistas incluidas en el Index to Dental Literature
Core Clinical Journals
Es una selección de revistas del Index Medicus. Su finalidad es limitar la búsqueda a un reducido grupo de revistas relevantes para la práctica clínica.
Nursing Journal
Limitará la busqueda a los títulos de revistas de enfermería incluidas en el International Nursing Index 53
Imagen 5. Captura parcial de pantalla. Búsqueda de términos MeSH para “History”.
MEDLINE utiliza un vocabulario altamente estructurado, pero esto no quiere decir que no podamos buscar con términos comunes, nombre de autores y frases como hemos visto hasta ahora. En estos casos el sistema suele presentar una cantidad alta de resultados entre los que se encuentran los artículos más relevantes junto con otros escritos en idiomas distintos al inglés, trabajos que se centran sólo en aspectos específicos de lo que se busca, además de algunos que no tienen especial interés para quien formula la búsqueda. Cuando esto sucede, hay que pasar a un nivel de mayor exigencia. En primer lugar hay que tener en cuenta que cuando buscamos una frase hay que poner los términos entre comillas. Si se introducen dos o más términos sin comillas el sistema los combina con AND. Podemos establecer límites: artículos publicados en un determinado idioma, acotar las fechas de publicación, etc. (véase la solapa “Limits”). Se observa de inmediato que el número de trabajos se reduce a una cifra más manejable. En la tabla 1 se puede observar el tipo de límites que podemos imponer a la búsqueda. También podemos combinar varios conceptos, pero esto requiere de operadores boleanos como AND (combinar), OR (sumar) o NOT (excluir). Con la intersección AND recuperamos las referencias que contengan los términos. Con la unión OR recuperamos los que contengan los términos o al menos uno de ellos. Con la exclusión NOT evitamos que se recuperen las referencias que contienen el término. Es posible truncar los términos con el fin de recuperar las referencias que contengan palabras con la misma raíz. Para ello debemos colocar un asterisco al final de un término de búsqueda. Por ejemplo, si escribimos Hepat* en los resultados se incluirán los términos hepatology, hepatocellular, hepatic, steatohepatitis, etc. Para acotar las búsquedas podemos utilizar los calificadores de campo o etiquetas (tags). Cada campo de un registro bibliográfico se identifica mediante una etiqueta de dos o más letras (calificadores de campo), que pueden añadirse a continuación de cada término entre corchetes, en mayúsculas o minúsculas (Véase la tabla 3). En muchas ocasiones será necesario un mayor nivel de exigencia. Recurrimos entonces a búsquedas más avanzadas. Algunos prefieren comenzar directamente por éstas. Hasta ahora hemos utilizado un lenguaje natural donde no hay control de vocabulario, de las homonimias o sinonimias y otros fenómenos semánticos. La documentación nos ha enseñado que un vocabulario 54
Tabla 3 Algunos calificadores de campos o etiquetas (tags) Nombre del campo
Abreviatura
Descripción
Affiliation - Dirección [AD,AFFL]
Dirección y filiación institucional del primer autor
All Fields (Todos los [ALL] campos)
Incluye todos los campos de búsqueda PubMed
Autor name - Autores [AU, AUTH]
Hasta 1999 se incluían los 25 primeros autores, seguido por et al. En la actualidad no hay límite. El formato es “apellido”, seguido de espacio y la inicial o iniciales del nombre sin punto
E.C./RN [RN, ECNO]
Número asignado por la Comisión de Enzimas (E.C.). Número para designar una enzima en particular y el listado RN del Chemical Abstracts Service (CAS) Registry Numbers
Entrez Date - Fecha [EDAT] de ingreso
Contiene la fecha que la referencia fue agregada a PubMed, en el formato aaaa/mm/dd [edat], ej., 1986/02/15 [edat]
Full autor name – [FAU] Nombre completo del autor
Apellido y nombre completo del investigador
Full Investigador – [FIR] Nombre del investigador
Apellido e inicial del nombre del autor
Full Personal Name as [FPS] Subject – Nombre personal como tema de búsqueda
Nombre personal como materia
General Note [GN]
Información complementaria o descriptiva relacionada con el documento
Grant Number [GR]
Números de identificación de las agencias de financiación norteamericanas US PHS o Wellcome Trust
Issue - Edición [IP – ISSUE]
Número de la revista en la que se publicó el artículo
Journal Name – [TA, JOUR] Nombre de la publicación
Abreviatura del título de la revista, el título completo o el ISSN
Language - Idioma
Lengua del artículo
[LA, LANG]
55
Nombre del campo
56
Abreviatura
Descripción
MeSH Major Topic – [MAJR] Tema principal MeSH
Tema principal MeSH que es uno de los que se trata en el artículo
MeSH Terms - [MH, MESH] Términos MeSH
Vocabulario controlado de la NLM’s (Medical Subject Headings) sobre términos biomédicos que se usan para describir cada artículo de una revista científica en MEDLINE
Page - Página [PG, PAGE]
El número de la primera página del artículo en la revista en que aparece
Personal Name - [PS] Nombre personal
Se usa para buscar referencias a un sujeto como tema. Se usan las reglas como para buscar a un autor
Publication Date - [DP, PDAT] Fecha de publicación
Fecha en que el artículo fue publicado, formato aaaa/mm/dd (ej. 1986/11/05). Un año con solo un mes (ej., 1984/03) mostrará todo lo de ese mes. Las fechas de publicación no están estandarizadas entre las distintas publicaciones
Publication Type - [PT, PTYP] Tipo de publicación
Describe el tipo de material que se presenta en el artículo (ej., Review, Clinical trials, Retracted Publications, Letters)
Subheading - [SH] Subencabezado
Subencabezado para afinar la búsqueda en términos MeSH
Subset - Subgrupos [SB]
Permite elegir sobre qué parte de la base de datos queremos buscar: medline, premedline, publisher o aids
Substance Name - [NM, SUBS] Nombre de substancia
Nombre de una substancia química que aparece en el artículo
Text Words – [TW, WORD] Palabras del texto
Todas las palabras de los campos del título, resumen, términos MeSH, subencabezados, nombres de substancias químicas, nombre de persona como tema y campos de identificación secundaria
Title Words – [TI, TITL] Palabras del título
Palabras del título de un artículo
Nombre del campo
Abreviatura
Descripción
Volume - Volumen [VI, VOL]
El número del volumen de la publicación del artículo
PubMed Identifier (PMID) & MEDLINE Unique Identifier (UI)
Para buscar el PMID o UI hay que introducir el o los números correspondientes, y PubMed los unirá automáticamente
controlado es mucho más eficaz tanto para las tareas de indización de los trabajos como para la de recuperación. MEDLINE utiliza un vocabulario de este tipo que se conoce con el nombre de MeSH. Dada su utilidad, también es empleado por otras bases de datos médicas. Contiene encabezamientos de materias, subencabezados o calificadores, definiciones, referencias cruzadas, sinónimos y listas de términos que están estrechamente relacionados. Los términos se ordenan en estructuras jerárquicas (árboles) que se revisan de forma periódica, lo que refleja los cambios en la terminología y en la práctica médica. Veamos un ejemplo de este tipo de búsquedas. Se trata de encontrar trabajos sobre las cataratas asociadas a la “diabetes mellitus”. Lo primero que tenemos que hacer es traducir los términos al inglés: cataracts y diabetes mellitus. En la página principal de PubMed, en el menú de la izquierda, debajo de “PubMed Services”, encontramos el enlace a “MeSH Database”. En esta página introducimos en el campo de texto “cataracts”. Si no coincide con algunos de los términos válidos, el sistema nos devuelve una página con sugestiones. En el ejemplo encontramos, en primer lugar, el término “cataract”, en singular, que es el que más se adecua a nuestro caso. El término sugerido es, a la vez, un enlace. Si pulsamos, nos aparece una página en la que se nos muestran los calificadores que podemos emplear con el descriptor (Véase Imagen 6). En este caso sólo nos interesa “cataract”. Lo seleccionamos y en el menú “Send to” elegimos “Search box with AND”, por ejemplo, porque lo tenemos que combinar con “diabetes mellitus”. Al indicarle “diabetes mellitus”, vemos que es un término MeSH, el primero que aparece en “suggestions”. Pulsamos el enlace y se añade con AND a la caja de texto donde ya estaba “cataract” (Véase Imagen 7). Pulsamos el botón “Pubsearch” y nos aparece la lista de artículos. El número de referencias obtenido es alto (en nuestro caso supera los mil cuatrocientos). Es el momento de establecer limitaciones, igual que hemos hecho en el caso del lenguaje natural. Seleccionamos la caja “Links to full text”; en “Ages” el grupo “Adult 19-44” años; en idiomas, el inglés. La cifra se ha reducido a 125 trabajos. Si además establecemos también el límite a los trabajos aparecidos en los dos últimos años, el total de referencias se queda en 11. También podemos introducir filtros metodológicos y seleccionar estudios sobre el tratamiento, el diagnóstico, la etiología o el pronóstico. Las listas de artículos que arroja Medline son referencias. Se nos indica si el artículo tiene abstract o resumen y se está disponible en Internet a texto completo y con acceso libre en PubMed o en la página del editor (Véase la imagen 8). La tendencia actual es que los autores dejen copias de sus trabajos en los 57
Imagen 6. Captura de pantalla de búsqueda en Medline con términos MeSH
Imagen 7. Captura de pantalla de la búsqueda “”Cataract” [MeSH] AND “Diabetes mellitus” [MeSH].
Imagen 8. Tipos de referencia que muestra PubMed: sin resumen, con resumen, a texto completo disponible en PubMed, a texto completo gratuito en la sede del editor.
llamados repositorios abiertos y algunas revistas también proporcionan el acceso libre a los artículos a texto completo. Una vez estemos satisfechos con los resultados, podemos imprimirlos, guardarlos o adquirirlos. Para ello utilizamos el “clipboard”. Éste nos permite 58
guardar y ver las referencias seleccionadas de una o varias búsquedas, en un número no superior a 500. Si no se registra actividad en el portapapeles, se pierde la información que contiene. Con “sort” ordenamos las referencias por autor, título de la revista o por fecha de publicación. El procedimiento consiste en hacer clic en el menú desplegable “sort”, seleccionamos el campo para ordenar y hacemos clic sobre el botón “display”. Para imprimir debemos asegurarnos de que hemos seleccionado el formato que deseamos. Seleccionamos “File” desde la barra menú del “browser” o navegador, a continuación “print” o “imprimir”. Algunos navegadores permiten ver un previo de la impresión. Si queremos guardar las citas pulsaremos el botón “save”. Podemos guardar las referencias en formatos distintos: texto plano, formato html. Se pueden hacer otros tipos de búsquedas a través de PubMed. Es cuestión de entrenamiento. Si tenemos problemas podemos contar con la ayuda o con el asesoramiento de los bibliotecarios y documentalistas que trabajan en las bibliotecas de las universidades o de los centros asistenciales
Embase EMBASE es una base de datos de tipo bibliográfico producida por Elsevier. Contiene unos once millones de referencias procedentes de unas cinco mil revistas de setenta países de todo el mundo desde 1974. Un ochenta por ciento de estas referencias se acompaña de resúmenes y una pequeña cantidad de las mismas (en torno a un cinco por ciento) son de libros, actas, informes, etc. Cada año se añaden medio millón de referencias nuevas. Una de las diferencias que tiene respecto a Medline es que indiza un mayor número de revistas europeas y presta especial atención a la información sobre medicamentos. Otra diferencia es que su acceso es de pago. La áreas que integra son las siguientes: Investigación biológica básica; Medicina clínica y experimental; Investigación farmacológica (farmacología, toxicología, farmacia y farmacoeconomía); Vigilancia sanitaria; Salud pública, ocupacional y medioambiental; Dependencia y abuso de substancias; Psiquiatría; Medicina legal; y Bioingeniería. Como Medline, también dispone de un tesauro (EMTREE) con 180.000 sinónimos y 42.000 nombres de fármacos. Incluye muchos términos MeSH. Otras bases de datos especializadas que derivan de EMBASE son: EMCANCER (oncología) EMFORENSIC (medicina legal) EMHEALTH (salud pública) EMTOX (toxicología) EMDRUGS (farmacología)
Índice Médico Español (IME) El Índice Médico Español es una base de datos que comenzó a elaborarse en 1964 en el Centro de Documentación e Informática Biomédica, de Valencia2. Durante los primeros años el Índice Médico Español era una publicación periódica trimestral que se confeccionaba por procedimientos manuales. A
2 Sobre el IME, véase: López Piñero J. M. y Terrada M. L.. «IME/Índice Médico Español». En: La información científica en medicina y sus fuentes . Valencia, Instituto de Estudios Documentales e Históricos sobre la Ciencia, 1993; pp. 89-91; López Piñero, J. M. «Una nueva etapa del Índice Médico Español». En: Índice Médico Español. 1993, n. 105, pp. 7-8.; González Guitián, C. y Blanco Pérez, A. El Índice Médico Español . Jano, 1996; l (1158): 37-41; Osca LLuch, J. El Índice Médico Español, El Profesional de la Información; 2007; 16(6) (http://www.elprofesionaldelainformacion.com/); Aleixandre, R.; Valderrama, J.C. IME/ Índice Médico Español. Perspectivas y retos tras 40 años de tradición bibliografíca en ciencias de la salud (1964-2003), Revista General de Información y Documentación, 2004; 14(1): 153-165.
59
partir de 1971 empezaron a utilizarse técnicas fotomecánicas para su composición, integrando así las tendencias de la época en lo que a documentación bibliográfica se refiere. Ese año se inició también el tratamiento automatizado de la información que permitió crear la base de datos IME y elaborar el repertorio impreso por procedimientos automáticos. El Índice Médico Español en formato impreso dejó de publicarse en 1997 con la edición del volumen 124. La base de datos IME corresponde al repertorio Índice Médico Español, que publicó, desde 1965 hasta su reforma en 1991, volúmenes trimestrales con referencias bibliográficas de los artículos aparecidos en las revistas médicas españolas. Su realización ha estado siempre a cargo del mismo grupo, ubicado sucesivamente en la Cátedra de Historia de la Medicina y Documentación Médica, de la Universidad de Valencia (1965-1970), el Centro de Documentación e Informática Biomédica, asimismo de Valencia (1971-1990) y la Unidad de Bibliometría y Análisis Documental del Instituto de Estudios Documentales e Históricos sobre la Ciencia, de la Universidad de Valencia y del CSIC (desde 1991 a 1999). A partir de ese año el grupo quedó incluido en la Unidad de Documentación del Instituto de Historia de la Ciencia y Documentación López Piñero (Universitat de València – CSIC). En 1971, coincidiendo con la aparición del volumen 25 del repertorio, comenzó el tratamiento automático de la información, creándose la Base de datos IME. Podía consultarse con otras bases de datos del CSIC y se publicaba en formato Cederrón. Se actualizaba trimestralmente, de forma simultánea a la aparición de los volúmenes del repertorio impreso. Su área de cobertura eran 183 revistas españolas, en su mayor parte indizadas de modo exhaustivo, de todos los campos de la medicina: ciencias básicas, medicina interna, cirugía, especialidades, medicina preventiva y social, odontoestomatología y enfermería. Ofrecía referencias de los artículos en los que figuraban todos los autores, hasta un total de veinte, y sus instituciones de procedencia, así como el número de referencias bibliográficas que el artículo incluía; contaba con un índice de autores y otro de materias. Hasta dicho momento, el número total de referencias de la base de datos era de unas 150.000. En 1991 se llevó a cabo una reforma que consistió en la conversión del Índice Médico Español en un repertorio mixto de referencias bibliográficas y de citas. Sin un instrumento de este tipo no podía analizarse el consumo de la información científica por parte de la comunidad médica española, ni tampoco obtener indicadores de la repercusión de sus publicaciones en nuestro propio país. Así, a partir de 1991, el Índice Médico Español tuvo tres volúmenes anuales. Los dos primeros se dedicaban a las referencias bibliográficas de los artículos publicados en revistas médicas españolas, en una línea semejante al formato anterior. El tercero, titulado, Citas de Autores Médicos Españoles, recogía las citas que las publicaciones médicas españolas de cualquier género recibían en artículos indizados en los dos primeros volúmenes. También se fundó el Índice de Citas e Indicadores Bibliométricos de Revistas Españolas. Durante este período la cobertura se redujo, pero comenzó a recuperarse a partir de 1992. En 1997 dejó de publicarse el repertorio en edición papel coincidiendo con el volumen 124. La base de datos cuenta en la actualidad con unos trescientos mil registros procedentes de más de 350 revistas españolas. Cada año se incluyen unos diez mil registros nuevos. Tanto Medline 60
como Embase incluyen pocas revistas españolas o hacen una selección de trabajos; son muy selectivas. Tal como indican R. Aleixandre y J.C. Valderrama, excluyen áreas de las ciencias de la salud españolas por completo, como drogodependencias, medicina del deporte, atención primaria y medicina de familia. Su larga vida permite ofrecer una visión retrospectiva que en ocasiones es de gran utilidad. Sin embargo, en la larga historia del IME se reflejan las crisis que ha sufrido en distintas ocasiones no ajenas a las que ha sufrido el panorama editorial español y el periodismo científico nacional. En el año 2002 se introdujeron algunas innovaciones tecnológicas y documentales con el fin de mejorar su calidad y adaptarla a las necesidades de la sociedad actual, en coordinación con el Centro de Información y Documentación Científica (CINDOC) y el Centro Técnico de Informática (CTI) del Consejo Superior de Investigaciones Científicas. Actualmente el IME incluye información bibliográfica procedente de la mayor parte de las revistas médicas españolas de carácter científico (básicas, experimentales y clínicas), que cubren todas las áreas de las ciencias de la salud (medicina, enfermería, y odontología). No se incluyen las revistas sobre psicología, ya que éstas son analizadas en la base de datos ISOC del CSIC. Además de las revistas, incluye los congresos y reuniones científicas publicados en las revistas analizadas. Diferentes instituciones ofrecen el acceso gratuito a la base de datos IME. A través del CSIC se puede acceder a los sumarios del IME y también del ICYT (Ciencia y Tecnología) y del ISOC (Ciencias sociales y humanidades). Permite hacer búsquedas en las tres a la vez. Nos limitaremos a comentar sólo este tipo de acceso.
Imagen 9. Captura de pantalla del sitio de búsqueda de “Sumarios IME”, del CSIC.
Como se aprecia en la Imagen 9 hay tres solapas: “Búsqueda simple”, “Búsqueda por campos” y “Búsqueda por índices”. Si se selecciona la primera, “Búsqueda simple”, accedemos al formulario que aparece por defecto cuando se accede a una base de datos. Está diseñado para realizar búsquedas sencillas de forma fácil. Para la consulta, basta con teclear sus términos de búsqueda o palabras clave sin necesidad de elegir opciones ni operadores. Puede utilizarse para realizar un sondeo previo en las tres bases de datos seleccionando “Todas”. Antes de realizar una nueva búsqueda (tras haber realizado otras), es imprescindible que se borren los valores de la anterior con el botón “Limpiar”. Pueden utilizase tanto mayúsculas como minúsculas y no es necesario poner los acentos. 61
En el formulario de “Búsquedas por campos” puede realizarse una búsqueda limitada a diferentes campos. El usuario debe introducir los términos que desea buscar en los campos seleccionados. Existe la posibilidad de definir distintas estrategias de búsqueda con el uso de operadores lógicos, es decir, combinando los diferentes términos que se tecleen mediante su intersección (Y), suma (O) o resta (NO). Mediante el botón “Buscar” se procede a realizar la búsqueda. La tercera opción “Búsqueda por índices” permite visualizar los índices (por palabras o frase) correspondientes a cada campo y buscar directamente por ellos. Es útil para conocer el vocabulario de búsqueda y para mejorar la precisión. La metodología que se sigue es: (1) Selección de un índice (por defecto presenta el campo Revista). (2) Introducir el término a partir del cual se desea visualizar el índice, en la casilla “comenzando desde”. Si no se introduce ningún término, el índice se visualiza al completo desde su inicio. (3) Clicar “Ver índice”. (4) Seleccionar términos. Si sólo se desea uno, basta con hacerlo sobre su texto para lanzar la búsqueda. Si se desean varios, debe marcarse el recuadro izquierdo para acumularlos posteriormente. (5) Para acumular varios términos, se usa la opción que figura al final de la tabla: “Combinar términos marcados con” y se selecciona un operador boleano (And, Or, Not). (6) Clicar “Buscar” para recuperar los registros correspondientes a los términos acumulados. Por defecto, se visualiza el campo “Revistas (frase)” en las bases de datos bibliográficas, y en los directorios su equivalente “Título de revista”. Pulsando el menú desplegable, se puede seleccionar cualquier otro campo y, pulsando a continuación “Ver índice”, se visualizará el índice completo solicitado. Existen dos tipos de índices: por palabras y por frase. El primero es una lista de palabras significativas (unitérminos) que se encuentran en un campo determinado. El segundo (por frase) es una lista de entradas presentes en un campo en su forma completa. Tienen índices por frase los campos “Autores”, “Clasificación-texto”, “Descriptores”, “Identificadores”, “Lugar de trabajo”, “Revista” y “Topónimos”. Si no se desea visualizar el índice completo sino sólo una parte, se puede escribir cualquier término simple o compuesto en la caja de texto contigua a “Comenzando desde”, y pulsar después “Ver índice”, para visualizar el índice a partir del término seleccionado. De todas formas, ante cualquier duda se dispone de ayudas en cada una de las páginas y de los tipos de búsquedas.
Biosis (BIOSciences Information Service). Ahora se llama BIOSIS Previews Sus inicios datan de 1958 cuando Eugene Garfiled fundó el Institute for Scientific Information (ISI) con el fin de proveer acceso a la información relevante con un contenido de alta calidad para los investigadores, docentes y estudiantes de todo el mundo. En 1992 ISI fue adquirida por Thomson Corporation, con casa matriz en Filadelfia. En 2002 se fusionó a Derwent Information Ltd. Tras una serie de adquisiciones, la empresa se llama hoy Thomson Scientific. Son los creadores del Índice de citas, el factor de impacto, etc. BIO62
Ficha de la base de datos IME Información general Tipología: Referencial bibliografica Fuentes: 321 publicaciones periódicas editadas en España Temática: Biomedicina (Administración sanitaria, Farmacia clínica, Medicina experimental, Microbiología, Psiquiatría, Salud pública) Periodo de cobertura: Desde 1971 Volumen: 277595 registros Estructura de la Base de Datos Núm. Registro: Identifica a cada documento Autores: Indica los autores, ya sean personas físicas o jurídicas Título: Título del artículo en castellano Título otro idioma: Título en idioma diferente al castellano Título en inglés: Título en inglés Lugar trabajo: Institución en que trabajan los autores Título revista: Título de la revista que publica el documento Datos fuente: Datos complementarios para la identificación de la publicación ISSN: ISSN de la publicación Tipo de documento: Código que indica el tipo de documento Modo del documento: Código que indica el contenido formal del documento Lengua: Idioma del documento Localización: Código de la Institución que ha indizado el documento Descriptores Princ.: Palabras clave que expresan los conceptos fundamentales contenidos en el documento Descriptores Sec.: Palabras clave que expresan aspectos secundarios contenidos en el documento Identificadores: Nombres de personas, organismos, etc. a los que se refiere el documento Topónimos: Identificadores geográficos Notas: Notas Resumen: Resumen Título obra colectiva: Título de la obra colectiva Congreso: Congreso Fuente: CSIC e Instituto de Historia de la Ciencia y Documentación López Piñero
SIS es una fuente completa para la investigación de las ciencias de la vida y las ciencias biomédicas. Contiene más de quince millones de registros desde 1969 que proceden de seis mil publicaciones de ciencias de la vida y de materiales no relacionados con publicaciones como patentes, libros, capítulos de libros, reuniones, etc. Anualmente se incorporan seiscientos mil nuevos 63
registros. BIOSIS Previews combina contenido de publicaciones de Biological Abstracts con contenido complementario, sin cobertura de publicaciones de Biological Abstracts/RRM (informes, reseñas y asambleas). Incluye índice de estructura, con datos y términos taxonómicos, términos de enfermedades MeSH mejorados de los registros, números de registros CAS desde 1969, números de bancos de datos Secuenciales, y vocabulario controlado de conceptos principales desde 1969.
Bases de datos de la MBE (Medicina basada en la evidencia)
Véase Sackett DL, Rosenberg W, Muir JA, Haynes RB, Richardson WS. Evidence based medicine: what it is and what it isn’t. BMJ 1996;312:71-2, así como Guerra Romero L. La medicina basada en la evidencia: un intento de acercar la ciencia al arte de la práctica clínica. Med Clin (Barc) 1996;107: 377-82 4 Para un contexto histórico sobre el tema véase: Arrizabalaga, J. “Medicina basada en la evidencia”: ¿Cambio de paradigma o nuevo etiquetado?, En: La medicina ante el nuevo milenio: una nueva perspectiva. Cuenca, Universidad Castilla-La Mancha, 2004, pp. 743.755. 3
64
La medicina basada en pruebas es una manera de abordar los problemas clínicos recurriendo a los resultados originados en la investigación científica. En palabras de sus creadores “es el uso concienzudo, con juicio y explícito de las mejores pruebas disponibles en la toma de decisiones sobre el cuidado de los pacientes”3. La idea ya circulaba en la década de los ochenta en la McMaster Medical School como una forma de mejorar la enseñanza y la práctica médica. Entre sus principales características podemos mencionar la importancia que se concede a las pruebas o evidencias que proceden de la buena investigación, y la cautela que hay que tener con la información que procede de observaciones clínicas realizadas de forma no sistemática. La expresión EBM (Evidence Based Medicine) fue utilizada por vez primera por Gordon H. Guyatt en 1991. Al año siguiente se produjo la presentación pública de este “movimiento” cuando se publicó el artículo en JAMA, “Evidence-Based Medicine. A new approach to teaching the practice of medicine” (JAMA 1992;268:2420-5), que era una especie de manifiesto del autodenominado Evidence-Based Medicine Working Group, presidido por el propio Guyatt y ubicado en los Departamentos de Medicina y Epidemiología Clínica y Bioestadística de la Universidad canadiense de McMaster (Hamilton, Ontario). El grupo habló conscientemente de que ofrecía un nuevo paradigma para la práctica médica, una nueva “cultura profesional y científica”. Sería éste el resultado del desarrollo de la investigación clínica y de las grandes y profundas transformaciones que la práctica médica ha experimentado en los últimos treinta años. Hubo, sin embargo, grupos y personas que reaccionaron, como LaVera M. Crawley, médico de familia especializada en diversidad cultural y por entonces profesora del California Institute of Integral Studies, al artículo y al movimiento. Ellos veían un avance lógico más que una revolución y son dignas de tener en cuenta las puntualizaciones que hace4. En 1992 en la Universidad de Oxford se constituyó el NHS R&D Centre for Evidence-Based Medicine. En un principio se hizo cargo del mismo David Sackett. En España este movimiento se difundió en el ambiente sanitario a partir de 1996 con el equívoco nombre de “Medicina basada en la evidencia”. El término “evidencia” es una precipitada y mala traducción de la palabra inglesa “evidence”. En 1993 se estableció la llamada “Colaboración Cochrane”, una organización internacional, independiente y sin ánimo de lucro. Hoy dispone de quince centros macro-regionales o nacionales distribuidos por todo el mundo.
Su objetivo es “ayudar a quienes tienen que tomar decisiones médicas bien informadas mediante la preparación, actualización y difusión de revisiones sistemáticas sobre los efectos de la atención sanitaria”, que se basen en la metodología del metaanálisis y que se difunden principalmente a través de una serie de bases de datos que se conoce como Cochrane Library. No es éste el lugar de aportar datos a favor o en contra de la MBE. Sí es necesario, en cambio, señalar el énfasis que pone la MBE en la necesidad de incorporar de forma sistemática a la práctica médica y también a la enseñanza, la información científicamente relevante proporcionada por los ensayos clínicos aleatorios y su metaanálisis, y en optimizar los mecanismos de disfunción de esta información con la ayuda de las nuevas tecnologías de la información y comunicación. Para los partidarios de la medicina basada en las pruebas o “evidencias”, las decisiones clínicas que se basan en éstas están por encima de las que pueda tomar individualmente un clínico. Se consiguen mejores resultados cuando se integra la experiencia clínica personal con las mejores pruebas o “evidencias”. Esto significa que hay que realizar la tarea de revisar la literatura médica y evaluarla conforme a una serie de reglas, con el fin de obtener los mejores datos empíricos. Estos servirán para tomar decisiones sobre la atención de cada paciente individual que incluye distintos aspectos que van desde la realización de diagnósticos a tener en cuenta, las preferencias y derechos de los enfermos. El movimiento no sólo afecta a los médicos sino a otros profesionales de la medicina como los diplomados en enfermería y a otros cuya función es la del cuidado de los pacientes. Existe un problema real, el del crecimiento de las publicaciones y el del fenómeno de obsolescencia. Esto hace difícil conocer bien los avances que se producen y su aplicación en la práctica clínica cotidiana. Las tecnologías de la información y comunicación están facilitando la tarea de gestionar la revisión de la literatura científica y de difundir los resultados a la comunidad científica. Para basar las decisiones en pruebas es necesario establecer un método que jerarquice. Los pioneros en esta labor fueron los miembros de la Task Force on The periodic Health Examination, quienes, a finales de los años setenta, señalaron un conjunto de medidas sanitarias para recomendar el uso de las más beneficiosas mediante el establecimiento de una gradación de la calidad de la evidencia o prueba basada en el tipo de diseño de los estudios y en una clasificación de las recomendaciones5. Son necesarios una serie de pasos para poner en práctica lo señalado anteriormente. Entre estos, consultar y obtener datos de las bases de datos, las revistas científicas y la literatura secundaria y terciaria como Colaboración Cochrane y Cochrane Library, que contiene una base de datos de revisiones sistemáticas, un resumen de revisiones de eficacia, el registro Cochrane de ensayos controlados y la metodología de las revisiones. La Biblioteca Cochrane es el producto principal de lo que se llama Colaboración Cochrane, publicación periódica que se actualiza con frecuencia. Se distribuye mediante CD o a través de Internet. La versión española sólo se puede consultar a través de la red. Incluye varias bases de datos: – The Cochrane Collaboration : (http://www.cochrane.org/index.htm) – La Collaboration Cochrane (en español) : (http://www.cochrane.org/index_es.htm) – Centro Cochrane Iberoamericano : (http://www.cochrane.es/)
5 Canadian Task Force on the Periodic Health Examination. The periodic health examination. CMAJ 1979; 121: 1193-1254.
65
– Biblioteca Cochrane Plus (acceso universal gratuito en todo el territorio español gracias a la suscripción del Ministerio de Sanidad y Consumo): (http://www.bibliotecacochrane.net/Clibplus/ClibPlus.asp) – Cochrane BVS (Biblioteca Virtual de la Salud): (http://cochrane.bvsalud. org/portal/php/index.php)
The Cochrane Library 1) The Cochrane Database of Systematic Reviews-CDSR o Base de datos Cochrane de Revisiones Sistemáticas (BDCRS) Contiene, por un lado, las Revisiones sistemáticas que elaboran y actualizan los grupos de la Colaboración Cochrane. Por otro, los protocolos, que proporcionan información sobre las revisiones que están en proceso de realización. Nos suministran una perspectiva general de los efectos de las intervenciones en atención sanitaria. Incluye un sistema de comentarios y críticas que ayudan a los usuarios a mejorar la calidad de las revisiones. Se presentan a texto completo. Todas las revisiones y protocolos se llevan a cabo con el apoyo del Grupo Colaborador de Revisión. Hay medio centenar de grupos y cada uno se encarga de un área temática de la atención sanitaria. Posteriormente, un equipo editorial coordina e integra las revisiones completas en módulos para ser incluidas en la base de datos. 2) The Cochrane Central Register of Controlled Trials (CENTRAL) o Registro Cochrane de Ensayos Controlados Es una base de datos o lista bibliográfica sobre ensayos clínicos controlados. Se identifican gracias a un proceso internacional de búsqueda en literatura científica mundial (especialmente MEDLINE y EMBASE, junto con otras de documentos publicados o no publicados). Se crea así una fuente de datos para las revisiones sistemáticas y de recursos que utilizan los miembros de la Colaboración Cochrane. Los registros incluyen el título del artículo, su referencia bibliográfica y, en ocasiones, un resumen del mismo. Los registros y los resultados de la búsqueda manual son agrupados y comparados por el New England Cochrane Center antes de ser incorporados a La Cochrane Library Plus. 3) The Database of Abstracts of Reviews of Effectiveness (DARE) o Base de Datos de Resúmenes de Efectividad. Realizada y actualizada por el NHS Centre for Reviews and Dissemination. Contiene resúmenes estructurados que valoran y sintetizan revisiones sistemáticas publicadas con anterioridad y que se consideran de buena calidad. Incluye además, registros informativos o referencias de otras revisiones sistemáticas ya publicadas. Los registros no contienen el texto completo del artículo original. 4) Cochrane Database of Methodology Reviews (CDMR) o Base de datos Cochrane de Revisiones de Metodología. Contiene las revisiones sistemáticas Cochrane de metodología (revisiones sistemáticas de texto completo de estudios de carácter metodológico), así como los protocolos de estudios sobre métodos. Los protocolos proporcionan información sobre las revisiones que están en fase de redacción. Las revisiones y protocolos se producen con 66
el apoyo del Cochrane Metodology Review Group, compuesto por personas de todo el mundo que comparten el interés en desarrollar y mantener revisiones sistemáticas de metodología científica. Después, un equipo las integra para su inclusión en CDMR. 5) The Cochrane Methodology Register (CMR) o Registro Cochrane de Metodología. Se trata de una base de datos que contiene las referencias bibliográficas de trabajos (artículos, libros y actas de congresos) sobre los métodos que se utilizan para llevar a cabo ensayos controlados. Contiene estudios de método empleados en las revisiones y estudios metodológicos más amplios o generales que pueden resultar de relevancia para quien realice revisiones de tipo sistemático. 6) The NHS Economic Evaluation Database (NHS EED) o Base de datos de Evaluación económica de la NHS. Realizada por el NHS Centre for Reviews and Dissemination, de la Universidad de York (Gran Bretaña), incluye resúmenes estructurados sobre evaluaciones económicas de las intervenciones en atención sanitaria y otros temas afines. Los trabajos se identifican a través de búsquedas en revistas médicas, bases de datos bibliográficas y en la “literatura gris”. Una evaluación económica puede ser un análisis costebeneficio, un análisis coste-efectividad, o un análisis coste-utilidad. Los registros no contienen el texto completo del artículo original. 7) Health Technology Assessment Database (HTA) o Base de Datos de Evaluación de Tecnologías Sanitarias (prevención y rehabilitación, vacunas, medicamentos y utensilios, procedimientos médicos y quirúrgicos, y sistemas con los que se protege y mantiene la salud). Contiene información de proyectos en curso y publicaciones desarrolladas por organizaciones de evaluación sanitaria). Está producida también por el NHS Centre for Reviews and Dissemination.
Bases de datos de la Biblioteca Cochrane Plus Incluye las bases de datos mencionadas, en inglés, junto con otras adicionales y exclusivas en español: 1) Base de datos Cochrane de Revisiones sistemáticas. Se trata de una selección de las revisiones de Cochrane traducidas al español. 2) Registro de Ensayos Clínicos Iberoamericanos. 3) Bandolera (traducción de Bandolier del Nacional Heralth Service británico) 4) Artículos de la revista Gestión Clínica y Sanitaria de la Fundación Instituto de Investigación en Servicios de Salud. 5) Informes completos de las Agencias Iberoamericanas de Evolución de Tecnologías Sanitarias. 6) KOVACS o Resúmenes de revisiones sistemáticas sobre el dolor de espalda realizadas por la Fundación KOVACS y publicadas en El Web de la espalda (http://www.espalda.org/) 7) Artículos de la revista Evidencia, Actualización en la práctica ambulatorial de la Fundación MF para el Desarrollo de la Medicina Familiar y la Atención Primaria de la Salud de Argentina.
67
Buscar en Cochrane Library plus Los contenidos se organizan de la siguiente forma: 1. Menú superior (Imagen 10) Contiene los siguientes botones: – Inicio: borra los datos de pantalla para volver al estado inicial. – Documentos: Se muestran los temas o áreas temáticas. Pueden examinarse los títulos de los documentos de cada tema. Los documentos se visualizan en la pantalla derecha. Cuando los temas no contienen documentos aparecen en gris. – MeSH: Se trata del tesauro de la Nacional Library of Medicine. – Historial: Muestra las búsquedas. Cada línea de búsqueda va precedida por el símbolo # y figura el término empleado y el número de documentos hallados. En la visualización de “Historial” aparecen tres botones que nos permitirán gestionar los resultados. Imagen 10. Menú superior consulta Biblioteca Cochrane Plus.
– Ayuda Botones de navegación: permiten desplazarse por los documentos (atrás, adelante). – Índice (índice del documento), – Acerca de: (información sobre la licencia de la base de datos) – Salir: desconexión de la base de datos 2. Panel de contenidos (Imagen 11) – Base de datos Cochrane de Revisiones Sistemáticas – Registro de ensayos clínicos Iberoamericanos – Bandolera – Informes de Gestión Clínica y Sanitaria – Agencias Iberoamericanas de Evaluación de Tecnologías Sanitarias – Kovacs (Revisiones del dolor de espalda) – Evidencia. Actualización en la práctica ambulatoria – The Cochrane Central Register of Controlled Trials (CENTRAL) – The Cochrane Methodology Register (CMR) – About the Cochrane Collaboration – Other Published Reviews – Health Technology Assessment Database (HTA) – NHS Economic Evaluation Database (NHS EED) 3. Panel de documentos a la derecha (Imagen 11) Para buscar introducimos el término o frase en la caja de texto y se pulsa “Go”. Podemos truncar el término tal como se hacía en PubMed, o seleccionar los términos que nos proporciona el tesauro de MeSH. Hay que señalar que el tesauro nos proporciona la definición de cada término. También podemos recurrir a los calificadores o MeSH Subheadings para concretar más la búsqueda. DARE, HTA, EED están indizadas según MeSH. Las revisiones CDSR están indizadas con el sistema MeSH excepto las recientes. CENTRAL sólo indiza MeSH los documentos de MEDLINE. 68
Imagen 11. Captura de pantalla del panel de contenidos de la Biblioteca Cochrane Plus.
Los términos pueden combinarse entre sí con AND, OR y NOT. Podemos relacionar los términos de búsqueda mediante NEXT (para obtener documentos donde dos palabras estén una junto a otra en ese orden) o mediante NEAR (para obtener los documentos en los que estas dos palabras estén separadas en sí por un máximo de seis palabras en cualquier orden).
Imagen 12. Captura de pantalla del detalle del panel opciones de la Biblioteca Cochrane Plus.
69
También podemos establecer restricciones en el panel “Opciones” (Imagen 12): – De fechas: para seleccionar los documentos de un período determinado – Estado: Se despliega el menú y hacemos nuestra selección: Todos, Nuevo, Actualizados, Con comentario, Actualizado y con comentarios, y Retirado. – Restringir la búsqueda: En el menú desplegado, podemos elegir: Sin restricción, Título, Autor, Resumen, Palabra clave, Tipo de documento, Fuente. Este tipo de restricciones también se puede aplicar como sufijo a los términos de búsqueda: TI (restricción a título); AB (restricción a resumen); PT (restricción al tipo de publicación); KY (restricción al índice); AU (restricción al nombre de autor). Los documentos se visualizan en la parte izquierda de la ventana o panel de contenidos. Las bases de datos están divididas por secciones y cada base de datos presenta un número de documentos recuperado seguido del número total de documentos que contiene. Para ver los títulos de las secciones hay que hacer clic en la base de datos deseada. El contenido del documento aparece en la ventana derecha. Podemos mandarlo a la impresora pulsando sobre el enlace “versión para imprimir” que aparece en la parte superior de este panel. También se nos concede la libertad de imprimir o no todos los gráficos o sólo los que seleccionemos, y puede leerse en formato pdf. Otra posibilidad es la de guardar el documento haciendo clic en el enlace correspondiente del panel izquierdo, en la barra de búsquedas. Para recuperar lo guardado hay que pulsar el enlace “Ver selección” y para borrarlo, “Anular selección” (Véase Imagen 13).
Clinical evidence o BMJ Clinical Evidence También conocida como BMJ Clinical Evidence. Mantenida por el grupo British Medical Journal Publishing Group, que tiene la intención de “respaldar la
Imagen 13. Captura de pantalla de la visualización de documentos de la Biblioteca Cochrane Plus.
70
toma de decisiones clínicas de cientos de miles de médicos de todo el mundo ofreciendo acceso a la evidencia médica más novedosa y continuamente actualizada con objeto de ayudar a tomar decisiones de tratamiento”. El grupo cuenta con una comisión de expertos y de autores especializados que comprueban rigurosamente las pruebas más relevantes y después las resumen en un formato fácil y rápido de localizar. Contiene revisiones sistemáticas que recogen más de 3.000 intervenciones clínicas, 570 preguntas clínicas con respuesta, una interfaz de usuario ampliada, navegación sencilla, investigación de última hora, alerta sobre seguridad de medicamentos, enlaces a las guías prácticas más importantes, y resúmenes de una página de extensión, que ofrecen una visión general al instante. Hay tres maneras de encontrar la prueba o evidencia que uno necesita: (a) examinar por sección, (b) examinar la lista completa de estudios o (c) usar la herramienta de búsqueda.
Imagen 14. Captura de pantalla de búsqueda por secciones de Clinical Evidence
a) Examinar por sección. Se hace clic en “Secciones” Aparece una lista emergente de las secciones por orden alfabético. Cuando se elige una sección concreta, aparece una nueva ventana que muestra las revisiones sistemáticas que están disponibles. b) Examinar la lista completa de estudios. En este caso se hace clic en “Revisiones”, que está junto a “Secciones”. Aparece una lista de las revisiones por orden alfabético. c) Usar la herramienta de búsqueda. Esta opción resulta muy útil cuando se busca un tratamiento o condición que aparezca en varias revisiones diferentes. Por ejemplo, “corticosteroides”. Los resultados se muestran en listas que enseñan un fragmento del texto con el término de búsqueda resaltado, de modo que se pueda estimar el contexto. Los resultados se clasifican por relevancia con una ruta clara que identifica dónde se ubican. Cuando se ha localizado la revisión que interesa, Clinical Evidence presenta la información en un submenú con pestañas. La evidencia o la prueba se ha seleccionado a través de una búsqueda sistemática y rigurosa de respuestas a preguntas clínicas a la vez que se centra en los resultados que más pre71
Imagen 15. Captura de pantalla de búsqueda de Clinical Evidence.
ocupan a los enfermos y a los médicos. Cada tratamiento o intervención se clasifica según sus beneficios y sus daños. La evidencia o prueba principal se complementa con una serie de enlaces: “Intervenciones” (resumen de las intervenciones clasificadas por su eficacia); “Puntos clave” (resumen de una página de la revisión); “Acerca de esta condición” (información de referencia sobre la condición); “Actualizaciones” (material publicado desde la fecha de búsqueda de la revisión); “Pautas” (enlaces a las pautas principales relevantes de la revisión); y “Opciones de impresión” (permite imprimir la página o bien descargar una revisión de varias páginas en formato pdf). BMJ Clinical Evidence ofrece otros recursos que permiten mantenerse informado y practicar la medicina basada en las pruebas. Por ejemplo: “Herramientas MBE”, que explican algunos de los términos estadísticos y clínicos usados en BMJ Clinical Evidence e introducen el concepto de evaluar y medir el riesgo cuando se toman decisiones clínicas; “Enlaces MBE”, (enlaces minuciosamente seleccionados a otros materiales, publicaciones y organizaciones basadas en la evidencia); “Información sobre medicamentos” (enlaces a fuentes internacionales de información de gran calidad sobre medicamentos); “Formación MBE” (módulos de formación libre sobre pruebas de estadística y de diagnóstico). BMJ Clinical Evidence también ayuda a estar al día en lo que sucede en la esfera de la medicina basada en las pruebas a través de una serie de herramientas que alertan sobre nuevos contenidos, conclusiones y noticias. Para acceder a todas las posibilidades es necesario suscribirse.
Otras bases de datos – Compludoc (http://europa.sim.ucm.es/compludoc/) Se trata de una base de datos que contiene las reseñas de los artículos publicados en una amplia selección de cerca de cuatro mil revistas científicas 72
analizadas en la Biblioteca de la Universidad Complutense. La cobertura de los títulos se remonta a 1940. De cada artículo se recogen los siguientes datos: Autor, Título del artículo y Título de la revista (título de la revista, año, vol. y nº). En muchos casos se ha incluido el resumen de autor. Es posible buscar revistas analizadas en español, en otras lenguas o en ambas. Navegando a partir de las listas se llega fácilmente a la relación de números analizados de cada revista y, de ahí, al sumario correspondiente. El usuario puede buscar artículos en español o en otras lenguas y permite combinar varios términos especificando los campos en que se quiere buscar (autor, título del artículo, título de la revista, todos los campos). También se puede limitar la búsqueda por año de publicación y por artículos introducidos en el último mes. Es posible, además, limitar el número de referencias y mostrar un índice previo. Los propios resultados que se obtienen de una búsqueda permiten efectuar otras nuevas navegando a través de los hiperenlaces de los nombres de autores y de los títulos de revistas. Una utilidad interesante es que el usuario puede guardar un perfil de búsqueda para recibir mensualmente por correo electrónico las novedades de la base de datos que respondan al perfil sin necesidad de repetir la búsqueda. – IBECS (Índice Bibliográfico Español en Ciencias de la Salud) (Instituto de Salud Carlos III) (http://bvs.isciii.es/E/bases.php#). IBECS contiene referencias de artículos de revistas científico sanitarias editadas en España e incluye contenidos de las diferentes ramas de las ciencias de la salud tales como Medicina (incluyendo Salud Pública, Epidemiología y Administración Sanitaria), Farmacia, Veterinaria, Psicología, Odontología y Enfermería. – ENFISPO (Enfermería, Fisioterapia, Podología) (http://alfama.sim.ucm.es/ isishtm/Enfispo.asp). Permite la consulta del catálogo de artículos de una selección de revistas en español que se reciben en la Biblioteca de la Escuela de Enfermería, Fisioterapia y Podología de la Universidad Complutense de Madrid. – CUIDEN. Base de datos de Enfermería en español (http://www.doc6.es/ index/) Se trata de una base de datos de la Fundación Index. Ésta es una plataforma especializada en la gestión del conocimiento en Cuidados de Salud que tiene como misión proporcionar a profesionales e instituciones de cualquier ámbito (asistencial, docente, gestor o investigador) soluciones prácticas e innovadoras para la ayuda en la toma de decisiones fundamentadas en el conocimiento científico. CUIDEN incluye la producción científica de la enfermería española e iberoamericana, tanto de contenido clínico-asistencial en todas sus especialidades, como con enfoques metodológicos, históricos, sociales o culturales. Contiene artículos de revistas científicas, libros, monografías y materiales no publicados. El contenido de CUIDEN aparece publicado en series trimestrales en la revista Index de Enfermería. – SIETES (Sistema de Información Esencial en Terapéutica y Salud) (http:// www.icf.uab.es/informacion/Papyrus/sietes.asp) Se trata de un sistema de información en castellano sobre novedades en farmacología clínica y terapéutica, métodos y criterios para la selección de medicamentos, información sobre los mismos, sobre la epidemiología y la historia natural de la enfermedad, métodos en farmacología clínica (farma73
cocinética, desarrollo de fármacos, ensayos clínicos, farmacovigilancia, estudios de utilización de medicamentos, métodos en farmacoepidemilogía, enseñanza de la farmacología y formación continuada), industria farmacéutica, mercado, datos cuantitativos de consumo y políticas farmacéuticas. Se elabora en la Fundació Institut Català de Farmacologia con el apoyo del Programa de Medicamentos Esenciales de la OMS.
Imágenes en medicina. Bases de datos de imágenes No es menester señalar la importancia que tienen las imágenes en medicina, tanto para la enseñanza como para el diagnóstico y la investigación. En pocos años hemos visto que los bancos de imágenes de las instituciones se han ido digitalizando y las diapositivas, tan útiles para la enseñanza y para las comunicaciones a congresos, han desaparecido en la práctica. Entre las bases de datos específicas de imágenes de medicina encontramos las siguientes: – Images.MD (http://www.images.md/users/index.asp). Se trata de un lugar de pago que forma parte del Current Medicine Group LLC, división de Springer Science y Business Media LLC. El precio de la suscripción es de 323 dólares por año, y permite acceder a la totalidad de imágenes. Son posibles las suscripciones institucionales y las limitadas a determinadas colecciones. Las suscripciones dan derecho al uso de un software que permite crear, ordenar y manejar grupos de imágenes. Sólo da derecho al uso personal de las mismas, nunca al uso comercial. Se puede navegar por categorías y por especialidades y se puede utilizar directamente el motor de búsqueda en su forma simple o avanzada. Contiene más de 70.000 imágenes de alta resolución y periódicamente se añaden imágenes nuevas. Sin necesidad de estar suscritos, se pueden visualizar las miniaturas de las imágenes. De cada una se ofrece información sobre su procedencia y autor, el número o referencia que se le asigna, el tipo de imagen (ilustración, foto, tabla, etc.), la especialidad, y una serie de descriptores que la definen. Muchas de las imágenes proceden de atlas. – Bristol Biomedical Image Archive (http://www.brisbio.ac.uk). Se trata de un banco de imágenes desarrollado por la Universidad de Bristol con fines docentes y de investigación. Contiene unas 8.000 imágenes médicas, de odontología y de veterinaria, que pueden utilizarse libremente con propósitos docentes y para la elaboración de documentos institucionales, conferencias, presentaciones, o siempre que no haya actividad comercial implícita. El servicio ofrece búsquedas simples y avanzadas, y también se puede navegar a través de términos que derivan de los descriptores de las imágenes y de un tesauro. Para su catalogación se ha empleado el tesauro MeSH. Las imágenes se ofrecen a tres tamaños distintos: miniaturas de 100-120 píxeles de alto; tamaño mediano (300 píxeles) y tamaño grande (sobre los 550 píxeles). Para utilizar el servicio hay que registrarse. – Wellcome Images (http://medphoto.wellcome.ac.uk). Se trata de una de las colecciones más grandes de imágenes médicas que incluye también las 74
de tipo histórico. Forman parte de Wellcome Library. Desde la pantalla de inicio se puede buscar por palabras y seleccionar sólo las imágenes contemporáneas, sólo las históricas, o ambas a la vez. Esta misma funcionalidad está en la búsqueda avanzada, en la que, además, puede establecerse el límite por el tipo o técnica de la imagen (litografía, radiografía, grabado, acrílico, óleo, etc.), o por la fecha o intervalo de tiempo. Por ejemplo, si ponemos de 1500 a 1600 encontraremos imágenes creadas en el siglo XVI o sobre el XVI.; de 1999 a 1999 las realizadas en 1999 o sobre este año; desde — a 0000 encuentra imágenes de o sobre el período antes de Cristo; de – a 1750 encuentra las creadas o sobre el período anterior a 1750; de 1950 a – la imágenes de o sobre 1950 hasta el presente. Desde octubre de 2007 las imágenes de tipo clínico tomadas a pacientes por médicos, sólo están accesibles para los profesionales sanitarios de acuerdo con la política de Wellcome Trust. Para registrarse habrá que proporcionar una serie de datos y demostrar que se reúnen las condiciones. Un equipo revisará los datos y procederá a otorgar la autorización y el acceso a la colección. Los resultados se muestran en miniatura con su correspondiente referencia, que puede seleccionarse, título y la posibilidad de añadirla a un contenedor. Para esto último, cuando queremos una serie de imágenes y poder ordenarlas, hay que registrarse. Encima del conjunto de imágenes se encuentra un menú que posibilita una serie de acciones cuando hayamos seleccionado del conjunto la que nos interesa (copiar, enviar por correo electrónico, imprimir y encargar). Si hacemos clic, el enlace de la referencia se muestra la imagen en una nueva página a mayor tamaño y con todos los datos de la misma. Se nos suele advertir que las imágenes tienen una licencia Creative Com-
Imagen 16. Captura de pantalla de una búsqueda realizada en Wellcome Images
75
mons de dos tipos: Creative Commons Attribution-Non-Commercial version 2.0 licence for England & Wales y Creative Commons Attribution-Non-Commercial No-Derivatives version 2.0 licence for England & Wales. Si se quiere utilizar con propósitos comerciales hay que ponerse en contacto con el sitio para negociar las condiciones. Para obtener una imagen impresa o con calidad para la impresión hay que pagar una pequeña tasa de 2, 94 libras. – Science Photo Library (SPL) (http://www.sciencephoto.com/). Es el principal proveedor mundial de fotografías que abarcan todos los aspectos de la ciencia; la salud y la medicina; la astronomía y la exploración espacial; la tecnología y la industria; las ciencias de la tierra; imágenes obtenidas por satélite; y sobre naturaleza y vida salvaje. Su colección supera las 10.000 referencias. Todas las imágenes están sujetas a derechos de autor. – Health On the Net Foundation. Hon media (http://www.hon.ch/HONmedia/). Ofrece unas 6.800 imágenes y vídeos de tipo médico sobre unos 1.700 temas. Se puede hacer una búsqueda simple, navegar a través de un índice o directorio por orden alfabético, o elegir una categoría y navegar desde ella.
Imagen 17. Captura de pantalla de Hon media.
– Imágenes e ilustraciones médicas del Karolinska Institutet (http://www. mic.ki.se/MEDIMAGES.html). Esta página contiene enlaces a otras páginas y sitios web que ofrecen material multimedia, especialmente imágenes, de 76
tipo médico. Está organizado en forma de directorio por categorías y criterios MeSH. En ocasiones, el material puede descargarse y ser utilizado de forma gratuita, pero por lo general está sujeto a derechos de autor y hay que obtener el permiso correspondiente. – Imágenes de Historia de la medicina de la Nacional Library of Medicine (http://wwwihm.nlm.nih.gov/). Es quizás la colección de imágenes históricas de la medicina más completa. La base de datos está implementada por la División de Historia de la Medicina de la US Nacional Library of Medicine. Lo mejor es buscar por la palabra clave (por ejemplo un nombre) e ir refinando la búsqueda según convenga. La palabra clave se puede combinar con el nombre del autor, con el tema o con el título, o con todas a la vez. Se permiten las búsquedas boleanas con tres términos a la vez. Se puede navegar por las imágenes sin necesidad de registrarse, pero si se desea alguna copia de alta calidad y sin marcas de agua visibles, hay que ponerse en contacto con la Biblioteca. De cada imagen se ofrecen todos los datos disponibles. Por último debemos señalar que podemos obtener imágenes con los buscadores genéricos como Google y Altavista. Disponen de modos de búsqueda sencilla y avanzada. Es interesante saber cómo Google encuentra las imágenes. No utiliza su nombre de archivo que, por lo general, no guarda relación con el contenido, sino el contenido de la página donde se inserta y la descripción de la misma, si la hay. También utiliza un sistema de eliminación de duplicados.
77
Comunicarse
El correo electrónico Uno de los principales usos que hacemos de Internet es el de comunicarnos. Los que hemos vivido el desarrollo de la red recordamos que el correo electrónico fue la primera aplicación que “probamos” y que no hemos dejado de utilizar desde que la Universidad o cualquier otro organismo oficial nos proporcionó una cuenta de e-mail. Al principio estaba restringido al mundo académico o al que se desarrollaba alrededor de la propia red. Con el tiempo se ha generalizado entre la población y hoy casi todo el mundo posee una o más cuentas de correo. En estos momentos nuestras cuentas se han convertido en una especie de gran buzón que recibe todo tipo de mensajes con sus adjuntos (fotografías, documentos de texto, pdfs, archivos ejecutables, etc.) y, sobre todo, gran cantidad de publicidad, spam o correo basura. Aunque existen filtros, nos vemos obligados a invertir parte de nuestro tiempo en seleccionar los mensajes que nos interesan. A pesar de los inconvenientes, el correo electrónico sigue siendo uno de los servicios estrella que ofrecen las redes y, especialmente, Internet. Utiliza la metáfora y la terminología del correo postal tradicional: mensaje, buzón, correo entrante, correo saliente, etc. Sigue la arquitectura cliente-servidor, pero en su forma de múltiples servidores y clientes. Estos últimos se denominan “agentes de usuario” y son los que transmiten los mensajes de los usuarios hasta un servidor. Éste está conectado con otros servidores; el mensaje va pasando entre ellos hasta llegar al que corresponde al destinatario. Allí se guarda en su buzón hasta que el interesado lo solicite. Los mensajes se envían de la misma forma que la mayor parte de datos de Internet. El protocolo TCP, que ya hemos visto, divide los mensajes en paquetes; el protocolo IP los envía a la ubicación adecuada y, después, el protocolo TCP recompone el mensaje en el servidor de correo de destino. Hemos señalado que los mensajes suelen viajar por varias redes antes de llegar a su destino. Estas redes pueden usar distintos formatos de correo electrónico y son las llamadas “pasarelas” las que efectúan las traducciones para pasar de unas a otras. Los “agentes de usuario”, antes citados, son los que conocemos como programas, aplicaciones o gestores de correo (Eudora, Microsoft Outlook, Netscape, etc.). Son los que utilizamos para escribir nuevos mensajes y responder a los que nos envían. Estos gestores permiten, además, almacenar mensajes, crear carpetas para clasificarlos, efectuar búsquedas, tener una agenda con las direcciones que nos interesen, y añadir firmas, entre otras funciones. Para la transmisión de mensajes se utiliza el protocolo SMTP (Simple Mail Transfer Protocol) tanto entre servidores como entre usuario y servidor. Para 79
acceder a los buzones se utiliza el POP3 (Post Office Protocol) y el IMAP (Internet Message Access Protocol). Ambos sirven solamente para consultar el contenido de los buzones, no sirven para el envío de mensajes. Igual que cada ordenador tiene un IP, el usuario de correo tiene también una sola dirección para garantizar que el mensaje sólo le llega a él. Una única dirección no implica que cada usuario tenga varias cuentas de correo. Las direcciones están formadas por dos partes: una cadena que identifica al usuario y otra que identifica el dominio de correo. Ambas partes se separan por el símbolo “@” arroba, que en inglés se lee “at” y podemos traducir por “en”. Los dominios se corresponden con los servidores y estos tienen la misión de asignar nombres de usuario y mantener los buzones. Los dominios de correo se constituyen también de forma jerárquica a partir de unos dominios de primer nivel y de los subdominios que se quiera. Aunque el servicio de nombres de ordenador y el de buzones son estructuras independientes, suelen coincidir. Por ejemplo, el dominio de la Universidad de Valencia es “uv.es”. Muchas cuentas de correo del personal de esta Universidad son así: “nombre_de_usuario@uv.es”. Para los estudiantes de la misma suele ser “nombre_de_usuario@ alumni.uv.es”, es decir, se ha agregado un subdominio (“alumni”) para ellos. Los mensajes tienen un formato igual que las cartas. No nos vamos a extender en este interesante tema, pero diremos que los campos que los componen son: “From” (remite); “To” (dirección de envío); “Cc” (para enviar copias a una o más cuentas de correo); “Bcc” (para enviar copias ciegas, es decir, nadie sabe a quién o quienes se ha enviado copia); “Subject” (tema o asunto del mensaje); “Date” (fecha del mensaje; se genera automáticamente); “Message-ID” (identificador único de mensaje para que pueda ser referenciado o contestado posteriormente); “Received” (cada sistema de correo por donde pasa el mensaje incluye datos sobre el último salto). También se pueden crear campos personales. Parte de estos datos están ocultos; se pueden visualizar si en los mensajes se activa “ver cabecera”. Cuando nació el correo electrónico bastaba con caracteres ASCII de 7 bits en el cuerpo del mensaje. Pronto surgió la necesidad de incluir archivos binarios con código objeto, con imágenes o con sonido. Se propuso MIME (Multipurpose Internet Mail Extensions) para poder enviar estos archivos sin perder compatibilidad con el sistema original. Implicó crear nuevos campos en la cabecera para especificar el contenido de lo que se adjuntaba como text, image, audio, application, etc. así como si el mensaje es multiparte. Los lectores de correo soportan MIME y ofrecen al usuario una interfaz amigable para que sepa si el mensaje incluye un archivo, de qué tipo, e incluso le facilita verlo o ejecutarlo. Podemos utilizar diferentes clientes de correo. Los más utilizados y conocidos son los siguientes: – Outlook Express: Forma parte de las últimas versiones de Windows. En la última (Windows vista) se ha sustituido por Windows mail. – Outlook: Forma parte de las últimas versiones de la suite ofimática Microsoft Office. Es más sofisticado que el anterior. – KMail y Evolution: son clientes de correo utilizados por una buena parte de los que usan el sistema operativo Linux. – Mac OS X Mail: Se trata del cliente de correo por defecto del sistema operativo de los ordenadores Apple. 80
– Mulberry: Cliente que cuenta con versiones para Windows, Apple y Linux. Es gratuito. – Thunderbird: Se trata de un proyecto de software libre desarrollado por la Fundación Mozilla, responsable del navegador Firefox.
Imagen 1. Captura parcial de la página web de descarga del programa de gestión de correo electrónico Thunderbird 2, de Mozilla.
En los últimos años existe la posibilidad de recurrir al llamado “Correo Web”. No es necesario tener aplicaciones como las mencionadas, instaladas en nuestro ordenador, sino que están en el servidor y podemos conectar con él a través de nuestro navegador. Los servicios que ofrece este tipo de correo apenas se diferencia del que proporcionan las aplicaciones clásicas, pero tiene la ventaja de que podemos consultar nuestra cuenta desde cualquier ordenador conectado a Internet. En estos momentos existen multitud de servicios de correo Web. Entre los más usados están los siguientes: – Gmail (http://www.gmail.com). Actualmente es uno de los más recomendables por su sencillez y porque ofrece mucha capacidad de almacenamiento1. Hasta hace pocos meses se accedía por invitación, pero ahora está abierto a todos. Acaba de subir la capacidad a los 5-6 GB. Cuenta con filtros para correo basura, la posibilidad de etiquetar los mensajes para facilitar su búsqueda y clasificación, así como acceso a POP. Esto último significa que podemos bajarnos los mensajes a una aplicación de correo para conservarlos en nuestro disco duro. Tiene un gestor de spam muy eficiente. Gmail puede asociarse con otras aplicaciones que ofrece de forma gratuita Google, como Google Talk. – Live Hotmail (http://mail.live.com). Es el heredero del conocido Hotmail, o MSN Hotmail, servicio de Microsoft. La migración comenzó en mayo de 2007. Hay que tener en cuenta que este sistema tenía 280 millones de cuentas en todo el mundo y de éstas, 10 millones en España. Se apoya sobre cuatro pilares: la seguridad; rapidez y comodidad; personalización; integración con otros servicios Live. Cuenta con una versión de pago, la plus, que permite, entre otras cosas, mandar adjuntos de varios megas, un almacenamiento mayor, aparte de acceso por protocolo POP. Yahoo! Mail (http://correo.yahoo.com). A lo largo de los últimos meses de 2007 se ha producido la migración de las cuentas clásicas de correo Yahoo a la nuevas. El almacenamiento es prácticamente ilimitado, no pueden asociar-
Hay un video en el canal Google de YouTube titulado Gmail: Why Use Gmail?, donde se explica de forma divertida porqué usar Gmail (http://uk.youtube.com/ watch?v=uBbmiQhuAhU). [Consultado el 3 de enero de 2008].
1
81
se etiquetas a los mensajes y se puede acceder mediante POP3 con un cliente de correo habitual, con algunas restricciones. Todas estos gestores de correo Web llevan asociada publicidad; en unos casos más molesta que en otros, pero con el uso no llegamos a notarla. Es recomendable utilizar estos servicios porque ofrecen más utilidades que las que proporcionan los proveedores de conexión a Internet (ONO, Telefónica, etc.), fallan menos y siempre existe la posibilidad de guardar los mensajes en el ordenador mediante POP3 a la vez que los conservamos en el servidor. Entre Gmail, Yahoo! Mail y Live Hotmail, contabilizan más de 500.000 millones de cuentas. Son recomendables para los que disfruten de conexión continua y banda ancha a Internet. Otra ventaja es que nos permiten consultar nuestro correo desde cualquier ordenador conectado a la red independientemente de su sistema operativo e incluso nos escanean los adjuntos para ver si son portadores de algún virus. Trucos Incluir nuestra firma en los mensajes de forma automática Si tenemos bien configurada la cuenta de correo los receptores sabrán de quién proceden los mensajes, pero es habitual que al final de cada mensaje que enviemos introduzcamos una firma. Ésta puede contener varios elementos: nombre y apellidos, algún saludo, dirección postal, institución o empresa en la que trabajamos, la dirección de nuestra página Web, etc. Introducir todos estos datos cada vez que escribimos un mensaje es un incordio, por lo que podemos configurar el cliente de correo para que sea él el que inserte la firma en cada mensaje. Es cuestión de encontrar el lugar donde podemos introducir estos datos. Suele ser en “Configuración”. Por ejemplo en Gmail aparece un enlace en la parte superior derecha de la página principal “Configuración”. Pulsamos. Entre las distintas opciones vemos que hay una que es “Firma”. Podemos optar entre “Sin firma” o “Con firma”. En la caja de texto introducimos el texto que queremos que figure en la firma. Se guardan los cambios y ¡ya está!. Si estamos ausentes y no podemos contestar los mensajes podemos advertírselo al remitente Algunos clientes de correo, Web o no, permiten habilitar una función para contestar a los mensajes que nos envíen e indicarles que no vamos a poder leerlos por determinados motivos; por ejemplo, por estar de vacaciones. En Gmail esta utilidad se encuentra en “Configuración”. Localizamos el apartado “Respuesta automática” y la habilitamos. Introducimos el título o tema (por ejemplo, “Estoy ausente hasta tal día” o “Estoy de vacaciones hasta tal día”, y a continuación hacemos lo mismo con el cuerpo del mensaje insertando lo que queramos. Incluso podemos hacer que sólo se envíe esta respuesta a las personas que figuran en nuestra lista de contactos. Desviar una cuenta de correo a otra Casi todas las aplicaciones y gestores Web de correo electrónico permiten desviar temporalmente la recepción de mensajes a otra cuenta. Para ello hay que buscar en “Ayuda” y seguir los pasos. Normalmente la opción se encuentra en “Opciones” o en “Preferencias”, con el nombre de “reenvío”. Solicitar acuse de recibo Igual que sucede con el correo postal, con el electrónico podemos solicitar 82
un acuse de recibo a nuestros mensajes. Esto garantiza que la persona a la que va dirigido lo lee. Esta opción es posible en las aplicaciones de correo que tenemos en el ordenador. En Thunderbird, por ejemplo, en “Opciones” activamos “Acuse de recibo” de la ventana redacción. En Outlook, cuando estamos en la ventana de redacción del mensaje, abrimos la página de “Opciones” y marcamos la de “Seguimiento” y dentro de ésta “Solicitar una confirmación de lectura”.
Seguridad en el uso del correo electrónico Una de las cosas que debemos saber es que la privacidad no está garantizada con el correo electrónico, igual que no lo está con el correo postal. Desde que el mensaje sale del ordenador hasta que llega al destinatario pasa por muchos sitios en los que pueden tener acceso al mismo. Sin demasiada sofisticación cualquier intruso que disponga del software adecuado puede leer nuestros mensajes sin dificultad y, lo que es peor, puede modificar su contenido. En la actualidad la necesidad de seguridad en las comunicaciones ha adquirido mucha importancia. Entramos en el terreno de la criptografía, conjunto de saberes y prácticas que tratan de garantizar una transmisión segura y auténtica de la información. Uno de sus objetivos es la transmisión de los mensajes de forma indescifrable para cualquier elemento ajeno a la comunicación. Sin embargo, hay sistemas que tratan de romper el criptosistema, de descifrar el mensaje sin las claves; esto se llama criptoanálisis. Aunque abordamos este tema en el capítulo dedicado al correo electrónico, la criptografía tiene un campo de acción mucho más amplio. Tampoco es un asunto nuevo. Cualquiera que se acerque a él se encuentra con una técnica que recibe el nombre de César, porque se atribuye a Julio César el haber creado un sistema criptográfico. Durante la Segunda Guerra Mundial se utilizaron sistemas criptográficos muy sofisticados. Los alemanes emplearon una máquina para cifrar llamada Enigma. Los ingleses utilizaron una réplica de la misma para leer los mensajes así como Colossus, quizás el primer ordenador programable. Parece que hay dos fechas clave en la historia de la criptografía. En 1949 Claude Elwood Shannon (1916-2001)2 publicó las bases matemáticas de la criptografía como ciencia, y en 1976 Whitfield Diffie (1944-)3 y Martin Hellman (1945-)4 introdujeron la criptografía de clave pública5. Se distingue entre sistema criptográfico de clave privada o simétrica y criptografía de clave pública o asimétrica. En el primer caso, tanto el emisor como el receptor acuerdan una clave secreta. En el segundo, cada usuario dispone de dos claves: una que hace pública a todo el mundo y otra que sólo conoce él. En este último caso no es necesario que emisor y receptor se pongan de acuerdo. La criptografía se suele utilizar en Internet para envíos de mensajes de correo electrónico seguros. Parece que todavía tiene más futuro en algo que quizás hemos escuchado en los medios de comunicación: la firma digital. En un momento en el que los documentos circulan por este medio, se trata de utilizar de la forma más segura la firma digital, que equivaldría a la firma manual que estampamos cotidianamente en documentos en papel. Las llamadas telefónicas en los móviles están protegidas por sistemas criptográficos,
2 Véase Wikipedia, http:// en.wikipedia.org/wiki/Claude_ Shannon 3 Véase Wikipedia: http:// en.wikipedia.org/wiki/Whitfield_ Diffie 4 Véase Wikipedia: http:// en.wikipedia.org/wiki/Martin_ Hellman. Su página web en la Universidad de Stanford: http:// ee.stanford.edu/~hellman/ 5 Véase el trabajo Diffie, W.; Hellman, M.E., New directions in Cryptography, publicado en 1976 y que puede consultarse en CiteSeer.IST (scientific Literature Digital Library), http://citeseer.ist. psu.edu/340126.html
83
igual que la banca on line, el comercio electrónico, la adquisición de reservas y billetes de avión o de ferrocarril por Internet, etc. Estas operaciones cada día son más frecuentes. Hay varios sistemas de clave pública, como el conocido RSA o ElGamal y otros que utilizan una combinación de clave privada y clave pública. Un ejemplo de este último es el conocido PGP (Pretty Good Privacy), aplicación que permite cifrar ficheros y mensajes de correo electrónico, así como firmarlos digitalmente. El programa proporciona confidencialidad en el almacenamiento de ficheros y envío de mensajes, por un lado. Por otro, autenticidad al usar la firma digital. Finalmente PGP garantiza que el autor de un fichero o mensaje de correo no puede negar la autoría del mismo.
Imagen 2. Captura de la interfaz de la aplicación PGP versión 9.7, aplicación que permite cifrar ficheros y mensajes de correo electrónico, así como firmarlos digitalmente.
Véase Wikipedia http:// en.wikipedia.org/wiki/Phil_Zimmermann. Su página personal es: http://www.philzimmermann. com/EN/background/index.html
6
84
PGP fue desarrollado por Philip R. Zimmermann (1954-)6 en 1991. Lo subió a Internet para que quien quisiera lo pudiera bajar a su ordenador y utilizarlo. Esto le costó una investigación policial en los Estados Unidos que duró tres años. Sin embargo, la aplicación se hizo muy popular y a mediados de los noventa muchísima gente lo utilizaba más por diversión que por necesidad. En el año 2002 fue adquirido desde NAI por una nueva startup, la compañía PGP Corporation (http://www.pgp.com). La versión actual es la 9.7 y se puede adquirir como licencia que se renueva anualmente por suscripción. Su precio está en torno a los 50 dólares. Podemos conseguir PGP gratuito (freeware) de versiones más antiguas pero legales. Lo que hace PGP es enviar el mensaje cifrado con un sistema de clave privada, pero la clave de cifrado se remite protegida con un sistema de clave pública. Aunque la combinación de ambos sistemas ya había sido descrita por otros, la idea original de Zimmermann consistió en integrarlo todo en una aplicación de uso sencillo y acercarla a cualquier usuario. En los últimos años hay una modalidad de mensajes que se denomina phishing. Consiste en hacer creer al destinatario que el remitente es su banco, entidad financiera, agencia tributaria o similar y que debe rellenar unos datos de comprobación, que suelen ser confidenciales, como el número de cuenta y palabra o número clave de acceso. Muchos clientes de correo son capaces
de filtrar este tipo de mensajes y mandarlos a la papelera, pero a veces algunos se les escapan. Una regla general es que no se deben enviar datos confidenciales por correo electrónico jamás ni rellenar formularios en los que se soliciten.
La comunicación inmediata El correo electrónico ofrece muchas ventajas y, a pesar de que es muy rápido, carece de la inmediatez que proporcionan otras formas de comunicación como el teléfono. En Internet disponemos de muchos programas de mensajería que aportan lo mismo que el teléfono, pero a un precio considerablemente inferior. Entre estos podemos mencionar los conocidos servicios de chat, la videoconferencia o la telefonía sobre IP. Algunos de los más utilizados requerían apenas hace unos años software específico, pero en la actualidad pueden utilizarse a través de la Web. Es más, cada vez están más integrados entre ellos, ya que son capaces de reconocer los protocolos de comunicación de la competencia. Elegir uno u otro depende de la valoración que hagamos para que se adapte a nuestras necesidades. Vamos a hacer un recorrido por los más utilizados y conocidos. A) Mensajería de texto Se trata de una conversación a través de texto que se establece entre dos personas. Es igual que el correo electrónico, pero en este caso las dos personas deben conectarse de forma simultánea. Uno escribe algo y aparece en la pantalla del otro; éste contesta y aparece inmediatamente en la pantalla del primero. Entre los dos debe haber un servidor que proporcione el servicio. Como sucedía con el correo electrónico, podemos utilizar una aplicación concreta que instalamos en nuestro ordenador o hacerlo a través de una interfaz web. Con la primera opción tendremos más utilidades. Ejemplos de este tipo son los siguientes: – El conocido ICQ (http://www.icq.com) que fue muy utilizado a finales de la década de los noventa. Casi todo el mundo que se conectaba a Internet disponía de su número ICQ. Se debía a que cada usuario se identificaba con un número único.
Imagen 3. Captura parcial de pantalla del sitio web de icq, la popular aplicación de mensajería instantánea (http://www.icq.com/).
85
– Yahoo! Messenger (http://es.messenger.yahoo.com/). Desde esta página podemos acceder a la versión para la web o podemos descargar la última versión (la 8.1) para el ordenador. Con él accedemos a la comunidad más grande de usuarios de mensajería instantánea de la red. Nos permite hacer llamadas de PC a PC, utilizar webcam, transferir archivos, compartir fotos, etc. – Live Messenger (http://www.mesengerlive.info/es/). Desde esta página podemos descargar la aplicación de Microsoft más adecuada para nuestra versión de Windows. Es quizás el más utilizado del mundo. La versión que utiliza Windows XP y Windows vista es compatible, además, con Yahoo! Messenger y con Google Talk. – Google Talk (http://www.google.com/talk/). Más reciente que los anteriores, pertenece a la empresa Google y es compatible con ellos. Se integra, además, con otras utilidades Google, como el Gmail. Permite la transferencia de archivos y las llamadas de voz de PC a PC. Integra también el notificador de Gmail; advierte cuando entra un mensaje en el Gmail. También puede utilizarse por intefaz Web (Ver Imagen__).
Imagen 4. Captura de pantalla de la página de descarga de la aplicación de mensajería instantánea Google Talk.
7 Su página web personal: http:// www.kumpu.org/ [Consultado el 3 de enero de 2008].
86
B) Servicios de Chat. No figura en el Diccionario de la Real Academia, de momento. Sí aparece el verbo chatear o “beber chatos”. Mucha gente cuando utiliza o escucha esta palabra lo está haciendo en el sentido de “charlar” a través de la red. Efectivamente, es una charla que se mantiene en Internet entre dos o más personas en tiempo real. Parece que la Academia ha admitido esta acepción en junio de 2007. En la actualidad el “Chat” tiene interés en cuanto a que quien entra en una “sala” de Chat lo hace motivado por un tema, es decir, por la especialización del servicio. Los servidores de Chat ofrecen lo que se conoce como canales, salas o habitaciones, que se dedican a temas concretos más o menos serios, más o menos disparatados en ocasiones. Las redes de “Chat” utilizan el protocolo IRC o Internet Relay Chat, que comunica a los clientes o usuarios con el servidor y a estos entre sí en tiempo real. Fue creado por Jarkko Oikarinen7 en 1988 cuando trabajaba en la Universidad de Oulu de Finlandia. Las conversaciones se desarrollan en los
llamados “canales de IRC”, designados por nombres que habitualmente comienzan con el carácter # o & (este último sólo se utiliza en canales locales del servidor). Es un sistema de charlas ampliamente utilizado por personas de todo el mundo. Los usuarios del IRC utilizan una aplicación cliente para conectarse con un servidor, en el que funciona una aplicación IRCd (IRC Daemon o servidor de IRC) que gestiona los canales y las conversaciones. El cliente más conocido para conectar a servidores de “Chat” en el sistema operativo Windows es mIRC (http://www.mirc.com), creado por Khaled Mardam-Bey (1968-)8. Otro cliente, esta vez gratuito, es Vortec IRC (http://www. vortecirc.com/index.php), similar al ya desaparecido pIRCh. Babbel (http:// www.babbelirc.com/), es un cliente que tiene versión para Windows y también para Mac. Uno de los más populares para este sistema operativo es Ircle (http://www.ircle.com/); otro es Snak. (http://www.snak.com/index.html). Un cliente IRC que sirve para Windows, Mac y también para Linux es leafdigital (http://www.leafdigital.com/software/leafchat/). Como sucede en los servicios que hemos visto, mucha gente se conecta a los chats a través de páginas Web sin necesidad de tener instalado un programa para ello. Existen sitios con servidores propios que ofrecen la posibilidad de entrar a chats de muchos temas: cocina, ciencia, literatura, infantiles, etc. Uno de las más veteranos es iRC-Hispano (http://www.irc-hispano. org/). Desde esta página se puede asistir, además, a charlas programadas o a encuentros con un determinado personaje especialista en un tema o conocido en determinados ámbitos. Algunos periódicos de gran tirada y con edición en red ofrecen también la posibilidad de asistir a encuentros de estas características. En la red pueden encontrarse chats de tipo médico que forman parte de portales que ofrecen otros servicios a los profesionales. Uno de los problemas es que igual que surgen, desaparecen. Más que los profesionales de la medicina, los chats y foros son utilizados por los enfermos o pacientes. De este tema nos ocuparemos más adelante. Imagen 5. Captura de pantalla de mIRC en español (http:// www.mirces.com/). Una de las aplicaciones más populares para chatear.
Véase su página personal: http:// www.mirc.com/khaled/index.html
8
87
C) Telefonía IP Algunas de las aplicaciones que hemos mencionado, bien por software o por interfaz web (Yahoo!, Live Messenger, Google Talk, ofrecen la posibilidad de transmitir voz en vez de texto. Para que funcione bien es necesario disponer de banda ancha. En los últimos años se ha popularizado la telefonía IP. La información pasa del teléfono del emisor a una centralita desde la que viaja buena parte del trayecto a través de Internet. Cuando se alcanza el punto más cercano al teléfono del receptor, la información se transfiere a la red telefónica. En la red telefónica que suministra los servicios la llamada aparece como local. Skype es la empresa más conocida que ofrece este tipo de servicio. Fue creada por Niklas Zennström y Janus Friis, quienes también idearon una aplicación para compartir archivos que alcanzó gran éxito: Kazaa. Skype se puso en marcha en 2003 (http://www.skype.com/intl/es/download/). En primer lugar esta sencilla aplicación permite hablar con otro usuario de Skype gratuitamente esté donde esté. Lo mismo para la videollamada. En segundo lugar, permite llamar a cualquier teléfono fijo o móvil a tarifas más económicas que las que ofrecen las compañías convencionales. En tercer lugar, Skype es también un programa de mensajería instantánea, ya que permite conversar con otra personas, hasta cien (lo que sería ya un Chat), mandar archivos, etc. Se puede guardar la conversación para revisarla posteriormente. Por pequeñas sumas adicionales, se puede tener un número de teléfono Skype, un contestador automático o buzón de voz, y también permite mandar mensajes SMS a teléfonos móviles. Hay versiones Skype para Windows, Mac, Linux y Pocket PC. En algunos países ya se ha puesto en servicio 3 Skypephone, teléfono móvil que permite realizar llamadas, enviar mensajes de texto, tomar fotografías, llamar y enviar mensajes instantáneos a tus amigos de Skype gratis. D) Videoconferencia Conversar con un interlocutor mientras lo estamos viendo se acerca mucho más a lo que sucede cuando hablamos con una persona de tú a tú. El problema que ha tenido que superarse para que esto fuera realidad es la velocidad de transmisión de las líneas por un lado, y la búsqueda de algoritmos que compriman el vídeo al máximo, por otro. Los que trabajan en vídeo saben lo mucho que “pesan” los archivos de este tipo. Para la videoconferencia es necesario captar la imagen y sonido del emisor con cámara y micrófono, codificar y descodificar el vídeo, sincronizarlo con el audio, y ofrecerlo al receptor en la pantalla y altavoces de su ordenador. Sin embargo, el tema es mucho más fácil para el usuario. Sólo tiene que tener una cámara conectada a su ordenador y el software adecuado. Entre los programas específicos podemos mencionar: – ooVoo (http://www.oovoo.com). De momento está disponible en inglés. Permite efectuar videoconferencia de forma simultánea hasta con seis personas. También ofrece la posibilidad de dejar mensajes de vídeo grabados. Es gratuito. – SightSpeed (http://www.sightspeed.com). Ofrece un servicio mixto: gratuito, con una serie de limitaciones, y un servicio PLUS con un abono de unos diez dólares mensuales o en torno a los cien anuales. Sin necesidad de instalar ninguna aplicación podemos establecer videoconferencia a través de TokBox (http://www.tokbox.com/) con otra per88
sona que también se conecte con este mismo servicio. Hay que registrarse previamente.
Imagen 6. Captura de pantalla de la página principal de TokBox, que permite hacer videoconferencias a través de interfaz Web ((http:// www.tokbox.com/).
E) Otros servicios – Twitter (http://www.twitter.com). Se trata de un servicio tan reciente (2007) que todavía se discute su utilidad. Poco a poco los usuarios van encontrando nuevas utilidades mientras discuten en los blogs sobre el tema. Twitter podría contestar a la pregunta ¿Qué estás haciendo ahora? La mayoría de usuarios de este servicio suelen estar conectados a la red muchas horas a través de su ordenador o de su teléfono. En el primer caso interactuamos con un programa de mensajería instantánea, a través de la página Web de twitter o mediante una aplicación de escritorio. En el segundo caso lo podemos hacer mediante un SMS o conexión a Internet a través del teléfono. Lo importante es actualizar con frecuencia, con frases que no pueden superar los 140 caracteres. Quien manda mensajes a twitter no espera respuesta de los que los reciben o los leen en la Web. Uno puede convertirse en un “seguidor” de alguien, y entonces recibe los mensajes que éste emite. Muchos insertan en su blog una rutina que muestra los últimos mensajes que ha enviado a twitter. En estos momentos hay grandes defensores de este servicio y también grandes detractores. El tiempo dirá, pero seguro que alguien le encuentra utilidades que ahora no sospechamos. De hecho han aparecido ya las primeras herramientas que usan este servicio como referencia. Una de ellas muestra de forma continua en un mapa los mensajes que lanzan los usuarios de twitter. El servicio es totalmente gratuito y lo que sí proporciona a quien pasa horas ante el ordenador, es una especie de “cercanía” desde la cotidianidad con otros usuarios.
Mensajería instantánea y correo electrónico en la asistencia médica Una búsqueda en pubMed nos pone de manifiesto que muchos investigadores y profesionales de la medicina se han preocupado por el impacto de las 89
9 Véase a título de ejemplo las recomendaciones de la American Medical Association: Robertson, J. Guidelines for physician-patient electronic communications. American Medical Association. 2001 [2006 Mar 3]. webcite http://www. ama-assn.org/ama/pub/category/2386.html 10 Mayer Pujadas, M.A.; Leis Machín, A. El correo electrónico en la relación médico-paciente: uso y recomendaciones generales, Aten Primaria, 2006; 37(7): 413-7 11 Brooks, R.G.; Menachemi, N. Physicians’ Use of Email With Patients: Factors Influencing Electronic Communication and Adherence to Best Practices, J Med Internet Res, 2006 Jan-Mar, 8(1): e2. También es interesante la lectura de este trabajo: Houston, Thomas K.;Sands, Daniel Z.;Jenckes, Mollie W.; Ford, Daniel E. Experiences of patients who were early adopters of electronic communication with their physician: satisfaction, benefits, and concerns. Am J Manag Care. 2004 Sep;10(9):601–8.
90
tecnologías de la información y comunicación en la docencia, investigación y asistencia. Si en los dos primeros casos no hay ninguna duda de que las TIC han cambiado la forma de comunicarse, de buscar información y de difundirla, en el tercero el tema resulta más controvertido. Nos referiremos exclusivamente a la comunicación. Tanto el correo electrónico como la mensajería instantánea están implantados, por lo general, entre los profesionales para comunicarse. También es cierto que, por desconocimiento, por falta de ganas en profundizar en las posibilidades de las aplicaciones, o en mantenerse al día en las novedades, no se usan con todo su potencial. La herramienta que más se utiliza y desde hace más tiempo es el correo electrónico. Pero ¿qué pasa en lo que se refiere al uso de este medio para comunicarse con los pacientes? En algunos países ya se han hecho estudios de tipo cuantitativo para averiguar el alcance del fenómeno entre médicos y enfermos, así como los perfiles de quienes lo utilizan. También han aparecido trabajos que analizan las implicaciones de tipo legal como la confidencialidad o la validez de los documentos que genera este tipo de comunicación. En algunos, además, se habla de las ventajas que puede reportar su uso, así como las desventajas. Una cosa está clara: la sociedad se amolda con rapidez a los cambios y utiliza los medios que le resultan cómodos, baratos y asequibles. Cuando comenzó apenas hace unos años la fotografía digital, muchos se preguntaban cómo gente que apenas maneja ordenadores, no sabe informática ni manejar aplicaciones de retoque de imagen, podía adoptar esta modalidad de fotografía. De hecho no sabemos cómo, pero hoy todo el mundo utiliza estos dispositivos, una buena parte cuelga sus imágenes en flirk, las comparte con sus amigos por diversos medios electrónicos, y también obtienen copias en papel. La sociedad presiona y los profesionales de la medicina, así como las instituciones asistenciales, tienen el deber de ponerse al día en estas cuestiones9. Como señalan Mayer Pujadas y A. Leis Machín10 la comunicación entre médicos y enfermos se ha basado en el encuentro personal. Mucho más tarde, cuando el teléfono se generalizó, se introdujo también en esa relación. Desde hace dos décadas el correo electrónico se ha ido generalizando desde que salió del mundo académico y de la investigación. Su uso en la relación y comunicación entre los profesionales de la medicina y los pacientes se irá generalizando poco a poco. De todas formas habría que establecer dos niveles: el correo electrónico entre la institución asistencial y los pacientes, por un lado, y la de la clásica relación médico-enfermo, por otro. En el primer caso es más fácil ver las ventajas y los escasos inconvenientes; en el segundo es algo más complicado. Los autores mencionados recogen en su trabajo los beneficios, los riesgos y proporcionan una serie de recomendaciones prácticas para el uso del correo electrónico. Su opinión nos interesa, ya que se refieren al contexto en el que nos encontramos. En definitiva, opinan que “el correo electrónico es una herramienta de gran utilidad para comunicarse con nuestros pacientes y usuarios de salud, y no hay duda de que es una manera de transformar la relación médico-paciente como la entendemos actualmente y que, si se realiza de una forma adecuada, debe constituirse como una incorporación muy positiva en la atención sanitaria”. En el año 2005 Brooks y Menachemi11 realizaron un estudio en Florida entre los médicos de atención primaria y médicos especialistas en centros de
especialidades. Completaron el cuestionario 4.203 médicos (el 28,2 de participación). De estos, 698 (16,6 por ciento) utilizaron el correo electrónico para comunicarse con sus pacientes. Sólamente 120 (2,9 por ciento) lo habían hecho con frecuencia. El análisis univariante demuestra una correlación con la edad (decrece el uso en médicos mayores de 61 años), con la etnia (menor entre los asiáticos), con el área profesional (se incrementa en la medicina de familia, en cirugía, pero no en medicina interna), y con el tipo de zona geográfica (mayor uso en las zonas urbanas que en las rurales). Entre otros hallazgos y recomendaciones, los autores demandan mayor esfuerzo en la educación de médicos y pacientes en lo que respecta a este tipo de relación, así como una actualización y adecuación de los temas legales. En lo que se refiere al Reino Unido, Josip Car y Aziz Sheikh12 publicaron en 2004, en el British Medical Journal, dos trabajos sobre el uso del correo electrónico en medicina. Según ellos, el 60 por ciento de la población del Reino Unido utiliza ya con frecuencia este tipo de medio para comunicarse. En el primer artículo (“Email consultations in health care: 1-scope and effectiveness“) exploran el alcance del e-mail en las consultas de medicina preventiva, educación para la salud y la forma de comportarse ante situaciones no urgentes. En el segundo (“Email consultations in health care: 2-acceptability and safe application”) analizan las conductas de pacientes y médicos en el uso de este medio y consideran cómo garantizar la seguridad en la rutina clínica. Las ventajas que reportan estos autores en el uso de correo electrónico son: Conveniencia: El correo electrónico se puede utilizar casi en cualquier momento y lugar; puede reducir la necesidad de consulta presencial o cara a cara; útil para transmitir al paciente datos que es necesario recordar, como pautas de tratamiento, teléfonos de consulta, resultados de pruebas analíticas, para transmitir pautas para el preoperatorio o postoperatorio, etc.; la extensión es ilimitada y la información se puede enviar como documentos adjuntos. Acceso: Útil para acceder a personas que viven lejos, en zonas aisladas o que tienen alguna discapacidad. Distribución de la información: El e-mail es útil para remitir a los enfermos información que pueden consultar en Internet; constituye un medio amigable para que el paciente pueda aclarar aspectos que le han quedado oscuros en la consulta presencial; podría utilizarse para comunicar acontecimientos desagradables; permite a los enfermos mostrar y dialogar con familiares y amigos los contenidos de los mensajes. Satisfacción: El correo electrónico es un medio que borra barreras de desigualdad entre los interlocutores: edad, rango, distancia; permite el uso de un estilo más libre y menos formal, más directo e inmediato; se puede garantizar el anonimato del paciente; rapidez en la comunicación; especialmente útil para personas y grupos que tienen dificultades para el trato personal o para la relación cara a cara. Calidad de la asistencia: Los profesionales pueden consultar con otros colegas antes de dar un consejo o respuesta a una solicitud de información; con el e-mail queda un documento electrónico que puede consultarse en cualquier momento y se evitan los problemas que pueden acarrear notas mal redactadas o escritas de forma apresurada
12 Car, J.; Sheik, A. Email consultations in health care: 1-scope and effectiveness, BMJ 2004; 329; 435-438 y Email consultations in health care: 2-acceptability and safe application BMJ, 2004; 329: 439.
91
Mejora de la eficacia: El médico puede acostumbrarse a crear rutinas para entenderse con los pacientes por este medio y para mandar información sobre salud a grupos de enfermos; esto supone un ahorro de gastos. Entre las posibles desventajas señalan las siguientes: – Podrían potenciarse sólo las ventajas hacia los pacientes con más formación, económicamente mejor situados y a los más jóvenes que dominan estos medios. – Al igual que otras formas de comunicación escrita (como cartas y faxes), con el correo electrónico se eliminan todos los registros que acompañan al habla, así como las actitudes que toman los enfermos al hablar, y que aportan información complementaria. – No permiten examinar o explorar al paciente. – No es posible utilizar el contacto en el encuentro clínico. – Puede aumentar el riesgo de errores de diagnóstico o de comunicación. – Lentitud de las respuestas a los mensajes que podrían requerir medidas urgentes. – Amenazas a la intimidad de los pacientes. – Una gran cantidad de correos electrónicos pueden saturar servicios administrativos, servidores y al personal sanitario. En la segunda parte de su trabajo se refieren más que nada a los aspectos de manejo y de seguridad del coreo electrónico. Algunas de las características mencionadas son las mismas que hemos señalado en cada apartado. Sin embargo, en una institución, con el personal competente adecuado, se pueden implementar las aplicaciones con rutinas que simplifiquen los procesos de envío, envío masivo o a grupos, recepción, creación de plantillas estandarizadas, filtrado de correo no deseado, archivo automático, garantías de autentificación, mantenimiento de los sistemas de seguridad al día, etc. Estos procedimientos han sido adoptados ya en empresas y en diversas áreas de la administración.
92
Participar y mantenerse informado Los Foros Los foros son aplicaciones Web que ofrecen soporte a discusiones u opiniones en línea. Son los herederos de los sistemas de noticias llamados BBS (Bulletin Board System) y Usenet, que tanta popularidad alcanzaron antes de que surgiera la World Wide Web. Habitualmente los foros se integran dentro de sitios Web como complemento. Sirven para abrir una o más líneas de discusión sobre asuntos o temas relacionados generalmente con los del sitio Web. También puede contemplarse como un lugar donde se intercambia información acerca de un tema. Se puede llegar a formar una comunidad alrededor de un interés común. Los foros ocupan un espacio “material” donde convergen todas las aportaciones y donde acude el usuario para leer los mensajes. Estos no llegan de forma particular a ningún usuario. Los foros, espacios para el debate, son asincrónicos, ya que nos permiten ponernos al corriente de una discusión y realizar nuestra aportación particular en cualquier momento. No hay inmediatez y el ritmo de las “conversaciones” varía y no depende de exigencias externas al sistema. Los foros se pueden visualizar de varias formas: (a) llana, en la que las respuestas de una discusión se ordenan en forma cronológica; (b) anidada, en la que cada respuesta se vincula con el mensaje original o alguna de las respuestas subsiguientes formando una especie de árbol genealógico de discusión. Habitualmente los foros disponen de formas de personalizar la apariencia que le resulte más cómoda al usuario. Entre los elementos y tipos de foros podemos mencionar: (a) Tema o hilo de conversación que constituye el foro. Cada foro puede tener varios temas, pues cada usuario puede crearlo siempre que tenga relación con el foro. Los temas suelen estar siempre activos, a menos que el moderador cierre la discusión o sea eliminado. Se suelen almacenar por fecha de publicación, de modo que el último publicado es el que aparece primero en la pantalla. Las contestaciones se sitúan debajo de su tema en forma de cascada y por su fecha de publicación; (b) Moderador. Persona o personas que gestionan o administran el foro. Pueden intervenir en cualquier momento si se producen situaciones extrañas. Pueden eliminar temas o mensajes, cerrar discusiones y prohibir la entrada a un usuario. También se encarga de dinamizar al grupo, de guiar, de resumir y de sintetizar un tema; (c) Usuario. Los que entran al foro para hacer preguntas, para contestar mensajes o para proponer temas; (d) Foro abierto. Se accede directamente sin ningún paso previo, se puede escribir sobre un tema o responder a otro libremente; (e) Foro cerrado. Si es la primera vez que se visita un foro hay que registrarse, aunque esto sólo sue93
le ser necesario si se quiere enviar o contestar mensajes. En el registro hay que proporcionar únicamente un nombre de usuario y una palabra clave, lo que proporciona cierta confidencialidad; (f) Conferencia. Conjunto de foros que tratan de un mismo tema. Existen foros específicos que suelen estar dirigidos a profesionales. Estos pueden encontrar información de alta calidad que, además, se trata y sistematiza. Se comparten experiencias, intereses, necesidades, soluciones, llegando a constituir una gran base de conocimiento. Este tipo de foros también ofrecen instrumentos que ayudan al usuario a tomar decisiones a través de sus consultas y a resolver dudas. Un ejemplo de estos foros los encontramos en neurona.com (http://www.neurona.com/). Se trata de un sitio Web que reúne comunidades de profesionales de todos los ámbitos. Si vamos a cualquiera de ellas nos encontraremos con información sobre sus componentes, por un lado, y con el foro correspondiente, por otra. Otros ejemplos son ForoMedico.es (http://foromedico.es/drupalWeb/); esanum (http://www. esanum.es/); foros de medicina, salud y enfermería, de Portales medico.com (http://www.portalesmedicos.com/foros_medicina_salud_enfermeria/); etc.
Imagen 1. Captura parcial de la página Web del Foro de enfermedades del hígado, donde se aprecian el número de temas por foro, el de mensajes y la fecha en la que se insertó el último comentario.
De gran interés son los foros de enfermos. Estos se refieren generalmente a enfermedades crónicas, graves o raras. Constituyen verdaderas comunidades de apoyo y ayuda, donde abundan las experiencias. Los enfermos buscan dos tipos de información. De un lado, información científica, contrastada y validada por profesionales. De otro, y es muy lógico, información que procede de otros enfermos, donde los profesionales quedan al margen. Ésta se suele dar en los foros y en ellos se busca solidaridad con los que se encuentran en el inicio de un proceso patológico, experiencia de los que lo sufren 94
desde hace tiempo, e intercambio de información. Según el tipo de dolencia, también se comparten datos sobre aspectos sociales como a quién dirigirse, qué asociación buscar, qué pasos administrativos hay que dar, etc. A pesar de que las características demográficas, sociales y culturales de los que participan en estos foros es diversa, comparten un mismo lenguaje y una misma situación. Los foros forman parte de muchas comunidades virtuales. En abril de 2004 había 25.000 grupos en la sección de salud de Yahoo! Groups y un año después la cifra había subido a 68.000 grupos. En Yahoo! Grupos en español hemos contabilizado, en enero de 2008, 2.678 grupos. Según Harrison et al1 en los Estados Unidos, el 28 por ciento de los usuarios de Internet habían participado en foros virtuales sobre alguna condición de salud.
Imagen 2. Captura parcial de la página de foros de Comunidades Profesionales
Existen diferentes formas de estar informado en la red sobre los temas que a uno le interesan. Como sucede en otros muchos temas de Internet, algunos de los procedimientos que en el pasado se usaron masivamente para este fin han sido desplazados por otras utilidades. Veamos algunos de los primeros:
Las listas de correo Se constituyen en torno a un grupo, a un tema, a una afición, etc. Muchas sociedades científicas suelen disponer de este servicio. Las listas de correo pueden ser sólo de lectura o pueden permitir la participación, es decir, los integrantes pueden opinar, responder o interactuar. Los mensajes se reciben por cualquier aplicación de correo electrónico que tengamos instalada en el ordenador o a través de una cuenta de correo Web.
1 Harrison, K.; Warburton, D.; Retano, A. In recent years, computer technology has seen advances which have had a major impact on the practice of medicine, Genet. Med., 2000; 2(2): 351-2.
95
Para el funcionamiento de las listas tiene que existir un servidor en el que se centralicen los mensajes y se remitan a los suscriptores, y se acepten las nuevas altas o bajas en la lista. Esta tarea suele estar automatizada por programas, aunque en algunas listas hace falta que un administrador dé el visto bueno a las tareas que se determinen (aceptar nuevos socios, aceptar mensajes, etc.). Los servidores de este tipo se suelen llamar list server y uno de los más importantes es el conocido LISTSERV. LISTSERV también fue la primera aplicación para las listas de correo. Antes se administraban de forma manual. Fue inicialmente desarrollada en 1984 por Ira Fuchs, Daniel Oberst y Ricky Hernández para la red de ordenadores BITNET. Eric Thomas desarrolló una Revised Listserv en 1986. Después se desarrolló para distintas plataformas y, finalmente, para Internet. En el año 2000, según Wikipedia, LISTSERV tenía 30 millones de usuarios que transmitían 20 millones de mensajes al día. Existen distintos tipos de listas: (a) moderada, en la que los mensajes que envían los suscriptores son revisados por un moderador; (b) no moderada, en la que los procesos están automatizados (suelen ser las listas con centenares o miles de suscriptores); (d) mensajes individuales, cuando el suscriptor recibe un mensaje por cada nuevo mensaje que recibe el servidor, lo que permite contestar y participar; (e) mensajes agrupados, porque el suscriptor recibe cada determinado período de tiempo un resumen de los mensajes nuevos que ha recibido el servidor. En Internet hay millones de listas de todos los temas y en muchas lenguas. Para encontrar las que nos interesan necesitaremos herramientas que nos ayuden a buscar. Entre éstas podemos utilizar las siguientes: – RedIRIS (http://www.rediris.es/list). Se trata de una red que mantiene unidas a las universidades y centros de investigación de España. En 1988 el Plan Nacional de I+D creó un programa horizontal (IRIS) con el objetivo de Interconectar los Recursos InformáticoS de este tipo de centros. Hasta 1991 estuvo gestionada por Fundesco. Se convirtió en RedIRIS y, desde 1994 a 2003, fue gestionada por el Consejo Superior de Investigaciones Científicas (CSIC). En 2004 se integró como un departamento autónomo dentro de la Entidad Pública empresarial Red.es, adscrita al Ministerio de Industria, Turismo y Comercio. Entre sus servicios se encuentra el de distribución de listas. Todas ellas se refieren a temas científicos, académicos, de investigación o de soporte de asociaciones de las mismas características. Si se reúnen los requisitos, se puede solicitar la creación de una lista. – eListas (http://www.elistas.net). Se trata de un servicio de listas de correo, boletines y newsletters gratuito. Desde la página principal se puede acceder a un listado de las listas más destacadas, más populares, más activas, etc. Para buscar una lista podemos hacerlo a través de su buscador o navegando por el directorio de las mismas. Cuando encontremos alguna a la que nos interese suscribirnos, seguiremos las instrucciones para hacerlo. – Catalist (http://www.lsoft.com/lists/listref.html). Es un sitio que nos ofrece información sobre más de 53.000 listas públicas que utilizan el software LISTSERV de L-Soft, que fue pionero en este campo. En algunos sitios las listas se denominan Grupos. Éste es el caso de Yahoo! Groups (http://es.groupsyahoo.com), donde se alojan miles de listas de todos los temas. 96
Grupos de discusión Una de las actividades que mayor éxito tienen en Internet es participar en las conversaciones que tienen lugar en grupos organizados en torno a un tema. Para ello se utiliza generalmente el protocolo NNTP (Network News Transfer Protocol), que comunica con los servidores en los que se alojan los grupos de discusión o grupos de noticias. También existe una comunicación entre los servidores. La red global se denomina Usenet (User Network) o “red de usuarios”. Fue creado por Tom Truscott y Jim Ellis, estudiantes de la Universidad de Duke, en 1979, como una especie de ARPANET para pobres. Los usuarios pueden enviar o leer mensajes a distintos grupos de noticias ordenados de forma jerárquica, que se asemeja a la de los dominios, pero con las denominaciones dispuestas de forma inversa. Cuando el interesado se suscribe a un grupo de noticias, el software cliente de noticias mantiene el hilo de los artículos que ha leído. En muchos grupos de noticias, la mayoría de los artículos son respuestas a otros. El conjunto de artículos que puede ser rastreado hasta un artículo inicial se denomina “hilo”. Las últimas versiones muestran los artículos ordenados en hilos y subhilos, para facilitar la búsqueda de discusiones en un grupo de noticias. Existen ocho grandes raíces en la jerarquía de los grupos. Éstas ayudan mucho a la hora de localizar los foros que interesan: Comp: grupos sobre informática y temas relacionados Humanities: grupos sobre humanidades (literatura, historia, arte, etc.). Misc: grupos que no tienen cabida en otras categorías News: grupos dedicados a temas de la propia Usenet Rec: grupos sobre aficiones, entretenimiento, etc. Sci: grupos sobre temas científicos Soc: grupos sobre temas sociales o de interés social Talk: grupos sobre temas polémicos. Es uno de los más numerosos Por ejemplo, el grupo “sci.med.imaging” es un grupo de discusión sobre la adquisición, comunicación y comprensión de las imágenes de tipo médico para un mejor diagnóstico y tratamiento. El “sci.med.dentistry” es un grupo sobre tema de dientes y odontología. El grupo “sci.med.visión” trata temas de la ciencia de la visión, visión humana, corrección visual, etc. Todos estos grupos son grupos Usenet. Para acceder a Usenet es necesario instalar un programa específico o un cliente NNTP, conocido también como lector de noticias o Newsreader, pero están desapareciendo porque Google ofrece la posibilidad de acceder mediante interfaz Web. Mediante esta interfaz accedemos tanto a los grupos Usenet como a los grupos propios de Google. No obstante, los clientes de correo como Outlook Express tienen la capacidad de conectarse con los servidores NNTP y facilitar el acceso a los grupos de discusión2. En la página de Google groups si pulsamo en el enlace “Examina las categorías de grupos”, situado en la parte inferior, nos lleva a otra pantalla donde hallamos otro enlace que dice “Examinar Usenet”. Éste nos lleva a la relación de los grupos Usenet. De todas formas, cuando buscamos en el directorio general sobre un tema, aparecen todos los grupos, y en los que son Usenet, se indica. Cuando hayamos encontrado el grupo que nos interesa, en el ejemplo “sci. med.cardiology”, en el menú de la derecha hallamos enlaces que nos propor-
2 Otros lectores de noticias son: Pan (http://pan.rebelbase.com), disponible para varios sistemas operativos; y Forté Agent (http:// www.forteinc.com/agent) que, en sus últimas versiones también funciona como cliente de correo.
97
Imagen 3. Captura de la pantalla de Google groups en castellano
cionan información “Acerca de este grupo”, si se trata de un grupo Usenet o no, lista de temas antiguos que todavía están activos y la posibilidad de suscribirse “Suscribirse a este grupo”. En la parte principal de la pantalla, vemos una lista de las entradas o mensajes más recientes. En el ejemplo podemos ver “Fish oil can help prevent Alzheimer’s? (¿Puede el aceite de pescado ayudar a prevenir el Alzheimer?), con un encabezado que nos da una idea de su contenido. Si queremos leer el mensaje completo debemos pulsar el enlace “Más…”.
Imagen 4. Captura de pantalla del grupo “sci.med.cardiology” de Usenet, a través de la interfaz de Google Groups.
Si abrimos el mensaje al completo podemos ver quién lo envía y, mediante un enlace, podemos acceder a su perfil. En la parte inferior encontramos 98
otros enlaces que nos permitirán contestar el mensaje, responder al autor o reenviarlo.
RSS (Really Simple Syndication) Uno de los problemas que plantea la abundante información disponible en Internet, que se actualiza con frecuencia, es acceder a ella. Acudir a cada blog o página Web que nos interesa para comprobar las actualizaciones se convierte en una tarea que consume mucho tiempo. Para solucionarlo surge RSS (Really Simple Syndication). Es una de las utilidades básicas de la llamada Web 2.0, de la que nos ocuparemos en otro capítulo. RSS es parte de la familia de los formatos XML (Extensible Markup Language) o metalenguaje desarrollado por el World Wide Web Consortium (W3C). Se diseñó para identificar el origen de los contenidos, facilitar el título y enlace a estos, junto con una breve descripción de todos ellos. Entre los que producen contenidos (blogs, páginas Web, etc.) cada vez son más los que generan un archivo RSS cuando se actualizan, archivo que se ubica en el mismo sitio Web. Esto va a permitir al usuario echar un vistazo a todo lo que le interese con un simple lector de RSS (también llamados agregadores); es lo que se conoce como “leer feeds” Éste le proporcionará la información sin necesidad de acudir a cada una de las páginas fuente. Los lectores o agregadores RSS son capaces también de recuperar contenidos de forma automática por parte de aplicaciones que se encargan de recopilar información sobre un tema determinado o construir mashups que concentran en una sola página los contenidos que proceden de sitios distintos. Como siempre, estos agregadotes pueden ser programas nativos o aplicaciones Web y su funcionamiento es similar a los clientes de correo electrónico nativos o Web. Los primeros descargan los contenidos a nuestro disco duro y los podremos leer off line o sin necesidad de conectarnos, mientras que si utilizamos la interfaz Web, lo haremos on line. Entre las aplicaciones disponibles muchas son gratuitas como Feedreader (http://www.feedreader.com) o Blogbridge (http://www.blogbridge. com). Cuando lo instalamos nos solicita que elijamos un idioma y nos pide que seleccionemos los canales que nos interesen; podemos hacerlo o no. Una vez en ejecución iremos añadiendo las direcciones que nos interesen (Archivo>Nuevo>Canal). Los sitios a los que nos hemos suscrito aparecerán reflejados en la parte izquierda de la ventana de la aplicación. Si seleccionamos una de estas fuentes, en la columna central aparecen las noticias no leídas de la misma. En la columna derecha aparece el contenido de la noticia seleccionada en la columna central o un enlace que nos lleva a la mencionada fuente de origen. La aplicación permite organizar las fuentes por carpetas y otra serie de funciones que el interesado irá descubriendo con el uso del mismo. Una de ellas es que se nos avise mediante un sonido de que ha entrado un nuevo mensaje o noticia. Quizás resulte más sencillo para el usuario suscribirse a fuentes RSS a través de interfaz Web, ya que permiten leerlas desde cualquier ordenador conectado y desde cualquier navegador. Los servicios más usados para este fin son: – Google reader (http://reader.google.es). Se integra perfectamente en otros servicios de Google (gmail, google talk, etc.). Está en castellano y 99
permite operaciones básicas como suscripción, sincronización y lectura. Con el tiempo los desarrolladores de Google añaden otras funcionalidades. Una de las últimas consiste en que en la columna derecha muestra recomendaciones más importantes de blogs que se basa en la lista de los que lees y en tu historial de navegación. Si se quiere visualizar la lista completa hay que pulsar el enlace “Descubrir” que se encuentra junto al de “Añadir suscripción”. Aparece una lista que nos muestra el título del blog que nos puede interesar, un resumen de una línea sobre su contenido, la dirección http y el número de suscriptores con los que cuenta. Otra utilidad es la de arrastrar y soltar suscripciones para moverlas de sitio. En la columna derecha se ofrecen también sugerencias y trucos. En la columna izquierda aparecen nuestras suscripciones y en la del centro se nos ofrecen las principales novedades de nuestras fuentes. Cuando seleccionamos una fuente de la lista, en la columna central aparecen por orden las novedades de la misma por orden de actualización. Podemos leerlas ahí mismo o si pulsamos sobre el enlace, en la página origen. Google reader también permite hacer búsquedas, ordenar las fuentes en carpetas, administrar las suscripciones, etc. Si nos fijamos, en la parte superior de la columna izquierda encontramos un enlace que dice “Patrones”. Si pulsamos obtenemos un patrón de nuestra actividad, que puede sernos de utilidad aparte de conocer los feeds que están inactivos o no se han actualizado. Una de las utilidades a las que no nos hemos referido es la de poder compartir tus fuentes con tu lista de amigos de Gmail o de Google Talk y tú recibir las suyas. Sin embargo, en estas últimas semanas se ha criticado la forma en la que la aplicación lo hace. En principio puede ser una buena idea, pero no se proporcionan al usuario mecanismos de control. En la lista de contactos que se va acumulando en Gmail o Google Talk se añaden, a veces, personas con las que sólo has cruzado algún mensaje y personas con las que no deseas compartir nada. Por un lado, es dudoso que uno pueda agregar direcciones de una persona sin su permiso; por otro, puede que no desees compartir información personal con algunas. En la Web 2.0 el usuario exige control sobre todo aquello que se haga con sus datos. Este hecho ha provocado que algunos hayan abandonado el servicio y que otros hayan borrado
Imagen 5. Captura parcial de la página de Google reader de un usuario.
100
las suscripciones de la carpeta principal y pasarlas a ocultas. El servicio es, de momento, experimental y se espera que Google tenga en cuenta las protestas de los usuarios. – Blogines (http://www.blogines.com). Hasta ahora ha sido el agregador RSS con interfaz Web más utilizado y popular. Muchos de sus usuarios lo han abandonado por Google reader.
Imagen 6. Captura de la pantalla de la página principal de Bloglines
El servicio fue creado por Mark Fletcher3 en 2003 y posterioremente fue vendida a Ask. El funcionamiento es parecido al de otras aplicaciones que hemos visto. Hay que registrarse, añadir las fuentes como noticias, blogs, Flickr, podcasts, etc. Cuando seleccionamos una fuente en la columna izquierda aparecen en la parte principal las entradas más recientes. En la parte superior encontramos un menú que nos indica el número de suscriptores, enlaces a los canales relacionados y un enlace con el que acceder a los parámetros de la suscripción, entre otros. Trucos ¿Podemos pasar todas nuestras suscripciones de un programa a otro? Es útil cuando nuestra lista de fuentes es muy grande y es posible hacerlo gracias a OPML (Outline Processor Markup Language), lenguaje basado en XML. Casi la totalidad de agragedores RSS lo utilizan para exportar e importar la lista de suscripciones. Desde Bloglines, una vez iniciada la sesión y accedido a la lista de fuentes en la solapa “Canales”, clicamos en el enlace “Editar”, que está junto a “Suscripciones” y “Opciones” en la parte superior de la columna izquierda. En la parte inferior, en la sección “Extras” vemos las opciones “Importar suscripciones” y “Exportar suscripciones”. En Google reader esta opción la tenemos en “Settings” o en “Configuración” del menú horizontal superior derecha. En la página que se carga aparece otro menú horizontal donde se encuentra la opción “Importar/Exportar”.
Su página personal es: http:// www.markfletcher.net/
3
101
La World Wide Web
Introducción Decía Azorín que el Renacimiento lo hemos creado nosotros a posteriori; los hombres que vivieron esta etapa no lo sabían. “Hoy convenimos todos en que el Renacimiento era una edad esplendorosa; esos hombres que vivían en el Renacimiento eran dichosos sin saberlo; lo sabemos ahora nosotros en vez de ellos, naturalmente, no pueden ya saber que fueron dichosos en el Renacimiento por el sólo hecho de vivir en el Renacimiento”1. Traigo este breve texto aquí porque quiero destacar el hecho de que nosotros sí sabemos que estamos viviendo cambios importantes en muchos campos. Sin duda alguna, el nacimiento y desarrollo de Internet es uno de ellos, y dentro de éste, la invención de la World Wide Web, es quizás el más destacado. En 1945, en el ambiente de la Segunda Guerra Mundial, al entonces director de la Office of Scientific Research and Development, Vannevar Bush (1890-1974)2, le preocupaban las dificultades para acceder y manejar el creciente volumen de información. “El conjunto de la experiencia humana está creciendo a un ritmo prodigioso, pero los medios que empleamos para desplazarnos por este laberinto... son los mismos que utilizábamos en los tiempos de las carabelas”3. Estimulaba a los científicos a que, tras la guerra, buscaran soluciones para acceder a nuestro “desconcertante almacén de conocimientos”. El problema central era la inadecuada forma de guardar y de clasificar la información. Ya no sólo se refería a los textos escritos sino que incluía, además, las fotografías, las grabaciones sonoras, las películas, la correspondencia, etc. Para ello concibió Memex4 (Memory Expander). Se trataba de un dispositivo que tenía forma de mesa y una pantalla translúcida a modo de interfaz, con un teclado y una serie de palancas. La información se almacenaba en microfilmes y se podía ver en la pantalla. Para buscar algo los usuarios se desplazaban por unidades de información o nodos, creando así “caminos” que podían reutilizarse más veces. Se abría, de esta manera, la posibilidad de una relación asociativa entre “artículos”, conformando un recorrido no lineal ni único, sino que dependía de los intereses del “navegante”, que creaba trayectos más acordes con el funcionamiento asociativo de la mente humana. La forma de trabajar sería parecida a la que realiza el pensamiento humano utilizando la principal capacidad de asociación y no por medio de la ubicación mecánica de temas en un índice. Este complejo aparato no llegó a desarrollarse y Bush no empleó tampoco la palabra “hipertexto”, pero influyó posteriormente en Douglas Engelbart, Ted Nelson y Tim Berners Lee.
Azorín, A. El Renacimiento. ABC, 25 de enero de 1946. También en: Obras completas. Vol. IX, Madrid, Aguilar, s.a., p. 980. 2 Véase su biografía en Wikipedia (http://es.wikipedia.org/wiki/Vannevar_Bush) 3 BUSH, Vannevar, As we may think, Endless Horizons, Washington, D.C., Public Affairs Press, 1946, pp. 16-38. Puede consultarse en línea en http://www.theatlantic. com/doc/194507/bush 4 Véase Wikipedia http:// en.wikipedia.org/wiki/Memex 1
103
Imagen 1. Dibujo de la máquiina Memex ideada por Vannevar Bush (1890-1974),
5 Podemos mencionar al semiólogo Roland Barthes, y a los filósofos Jacques Derrida y Michael Foucould. Este último en su L’archéologie du savoir (1969), señala que “Las fronteras de un libro nunca están claramente definidas”, ya que se encuentra “atrapado en un sistema de referencias a otros libros, otros textos, otras frases: es un nodo dentro de una red... una red de referencias”. 6 Véase el trabajo: Nelson, Theodore Holm. “No More Teacher’s Dirty Looks.” Computer Decisions (1970). Reprinted in Dream Machines, Self-published, 1974. Reprinted in The New Media Reader. Nick Montfort and Noah Wardrup-Fruin, (eds.), Cambridge, massachussets, MIT Press, 2003; también: Literary Machines 90.1, Padova, Muzzio Editore, 1992. 7 El sitio Xanadú se encuentra en esta URL: http://www.aus.xanadu. com/xanadu 8 Nelson, T. Literary Machines: The report on, and of, Project Xanadu concerning word processing, electronic publishing, hypertext, thinkertoys, tomorrow’s intellectual... including knowledge, education and freedom, Sausalito, California, Mindful Press, 1981. 9 Una extensa biografía de Engelbart puede encontrase en esta URL: http://www.laflecha.net/ perfiles/tecnologia/douglas_engelbart/ Existe un interesantísimo vídeo de 95’, segmentado en 35 partes, en formato realvideo, que recoge la presentación pública del “on-line”, del uso del ratón, el uso del hipertexto, la comunicación entre dos puntos lejanos con una interfaz que comparte audio y vídeo, etc. que tuvo lugar en 1968: http://sloan.stanford.edu/ mousesite/1968Demo.html
104
El desarrollo de la idea de Busch continuó en áreas dispares, desde la filosofía5 hasta la informática. En 1965 el sociólogo Theodore Holm Nelson (1937-) fue el primero que acuño el término “hypertext” (texto no lineal) que definió como: “Una escritura no secuencial, un texto que se bifurca y que permite al lector elegir; algo que se disfruta al máximo delante de una pantalla interactiva. El hipertexto incluye como caso particular la escritura secuencial y es, por tanto, la forma más general de escritura. No más limitados por la secuencia única, con un hipertexto podemos crear nuevas formas de escritura que reflejen la estructura de aquello sobre lo que escribimos; y los lectores pueden elegir recorridos diversos según sus actitudes, o sus pensamientos, en un modo hasta ahora considerado imposible”, es decir, “estructura que no se puede imprimir en modo apropiado”6. Concibió el sistema Xanadú7, un sistema de archivo universal, una especie de red mundial de enlaces entre documentos en evolución que incorporaba de forma constante nuevos textos y conexiones: una especie de biblioteca en línea con toda la literatura de la humanidad. La idea surgió tras una visita al Xerox Parc. Pretendía crear un mar de documentos relacionados mediante enlaces hipertextuales, todos disponibles. A esto se unía un sistema de gestión y cobro de derechos de autor, de manera que si alguien utilizaba una obra ajena, la citaba, o la incorporaba a una suya, el sistema se encargaría de rastrear la reutilización, cobrar por ella, y hacer llegar al propietario la cantidad correspondiente. Esta idea la publicó en su libro Literary Machines8 a principios de los años ochenta del siglo XX. También en la década de los años sesenta del siglo XX, Douglas Engelbart9 (1925), que trabajaba en el Stanford Research Institute, desarrolló el primer sistema digital de producción colectiva basado en la idea de hipertexto. Su proyecto Augment (Augmented Human Intellect) permitía a un grupo de trabajadores compartir información dentro de una red de ordenadores. Muchos de los que trabajaron con él coincidieron en la década siguiente en el mítico laboratorio de Rank Xerox (Palo Alto), donde se crearon los primeros ordenadores con una “interfaz amigable” o interfaz gráfica de usuario. Muchas de las ideas y dispositivos ideados por Engelbart y su grupo han acabado convertidos en elementos que forman parte de los ordenadores que hoy utilizamos. El ejemplo más palmario es el del ratón, que se presentó el 9 de
diciembre de 1968 y fue registrado con el nombre X-Y Position Indicador for a Display System. Parte del proyecto Augment fue el sistema NLS (online System), un entorno de trabajo para ordenadores con un sistema de almacenamiento de publicaciones con catálogos e índices para facilitar su búsqueda, y con una serie de reglas para citar documentos y acceder a ellos. Había un ordenador con su teclado, ratón, pantalla e impresora, con la posibilidad de establecer teleconferencia e intercambiar correo electrónico a través de una red para lograr una comunicación rápida entre científicos o profesionales. El sistema NLS puede considerarse como el primer sistema de hipertexto operativo, aunque fue concebido con el objetivo de cubrir las necesidades de cualquier trabajo de investigación. Había una organización jerárquica de los nodos, permitía establecer enlaces entre diferentes niveles de archivos y enlazar texto e imágenes. Se trabajaba con objetos y ventanas. El sistema fue comercializado después por McDonnell-Douglas. En 1967 Andries Van Dam10 (1938-), investigador de la Brown University, desarrolló HES o el Hypertext Editing System (HES). Creado con el apoyo técnico y financiero de IBM, el HES se montó sobre un ordenador IBM/360 con 128 K de memoria. Al término de su etapa como proyecto de investigación, IBM lo vendió a la NASA y el HES fue utilizado como sistema de almacenamiento de la documentación de las misiones Apolo. En los años ochenta del siglo pasado ya se comercializaban varios sistemas de gestión de hipertextos a los que se conoce como sistemas “preWeb”. Sin embargo, el que llegó a ser muy popular fue el que Apple regalaba con la compra de sus ordenadores macintosh: Hypercard. Utilizaba el lenguaje Hypertalk, desarrollado por Dan Winkler para Bill Atkinson, el creador del HyperCard. Estaba orientado a la creación de aplicaciones conforme al sistema de “hiperarchivos” (sistemas de fichas interrelacionadas donde se facilita el “navegar” de un archivo a otro). HyperTalk era un buen ejemplo de lenguaje orientado a objetos. Un programa ya no era una secuencia de instrucciones sino un conjunto de objetos agrupados en conjuntos, definidos mediante atributos y a los cuales podían asociarse instrucciones. Los que utilizamos HyperCard, encontrábamos archivos (“stacks” o “pilas”) que agrupaban fichas (“cards”). Cada “card” contenía campos de datos y botones. Todos eran “objetos” que, aunque mantenían entre sí una relación jerárquica, tenían asociados paquetes de instrucciones (“scripts”) independientes unos de otros. Cada objeto pertenecía a un conjunto (como fichas o botones) que tenía “atributos” propios comunes a todos sus miembros, y cada atributo tenía un valor común o específico para cada caso. Para dar o buscar dicho valor intervenían “facetas” que eran instrucciones o procedimientos asociados. La potencia de HyperCard podía aumentarse significativamente mediante el uso de módulos de comandos y funciones externos, más comúnmente conocidos como XCMDs (external commands) y XFCNs (external functions), lo que se supone como un primitivo ejemplo de plugin. Hypercard se utilizó para elaborar todo tipo de hipertextos, por ejemplo, para la enseñanza, y también con fines artísticos. Antes de que apareciera Power Point se utilizaba como una aplicación de presentaciones. Después de que saliera una versión 3.0, el desarrollo de Hypercard fue abandonado en
Véase su página Web personal: http://www.cs.brown.edu/~avd/ [Consultado el 14 de diciembre de 2007].
10
105
2001. Dejó de venderse en 2004. Hay que reconocer que tras la aparición del World Wide Web, Hypercard perdió popularidad. Miles de científicos informáticos vivieron durante dos décadas el hipertexto y la red, pero sólo Tim Wenders supo unir ambos elementos. Utilizó su estructura para dar origen a un proyecto que fue el origen de lo que hoy conocemos como World Wide Web. Cuando Lee comenzó a trabajar en este tema, según dice, llegó a “una visión que abarcaba el crecimiento de ideas, tecnología y sociedad, orgánico y descentralizado. La visión del Web que tuve fue la de cualquier cosa potencialmente conectada a cualquier cosa. Es una visión que nos proporciona una nueva libertad y nos permite crecer más rápidamente de lo que nunca pudimos crecer cuando estábamos encadenados por los sistemas de clasificación jerárquica a los que nos aferramos”11. Cuenta Lee que, acompañado de otros muchos colegas, llegó al World Wide Web relacionando datos, documentos, conversaciones, es decir, lo que es vida cotidiana para los científicos. No hubo ningún ¡Eureka! o idea brillante. No fue la resolución lineal de un problema bien definido desde el principio. Lee venía investigando desde hacía tiempo algún sistema de difusión de la información de forma descentralizada que se basara en el hipertexto12. Quería tener acceso a diferentes clases de información, como los informes técnicos de un investigador, manuales para diferentes módulos de software, resúmenes de reuniones, notas manuscritas, etc. En vez de responder preguntas sobre él y su trabajo a varias personas, era preferible que éstas pudieran acceder a sus bases de datos para buscar esa información. A finales de la década de los ochenta, en lo que conocemos como CERN (Centre Européen de Recherche Nucléaire) se realizaron pruebas para crear un sistema de comunicación entre los científicos de física de todo el mundo. Se estandarizaron los protocolos de conexión, lo que ya hemos visto como TCP/IP. Lee, que era colaborador del centro, propuso utilizar un sistema basado en el hipertexto para lograr esa comunicación o flujo de información entre los científicos. Esto sucedía en 1989. También por esas fechas en el CERN se disponían a comprar un nuevo ordenador personal (el NeXT) que acababa de poner en marcha Steve Jobs, fundador de Apple, que aportó el primer sistema intuitivo de señalar y clicar con el ratón y una organización de la información en carpetas. Imagen 2. Ordenador NeXT. Imagen de Wikipedia con licencia GNU
Lee, T.B. (2000), p. 1. Campàs, J., El hipertexto, Barcelona, UOC, 2007.
11
12
106
En noviembre de 1990 puso en marcha el sistema que denominó Enquire (Enquire Within upon Everything o Pregunte sobre cualquier cosa en el interior). Era el título de un libro que era como una puerta abierta a un mundo de información acerca de todo, desde cómo quitar manchas de la ropa hasta consejos para invertir dinero. Enquire permitía almacenar partículas de información y vincular objetos relacionados de cualquier forma posible. Para encontrar información, se avanzaba por medio de los vínculos de una hoja a otra. Según Lee era semejante a la aplicación Hypercard pero, aunque carecía de gráficos, funcionaba en un sistema multiusuario y permitía que mucha gente accediese a los mismos datos. Lee rebuscó en los archivos que definían los funcionamientos internos de un editor de textos y encontró un fragmento de memoria libre de treinta y dos bits. Este espacio podía ser usado como puntero desde cada selección de texto hasta la dirección para cualquier vínculo de hipertexto. Lee pudo escribir el código para el Protocolo de Transferencia de Hipertexto (Hypertext Transfer Protocol) o HTTP, o lenguaje que utilizarían los ordenadores para comunicarse por Internet y el identificador de Recursos Universal (Universal Resource Identifier) (URI), un esquema para direcciones de documentos. A finales de 1990 Lee ya tenía un programa cliente –un navegador y editor de señalar y clicar– al que después de varios nombres llamó World Wide Web. Funcionaba con el lenguaje HTML o Hypertext Markup Language, que describe cómo debían formatearse las páginas que contenían vínculos de hipertexto. El navegador decodificaría los URIs y permitiría leer, escribir o editar páginas Web en HTML. Podría navegar usando http, aunque también podría guardar documentos sólo en el propio ordenador, no en Internet. Lee también escribió el primer servidor Web, es decir, el software que contiene páginas Web en una parte de un ordenador y permite a otros acceder a ellas. Sin embargo, todo funcionaba sobre ordenadores NeXT y el servidor http todavía era muy tosco. Una idea le quedó clara a Lee: tenía que convencer a la gente de que si algo estaba en la Web, cualquiera podría tener acceso a ello.
Imagen 3. Captura de pantalla de una representación gráfica del sitio web historiadelamedicina.org, donde se aprecian algunas páginas del sitio (globos) y la maraña de enlaces (red) con otras páginas del sitio o externas al mismo.
107
El sistema funcionaba en el CERN, pero Lee seguía empeñado en crear un sistema global. Siguió trabajando en un navegador que sólo valía la pena desarrollar en su función de leer páginas Web y renunciar a editarlas para que cualquier sistema operativo lo pudiera utilizar. Montaron el servidor en el ordenador central del CERN y todos lo utilizaron muy pronto para buscar algo tan simple como los números de teléfono.
Los navegadores o browsers Uno de los primeros navegadores gráficos de la historia fue desarrollado en la Universidad de California por el estudiante Pei-Yuan Wei13 en 1992. Su funcionalidad se restringía a entornos X-Windows y sólo soportaba gráficos bitmap en blanco y negro. Sin embargo, incluía otras funcionalidades que otros navegadores tardaron en incorporar. Le siguió Mosaic, navegador gráfico creado en el National Center for Supercomputing Applications (NCSA) por Marc Andreessen (1971-) y Eric J. Bina (1964-) en enero de 1993. La primera versión funcionaba sobre sistemas UNIX pero, dado su éxito rápido, se crearon versiones para Windows y Macintosh. Permitía el acceso a los servicios Web mediante HTTP en su versión más primitiva, tal como la concibió Lee, pero además también permitía acceder a los servicios Gopher, FTP y Usenet News. La última versión para Windows (la 3.0), salió en 1996 y al año siguiente se abandonó su desarrollo. Aceptaba plugins y lo que se llamaban “helpers”, para extender sus capacidades. Los siguientes navegadores, Netscape y Explorer, se basaron en éste.
Imagen 4. Captura de pantalla antigua de la interfaz del navegador Mosaic.
Véase su página de la Universidad: http://www.xcf.berkeley. edu/~wei/ [Consultado el 14 de diciembre de 2007].
13
108
El primer navegador comercial fue, sin embargo, Netscape. La compañía Netscape Communications fue creada por Marc Andreessen, uno de los autores de Mosaic. Desde la versión 1.0 alineaba texto y colocaba también
fondos y tablas. Afirmó el concepto de navegación “point and clic” (apuntar y hacer clic). Daba acceso a texto formateado, gráficos, audio y también vídeo. Netscape en su versión 2 añadió javascript que al principio sólo se usó para la validación de formularios. También admitía frames o marcos y el manejo de bookmarks o marcadores para guardar las URLs de las páginas que interesaban. Después incluyó correo electrónico (Communicator) y en su versión 3, un editor de páginas Web. Netscape fue muy criticado por los partidarios de los estándares, ya que introdujo gran cantidad de extensiones propietarias sin respetar las recomendaciones del World Wide Web Consortium. La compatibilidad comenzaba a resentirse. En su versión 4 introdujo las hojas de estilo en cascada y el HTML dinámico14 entre otras novedades. Los creadores de páginas se veían en la obligación de crear una página para cada versión del navegador, porque si no se corría el peligro de que el usuario no pudiese ver bien los contenidos. En 1998 liberó la mayoría de códigos del navegador, aunque ya le estaba ganando terreno Explorer. Este año (2007) Netscape ha dejado de existir. Una cosa se le puede atribuir a este browser: Kevin Kelly, fundador de la revista Wired, asegura que éste puso Internet en la calle, lo sacó del circuito universitario y estrictamente tecnológico, y lo llevó a las casas y oficinas de los ciudadanos de a pié. Introdujo un par de novedades de gran efecto: cargaba las páginas de forma progresiva (no había que esperar a que todo estuviera cargado, como antes) y se podía bajar de su servidor de forma gratuita para que cada uno lo instalara en su ordenador. En 1995 nacía Internet Explorer para Windows 95. Para Windows NT apareció Internet Explorer 1.5, que ya soportaba tablas. En noviembre de ese año salió la versión 2, que servía para los dos sistemas y añadía alguna que otra novedad. Un año después salía la versión para Macintosh. La versión 3 incluía nuevas características, como el soporte para hojas de estilo (CSS), Internet Mail and News 1.0 y Windows Adress Book, ActiveX, frames, y JScript (versión propia de Javascript). Por otro lado, Microsoft NetMeeting y Windows Media Player fueron integrados con el navegador Web. A finales de septiembre de 1997 salió Internet Explorer 4 con la última versión Beta de Windows 98 y se integró todavía más dentro del propio sistema operativo. La nueva opción “Active Desktop” de Windows 98 permitía mostrar contenido Web en el escritorio directamente. También se añadió una tecnología llamada “Active Channel“, que permitía recibir actualizaciones de sitios basado en el estándar XML llamado CDF (Channel Definition Format), que fue el predecesor de los sistemas de distribución de contenidos como RSS. Soportaba también HTML dinámico o DHTML. Otro avance fue la inclusión del programa de correo Outlook Express 4.0 con el propio navegador desplazando al anterior Internet Mail and News. La integración mencionada le ha costado a Microsoft varias denuncias y juicios antimonopolio. Internet Explorer 5 fue presentado en marzo de 1999 en plena batalla de navegadores. Un año después apareció la versión 5.5. La 6 apareció a la vez que su nuevo sistema Windows XP (2001). Transcurrieron seis años para que Microsoft pasara de la versión 6 a la 7 (2006) y dejó de lanzar versiones para los ordenadores Macintosh en 2005. Bill Gates había ganado la batalla de los navegadores en 2001 gracias, sobre todo, a que lo había integrado en el sistema operativo, el más utilizado en el mundo.
14 Conjunto de técnicas que permiten crear sitios Web interactivos utilizando una combinación de lenguaje HTML estático, un lenguaje interpretado en el lado del cliente (como JavaScript), el lenguaje de hojas de estilo en cascada (CSS) y la jerarquía de objetos de un DOM.
109
El único navegador que le ha comido terreno a Explorer en los últimos años es Firefox. Nació en 2002 con el nombre de Phoenix, que cambió luego a Mozilla Firebird (abril de 2003) y en febrero de 2004 fue rebautizado como Firefox. Surgió en el seno del proyecto Mozilla cuando Netscape liberó el código de su Netscape Navigator. El proyecto atrajo de inmediato a la comunidad de usuarios de software libre que decidieron reescribir el navegador desde cero. Para ello adoptaron un nuevo conjunto de herramientas multiplataforma (que pueden funcionar en diferentes sistemas operativos, tales como Windows, Mac OS X o Linux, entre otros) basado en un lenguaje de programación tan plástico y manejable como es XML. Al nuevo lenguaje que resultó se le llamó XUL. Uno de los atractivos de Firefox es que admite extensiones de lo más diverso y que pueden llegar a ser muy útiles para diseñadores, programadores, etc. El 29 de noviembre de 2005 se publicó la versión 1.5 que incluía numerosas mejoras como la compatibilidad con los nuevos estándares SVG, CSS 2, CSS 3 y JavaScript 1.6; actualizaciones de software progresivas; reordenamiento de pestañas usando arrastrar y soltar; mayor seguridad y también mejor “usabilidad”. El 24 de octubre de 2006 apareció la versión 2.0, que también incluía muchas novedades como sistema antiphishing, restauración automática de la sesión de navegación del usuario en caso de fallo del sistema, lector de feeds, y corrector ortográfico, entre otras. Una de las extensiones que lo hace más útil es la de Google Browser Sync, que sincroniza continuamente los ajustes del browser, incluyendo marcadores, historial, cookies persistentes y contraseñas, entre los ordenadores que el usuario utiliza habitualmente. En todos deberá tener Firefox y la extensión instalada. En estos momentos se puede bajar ya la versión 3 del navegador en fase beta. Los diseñadores de páginas Web, propietarios de blogs, programadores y, en general, los que navegan muchas horas por Internet, son los principales usuarios y defensores de Firefox.
Imagen 5. Gráfica que procede de Wikipedia y que muestra la evolución de uso de algunos navegadores en el tiempo.
110
Safari es el estándar de navegación de los ordenadores Apple. Se presentó en el Macworld del 2003 y supuso la ruptura total con Microsoft, quien todavía desarrollaba Internet Explorer para Apple. La versión 1.0 salió en junio de 2003 y la 1.1 en octubre del mismo año; fue la primera versión de Safari que se convirtió en navegador predeterminado para Mac OS X. El 29 de abril de 2005 salió la versión 2.0 y el 31 de octubre de ese año se actualizó de forma que el navegador pasaba las pruebas de los estándares. En 2007 ha salido la versión 3. También se han incluido versiones de Safari para los dispositivos Ipod Touch e Iphone.
Funcionamiento de los navegadores web Lo que conocemos como World Wide Web o Web o WWW significa “red” o “telaraña global” y funciona según el modelo cliente/servidor. En el ordenador del cliente se ejecuta el explorador o navegador (Explorer, Firefox, Safari, etc.) que se pone en contacto con un servidor Web y solicita información o los recursos. El servidor localiza la información y la envía al navegador, que muestra los resultados. Los navegadores solicitan que se les envíen páginas creadas con el lenguaje de marcado de hipertexto (HTML). Cuando les llegan interpretan este lenguaje y muestran las páginas al usuario. También son capaces de interpretar contenidos realizados con Java, Javascript, ActiveX, AJAX o animaciones flash, entre otras. Algunas veces, para que podamos ver estos contenidos, hace falta que el navegador tenga instalados plugins (del inglés plug-in o enchufar). Éste abre aplicaciones, como el lector de pdfs, o permite que escuchemos un sonido o nos posibilita ver una película flash. Algunos vienen instalados por defecto. En ocasiones, cuando el navegador no puede mostrar algo, se lo indica al usuario y le señala qué plugin necesita y de dónde descargarlo. Si uno sigue las instrucciones estos se instalan sin problemas. Con el tiempo, los navegadores se han hecho más sofisticados y pueden hacer casi cualquier cosa. El código de los archivos HTML indican al navegador cómo debe mostrar el texto, los vínculos, los gráficos, el sonido, etc. El lenguaje de marcado es sencillo y las distintas etiquetas que se utilizan suelen estar incrustadas dentro de los documentos. Si queremos verlo, simplemente vamos al menú de nuestro navegador y buscamos “Mostrar código fuente”. En Firefox, por ejemplo, está en “Ver>Código fuente de la página” o bien pulsamos a la vez las teclas control y “u” (ctrl.+U). Se abre una ventana con el código HTML. Todo documento HTML está dividido en dos partes: a) encabezamiento, comprendido entre las etiquetas <head> y </head> b) el cuerpo, comprendido entre las etiquetas <body> y </body> Dentro del encabezamiento encontramos información del documento que no se ve en la pantalla principal, aunque el título aparece en la barra superior de la ventana del navegador. Dentro del cuerpo se encuentra todo aquello que describe la información que aparece en pantalla. Veamos un ejemplo del uso de estas y de otras etiquetas: <html>: define el inicio del documento HTML, le indica al navegador que lo que viene a continuación debe ser interpretado como código HTML. 111
<head>: define la cabecera del documento HTML. Suele contener información sobre el documento que no se muestra directamente al usuario como, por ejemplo, el título de la ventana del navegador. <title>: define el título de la página. Por lo general, el título aparece en la barra de título encima de la ventana. </head>: Cierre de la cabecera <body>: define el contenido principal o cuerpo del documento. Ésta es la parte del documento html que se muestra en el navegador. <h1>, <h2>, <h3>, <h4>, <h5>, <h6>: se trata de encabezados o títulos del documento con diferente relevancia. <a>: Hipervínculo o enlace, dentro o fuera del sitio Web. Debe definirse el parámetro de pasada por medio del atributo href. Por ejemplo: <a href=”http://www.uriach.com/”>Grupo Uriach</a> <img>: etiqueta imagen. Requiere del atributo src, que indica la ruta en la que se encuentra la imagen. Por ejemplo: <img src=”./imagenes/logo.jpg” /> <li><ol><ul>: Etiquetas para listas. </body> : Etiqueta de cierre del cuerpo </html>: Etiqueta de cierre de la página Podemos decir que todo en HTML se resume en texto escrito entre etiquetas que delimitan el principio y final sobre el que se aplica su significado. Algunas etiquetas aceptan atributos, por lo que no resulta nada extraño encontrar texto escrito entre varias etiquetas diferentes. Dentro del HTML lo más importante es, quizás, el enlace o el enlace de hipertexto; es lo que nos permite “navegar” dentro de una misma página, de otra página del mismo sitio Web o de otra página de otro sitio Web diferente. Los enlaces aparecen resaltados de alguna manera: color, tipo de letra, o cualquier otro que se arbitre. Al pasar el puntero por encima cambia su forma y si clicamos saltamos a otra página. Los enlaces no sólo sirven para enlazar páginas sino que su destino puede ser también una imagen, un sonido, una película, etc. Como hemos visto, las etiquetas <a> y </a> son las responsables de que se ejecuten los enlaces, de manera que el contenido entre etiquetas será el enganche o ancla que se activará para que el hipertexto actúe llevándonos al destino especificado. Así, un enlace sobre la palabra “Grupo Uriach”, que en código sería así: <a href=”http://www.uriach.com/”>Grupo Uriach </a>, al pulsar el enlace nos llevaría a la página indicada del Grupo Uriach. Los enlaces pueden ser: (a) dentro de una misma página, llevan de un punto a otro cuando las páginas son muy largas; (b) enlaces a otra página, que puede estar en el mismo servidor o no; (c) enlaces con destinos de otro protocolo, permitiendo escribir un correo o bajar algún documento a aplicación; (d) enlace con el servidor de ftp o con el servicio de noticias. Con el tiempo, como ya hemos dicho, se llegó a un descontrol absoluto en lo que se refiere al HTML. En algunos navegadores se añadieron etiquetas que sólo podían leerlas ellos. Lo que se veía bien con un navegador no se mostraba correctamente en otro. Los diseñadores tenían que hacer una versión de sus páginas para cada navegador e incluso para cada versión de un mismo navegador. Esto hizo que muchos abogaran por la estandarización y la normalización. Se trataba simplemente de seguir las normas del Consorcio World Wide Web (W3C), que dirige Tim Berners-Lee. Su misión es crear 112
estándares. Como ellos dicen: “[tratan] de guiar la Web hacia su máximo potencial a través del desarrollo de protocolos y pautas que aseguren el crecimiento futuro de la Web”. Este objetivo lo alcanzan a través de la creación de Estándares Web y Pautas. Desde 1994 el W3C ha publicado más de noventa estándares, denominados “Recomendaciones del W3C”. El W3C también está involucrado en tareas de educación y difusión, y en el desarrollo de software, sirviendo a su vez como foro abierto de discusión sobre la Web. Después de haber alcanzado la versión HTML 4.0, surgió un nuevo lenguaje: el XHTML, que se basa en el XML. XML proviene de un lenguaje que inventó IBM en los años setenta, llamado GML (Generalized Markup Language), que surgió por la necesidad que tenía la empresa de almacenar grandes cantidades de información. XML no es realmente un lenguaje en particular, sino una manera de definir lenguajes para diferentes necesidades. Algunos de estos lenguajes que usan XML para su definición son, aparte del XHTML, el SVG y el MathML. XML no nació sólo para su aplicación en Internet, sino que se propuso como un estándar para el intercambio de información estructurada entre diferentes plataformas. Puede usarse en bases de datos, editores de texto, hojas de cálculo y casi cualquier cosa que uno pueda imaginar. XHTML es la versión XML de HTML, por lo que tiene, básicamente, las mismas funcionalidades, pero cumple las especificaciones, más estrictas, de XML. Su objetivo es avanzar en el proyecto del World Wide Web Consortium de lograr una Web semántica, donde la información, y la forma de presentarla estén claramente separadas. Cuando vemos el código fuente de una página podemos ver el tipo de XHTML que utiliza. Por ejemplo: <!DOCTYPE html PUBLIC “-//W3C//DTD XHTML 1.0 Transitional//EN” “http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd”> Usa el XHTML 1.0 Transicional. <!DOCTYPE html PUBLIC “-//W3C//DTD XHTML 1.0 Strict//EN” “http:// www.w3.org/TR/2002/REC-xhtml1-20020801/DTD/xhtml1-strict.dtd”> Usa el XHTML 1.0 estricto. Con el uso de XHTML se pretende separar la estructura de un documento de su presentación. Esta última se especifica mediante CSS u hojas de estilo en cascada (Cascading Style Sheets). Se trata de un lenguaje formal usado para definir la presentación de un documento estructurado escrito en HTML o XML (y, por extensión, en XHTML). El W3C se encarga de formular la especificación de las hojas de estilo que servirá de estándar para los navegadores. El uso de CSS tiene muchas ventajas. Entre éstas la posibilidad de cambiar muchas páginas Web de aspecto con sólo cambiar el archivo CSS. Permite mejorar el uso y la accesibilidad. Pueden hacerse varios archivos CSS y los mismos contenidos se adaptan según cada CSS a otro dispositivo de lectura, como un móvil. El documento HTML es más ligero (se carga antes) y resulta mucho más claro y comprensible. En estos momentos se dispone de varias versiones: 113
CSS1 (lo implementan todos los navegadores), CSS2 y CSS3. Algunos navegadores no siguen los estándares, lo que hace que los estilos se muestren en cada navegador con pequeñas diferencias. Los diseñadores tienen trucos y fórmulas para que sus páginas se muestren bien en todos los navegadores. Los estilos se pueden incluir dentro de cada página Web, pero es preferible vincular desde la cabecera de la página Web el estilo a un archivo css externo, de esta manera: <link href=”estilo.css” rel=”stylesheet”/> Esto quiere decir que el navegador muestra el contenido según las indicaciones del archivo externo llamado “estilo.css”, que forma parte de los archivos del sitio Web. Una página CSS tiene esta forma: body, html { margin : 0; padding : 0; background : url(../imagenes/bg_pg_azul.gif); } body { min-width : 750px; } #wrap { background : transparent url(../imagenes/wrapinner.gif) repeat-y; margin : 0 auto; width : 750px; } #header { background : #000080; color : #270478; width: 738px; border-right-width: 3px; border-right-style: solid; border-right-color: #FFFFFF; } #header h1 { padding : 5px; margin : 0; } Cuando se elabora una página HTML o un archivo CSS hay validadores en red del W3C que nos advierten de los errores y nos ayudan a corregirlos15.
Las interfaces 15 Véase http://validator. w3.org/#validate-by-upload [Consultado el 14 de diciembre de 2007].
114
Nosotros nos entendemos, comunicamos e interactuamos con el ordenador mediante lo que se llama una interfaz gráfica de usuario. Se puede decir que las personas llevan muchos años diseñando interfaces para entenderse con
las máquinas, mucho antes de que aparecieran los ordenadores. El Diccionario de la Real Academia define el término como “una conexión física y funcional entre dos aparatos o sistemas independientes”. Generalizando esta definición, dados dos sistemas cualesquiera que se deben comunicar entre ellos, la interfaz será el mecanismo, entorno o herramienta que hace posible dicha comunicación. Cuando uno de los sistemas que se comunican es un ser humano pasamos al concepto de interfaz de usuario. La interfaz gráfica de usuario utiliza un conjunto de imágenes y objetos gráficos para representar la información y las acciones que están disponibles. Surgió de la necesidad de hacer los ordenadores más accesibles y amigables. El origen habría que situarlo en el Stanford Research Institute donde Douglas Engelbart lideraba un conjunto de investigadores que desarrollaron una interfaz de hiperenlaces en modo texto que se gobernaba mediante un ratón, que también crearon. Los investigadores de Xerox Parc de Estados Unidos ampliaron y trasladaron la idea al entorno gráfico. Ellos definieron los conceptos de ventana, checkbox, botones de radio, menú, puntero del mouse o ratón, etc. El primer ordenador personal que utilizó la metáfora del escritorio y una interfaz gráfica de usuario fue Xerox Alto. Se perfeccionó en el Xerox Star 8010, introducido en 1981. En los años ochenta también se desarrollaron entornos gráficos para un ordenador que fue muy popular: el Commodore 64 y su sucesor, el Commodore 128.
Imagen 6. Ordenador Xerox Alto. Imagen de Wikipedia con licencia CC.
115
El desarrollo de técnicas de manipulación directa llevadas a cabo en Xerox se basaba en las teorías de los psicólogos Jean Piaget y Jerome Bruner de los años cincuenta y sesenta del siglo XX. Según estas teorías, nuestro conocimiento del mundo se relaciona con la percepción visual y con la experiencia táctil de manipular objetos del entorno. Para Bruner el conocimiento se desarrolla mediante tres tipos de habilidades: (a) representacionales (manipulación de objetos y reconocimiento de la situación propia en el espacio); (b) icónicas (reconocimiento visual y comparación); y (c) simbólicas (comprensión de secuencias de razonamiento abstracto). Para manipular los objetos en pantalla idearon un cursor que se controlaba por los movimientos de un nuevo dispositivo: el ratón. Un diseñador gráfico preparó una serie de iconos para representar visualmente los componentes y las operaciones del sistema de manera comprensible. Se basó para ello en las analogías con el mundo real. Se trata de la metáfora del escritorio, como si el usuario estuviera manejando documentos reales en un entorno real (documentos, carpetas, papelera, etc.).
Imagen 7. Ordenador Apple Lisa. Imagen procedente de Wikipedia, con licencia GNU.
Tras una visita a Xerox Parc en 1979, el equipo Apple diseñó un entorno gráfico para su nueva generación de ordenadores de 16 bits. El primero que lo integró fue Apple Lisa en 1983. En 1984 vio la luz otro ordenador con un entorno gráfico muy fácil de manejar: el Apple Macintosh. Apple logró acercar los ordenadores a los usuarios sin que estos supieran “qué pasaba dentro de la máquina”. De hecho, los sistemas sobre los que funcionaban las interfaces gráficas iban sufriendo complejos cambios de unas versiones a otras sin que el usuario percibiera prácticamente ningún cambio. En 1985 Microsoft sacó al mercado Windows 1.0, entorno gráfico para ordenadores PC IBM, compatibles con un parecido asombroso con el Mac OS. Esto supuso la interposición de una demanda por parte de Apple. Sin embargo, la aparición de 116
ordenadores clónicos IBM fue popularizando el sistema con gran rapidez por todo el mundo hasta convertirse en el líder mundial. Apple perdió mercado y no comenzó a recuperarse hasta 1990 con el lanzamiento de nuevos productos. Recientemente, Apple ha dado pasos de gigante con el Ipod y otros nuevos productos como el Iphone.
Imagen 8. Interfaz gráfica del sistema operativo Windows 1.01
Imagen 9. Interfaz gráfica del sistema operativo Apple Macintosh 7.5.3.
Una interfaz bien diseñada es consistente y predecible para todos los elementos del sistema, y provoca una suspensión de la incredulidad en el usuario, que manipula las representaciones de pantalla como si fueran objetos reales. El diseño de interfaces debe respetar una serie de reglas: consistencia (respetar unas normas a lo largo de toda la aplicación); proporcionar a los usuarios frecuentes la posibilidad de atajos (por ejemplo, mediante la combinación de teclado); ofrecer un retorno de la información constante, es decir, que el 117
sistema responda a cualquier acción del usuario; diseñar las secuencias de acción en grupos que contengan un inicio, un desarrollo y un final; prevenir errores y ofrecer ayuda sobre errores sencillos; permitir que los usuarios puedan deshacer de forma fácil las acciones; poner el control de la interacción en manos del usuario; y mínima implicación de la memoria a corto plazo, mediante, por ejemplo, la utilización de menús desplegables o de iconos. Esta serie de principios y reglas proceden de Ben Shneiderman (1947-), profesor del Departamento de Ciencias Computacionales de la Universidad de Maryland, donde fundó el laboratorio de interacción Hombre-Ordenador16. A estas reglas algunos autores, como Donald Norman (1935-), añaden otras17. Norman es profesor emérito de ciencia cognitiva en la Universidad de California, San Diego. Sus primeros libros hablan de la usabilidad o la psicología cognitiva. Como se puede apreciar, se trata de un tema complejo que requiere la intervención de especialistas en varias disciplinas. Hemos introducido el tema de las interfaces para referirnos a las que se encuentran en las páginas Web. Todos experimentamos sensaciones distintas ante determinadas páginas: desorden, dificultades para encontrar algo, demasiados objetos en movimiento, exceso de color, excesivo tiempo de carga, etc. Por el contrario, en otras nos encontramos a gusto, nos resulta fácil navegar, leemos sin dificultades, etc. Esto demuestra que el diseño de las interfaces de los sitios Web es muy importante e intervienen una serie de determinantes particulares, distintos al diseño de interfaces para aplicaciones o sistemas operativos. Entre estos el hecho de que el canal de distribución (Internet) establece límites técnicos relacionados con los tiempos de descarga de la información, a la vez que universaliza el ámbito de difusión; las páginas pueden ser consultadas por cualquier persona en cualquier parte del mundo. Por otra parte, las páginas Web pueden no respetar los formatos de pantalla. Las páginas Web supusieron la aparición de unas interfaces con una serie de elementos comunes de presentación y navegación que pronto se convirtieron en estándares. Estas interfaces deben servir de intermediarias entre los usuarios de tipo genérico, no acostumbrados al uso de aplicaciones informáticas, y un conjunto de sistemas de información y de procesos transaccionales que corren por debajo. Deben facilitar y posibilitar la localización de la información que se busca o desea, las funcionalidades que se ofrecen, la realización práctica de tareas específicas por parte de los usuarios, así como una navegación intuitiva por las diferentes páginas que integran un sitio Web.
Véase su obra Shneiderman, B.: Software Psychology: Human Factors in Computer and Information Systems; Little, Winthrop Pub., 1980. Véase también su página Web: http://www.cs.umd. edu/~ben/ [Consultado el 14 de diciembre de 2007]. 17 Véase el trabajo: Hutchins, E.L.; Hollan, J.D.; Normal, D.A. Direct Manipulation Interfaces. HumanComputer Interaction, 1985; 1: 311-338. Véase su página personal: http://www.jnd.org/ 16
118
¿Cuáles son los principales elementos de una interfaz Web? 1.- Dintel o parte superior. En esta zona se sitúa el elemento identificador del sitio. Suele contener un logo, alguna imagen y un texto breve que completa la identificación. En esta zona se coloca, a veces, el miniformulario para entrar en el sitio, si es el caso (login o nombre de usuario y palabra clave). En el caso de las páginas no principales, indica el lugar en el que se encuentra el visitante. El dintel suele ser un elemento que proporciona personalidad.
2.- Menús de navegación. Permiten navegar por el sitio Web. Están formados por opciones textuales, gráficas o mixtas. Es frecuente utilizar efectos dinámicos para acentuar el carácter interactivo de las mismas. Una de las más conocidas es el efecto rollover: cambio de aspecto al pasar el puntero del ratón por encima. Los menús pueden ser verticales, situados en la parte izquierda y también en la parte derecha de una página, o bien horizontales, bajo el dintel y en el pie de la página. Muchas veces encontramos los dos tipos de menús en una página. Los menús horizontales superiores adoptan muchas veces la forma de pestañas, que simula el aspecto de un archivador de carpetas real. 3.- Cuerpo de la página. Espacio donde visualiza la información principal de una página. Ocupa la mayor parte de la página y la más destacada. 4.- El pie de la página. Se trata de un elemento opcional, que se sitúa en la parte inferior de la página. Suele contener información muy concreta. A veces contiene un menú, en el caso de que la página sea vertical, extensa y sea necesario utilizar las barras de desplazamiento. También contiene información sobre la empresa propietaria o la institución propietaria de la página (nombre, datos de contacto, etc.). Los que diseñen páginas tienen que tener en cuenta los siguientes elementos18: a) Uno de los principales problemas es perder el sentido de orientación dentro de la organización de un sitio Web. Se pueden usar gráficos, iconos, índices, diagramas, etc. que den consistencia al sitio y que garanticen al usuario la seguridad de que encontrará lo que busca en poco tiempo. También se le debe ofrecer la posibilidad de volver siempre a la página principal o a páginas destacadas. b) Evitar páginas que sean un callejón sin salida. Nos referimos a las páginas que carecen de cualquier enlace. Estén en el nivel que estén, es necesario que desde cualquier página de un sitio se pueda volver a la página índice o a una página importante. c) Jerarquizar el sitio para acceder directamente a la información. Es necesario hacerlo de la forma más eficaz posible para minimizar los pasos a través de los menús. El usuario debe llegar a la información que busca con el mínimo número de pasos o clics. d) Considerar los tiempos de carga. Cuando se superan los diez segundos de carga, los usuarios se suelen frustrar. A pesar de que la banda ancha está cada día más extendida, es necesario tener en cuenta este hecho. e) Simplicidad y consistencia. Excluyendo Webs experimentales, artísticas, destinadas al diseño, etc., es conveniente que los sitios Web no sean complejos en exceso. Deberá recurrirse a metáforas de interfaz sencillas, comprensibles y familiares. f) Integridad y estabilidad del diseño. Es necesario cuidar el diseño y proporcionar al usuario la imagen de integridad, seguridad y seriedad. No hay nada peor que una Web descuidada en el diseño, con algunos enlaces que no funcionan y que lleve meses sin actualizar. Es imprescindible mantener los elementos interactivos en perfecto funcionamiento y revisar los enlaces. Si estos últimos son a sitios externos, hay que comprobar cada cierto tiempo que siguen manteniéndose; muchas páginas desaparecen o cambian su URL.
Para el diseño de páginas Web puede ser de gran ayuda el libro Lynch, P.J.; Horton, S., Manual de estilo web, 2ª ed., Barcelona, GG, 2004.
18
119
g) Diálogo y retroalimentación. La composición de la página y el conjunto de elementos interactivos debe ofrecer al usuario una confirmación visual y funcional de su posición y opciones. También debe ofrecerse a éste la posibilidad de entrar en contacto con los responsables del sitio; por ejemplo, un enlace al Webmaster. h) Elaborar diferentes versiones de las páginas con el uso de CSS. Sin necesidad de modificar los contenidos y la estructura, pero utilizando distintos archivos CSS, podemos preparar versiones de las páginas para imprimir, para el móvil, para ser leídas en distintos tamaños de texto, etc. i) Utilizar los estándares Web y tener en cuenta la accesibilidad. Hoy en día es imprescindible elaborar las páginas Web siguiendo los estándares del W3C Consortium. Lo habitual es ceñirse al XHTML 1.0 estricto o al XHTML 1.0 transicional y utilizar para la presentación las hojas de estilo en cascada (CSS)19. j) Para validar las páginas disponemos del servicio Markup Validation Service del W3C (http://validator.w3.org/#validate-by-upload) y el CSS Validation Service (http://jigsaw.w3.org/css-validator/). También habría que tener en cuenta los criterios de accesibilidad para ciegos, sordos u otros usuarios que presentan alguna discapacidad. Los sitios Web institucionales están obligados a hacerlo. Para ello podemos recurrir a la W3C Web Accesibility Initiative (http://www.w3.org/WAI/).
Un concepto importante: la facilidad de uso
19 Budd, A. et al., Web Standard Creativity: Innovations in Web Design with XHTML, CSS, and DOM Scripting, Fiends of ED, 2007.
120
Muchos habrán visto, en los últimos años, cómo se ha extendido un nuevo término: “usabilidad”. Éste no existe en castellano; se trata de una mala y apresurada traducción de la palabra inglesa “usability”, que hace referencia a la facilidad y nivel de uso de un objeto, o mejor dicho, grado en el que el diseño del objeto facilita su uso. El término “usability” fue tenido en cuenta por organismos internacionales como la ISO u Organización Internacional para la Estandarización. Éste la define de dos maneras: a) (ISO/IEC 9126) Capacidad de un software para que un usuario lo comprenda, lo aprenda y lo use a la vez que le resulta atractivo, en condiciones específicas de uso. Aquí se tienen en cuenta los atributos internos y externos de un producto y también el usuario. Ambas cosas, pues, son importantes. b) ISO/IEC 9241-11 (1995) El límite hasta el cual un producto puede ser utilizado por usuarios determinados para lograr objetivos específicos, con efectividad, eficiencia y satisfacción, en un contexto de uso determinado. Esta definición se centra más en la calidad de uso, es decir, en cómo el usuario lleva a cabo una serie de tareas específicas de forma eficaz en escenarios determinados. La efectividad de un sistema se refiere a los objetivos de trabajo. La eficiencia se relaciona con la efectividad en términos de los recursos necesitados para realizar tareas. La satisfacción se refiere al grado de agrado y de comodidad en el uso. Fuera del ámbito informático la “usability” se relaciona más con la ergonomía y con una serie de factores humanos. Las interfaces de las aplicaciones
informáticas y las interfaces de las páginas Web deben ser “utilizables” en el sentido que hemos dicho. Uno de los expertos en el tema en los entornos Web es Jacob Nielsen20 (1957-). Éste definió la “usability” en el año 2003 como “un atributo de calidad que mide lo fáciles de usar que son las interfaces Web”. En la actualidad los sitios importantes se someten a inspecciones de uso o conjunto de métodos que utilizan ciertos evaluadores para inspeccionar una interfaz. Entre los más importantes podemos mencionar: a) Visibilidad del estado del sistema, es decir, el sistema debe mantener informado al usuario sobre los procesos que se están llevando a cabo. b) Grado de consistencia entre el sistema y el mundo real. c) Libertad de uso. El usuario debe poder explorar el sistema con libertad y abandonarlo cuando desee. d) Consistencia y mantenimiento de estándares. e) Prevención de las posibilidades de error. f) Las opciones deben ser visibles con el fin de no obligar al usuario a memorizarlas. g) Flexibilidad y eficiencia. El sistema debe prever su uso para usuarios tanto avanzados como novatos. h) Diseño minimalista. Las ventanas de diálogo deben contener el texto justo. i) Ayuda a los usuarios en la corrección de errores. Los mensajes de error deben ser claros y breves, describir el problema en términos inteligibles y proponer o sugerir soluciones. j) Ayuda del sistema fácilmente accesible y que describa los procesos paso a paso. Tenemos que reconocer que una página o sitio Web no dejan de ser un medio para interactuar o dialogar con el usuario actual o potencial con el objetivo de incrementar su grado de satisfacción. Si tenemos pensado encargar o elaborar nuestra página Web, hay que vigilar todos los aspectos mencionados. Tenemos que valorar las distintas resoluciones de pantalla; el equilibrio entre texto e imágenes; el tipo de fuente, su tamaño, su legibilidad, etc.; el uso de menús horizontales o verticales; el uso de los colores; los distintos navegadores desde donde se verá la página y las posibles variaciones; la incorporación de películas flash o de vídeos; la inserción de sonido; incorporar o no un buscador interno; la estructuración de las distintas páginas dentro del sitio; la creación de un mapa del sitio Web; la inserción de publicidad; calidad de los contenidos; el uso de estándares; etc. El 13 de noviembre de 2007 Christina Laun publicaba en el blog Virtual Hosting veintitrés sugerencias para mejorar las páginas Web21. Mencionemos algunas: (1) el texto atrae más la atención que las imágenes; (2) el movimiento inicial de la mirada se centra en la esquina superior izquierda de la página; (3) al comienzo los usuarios buscan en la parte superior izquierda y en la parte superior de la página antes de desplazarse hacia abajo y hacia la derecha. Generalmente escanean las páginas Web en forma de ‘F’; (4) Los estudios han demostrado que los lectores, en gran medida, hacen caso omiso de los anuncios (banners); (5) las fuentes pequeñas aumentan la concentración de la lectura en el texto mientras que las fuentes más grandes animan al usuario a explorar por la página; (6) frases cortas mejor que párrafos largos; (7)
Nielsen es ingeniero de interfaces y doctor en diseño de interfaces de usuario y ciencias de la computación por la Universidad Técnica de Dinamarca. Véase su página http:// www.useit.com/jakob/ [Consultada el 10 de enero de 2008]. Es interesante hojear el boletín sobre el tema Alertbox: Current Issues in Web Usability, en: http://www. useit.com/jakob/ [Consultado el 10 de enero de 2008]. 21 Laun, C. “Scientific Web Design: 23 Actionable Lessons from EyeTracking Studies”, Blog de Virtual Hosting: http://www.virtualhosting. com/blog/2007/scientific-web-design-23-actionable-lessons-fromeye-tracking-studies/ [Consultado en 20 de noviembre de 2007]. 20
121
no debe abrumarse a los visitantes del sitio con demasiada información. La simplificación es mejor en algunos casos; (9) la gente se interesa más en una imagen donde se pueden ver claramente los detalles y la información, que en imágenes pequeñas; (10) los usuarios detienen su atención en los botones y menús, lo que obliga a dedicar algo de tiempo para asegurar su buen diseño; (11) una manera útil de facilitar la lectura es la utilización de listas en lugar de párrafos largos; (12) los sitios con demasiado contenido tienden a abrumar a los usuarios; hay que utilizar zonas blancas; (13) las herramientas de navegación funcionan mejor cuando se colocan en la parte superior de la página. Es evidente: un sitio en el que la gente tiene una buena experiencia, es un sitio al que la gente regresa. Es más, atrae a más usuarios. Uno de los temas más importantes de la concepción de un sitio Web es cómo mostrar la información. Es necesario que se estudie el tema con detalle. En la Imagen 10 vemos un esquema de la manera en la que se suele proceder. El destino final, como se aprecia, es la creación de diagramas de flujo o un
Imagen 10. Pasos para estructurar la información en una aplicación multimedia, por ejemplo un sitio Web.
Serra, M.; Sanabre, C. Elaboración de guiones multimedia. Barcelona, UOC
22
122
esquema visual en el que se plasma el contenido, la estructura, organización y el acceso de la aplicación. Debe mostrar el diseño de todos los posibles flujos, caminos o itinerarios que se puedan generar en el sitio Web. Nos proporcionarán una idea de cómo se relacionan las diferentes partes del proyecto y sirve para ver las diferentes posibilidades de navegación de los usuarios con la interfaz del proyecto (Imagen 11). Con el desarrollo de la tecnología y el aumento de las velocidades de conexión, la elaboración de los sitios Web se ha ido haciendo más compleja. Se habla así de webs de primera, segunda y tercera generación22. Las primeras son de tipo lineal donde se integra el texto y las imágenes intercaladas sobre un fondo gris. Todo el conjunto se alineaba de arriba abajo y de izquierda a derecha. Eran lineales. Las de segunda generación aparecieron con el navegador Netscape. Son como las de primera, pero se incluyen iconos combinados con palabras, imágenes en mosaico en lugar de los monótonos fondos grises, y con algunos efectos destello, entre otras novedades. Se tiende a sobrecargar las páginas y a incluir todas las novedades hasta llegar al barroquismo. Esto provoca un enlentecimiento en la navegación. Los sitios Web de tercera generación valoran mucho el diseño y utilizan al-
Imagen 11. Diagrama de flujo con un ejemplo de organización jerárquica y lineal
gunos recursos audiovisuales para captar al navegante. Utilizan mucho las metáforas. El flujo se estudia con detenimiento y es complejo. La navegación es abierta. En los últimos años el diseño de los sitios Web está cambiando gracias a la gran cantidad de recursos disponibles y dependen del tipo de sitios y de contenidos que ofrezcan. No es lo mismo una página para el comercio on line, que una página de contenidos científicos. La posibilidad de utilizar CSS23 ha mejorado sensiblemente el diseño de los sitios.
Los contenidos de las páginas Web de tipo médico y sanitario La World Wide Web no es más que un reflejo de lo que nos encontramos fuera de la red. La población busca información de tipo sanitario y médico en el entorno familiar, en la red de amigos, en los centros de enseñanza, en los medios de comunicación (prensa, radio, televisión), en la literatura especializada, etc. Esta información puede ser buena o mala, clara o engañosa, elaborada por especialistas o no. La misma situación es la que encontramos en Internet. En 1999 el Colegio Oficial de Médicos de Barcelona inició el proyecto WMA o Web Médica Acreditada. Su objetivo era constituirse en referente de confianza y servicio para la mejora de la calidad de la información sanitaria en In-
23 Snook, J.; Smith, S.; Bolton, J.; Adams, C.; Johnson, D. The Art and Science of CSS, Site-Point, 2007.
123
ternet. Una de sus tareas es asesorar a los sitios Web que quieran adherirse para que cumplan una serie de recomendaciones. Una vez solicitada la acreditación se inicia el proceso de evaluación. Se estudian las características del sitio y se realizan las recomendaciones pertinentes para ajustarse a las normas. Una vez se acredita el sitio Web se le concede el sello correspondiente, que se coloca en la página principal del mismo. Se supone el compromiso de los autores del sitio de seguir cumpliendo las recomendaciones que les han hecho merecedores de la acreditación. ¿Qué elementos se tienen en cuenta para la evaluación de un sitio Web? Varios. Entre estos, la identificación de los responsables sanitarios; la estructura; la frecuencia de actualización; las fuentes de información; etc. El director de la Web médica acreditada es Miguel Angel Meyer24. En el contexto europeo se está desarrollando el proyecto Quatro25 (Quality
Imagen 12. Captura de pantalla de Web Médica Acreditada.
Véase su página personal: http:// mmayer.comb.es/ [Consultada en enero de 2008]. 25 Véase el sitio Web del proyecto: http://www.quatro-project.org/ [Consultado en diciembre de 2007]. 26 Sobre la Web semántica véase: W3C. Semantic Web, En: http:// www.w3.org/2001/sw/ [Consultada en 8 de enero de 2008]. 27 Véase Mayer, M.A.; Leis, A.; Karkaletsis, V. Et al., La visión integradora del proyecto Quatro en la aplicación de la Web semántica para garantizar un Internet de confizanza, En: Las TIC en la protección de la Salud. Actas del IX Congreso Nacional de Informática de la Salut. Inforsalud 2006, Madrid: 211-217. 28 Se puede descargar del sitio Web http://homes.dico.unimi.it/ dbandsec/quatro/ [Consultado en diciembre de 2007]. 24
124
Assurance and Content Description), que se basa en la Web semántica26. Desde hace varios años existen sistemas de acreditación de páginas Web de tema sanitario de calidad, como el ya comentado WMA (Web Médica Acreditada) que concede el Colegio Oficial de Médicos de Barcelona. El problema es que en las búsquedas no se seleccionan las páginas en función de criterios de acreditación, porque los motores de búsqueda no las leen. Los sellos de calidad o marcas de confianza legibles por máquinas permitirán a los motores de búsqueda mostrar logotipos junto a los resultados de las búsquedas. En algunos estudios se ha observado que la confianza en las Webs aumenta cuando aparece un sello de acreditación y es más probable que los usuarios visiten un sitio Web si desde los resultados del motor de búsqueda se indica. El proyecto Quatro facilita a los usuarios el reconocimiento de las páginas o sitios Web que posean sellos o marcas de calidad y descripciones asociadas de sus contenidos o “etiquetas” en formato de metadatos27. Éstas se detectan y autentifican en tiempo real cuando los usuarios realizan búsquedas en Internet. Para ello Quatro ofrece una extensión para el navegador Firefox: ViQ28. ViQ (Quality Visualiser o View Quality) permite detectar y leer las marcas de calidad y contenidos asociados a las páginas Web que los posean. Como hemos dicho, el acceso a dicha información es útil si el usuario desea cono-
cer no sólo el contenido de un sitio Web, sino también aspectos relacionados con la fiabilidad de la información que ofrece. Por tanto, podemos confiar en dichas marcas, ya que se han generado por organizaciones, llamadas “Autoridades de Acreditación”, que respaldan su fiabilidad y validez. Las etiquetas no están integradas en las páginas Web y, por tanto, no es posible verlas de forma habitual con un navegador. ViQ ha sido elaborado de forma específica con el propósito de ampliar las capacidades del navegador con una serie de herramientas que le permiten detectar la presencia o ausencia de dichas marcas y, si lo desea, ver sus contenidos. Desde la interfaz del navegador se accede al conjunto de herramientas que ofrece ViQ, y también a través de una barra de herramientas y un icono de estado. El menú principal de ViQ permite manejar todas las funciones de ViQ. Puede mostrar el contenido de las marcas, si están presentes; seleccionar sus preferencias y opciones; y acceder a recursos adicionales en Internet. La barra de herramientas permite, además, el acceso rápido a algunas de las funciones de ViQ, utilizando el campo de búsqueda que permite al usuario enviar los términos de búsqueda directamente a LADI, la herramienta de anotación que acompaña a ViQ, sin la necesidad de ir a su página Web de origen. Finalmente, los iconos en la barra de herramientas y en la barra de estado le permiten mostrar el contenido de las etiquetas presentes. ViQ se encuentra en alemán, catalán, español, francés, griego, holandés, inglés (EEUU), inglés (RU), italiano y portugués. En el párrafo anterior hemos mencionado LADI. Se trata de un motor de búsqueda que permite descubrir si los resultados obtenidos poseen una marca o etiqueta de calidad/contenidos. Se puede acceder a LADI directamente, visitando su página Web (http://www.quatro-project.org/search.aspx), o instalar el plugin que añade LADI a los motores de búsqueda en la barra de búsqueda de Firefox. En la actualidad ViQ y LADI detectan, identifican y autentifican tres sellos concedidos por WMA, IQUA e ICRA29. Otro proyecto que podemos mencionar es MedIEQ30, que se centra en temas relacionados con la calidad de sitios Web de contenido médico. Basado en nuevas tecnologías, su objetivo final es automatizar el proceso de etiquetado de la calidad de los sitios Web con información en salud. Sus herramientas recorrerán el World Wide Web para localizar sitios médicos en español, catalán, alemán, inglés griego, checo y finlandés, con vistas a verificar su contenido, a partir de un sistema de criterios de calidad legibles por máquina. Los sitios médicos etiquetados se supervisarán continuamente por las herramientas desarrolladas por MedIEQ para alertar a los consumidores cuando un sitio deja de reunir los parámetros de calidad establecidos en cuanto a sus contenidos. En este proyecto (2006-2008) participan Grecia, Finlandia, España, Alemania, República Checa y Suiza. Tiene financiación europea. Dentro de MedIEQ se ha previsto el desarrollo de dos aplicaciones, según los dos tipos de mecanismos de etiquetado de las dos organizaciones de etiquetado médico de calidad participantes (WMA y AQUMED). La primera aplicación de MedIEQ está relacionada con la monitorización constante de las páginas médicas ya etiquetadas, comparando la nueva información extraída de los sitios Web con los datos asociados a la etiqueta de acreditación. La segunda aplicación de MedIEQ consiste en la identificación de nuevos sitios Web, en determinadas áreas temáticas, su caracterización mediante criterios
ICRA es líder en un sistema de etiquetado para la protección de menores. 30 Véase MedIEQ. Quality Labeling of Medical Web Content using Multilingual Information Extraction. Disponible en URL: http:// www.medieq.org [Consultado: 15 de diciembre de 2007]. Véase también European Comission. Health and Consumer Protection. Quality Labeling of Medical Web Content using Multilingual Information Extraction. Disponible en URL: http://ec.europa.eu/ health/ph_projects/2005/action1/ action1_2005_2_en.htm [Consultado: 15 de diciembre del 2007]. Finalmente véase también: Mayer Pujadas, M.A. El Proyecto europeo Medieq (Quality Labelling of Medical Web Content using multilingual information Extraction): la Web semántica al servicio de los usuarios de salud. Disponble en: http://eprints.rclis.org/archive/00007892/01/Sesion_1_comunicacion_1_Mayer.pdf [Consultado el 8 de enero de 2008]. 29
125
verificables de forma automática, y el filtrado de algunos de los sitios identificados en base a su caracterización y su organización dentro de directorios Web que faciliten el acceso al público en general.
Imagen 13. Captura de pantalla del navegador Firefox funcionando con la extensión ViQ y el buscador LISI.
Portales de tipo médico en la World Wide Web
Véase la siguiente URL: http:// www.internetnews.com/stats/article.php/1430741 [Consultada el 3 de noviembre de 2007]. 32 Véase la siguiente URL: [Consultada el 3 de noviembre de 2007]. 31
126
Hemos visto una manera de garantizar la calidad de los contenidos de tipo médico en la Web. Aunque esto tiene una utilidad inmediata para los pacientes, lo mismo puede aplicarse a los estudiantes de medicina y otras ciencias de la salud, y a los propios profesionales. En otro capítulo nos ocuparemos de los sitios Web informativos destinados a los pacientes. Ahora nos centraremos más en los sitios dedicados a los profesionales. Hay pocos estudios referentes al uso de Internet por parte de los profesionales. El eurobarómetro de 2001 indica que en España el 68 por ciento de los médicos tiene acceso a la Red en sus lugares de trabajo, diez puntos por debajo de la media europea. La American Medical Association hizo un estudio en 2001 sobre el uso que hacían los médicos de Internet31. Se encuestó a 977 médicos entre agosto y diciembre de 2001. El 78 por ciento navegaban por la Red. Dos terceras partes de estos lo hacían a diario. El número de horas semanales de navegación pasó de 4,3 en 1997 a 7,1 en 2002. Aunque los médicos jóvenes eran los que más uso hacían de Internet, la cifra de mayores de 60 años que lo hacían, había subido del 43 por ciento en el año 2000 al 65 por ciento en el 2001. Sin embargo, los médicos se resistían a crear y mantener sitios Web. Los que lo hacían era por motivos de promocionar su consulta o su práctica, y para proporcionar información a sus pacientes. Otro estudio realizado por Harris Interactive (Computing in the Physicians’ Practice)32 con una muestra de 834 médicos, hecho público en el año 2002, encontró que más de la mitad utilizaban el correo electrónico para comunicarse con sus colegas. Sólo el 13 por ciento se dirigía por este medio a sus enfermos. La proporción de médicos que utilizaron Internet para su actividad clínica desde su lugar de trabajo, desde su consulta y desde su casa había aumentado entre 1999 y 2001. El porcentaje de los que nunca se conectaban
había pasado del 11 al 7 por ciento. Dos de cada 5 trabajaban en lugares con acceso a la Red. Con los años han aparecido en la World Wide Web gran cantidad de sitios que ofrecen servicios a los profesionales de la medicina. Cubren prácticamente todas las necesidades como estamos viendo en este libro: buscar información, comunicarse, publicar, formarse, participar, etc. Es muy difícil encontrar sitios que cubran todas las posibilidades. Una de las causas es que la medicina tiene tantas especialidades que los sitios Web van edificándose en torno a sociedades profesionales, especialidades, grupos de trabajo, colegios de médicos, o editoras de revistas y publicaciones de tipo médico. Podríamos hablar de los portales dirigidos a los profesionales de la medicina. Un portal de Internet es, como se señala en Wikipedia, un sitio Web cuyo objetivo es ofrecer al usuario, de forma fácil e integrada, el acceso a una serie de recursos y de servicios, entre los que suelen encontrarse buscadores, foros, documentos, aplicaciones, etc. Principalmente están dirigidos a resolver necesidades específicas de un grupo de personas o de acceso a la información y servicios de una institución pública o privada. Es difícil elaborar una lista de portales, porque corremos el peligro de dejarnos unos cuentos en el tintero. Algunos, incluso, necesitan que el usuario se registre y acredite para poder acceder a ellos. Mencionaremos sólo como ejemplo el portal Fisterra (http://www.fisterra.com). Fisterra tuvo un origen parecido al de muchos sitios Web. Se trataba de un grupo de profesionales relacionados con la atención primaria interesados en compartir información y recursos útiles para la asistencia. Con el tiempo se ha convertido en un lugar de encuentro para los profesionales que buscan información práctica para sus consultas y para los que quieren compartir y mejorar la que tienen. Hoy es un sitio con una gran cantidad de contenidos propios de alta calidad y utilidad. Fisterra es independiente de cualquier institución, empresa editorial tradicional o compañía farmacéutica en lo que a financiación y propiedad se refiere. Se sostiene mediante la venta de productos y servicios como suscripciones a Fisterrae, matrículas de cursos, libros, aplicaciones informáticas e inserción de publicidad. En estos momentos presenta una parte para profesionales y otra para pacientes, de la que hablaremos en el capítulo correspondiente. Entre otras cosas, los profesionales pueden encontrar guías clínicas; ayuda en consulta, con lo necesario para el médico y el paciente; información sobre medicamentos y una guía farmacoterapéutica; cursos de formación on line; una biblioteca virtual; y una parte sobre humanidades cercanas a la medicina como complemento. También forma parte de este portal lo que se llama Fisterrae. Ésta incluye una base de conocimientos clínicos con documentos actualizados, listos para ser usados como ayuda para tomar decisiones y desarrollados según las “evidencias” científicas más recientes; una guía fármaco-terapéutica; una calculadora clínica; una aplicación de apoyo para elaborar calendarios de vacunación personalizados; una colección de imágenes; y “Algoritmos” para una consulta rápida. Fisterra suscribe los principios del Código de Conducta HONcode principles de la Health On the Net Foundation para sitios de contenido sanitario. 127
La Web 2.0 o la Web participativa Introducción Crear nuevos términos tiene, a veces, gran éxito. Éste es el caso del grupo O’Reilly y la compañía MediaLive, cuando en 2004 lanzaron el término Web 2.0 para referirse a un cambio que se estaba produciendo en Internet, a una especie de renacimiento, a una segunda generación. El 30 de septiembre de 2005 el presidente de O’Reilly Media, Tim O’Reilly, publicó en su Web el artículo “What is Web 2.0. Design Patterns and Business Models for the Next Generation of Software (Qué es la Web 2.0. Patrones de diseño y modelos de negocio para la siguiente generación de software). Este texto se considera como uno de los principales manifiestos relacionados con el fenómeno Web 2.0. Aquí se cuenta que el término o la frase surgió en una sesión de “tormenta o lluvia de ideas” que mantuvieron miembros de O’Reilly Media y MediaLive Internacional en 2004. De ahí nació la primera Web 2.0 Conference, que se celebró del 5 al 7 de octubre de ese año en San Francisco. La idea y la palabra se difundieron de forma extraordinaria por el World Wide Web, tanto que en el año 2005 “Web 2.0” ya tenía 9,5 millones de menciones en el buscador Google y había dado lugar a todo tipo de debates dentro y fuera de la red. En las Navidades de 2006 todo el mundo, incluidos los medios impresos, hablaban del fenómeno. En la conferencia se definieron una serie de principios: (1) la Web es la plataforma; (2) la Web como inteligencia colectiva; (3) plataformas contra aplicaciones; (4) auge de los blogs; (5) la clave es la participación; (6) mejorar la experiencia de los usuarios; (7) servicios más importantes1. Una de las ideas básicas de la Web 2.0 es que el usuario pueda utilizar los sitios Web como si de una aplicación se tratara. Es decir, en vez de utilizar un programa que se tiene instalado en el ordenador para hacer algo, se recurre a un sitio Web en el que se puede hacer lo mismo. Este concepto nos resulta, en la actualidad, muy familiar. Puedo tener instalado en un ordenador el Office de Microsoft, o puedo recurrir a Google docs. En este último caso me dirijo a la página Web correspondiente y creo mi texto. Pero, es más, puedo retocarlo, o continuar trabajando con él en cualquier ordenador que esté conectado a la red, y puedo compartirlo con otros usuarios que pueden leerlo u opinar, o si les autorizo, introducir modificaciones. El cambio se explica por sí solo. Pero antes que conociéramos Google docs ya nos habíamos familiarizado con sitios Web en los que podíamos hacer muchas cosas, como eran Google, Amazon y eBay. Es más, en cortos períodos de tiempo nos dejábamos sorprender por el incremento continuado de las nuevas utilidades que ofrecían.
1 Sobre la Web 2.0 véase: Antúnez, J.L.; Gelado, J.A.; del Moral, J.A.; Casas-Alatriste. R., Web 2.0. Manual (no oficial) de uso, Madrid, Esic ed., 2007. Cobo Romaní, C.; Kuklinski, H.P., Planeta Web 2.0. Inteligencia colectiva o medios fast food, Barcelona-México, UVIC-FLASCO México, 2007 (versión descargable en Internet: http://www.planetaWeb2.net/ [Consultado en el 8 de noviembre de 2007]. Para el caso concreto de la medicina véase: Mayer Pujadas, M.A.; García Pareras, L.; Machín, A.L., La Web 2.0 se presenta como una nueva plataforma de gestión de la información en medicina, Aten Primaria, 2008; 40(1): 39-42.
129
Otros se han referido al fenómeno Web 2.0 como “una nueva Web” después de la llamada explosión de la burbuja financiera o “burbuja.com”. Fue éste un movimiento a una corriente especulativa intensa que se produjo entre 1997 y 2001. Las bolsas de los países occidentales experimentaron fuertes subidas debido al avance de las empresas vinculadas al nuevo sector de Internet y la llamada “Nueva economía”. Eran las llamadas “Punto.com”. Al final estalló la burbuja y, para darnos una idea de la situación, el Nasdaq llegó a cotizar en el año 2000 por encima de los 5.000 puntos; en el 2002 el valor había descendido a los 1.300 puntos, cifra similar a la del año 19962. A partir de aquí comenzaron a producirse fusiones, adquisiciones, despidos y cierres que llevó a algunos analistas a decir que no había habido una nueva economía sino una gran burbuja o un gran bluf que sirvió a unos cuantos para hacer grandes fortunas. Hay que tener en cuenta que el término Web 2.0 formaba parte de un libro que se publicó en 2002: Web 2.0: The Future of the Internet and Technology Economy and How Entrepreneurs, Investors, Executives & Consumers Can Take Ad (Execenablers), de Dermot A. McCormack y publicado por Aspatore Books. Este libro, que pasó desapercibido, cambió el título por Web 2.0: 2003-2008 AC (After Crash), en octubre de 2003. En él se animaba a llevar a la práctica nuevas iniciativas en otro contexto después de la dramática caída de los mercados. Web 2.0 es un nombre algo pomposo3 para referirnos a una Web participativa o colaborativa. La idea es que “multitud de pequeños actores, sumados, tienen un gran poder colectivo”. Los enlaces que se establecen entre las páginas Web acaban formando una gran red. El éxito de las búsquedas de Google está en el sistema PageRank que usa los enlaces entre todas las páginas para proporcionar los mejores resultados de una búsqueda. Fijémonos también en Amazon. Al principio fue una especie de librería o comercio on line. Ahora es muchísimo más; no hay más que observar la información que se nos suministra cuando encontramos las referencias de algún libro que buscamos. Quizás el mejor ejemplo de este trabajo colaborativo o de la Web 2.0 es la enciclopedia Wikipedia: gratuita, creada exclusivamente por los usuarios y de un nivel semejante a las grandes enciclopedias elaboradas por especialistas. La Web 2.0 no ha inventado la colaboración entre personas, pero sí ha proporcionado multitud de herramientas fáciles de usar para la cooperación y el intercambio.
2 Véase el artículo de Wikipedia “Dotcom_bubble”: http://en.wikipedia. org/wiki/Dot-com_bubble [Consultado el 15 de diciembre de 2007]. Véase también Castells, M, La Galaxia Internet. Barcelona, Plaza y Janés Editores, 2001. 3 Tal como señala Juan Antonio Millán en su blog: Entrada Libro+PDF+Flirck, 5 de diciembre de 2007 (http://jamillan.com/librosybitios/blog/2007/12/libro-pdf-flickr.htm)
130
Tabla 1. Comparación de la Web 1.0 y la Web 2.0 según Tim O’Reilly Web 1.0 Web 2.0 DoubleClick Google Adsense Ofoto Flick Akamai BitTorrent Enciclopedia Británica Wikipedia Mp3.com Napster Páginas Web personales Blogs Publicación Participación Directorios (taxonomía) Tags o etiquetas (folcsonomía) Páginas visitadas Coste por clic
La Web participativa es una Web en perpetuo desarrollo. Es lo mismo que el software libre en el que los desarrolladores siguen perfeccionándolo o añadiendo novedosas funcionalidades. Como dice Tim O’Reilly, es como estar en una eterna fase “beta”. Es cierto que muchas empresas de la Web 1.0 y otras nuevas siguen teniendo protagonismo en esta nueva etapa, pero ahora tienen en cuenta al usuario. Apreciamos día a día cómo firmas conocidas, como Google, y otras nuevas, quieren sorprendernos constantemente con nuevas soluciones, simplificando procesos que antes eran patrimonio de expertos, ofreciéndonos apetecibles productos o haciéndonos sentir protagonistas en algo. Quizás lo más importante es que el usuario se ha convertido en productor de contenidos. Por ejemplo, YouTube proporciona herramientas a los usuarios y crea su propio espacio. Son estos los que suben sus videoclips y cualquiera puede acceder a ellos. Cada uno hace su propia selección. Tampoco faltan las críticas a la Web 2.0. Las podemos resumir en los siguientes puntos: a) Observamos cómo algunas empresas o grupos absorben a los más pequeños y se van haciendo más grandes. En los últimos meses se ha criticado por esto a Google. Ahora nos acabamos de enterar de que Microsoft quiere absorber a la emblemática Yahoo! b) Los contenidos que generan los usuarios son de mala calidad y no pasan un filtro. Se ha producido una especie de ensalzamiento del amateurismo. Uno de los que ha hecho más críticas en este sentido es Andrew Keen4, especialmente en su libro The Cult of the Amateur: How Today’s Internet is killing Our Culture5. Sostiene que la democracia digital presente en Internet está socavando nuestra cultura y la economía. La gastada Web 2.0 propicia que cualquier persona publique cualquier cosa en la red, en detrimento de los medios tradicionales de información. Los profesionales y editores serían los únicos capaces de producir, seleccionar información y emitir contenidos en la industria cultural. Este texto ha provocado profundos debates en la red y fuera de ella. c) Más que nunca disponemos de muchísima información, pero ésta requiere una alfabetización digital profunda para no resultar confundidos o desorientados en un entorno de gran escasez de atención. Quizás falta voluntad real de comprensión entre las personas, carencia de una cultura común de respeto y la manipulación por la sobreabundancia informativa. Una noticia que aparece en múltiples canales se reconoce como verdad, aunque esos medios respondan a determinados intereses. d) Como ha señalado Jacob Nielsen (1957-), al que ya nos referimos al hablar de “usability”, los excesos en torno a la llamada Web 2.0 han provocado que los creadores de páginas en Internet hayan descuidado los principios del “buen diseño”. Para éste, es necesario que se tenga en cuenta la “buena práctica”, es decir, “crear una Web fácil de usar, una página que disponga de herramientas de búsqueda útiles y que no utilice una jerga que la haga inaccesible para los profanos en la materia”6. e) Algunos argumentan que la Web 2.0 no es más que una moda pasajera de un público joven que es muy volátil; lo que hoy les gusta, mañana lo abandonan por otra nueva moda. ¿Qué futuro tiene la Web 2.0? Es difícil saberlo, porque los acontecimientos en Internet se producen a gran velocidad. Durante el primer trimestre de
4 Véase su página Web: http://andrewkeen.typepad.com/ [Consultada el 8 de enero de 2008]. 5 Keen, A., The cult of amateur. How today’s internet is killing our culture. New York, Double Day/ Currency, 2007. 6 Jacob Nielsen critica que con la Web 2.0 se ha dejado de lado el diseño, En: Edmundo.es Navegante: http://www.elmundo.es/ navegante/2007/05/14/tecnologia/1179141617.html [consultado el 18 de diciembre de 2007].
131
2007 Hitwise7 analizó el estado de salud de la Web 2.0 basándose en los datos obtenidos directamente de las ISPs con los que mide el tráfico de más de 800.000 sitios de la World Wide Web. Sus conclusiones son que la Web 2.0 no se trata de una moda pasajera, sino que empieza a ser una tecnología fuertemente arraigada en la Red. De todas las visitas a páginas Web en los Estados Unidos, un 12 por ciento se realizan a sitios de este tipo. No obstante, advierten de que es una Web menos participativa de lo que al principio se decía. En realidad hay una minoría (pero de muchos individuos) que crea y una extraordinaria mayoría que consume. Vamos a ocuparnos a continuación de una selección de los principales servicios que nos ofrece la Web 2.0.
Redes sociales
7 Véase Web 2.0: Next You Tube Predicted. (April 18, 2007) en: PC World (http://www.pcworld.com/ article/id,130897-c,sites/article.html) [Consultado el 16 de diciembre de 2007].
132
La Red se ha ido consolidando como un espacio para establecer relaciones, comunidades y otros sistemas sociales. Las normas que rigen son semejantes a las del mundo real. La Web 2.0 ha facilitado un conjunto de herramientas gratuitas y fáciles de utilizar para que se puedan producir y compartir contenidos de todo tipo con personas con intereses similares. Existe una teoría según la cual toda la gente del planeta está conectada a través de no más de seis personas. Entre otros, esta idea fue recogida por el sociólogo Duncan Watts en su libro Six Degrees: The Science of a Connected Age. Según él es posible acceder a cualquier persona con tan solo seis saltos. Cada individuo conoce por término medio a cien personas y cada una de este grupo a otras cien; así se van agrandando los niveles 100 x 100 = 10.000; 10.000 x 100 = 1.000.000; 1.000.000 x100 = 100.000.000; 100.000.000 x 100 = 10.000.000.000; 10.000.000.000 x 100 = 1.000.000.000.000. Es decir, que con los medios adecuados, en seis pasos, se podría enviar un mensaje a cualquier persona del mundo. En 2002 comenzaron a aparecer en la World Wide Web las redes de círculos de amigos en línea (comunidades virtuales). En el año 2003 el fenómeno se hizo muy popular con la llegada de sitios como Friendster, Tribe.net, MySpace, Xing, etc. Algunas compañías importantes se fijaron en estas redes y las adquirieron o crearon las suyas: Google lanzó Orkutt en enero de 2004 y Yahoo! la suya en 2005. A continuación añadiremos algo de las más populares. – Facebook (http://www.facebook.com/) Representa claramente la filosofía y el éxito de la Web 2.0. A finales de 2007 contaba con 50 millones de usuarios integrados en alguna de las 50.000 redes sociales escolares, universitarias, de empresas o regionales. Nació en el año 2004 como un hobby de Mark Zuckerberg (1984-), estudiante de Harvard, y como un servicio para los estudiantes de su universidad. Tuvo éxito desde el principio; en su primer mes de funcionamiento contaba con la suscripción de más de la mitad de los estudiantes de Harvard. Luego se expandió a varias universidades como el MIT y la Boston University, y a otras instituciones de los Estados Unidos. Al año tenía un millón de usuarios, una oficina en Palo Alto y había recibido apoyo financiero de varias personas. Ese mismo año incorporó usuarios de miles de escuelas secundarias y de dos mil universidades, alcanzando la cifra de 11 millones.
Facebook, se creó como una versión en línea de los “facebooks” de las universidades americanas y abrió sus puertas a cualquier persona que tuviera una cuenta de correo electrónico. Los “facebooks” son publicaciones que realizan las universidades al comienzo del curso académico. Contienen los nombres y las fotografías de todos los estudiantes y su objetivo es ayudar a que se conozcan. En el año 2006, Facebook introdujo más universidades extranjeras y desarrolló nuevos servicios en su plataforma, tales como Facebook Notes (una herramienta de blogging con tagging, imágenes y otras utilidades) o la importación de blogs de servicios como Blogger, LiveJournal o Xanga.
Imagen 1. Captura de pantalla de la página de entrada a Facebook. Disponible también en español desde febrero de 2008.
También se abrió a cualquier persona que tuviera una cuenta de correo electrónico y siguió recibiendo capital. Facebook se ha ido convirtiendo en una comunidad de comunidades. Cada usuario, en función de sus intereses, puede participar en una o más redes. El objetivo es que estos puedan relacionarse con las personas que tienen intereses comunes, igual que fuera de Internet. Facebook permite que intercambien información, fotografías, vídeos, etc. Cada uno cuenta con una página con su perfil. En mayo de 2007 Facebook lanzó una plataforma (API) para desarrolladores que permite integrar productos de otros con la red social de Facebook. Los usuarios pueden añadirla a su perfil y aquéllos se quedan con los ingresos publicitarios generados. Para muchos, Facebook ha sido el fenómeno de Internet del año 2007, “año en el que las redes sociales on line dejaron de ser territorio exclusivo de adolescentes y estudiantes universitarios”.8 Curiosamente Facebook ha tenido que dar marcha atrás en algunas de sus decisiones por protestas de los usuarios. Por ejemplo, en diciembre de 2006 unos sesenta mil de estos exigieron a la empresa que retirara un sistema publicitario con el que compartía datos de sus compras. Hay que señalar que los millones de clientes de Facebook cuentan sus experiencias, sus gustos, sus vidas, añaden su currículo, etc. Esta información se convierte en pública, lo que puede acarrear no pocos problemas. Esta advertencia vale lo mismo para otros sitios Web sociales parecidos. Hará falta tiempo para observar qué rumbo toma este tema. Sabemos que no tardará en aparecer la versión en castellano de Facebook.
Facebook, el fenómeno “internetero” de 2007, En El País. com: http://www.elpais.com/ articulo/internet/Facebook/fenomeno/internetero/2007/ elpeputec/20071229elpepunet_1/ Tes [Consultado el 3 de enero de 2008]. 8
133
– MySpace (http://www.myspace.com) Se trata de la red social más conocida y utilizada. Fue creado por Tom Anderson y Chris De Wolfe y lanzada en octubre de 2003. Su finalidad inicial era ofrecer a músicos independientes espacio para publicar y dar a conocer sus obras. Finalmente derivó en un sitio para expresarse y comunicarse con otras personas.
Imagen 2. Captura de pantalla de la página de inicio de Myspace en castellano.
En julio de 2005 fue adquirido por News Corporation, dirigida por el conocido Rupert Murdoch. Cuenta con ediciones propias en varios sitios, entre los que figura España. Cada usuario crea su propio espacio y puede utilizar los servicios que se prestan: blog, mensajería instantánea, correo electrónico, streaming para música, vídeos musicales, fotografías, anuncios, acontecimientos o eventos, grupos, comunidades, foros, etc. En enero de 2007 tenía 200 millones de cuentas9.
Compartir marcadores
9 Para más información sobre MySpace visite Wikipedia: http:// en.wikipedia.org/wiki/MySpace [Consultado el 8 de enero de 2008].
134
– Del.icio.us (http://del.icio.us) Se trata de un servicio gratuito de gestión de marcadores sociales en la Web. Sabemos que estos pueden almacenarse en nuestro navegador y que, incluso, podemos clasificarlos en carpetas y por temas. Sin embargo, siguiendo las tendencias de la Web 2.0, podemos almacenarlos en sitios Web, etiquetarlos y compartirlos con otros usuarios. También podemos determinar cuántos han guardado en sus marcadores determinados enlaces. Del.icio.us comenzó a funcionar en el año 2003 y el 9 de diciembre de 2005 fue adquirido por Yahoo! La sencillez de su uso puede haber contribuido a su éxito y popularidad. Normalmente se instala una extensión en el navegador (la hay disponible pa-
ra Firefox10) y cuando nos interesa guardar, activamos el servicio de almacenamiento recogiendo la dirección de esa página y su título. Del.icio.us posee un sistema de sindicación Web mediante RSS y una API o Interfaz de Programación de Aplicaciones que permite crear aplicaciones que trabajen con la misma. Desde la página principal del sitio se puede acceder a una hotlist y a las páginas más recientes y más populares.
Imagen 3. Detalle de la extensión del.icio.us para Firefox, que facilita la labor.
Para activar el servicio tenemos que ir a la página de del.icio.us y registrarnos. Basta con facilitar un nombre o palabra de usuario, una contraseña y una dirección de correo electrónico. A continuación se siguen los pasos que se indican: Keep, Share y Discover. Es decir, se colocan los marcadores de las páginas favoritas, artículos, blogs, etc.; se comparten con la familia, amigos o un grupo, o bien con la comunidad delicio.us; se descubren nuevos sitios explorando los servicios que ofrece el sitio. Normalmente se instalan los bookmarklets que son dos: uno para agregar a nuestros marcadores en la página que estemos viendo y otro para abrir la lista de marcadores personal en del.icio.us. Después se transfieren los marcadores que tengamos en el navegador para disponer de ellos inmediatamente. Para ello vamos a “settings” y a continuación a la opción “import/upload”, facilitando el nombre del archivo en el que previamente hayamos guardado los marcadores de nuestro navegador. También se pueden exportar o hacer un backup. Incluso puede integrarse en Facebook. Una vez llevadas a cabo estas operaciones, cada vez que estemos navegando y queramos anotar una referencia haremos clic en el botón de añadir de la barra de marcadores. De todas formas es cuestión de explorar el sitio, revisar las ayudas y ver la página “settings”, ya que constantemente se añaden utilidades. Dentro de nuestra página de del.icio.us, cuando estemos en la página de bookmarks o marcadores, nos aparecen con la posibilidad de editarlos o borrarlos. Si los editamos se muestra información sobre el título, la URL, nota o comentario y las tags; podemos variar el contenido de cada uno de estos campos. También nos aparece una etiqueta o palabra clave a la que se ha asociado y las personas que la han agregado. Si es así pulsamos sobre el enlace y podemos visualizar de qué usuarios se trata y la fecha en la que lo guardaron. En la columna derecha de la pantalla se muestran las etiquetas; puede elegirse que se visualicen como nube (cloud) o como lista. Los tags son etiquetas (palabras clave o descriptores) que se asignan a los enlaces para agruparlos por categorías.
Permite integrar del.icio.us con el navegador. Esta es la dirección de donde se puede bajar: https:// addons.mozilla.org/es-ES/firefox/ addon/3615
10
135
Cada enlace puede estar relacionado con varios tags, que se pueden borrar, añadir (se crean automáticamente la primera vez que se usan) o unir en cualquier momento. Recordemos que hemos señalado que puede utilizarse RSS que permite suscribirse a cualquier tag, usuario, combinaciones de ambos, los más populares, etc., para recibir los enlaces a través de cualquier lector de RSS del ordenador local o a través de una interfaz Web. Hay otros sitios que facilitan el mismo servicio. Entre estos podemos mencionar: – Backflip (http://www.backflip.com) – LookSmart’s Furl (http://www.furl.net) – Spurl.net (http://www.spurl.net)
Los blogs o bitácoras11
11 Sobre este tema véase: Blood, R. Universo del Weblog, Barcelona, Ediciones Gestión, 2005; Bruguera, E., Los blogs. Barcelona, UOC, 2007; Orihuela, J.L. La Revolución de los Blogs, Madrid, La Esfera de los libros, 2006. 12 Véase el informe en esta URL: http://www.zeddigital.es/comments.asp?id=164 [Consultado el 3 de enero de 2008].
136
El término Weblog fue acuñado por John Barger (1964-) en 1997 para referirse a páginas en las que un usuario daba a conocer al resto cuáles eran sus páginas preferidas. Hoy, Weblog (abreviado blog) significa algo más: sitio Web donde se recopilan de forma cronológica mensajes, anotaciones o posts, por uno o más autores, sobre temas más bien concretos. Suelen estar redactados en un estilo personal, directo y fresco. Desde el punto de vista de la tecnología el blog es una página Web en la que su edición y publicación se ha simplificado al máximo con el fin de que el usuario pueda publicar sus contenidos sin tener conocimientos específicos de elaboración de páginas Web. Es difícil saber con exactitud la cifra de blogs actualmente existentes. En el año 2004 la editorial Merrian-Webster anunció que blog había sido la palabra más buscada en sus diccionarios por los usuarios de Internet. Esto ponía de manifiesto el auge del fenómeno. En abril de 2007 se contabilizaban unos 71 millones en Technorati. Éste fue fundado por Dave Sifry y viene a ser un motor de búsqueda de blogs. Cuenta con una comunidad activa de desarrolladores partidarios del software libre. La cifra de blogs se está frenando ultimamente, de forma que se estima que la duplicación ocurrirá cada diez meses. La mayor parte de los blogs son de texto, pero también hay audioblogs (en formato audio), fotoblogs, videoblogs, e incluso moblogs (imágenes capturadas mediante móviles). Respecto a España disponemos del estudio realizado por José M. Redondo, de Zed Marketing, Estudio sobre uso, interés, conocimiento y percepción de la blogosfera española (2007)12. El estudio se realizó con una muestra de 2.067 individuos residentes en España de 14 a 54 años de edad, ajustados por cuotas de edad y sexo al perfil de Internet. De estos leían blogs el 42,7 por ciento, leían y comentaban el 30,6 por ciento, y tenían algún blog el 26,7 por cien. Se trata de un fenómeno claramente concentrado en aquellos ususarios con mayor antigüedad en la Red; el 77,3 por ciento de los encuestados llevaba más de 5 años como internauta. La cifra subía al 79,5 por ciento en el caso de los bloggers. Los valores fundamentales que se asocian a los blogs son la participación y la independencia. Los usuarios que tienen un blog mantienen un hábito de frecuencia de lectura mucho mayor que el resto. El 45 por ciento de los bloggers afirma leer al menos una vez al día, mientras que lo que lee y comentan sólo un 26,4 por ciento y los “sólo lectores” son un 12 por ciento. El tiempo medio de lectura de todos es de
3,6 horas semanales; los que tienen blog doblan el tiempo de los que sólo leen. La principal fuente de conocimiento de nuevos blogs es a través de amigos y conocidos, especialmente en el caso de los bloggers. Son también estos últimos los que utilizan las citas en otros blogs como fuente para investigar nuevos blogs. Respecto a los temas, la mayor parte son bitácoras personales o de amigos (68,4 por ciento), seguidos por blogs de informática (35,4), cine y espectáculos (28,5), viajes y turismo (25,4). En cuanto a las motivaciones figura sobre todo la de compartir experiencias personales con personas afines, seguida de la posibilidad de ofrecer una opinión contrastada al autor de un blog. En lo que se refiere a herramientas que utilizan los bloggers españoles para publicar sus blogs figuran: Microsoft Live Spaces (26 por ciento) y Blogger (20,9 por ciento). De la gran cantidad de blogs existentes en el mundo, algunos, en torno a unos 4.000, tienen mucha influencia, que se mide por el número de enlaces que reciben cada seis meses (más de 500). Su frecuencia media de actualización suele ser de dos veces al día. La lengua que domina en la blogosfera es el japonés (37 por ciento de todos los posts), seguida por el inglés (36 por ciento), y por el chino (8 por ciento). El castellano ocupa el cuarto lugar (3 por ciento)13. Con el blog surgieron los habituales términos permalink (enlace permanente a un post o artículo de una bitácora), blogroll (colección de enlaces de un Weblog que llevan a otros blogs, y que se sitúan en la barra lateral), y trackback (un enlace inverso que permite conocer qué enlaces apuntan hacia un determinado post o entrada; de ese modo avisa que se está citando uno de sus posts). En castellano se utiliza la palabra bitácora, aunque no es de extrañar que el término blog acabe siendo aceptado por la Real Academia de la Lengua. Desde otra perspectiva los blogs son “espacios personales de comunicación en los cuales se desarrollan nuevas formas de sociabilidad que no están basadas únicamente en la comunicación textual, sino en mecanismos y prácticas conectivas, que no aportan información, pero que consiguen crear entre sus participantes la sensación de que existe un espacio compartido para comunicarse”14. Ante todo son espacios personales, medios de expresión para sus autores, que lo experimentan como un “medio protegido”, porque controlan la interacción que se desarrolla en ellos. Estos espacios vienen a ser una representación de la identidad creada por sus autores15. Los blogs se están convirtiendo en importantes espacios para la comunicación. Lo que en ellos se escribe está destinado a los demás. Se integran en lo que se llama blogosfera, que no es un mero repertorio de blogs, sino también el conjunto de conexiones e interacciones que se establecen entre ellos. La blogosfera no es, pues, una “construcción técnica” sino un espacio tanto material como simbólico que se constituye como el conjunto de los blogs y todo lo que hay entre ellos16. Ha llegado a crearse una cultura blog con sus pautas de comportamiento características.
Buscadores de blogs de medicina Es difícil señalar blogs interesantes para los profesionales de la medicina. Lo mejor es utilizar los buscadores específicos y genéricos que hay para ello. A continuación se señalan algunos.
13 Véase Castells, M. et al, La transición a la sociedad red. Barcelona, Ariel-UOC-Generalitat, 2007, pp. 72-77. 14 Estalella, A. La construcción de la blogosfera. Yo soy mi blog (y sus conexiones). En: Cerezo, J. M. (dir.). La blogosfera hispana: pioneros de la cultura digital. Madrid, Fundación France Telecom España, 2005, p. 22. 15 Véase Nonnecke, B. y J. Preece “Silent participants: Getting to know lurkers better”, en: C. Lueg y D. Fisher (ed.), From Usenet to CoWebs: Interacting with Social Information Spaces, Springer Verlag ; Rodzvilla, J. (ed), “We’ve Got Blog: How Weblogs are Changing Our Culture”, Cambridge MA: Perseus Publishing, 2002; Mora, Vicente L. Pangea. Internet, blogs y comunicación en un mundo nuevo. Sevilla, Fundación José M. Lara, 2006; Orihuela, J. L. La revolución de los blogs. Madrid, La Esfera de la cultura, 2006. 16 Estalella, Adolfo. Op. Cit., p. 30
137
– Medlogs (http://www.medlogs.com/) Se trata de un agregador de noticias y blogs de tipo médico. Pueden elegirse las siguientes secciones: “Nurses”, Patients”, “Geeks”, “Health Biz”, Med News”, “Residents/Students”, “Law” y “More”. Permite buscar y también añadir feeds. – El buscador Ask (http://es.ask.com/) ya ha sido analizado en otra sección. También ofrece búsqueda de blogs. Hay interfaz en castellano y también en inglés (http://www.ask.com/?o=333#subject:bls|pg:1). – Buscador de blogs de Google (http://blogsearch.google.com/) – Wikio (http://www.wikio.es/). Proporciona información de más de 33.658 medios y blogs de distintas categorías entre las que se encuentra la de “Salud”. Wikio es europeo. Fue creado en 2006 por Pierre Chappaz, ingeniero de Kelkoo. Tiene versiones en francés, italiano, español, alemán e inglés. Todavía se encuentra en fase beta. Wikio elabora listas de los blogs más importantes según una serie de criterios. La posición de un blog en Wikio depende del número y valor de los vínculos que apuntan hacia el mismo. Estos vínculos son dinámicos. No se tienen en cuenta los enlaces del blogroll. El período de validez de los enlaces se limita a los últimos cuatro meses (120 días), aunque las distintas categorías van actualizándose a principios de cada mes. En la tabla 1 podemos ver la relación de la última lista de los blogs preferidos17 de Wikio en el campo de la medicina o de la salud (enero de 2008). Tabla 2. Blogs sobre salud y medicina más populares según Wikio Orden
Nombre
URL
1
Medgadget
http://www.medgadget.com/
2
Diabetes Mine
http://www.diabetesmine.com/
3
Kevin, MD.- Medical
Weblog
http://www.kevinmd.com/blog/
4
Insureblog
http://insureblog.blogspot.com/
5
ScienceRoll
http://scienceroll.com/
6
Doctor Anonymous
http://doctoranonymous.blogspot.com/
7
Health Care Renewal
http://hcrenewal.blogspot.com/
8
I Hill change your life.com
http://www.iwillchangeyourlife.com/
9
Furious Seasons
http://www.furiousseasons.com/
10
Slow Down Fast Today!
http://www.slowdownfast.com/blog/
Fuente Wikio: http://www.wikio.com/blogs/top/health#how
17
A fecha de enero de 2008.
138
– Technorati (http://technorati.com/). Se trata de un motor de búsqueda específico para blogs. Fue creado por Dave Sifry y su sede principal está en San Francisco, California. Posee una comunidad de desarrolladores activa, a la que pertenecen muchos desarrolladores de la cultura del software libre. En Technorati, si buscamos blogs sobre medicina, nos arroja la cifra de 5.869. Algunos tienen
una authority alta, superior a 500, como Health News (Medicine, Diet, Fitness and Parenting from CNN.com) (http://www.cnn.com/HEALTH); A Blog around the Clock (http://scienceblogs.com/clock); Improbable Search (http://improbable.com); o Respectful Insolence (http://scienceblogs.com/insolence). Si en vez del término “Medicine” introducimos “Health”, la cifra sube a 33.530 blogs. Entre los blogs más interesantes de medicina se encuentran los de casos clínicos y los de imágenes. Uno de ellos es Clinical Cases and Images Blog (The Blog of clinicalcases.org with medical Tech and other Interesting stories (http://casesblog.blogspot.com/). Otros blogs muy activos son Terra Sigilata. Medicines on the Web, escrito por un farmacólogo y que trata temas de productos naturales, fármacos, suplementos dietéticos, periodismo médico, etc. (http://scienceblogs.com/terrasig/); Corpus callosum, escrito por un psiquiatra, que trata de aunar la ciencia más dura con las ciencias sociales (http://scienceblogs.com/corpuscallosum/); The Cheerful Oncologist, publicado por un oncólogo (http://scienceblogs.com/thecheerfuloncologist/); Effect Measure, publicado por varios científicos dedicados a la salud pública (http://scienceblogs.com/effectmeasure/); Molecule of the day, escrito por químicos, que pretenden relacionar esta ciencia con la vida real (http://scienceblogs.com/moleculeoftheday/); etc. Los blogs se van descubriendo con el tiempo. Cuando se busca información, los buscadores nos mandan a posts que proceden de diferentes bitácoras; la mayor parte de las veces los enlaces de un blog te llevan a otro, y éste a otros, y así uno va creando su “cartera de blogs favoritos” que sigue con frecuencia. Para tenerlos siempre a mano no hay nada mejor que una herramienta de suscripción y lectura de feeds, como las que hemos mencionado en el capítulo correspondiente.
Crear un blog Crear un blog es fácil, por lo menos, al principio. Los sistemas de blogs más populares facilitan la tarea proporcionando de forma gratuita el software de gestión de contenido necesario y el servidor conectado a Internet. Todos disponen de ayudas útiles. Entre los más cómodos, fáciles y conocidos, podemos mencionar Blogger (https://www.blogger.com/) o Blogspot (http:// blogspot.es/), que permiten publicar de un modo muy sencillo. En castellano existen sus equivalentes, como Lacoctelera (http://www.lacoctelera. com/); Bitácoras.com (http://bitacoras.com/); Blogia (http://www.blogia. com/); Blogalia (http://www.blogalia.com/); blogs de Ya.com (http://blogs. ya.com/), o los servicios que han creado algunos diarios como El País (La Comunidad, http://lacomunidad.elpais.com/). Si el blog se prolonga en el tiempo y progresa o disfruta de “cierto éxito”, notaremos los límites que imponen los sistemas de publicación que hemos mencionado. Es el momento de dar un paso más. Entonces hay que buscar un sistema de publicación más completo y sofisticado y ponerlo en marcha en un servidor. Los gestores más populares son Movible Type y, sobre todo, Word Press. Son gratuitos, pero se necesitan ciertos conocimientos y pericia para ponerlos en funcionamiento. También hay que buscar un sitio donde 139
alojarlo, por lo que tendremos que pagar una cantidad cada mes o cada año; no suele ser muy alta. Hay sitios de alojamiento en los Estados Unidos que cuestan en torno a los 6 euros mensuales. Yahoo!, por ejemplo, te proporciona además los gestores que hemos mencionado.
Imagen 4. Captura de la conocida interfaz de Google Blogger para crear un blog “en tres pasos”.
Véase “Los cinco pasos necesarios que hay que dar antes de crear un blog”: http://www.tabernadelturco.com/2005/05/10/ los-5-pasos-necesarios-que-hayque-dar-antes-de-crear-un-blog [Consultado el 20 de mayo de 2005]. También es muy últil de libro Blood, R. Universo del Weblog, Barcelona, Ediciones gestión, 2005. 19 Véase Wired 15-12-2007 http:// www.wired.com/culture/lifestyle/ news/2007/12/blog_advice [Consultado el 18 de diciembre de 2007]. 18
140
No obstante, antes de crear un blog son necesarios cinco pasos18: (1) tener una necesidad que lo justifique; (2) ¿queremos pagar o lo queremos gratis?; (3) seleccionar un gestor de contenidos, aunque si optamos por un alojamiento gratuito, nos vendrá impuesto; (4) ajustar o personalizar el blog a las propias necesidades; y (5) arrancar y tener en cuenta algunos consejos para escribir (ser original, “enlazar y enlazar”, extensión adecuada de los posts, cuidar la ortografía y la sintaxis, y madurar las anotaciones, entradas o posts. Para terminar este apartado, en Wired, en el décimo aniversario de la creación del término Weblog, su creador John Barger publicó una serie de recomendaciones para escribir y publicar un buen blog19: 1. “Un verdadero Weblog es un registro de todas las URL que se desea guardar o compartir. (Así, ahora es mejor “del.icio.us” que “blogger.com”.)”. 2. “Puede incluir enlaces a sus ideas originales publicadas en otros lugares… pero si tiene más posts originales que enlaces, probablemente necesite aprender algo de humildad”. 3. “Si pasa un poco de tiempo buscando antes de publicar, probablemente encontrará su idea mejor expresada en otros lugares”. 4. “Ser sincero es siempre mejor que eliminar un enlace sólo porque parezca que no está de moda. Sus lectores deben conocerle”. 5. “Siempre se puede mejorar el trato hacia el propietario de la página citada, al describir correctamente el enlace que se pone. Eso ayuda a que el lector reconozca la página y no la tenga que revisar si ya la ha visitado antes”. 6. “Añada siempre algún adjetivo como útil, imaginativa, inteligente…, que describa su reacción a las páginas que enlaza)”. 7. “Cite siempre la fuente de la que haya extraído un enlace, de tal forma que sus lectores puedan seguir el rastro para acceder a ella”.
8. “Advertir sobre la posibilidad de que el post tenga un formato extraño, y no camuflar el enlace principal entre otros links “auxiliares” innecesarios”. 9. “Escoja algunos de sus autores favoritos y cree un feed en Google News para detectar nuevos comentarios. 10. “Vuelva a repetir sus enlaces favoritos de vez en cuando, para las personas que se los hayan perdido la primera vez”.
Los podcasts Se trata de una forma de comunicación que se basa en dos tecnologías: los archivos de audio digitales y RSS. Como ya se ha visto, RSS es parte de la familia de los formatos XML, que se desarrollaron para sitios de noticias y blogs. Permiten compartir información y usarla en otros sitios Web20. Podcast viene de Pod (vaina, cápsula) y Broadcast (emisión, difusión, transmisión). Los contenidos se graban en formato audio mp3 u OGG, aunque es posible hacerlo en otros, pero no son tan populares. Estos aúnan calidad y archivos de poco peso. Para grabar tenemos excelentes aplicaciones gratuitas, como Audacity (http://audacity.sourceforge.net/), disponible en versión castellana. Con ella se genera un archivo de audio. Si está en mp3 no hay que convertirlo; si no es así habrá que hacerlo.
Imagen 5. Interfaz y logo de Audacity, excelente aplicación gratuita para grabar y editar sonidos.
Después se edita la etiqueta ID. Para ello puede utilizarse el mismo Audacity, Itunes (http://www.apple.com/es/itunes/download/), WinAmp (http:// es.winamp.com/) u otros reproductores de Mp3. A continuación hay que alojar el podcast en algún servicio de hosting, como Podomatic (http://www.
20 Más información sobre Podcasting véase la guía práctica Marcelo, J.F.; Martín, E. Podcasting. Madrid, Anaya, 2008.
141
podomatic.com/), Libcast (http://www.libcast.com/?UserNewLang=es), o Educasting (http://www.educasting.info/), entre otros. En estos servicios se proporciona una URL para el podcast y un RSS válido. Otra posibilidad es subirlo a un servidor donde se tenga alojamiento Web contratado. En ese caso hay que elaborar el archivo RSS con alguna plantilla XML o con alguna aplicación de las muchas que existen como iPodder para Windows, Mac o Linux (http://juicereceiver.sourceforge.net/index.php), Doppler, para Windows (http://www.dopplerradio.net/), o Easypodcast para Windows y Linux (http://www.easypodcast.com/). Finalmente, para darlo a conocer se puede dar de alta en alguna lista como Podcast-es (http://www.podcast-es.org). Una de las ventajas de los podcasts es que pueden descargarse en los lectores de mp3, como el Ipod, y escucharse en cualquier sitio. Tabla 3. Nature.com podcasts (enero de 2008) Título del podcast Contenido Nature Podcast Noticias semanales sobre ciencia e investigación Cancer Podcast Noticias y entrevistas sobre la investigación oncológica Genetics Podcast Investigación, entrevistas y noticias sobre las ultimas investigaciones sobre el tema. NeuroPod Mensual. Noticias sobre investigación y revisiones de las reviestas de neurociencias. En colaboración con Dana Foundation Physics Podcast Podcast de física World Herat Elaborado en 2006 con motivo del día Day Podcast internacional del corazón, en colaboración con el World Herat Federation Bio Internacional Debates y noticias diarias durante Convention Podcast la BIO International Convention Chemistry Podcast Varios podcasts que se han publicado cada dos meses desde 2006 para la comunidad de químicos, con entrevistas a premios nobel, debates sobre nanotecnología, etc. Heredity Podcast Elaborados mensualmente por Elli Leadbeater y Steve Le Comber. Contienen entrevistas a científicos relevantes sobre el tema y ofrecen también noticias que proceden de Heredity (editor Richard Nichols del Queen Mary University of London.) Stem Cells Podcast monográfico elaborado en 2006 sobre el tema Systems Biology Cuatro especialistas americanos y europeos Podcast discuten sobre biología de sistemas en una mesa redonda. Intervienen también estudiantes de posgrado. Producido por Applied Precision, en colaboración con Nature Cell Biology y Nature Reviews Molecular Cell Biology. 142
Existen muchos podcasts de tipo médico. Los que habitualmente consultan revistas científicas conocidas (New England Journal of Medicine, Nature, The Lancet, etc.)21 en red, habrán observado que se ofrecen este tipo de archivos sobre algún tema monográfico, los sumarios, etc. En la tabla 2 podemos ver los podcasts disponibles en el sitio Web de la revista Nature. Igual que nos suscribimos a los blogs y noticias que nos interesan, podemos hacerlo a los podcasts. Una forma fácil de hacerlo es a través de la aplicación gratuita de Apple, Itunes, complemento del lector de mp3 Ipod. Hay versiones para Mac y Windows. Una vez arrancado el programa pulsamos sobre el enlace “iTunes Store”. Se abre una nueva página con un nuevo menú en la columna de la izquierda. Pulsamos sobre el enlace Podcasts y nos aparecen dos listas: podcasts por categorías (arte, economía y empresa, salud, ciencia y medicina, etc.) y otra por “creadores destacados” (BBC, Cadena ser, Deutsche Welle, etc.). Pulsando sobre la categoría “Ciencia y medicina”, aparece el submenú (Imagen 6). Seleccionamos “medicina” y en la parte principal de la página aparecen las series de podcasts más destacados con algunos datos: imagenlogo, título y productor. En la columna derecha nos aparecen en forma “Top Podcasts”. Desde ambos sitios podemos seleccionar el podcast que nos interesa. Imagen 6. Captura de pantalla de la interfaz de Podcasts, de Itunes Store.
Entre los más escuchados están; NEJM This Week, The Brain Science Podscast, Medical Matters, Listen to the Lancet, MicrobeWorld Video, Annals of Internal Medicine Podcast, National Institutes of Health (NIH Podcast), Medicina Basada en Evidencias (México). Algunos podcasts de tipo médico los encontramos en las páginas Web correspondientes. Por ejemplo la John Hopkins ofrece PodMed22, una página dedicada al tema donde llevan ofreciendo
21 Véase Abbasi, K. Journals join the podcast revolution. J.R. Soc. Med. 2006; 99: 329 y Boulos MNK, Maramba I, Wheeler S. Wikis, blogs and podcasts: a new generation of Web-based tools for virtual collaborative clinical practice and education. BMC Med Educ 2006;6:41. 22 La URL es la siguiente: http:// www.hopkinsmedicine.org/mediaII/Podcasts.html [Consultado el 20 de enero de 2008].
143
archivos de audio semanalmente desde octubre de 2005. Otro ejemplo es la Cleveland Clinic, que ofrece podcasts, videocasts tanto para los profesionales como para los pacientes23. La Clínica Mayo dispone de Medical Edge Radio News y Medical Edge Televisión News que ofrece archivos de audio y de vídeo para el público en general y para los pacientes. Desde la misma página puede accederse también a una revista y un periódico24. Una vez seleccionado el podcast, clicamos sobre él y cambia la parte principal de la página (Imagen 7). En la nueva vamos a encontrar en la parte superior los datos (título, productor, categoría, idioma, si es o no gratuito, la descripción del mismo y un espacio para las reseñas de los usuarios). Aparte se nos ofrece la oportunidad de conocer los podcasts que eligieron otros usuarios del podcast en cuestión, comunicar algún problema o visitar el sitio Web asociado al mismo. En la parte inferior se muestra la lista de los episodios con sus datos (título, duración, productor, fecha de inserción, descripción) junto a un botón que pone “Obtener episodio”. Si pulsamos se cargará a nuestra carpeta de podcasts del programa Itunes. Lo podremos escuchar en el ordenador o cargarlo en el Ipod para escucharlo cuando y donde queramos. Podemos suscribirnos pulsando el botón “suscribirse” en la parte superior de la pantalla. Esto significa que cada vez que abramos la aplicación iTunes, se buscarán actualizaciones de los podcasts a los que nos hemos suscrito y se descargarán automáticamente.
Imagen 7. Captura de pantalla donde se muestra el Podcast y la lista de los distintos episodios, en iTunes Store.
La URL del sitio es: http://www. hopkinsmedicine.org/mediaII/Podcasts.html [Consultado el 20 de enero de 2008] 24 La URL es: http://www.medicaledge.org/index.html [Consultado el 20 de enero de 2008] 23
144
Otra utilidad muy importante de iTunes Store es que tiene un canal específico para podcasts y videopodcasts de las universidades de los Estados Unidos: “iTunes U”. El enlace se encuentra en la pantalla principal. Si pulsamos sobre él, aparece en la parte inferior la lista de universidades que aportan materiales. En la parte principal de la pantalla aparecen los podcasts. Encon-
tramos títulos tan sugerentes como Anatomy of Movement (Stanford), Biochemistry (Seattle Pacific University), Evolution: Our World and Ourselves (University of Arizona), etc. En realidad se trata de conferencias o series de conferencias sobre un tema, clases, demostraciones de laboratorio, noticias de las asociaciones de alumnos, noticias de las universidades, etc. Los contenidos crecen día a día. Muchos de ellos son videocasts, lo que aporta valor añadido.
YouTube y otros sitios Web de vídeos científicos YouTube es el conocido sitio Web que permite a los usuarios compartir vídeos o clips de vídeo a través de la World Wide Web. Fue fundado en febrero de 2005 por tres antiguos empleados de PayPal: Chad Hurley, Steve Chen y Jawed Karim. Pronto obtuvo una gran popularidad y, el 10 de octubre de 2006, fue adquirido por Google por 1.650 millones de dólares. El contenido se distribuye en formato flash. Lo que se puede encontrar en YouTube es todo tipo de material como videos caseros, fragmentos de programas de televisión, fragmentos de películas, vídeos musicales, cursos, tutoriales, y un largo etcétera. YouTube ha tenido un gran impacto en la cultura popular. Obtuvo el premio al invento del año que otorga la revista Time en noviembre del 2006. El sitio se ha convertido en un medio de difusión con un poder extraordinario que están considerando los medios tradicionales, el mundo de la política, el de la publicidad, etc. YouTube es muy fácil de usar, tanto para ver los vídeos como para publicarlos. Está en diez idiomas. Permite ordenar los contenidos por varias categorías: los más vistos, los más recientes, los más valorados, los más comentados, los más enlazados, por temas, por idioma, por canal, por autor, por las etiquetas que generan los usuarios para describir los vídeos, etc. Es el usuario el que elige la forma de navegar que le resulte más útil o conveniente. YouTube también permite insertar comentarios a los usuarios sobre los vídeos que ven y, para los que publican, tomar la decisión de si son públicos o privados (para amigos, familiares, grupos, etc.). Los vídeos de Youtube también pueden insertarse y verse en páginas Web y blogs; el procedimiento para hacerlo es muy sencillo, ya que se proporciona el código necesario. Al principio YouTube dispuso que no pudieran bajarse los vídeos. Para evitar copias de los archivos se distribuían en formato propietario de la empresa Adobe Flash FLV, como hemos dicho, que impide a los usuarios hacer copias digitales fácilmente. No tardaron en aparecer diversos programadores que crearon herramientas que permiten la descarga de los videos alojados en el sitio. En YouTube hay mucho material con derechos de autor y, de hecho, la compañía ha sido demandada varias veces por empresas y firmas muy conocidas. Pero es tal la popularidad que muchas han retirado las demandas y han abierto canales propios donde publican programas ya emitidos en canales de televisión, vídeos musicales u otros materiales. Es muy difícil luchar contra la tendencia de un público masivo defendiendo modelos de negocio que se están quedando anticuados. En España, diversas cadenas de televisión como 145
Tele5, Rtve, Antena 3, Cuatro y Digital + han llegado a acuerdos con YouTube y tienen su propio canal. La primera universidad española en ver el potencial de YouTube ha sido la Universitat Oberta de Catalunya (UOC), que abrió canal en junio de 2006 (http://es.youtube.com/uoc). Su objetivo es poner al alcance de todos (comunidad universitaria y población en general) conferencias y actos organizados por esta universidad, para compartir y difundir el conocimiento que se genera. En estos momentos (enero de 2008) cuenta con 42 vídeos. La UOC ha seguido el camino de otras universidades como: Vanderbilt University (http://uk.youtube.com/vanderbilt), Berkeley, University of California (http://uk.youtube.com/ucberkeley), Duke University (http://uk.youtube. com/dukeuniversitynews), Washington University (http://uk.youtube.com/ wustlpa), y Massachussetts Institute of Technology (http://uk.youtube.com/ mit), entre otras. Por supuesto, en YouTube podemos encontrar gran cantidad de vídeos de contenido médico. Desde la perspectiva del enfermo también se ha visto la oportunidad de dar a conocer experiencias a través de este popular medio. Un ejemplo lo tenemos en el canal que ha abierto la Asociación Española contra el Cáncer (http://uk.youtube.com/user/aecc), en el que se señala “Aquí encontrarás de una manera clara qué es el cáncer y cómo luchar contra él, un vínculo entre todos los que luchamos por paliar y erradicar el cáncer”. En estos momentos cuenta con 62 videoclips y, a poco tiempo de su apertura, registra 13.480 visitas25.
Alternativas específicas a YouTube para vídeos educativos y científicos
25 A fecha 4 de febrero de 2008, Día Mundial de Lucha contra el Cáncer.
146
Existen otros repositorios de vídeos más específicos en la red, como los científicos, los educativos o de lo que se conoce como “tutoriales” de aplicaciones informáticas. Vamos a revisar algunos: – Videolectures (http://videolectures.net/). Es un repositorio audiovisual de clases, conferencias, entrevistas, seminarios, etc. En este momento cuenta con 115 eventos, 1.984 clases o conferencias, y 2.956 vídeos, de un total de 1.739 autores. Desde la página principal se puede acceder a los más populares, los últimos incluidos, un listado por categorías, lista de eventos, gente (nombre y vídeos de cada autor), entrevistas, y manuales o tutoriales. Por categorías vemos que destacan los vídeos relacionados con las ciencias de la computación; 1.034 frente a 37 de tema de “negocios”, que es la segunda categoría con más vídeos. – SciVee (http://www.scivee.tv/). Un sitio creado por y para los científicos y trata de favorecer que estos utilicen todo el potencial de Internet. SciVee se ha hecho realidad con la colaboración de la Biblioteca Pública de la Ciencia (PLoS), laNational Science Foundation (NSF) y el San Diego Supercomputer Center (SDSC). SciVee permite a los científicos comunicar sus trabajos en forma de una presentación multimedia (vídeo, audio, etc.) que se incorpora al contenido de los artículos que ya han sido publicados en alguna revista científica. Esto permite que otros puedan ver las presentaciones y
participar en debates virtuales con el autor y con otros lectores. SciVee también facilita la creación de comunidades en torno a determinados artículos y temas. – DnaTube (http://www.dnatube.com/). Es otro sitio que aloja vídeos científicos; de momento sólo de biología en sentido amplio. Fue creado en enero de 2007. Desde la página principal podemos acceder a un listado por universidades. En cada una figuran el número de miembros inscritos y el de vídeos alojados. En la lista de categorías hallamos una mezcla de temas y géneros (entrevistas, tutoriales, experimentos, etc.). También podemos acceder a la lista de los últimos, de los más vistos, de los mejor valorados, etc. En estos momentos cuenta con 838 vídeos de acceso público, 2.707 socios o miembros registrados, que han visto 336.432 veces los vídeos alojados. – TeacherTube (http://www.teachertube.com/). Fue inaugurado oficialmente el 6 de marzo de 2007 después de una fase beta. Inspirado en una idea del educador Jason Smith, su objetivo es crear una comunidad en línea que comparta vídeos educativos. Profesores, estudiantes, escuelas y las familias son su público. La lista de categorías o canales alcanza la cifra de dieciséis y, entre éstas, “ciencias sociales”, “matemáticas”, “lectura”, “idiomas” y “ciencias”. Se puede acceder a los vídeos más vistos, los más recientes, los favoritos, los mejor valorados, etc. – Tutorial-lab (http://www.tutorial-lab.com/). Es un sitio parecido pero que tiene más frescura. No se trata de profesores, expertos o conferenciantes, sino que cualquier persona puede subir su vídeo para explicarnos cómo se hace algo, generalmente sobre aplicaciones informáticas. A veces se trata de cosas muy concretas, pero hay que reconocer que los vídeos son útiles. Encontramos, por ejemplo, cómo acelerar Emule, cómo crear una determinada forma en 3D Studio, o cómo bajar vídeos de YouTube. Tutorial-lab es una iniciativa española y, según sus responsables, “ha sido creado como plataforma para impulsar la difusión de cultura de manera libre y gratuita”. En la página principal encontramos las categorías y los vídeos que hay de cada una. La que se lleva el lugar más destacado es “photoshop”, con 151 vídeos, seguida de “Windows XP” (41) y de “3D Max Studio” (29). En el momento de consulta de la página hay más de 3.000 usuarios registrados, se visualizan más de 18.000 páginas al día y 9.500 personas visitan a diario el sitio. Desde la página principal se puede ver una lista de los últimos tutoriales que se han añadido y una lista de los más visitados. Útil para aprender determinadas aplicaciones informáticas. Aparte de estos sitios, es necesario seguir buscando en la red. Un buscador especializado es Science Hack (http://sciencehack.com/videos/index). Se puede buscar por términos y por materias. También muestra unas categorías preestablecidas como física, química, robótica, biología, matemáticas, etc.
Flick e imágenes médicas en la red Flickr.com (http://www.flikr.com) es otro grande de la Web 2.0 y es el referente, en estos momentos, en el mundo de la fotografía. Flickr permite almacenar las fotos propias en Internet, organizarlas y compartirlas con otros usuarios. Se utiliza el sistema de etiquetas (tags) para que puedan organi147
zarse y localizarse con facilidad. También pueden publicarse en un blog; de hecho muchos bloggers lo utilizan como repositorio. Igual que pasaba con YouTube, los usuarios pueden hacer comentarios o anotaciones en las fotos. Pueden subirse desde el ordenador personal, un móvil con cámara o por correo electrónico. Incluso cualquier fotografía puede ser localizada sobre un
Imagen 8. Captura de la interfaz de la página principal de Flickr en castellano.
Imagen 9. Captura de pantalla de una página de Flickr donde se pueden ver imágenes médicas (Clinical Cases and Images).
148
mapa. Permite buscar imágenes o fotos por etiquetas, por fechas y por licencias de Creative Commons. El sitio está en siete idiomas. Permite a los usuarios suscribirse al RSS de alguno en concreto para saber cuándo ha publicado nuevas imágenes. También pueden crear grupos públicos o privados para discutir temas relacionados con la fotografía. Flickr fue desarrollado por Ludicorp, una pequeña compañía de Vancouver que se fundó en el año 2002. Creado por Stewart Butterfield y Caterina Fake, se lanzó al mercado en febrero de 2004. En marzo de 2005 fue adquirida por Yahoo!, cuando el sitio contaba con 270.000 usuarios y cuatro millones de fotografías almacenadas. En la actualidad parece que hay 2.000 millones26. Flickr ofrece cuentas gratuitas que permiten subir hasta un máximo de 100 MB cada mes y cada foto no debe superar los 5 MB. Hay un servicio de pago de unos 25 dólares por año en el que desaparece el límite, y el tamaño de cada foto puede ser de hasta 10 MB. En Flickr pueden encontrarse muchas imágenes de tipo médico. Por ejemplo: Clinical cases and Images (http://www.flickr.com/photos/clinicalcases/), Medicine & Surgery (http://www.flickr.com/photos/jonmikel/ sets/340070/), y The Teaching Files: X-rays (http://www.flickr.com/photos/ mjagbayani/sets/895629/),
Slideshare o el YouTube de las presentaciones Slideshare es un producto de SlideShare Inc, una startup con sede en Mountain View, California y Nueva Delhi (India). Ofrece servicio gratuito para almacenar, organizar y publicar presentaciones. Sigue los patrones de diseño, interacción y participación de la Web 2.0. En este sitio podemos encontrar una gran cantidad de presentaciones de tipo médico. Las presentaciones hay que crearlas en el propio ordenador utilizando el programa Microsoft Powerpoint, OpenOffice, Keynote, o cualquier aplicación compatible con los formatos .PPT, .PPS u .ODP. También acepta pdf. Una vez subida y procesada, se convierten en formato flash. Cuando la subimos al sitio Web la etiquetamos con el título, palabras clave, descripción, idioma, etc. Asignada la URL podemos ver la presentación en tamaño normal o completo. Permite compartirla por correo electrónico o insertarla en un blog o una página Web. Una vez que está en el servidor podemos editar las etiquetas y cambiarlas. Podemos permitir que cualquiera pueda copiarse o bajarse la presentación al ordenador o bien impedirlo. También podemos escoger que sea de acceso público o privado (para un grupo, familia, amigos, etc.). Para los docentes y conferenciantes es muy útil, porque si el ordenador que se utiliza en el aula está conectado a Internet, puede utilizarse la presentación que se haya almacenado en Slideshare. Los estudiantes pueden consultarla cuando quieran e incluso pueden bajársela a su ordenador. Slideshare permite que los usuarios añadan comentarios a una presentación. Podemos acceder a las últimas que se han incorporado, las más vistas, las más bajadas, etc. También se permite formar grupos y suscribirse a las presentaciones de un determinado usuario.
Según Michel Arrington en el Blog TechCrunch: http://www. techcrunch.com/2007/11/13/2billion-photos-on-flickr/ [Consultado el 15 de diciembre de 2007].
26
149
Enciclopedias Web 2.0. y las wikis A continuación vamos a hacer referencia a las enciclopedias más populares de la Web 2.0. Una de ellas es extraordinariamente conocida. Las otras dos son proyectos. –Wikipedia (http://www.wikipedia.org) Wikipedia comenzó como un proyecto en lengua inglesa el 15 de enero de 2001. Sin embargo, en marzo del año 2000 Jimbo Wales creó Nupedia27 con Larry Sanger como editor jefe. Su objetivo era crear la mayor enciclopedia de la historia de contenido abierto, con libertad de distribución, gratuita y con licencia GNU, revisada por expertos y libre de prejuicios, entre otras características. Querían utilizar el sistema de revisión por pares y los redactores deberían pertenecer al mundo académico o ser expertos en la materia correspondiente. No se trataba de una wiki, es decir, no podía editarse. Se desarrolló hasta el año 2003 y sólo llegó a tener 24 artículos terminados y otros 74 camino de serlo.
Imagen 10. Logo de Nupedia, la enciclopedia que se considera predecesora de Wikipedia
Como el proyecto iba tan lento, se creó un wiki vinculado a Nupedia; todavía puede verse en la página inicial de Nupedia. La finalidad era agilizar la redacción de artículos de forma paralela sin que pasaran la revisión de los expertos. El éxito fue tal que acabó por eclipsar al proyecto original. Contribuyó el hecho de que apareciera mencionada en Slashot28 y en Kuro5hin29, sitios populares de noticias comentadas sobre tecnología y cultura. También hubo mucha colaboración de la comunidad hacker. De hecho en la versión inglesa Imagen11. Gráfico que representa el crecimiento de Wikipedia entre enero de 2001 y septiembre de 2002. Fuente: Wikipedia31
La URL actual de Nupedia es: http://nupedia.8media.org/ [Consultada el 15 de enero de 2008]. 28 Su URL es: http://slashdot.org/ 29 Su URL es: http://www.kuro5hin.org/ 27
150
es difícil no encontrar artículos de cualquier tema relacionado con el mundo tecnológico y, especialmente, Internet. Al principio la colaboración se solicitó a través de correos electrónicos. Todo se hizo con mucha transparencia. Por otra parte, el acierto de elegir un wiki30 como forma de funcionar, también contribuyó al rotundo éxito. Wikipedia se ha convertido hoy en la mayor enciclopedia del mundo. La versión inglesa, la mayor, tenía a fecha 1 de enero de 2008, 2.153.000 millones de artículos. Si se publicara en papel (volúmenes de 25 cm de alto por 5 de grosor y con 1.600.000 palabras), ocuparía 713 volúmenes. La versión española, con 325.053, se sitúa en el noveno lugar. En cuanto a usuarios o colaboradores de la versión en inglés, tienen registro 6.166.659, de los cuales 1.479 poseen herramientas administrativas. El segundo puesto lo ocupan los usuarios de la Wikipedia en español: 613.068 registrados, de los cuales 132 poseen herramientas de administración, que en castellano se les llama “bibliotecarios”32. Tabla 4. Número de artículos de Wikipedia según la lengua
Lengua Inglés Alemán Francés Polaco Japonés Holandés
Nº Artículos 2.169.533 690.741 605.975 459.157 455.651 397.145
Italiano Portugués Español Sueco
394.964 352.053 325.053 268.829
Fuente Wikipedia (27 de enero, 2008). Detrás de Wikipedia está Wikimedia Foundation33, organización sin ánimo de lucro destinada “a impulsar el crecimiento, desarrollo y distribución de contenido libre y plurilingüe, y a proveer el contenido completo de estos proyectos basados en la tecnología wiki al público sin costo alguno”. Todos los textos que se publican en Wikipedia están cubiertos por la licencia GNU (GNU Free Documentation Licence). El propósito de la misma es permitir que un manual, o un libro, artículo u otro documento escrito sea libre en el sentido de libertad: asegurar a todo el mundo la libertad efectiva de copiarlo y redistribuirlo, con o sin modificaciones, de manera comercial o no. En segundo término, esta licencia proporciona al autor y al editor una manera de obtener reconocimiento por su trabajo, sin que se le considere responsable de las modificaciones realizadas por otros. La licencia es de tipo copyleft, lo que significa que los trabajos derivados del documento deben a su vez ser libres en el mismo sentido. ¿Qué perfil tiene la gente que consulta Wikipedia? Utilizando datos de Hitwise34, el Pew Internet and American Life Project35analizó este aspecto36. El 36
30 Wiki es una herramienta colaborativa muy simple que permite que distintos usuarios publiquen, editen o borren contenidos en un sitio Web. 31 Véase http://en.wikipedia.org/ wiki/Image:Size_of_wikipedia_graph_sep_2002.png [Consultado el 8 de enero de 2008]. 32 Véanse sus tareas en la siguiente URL: http://es.wikipedia.org/wiki/ Wikipedia:Bibliotecarios [Consultado el 10 de enero de 2008]. 33 Su URL es: http://wikimediafoundation.org/wiki/Portada 34 Su URL es http://www.hitwise. com/ 35 Su URL es: http://www.pewinternet.org/ 36 El URL del documento en formato pdf es: http://www.pewinternet.org/pdfs/PIP_Wikipedia07. pdf, que se accede desde http:// www.pewinternet.org/PPF/r/212/ report_display.asp [Visitado el 10 de enero de 2008].
151
37 Internet encyclopaedias go head to head. Jimmy Wales’ Wikipedia comes close to Britannica in terms of the accuracy of its science entries, a Nature investigation finds, Nature 2007; 438: 900-901. 38 Más datos sobre Wikipedia: Senabre Hidalgo, E. Meritocracia y vandalismo en Wikipedia. En III Congreso online – Observatorio para la Cibersociedad. Conocimiento abierto. Sociedad libre (20.11.2006-5.12.2006): http://www.cibersociedad.net/ congres2006/gts/comunicacio. php?llengua=es&id=679 [Consultado el 10 de diciembre de 2007].
152
por ciento de los internautas de los Estados Unidos consulta Wikipedia. Un día típico del invierno de 2007 lo hizo un 8 por ciento. El 39 por ciento eran varones y el 34 por ciento mujeres. Respecto al grupo étnico, el 37 por ciento eran blancos, el 27 por ciento negros y el 36 por ciento hispanos que hablan inglés. Por grupos de edad, el 44 por ciento pertenecía al grupo 18-29 años, el 38 por ciento al grupo 30-49, el 31 por ciento al grupo 50-64, y el 26 por ciento al grupo de mayores de 65 años. Por nivel de formación, el 22 por ciento “High school diploma”, el 36 por ciento “some college” y el 50 por ciento graduados universitarios. Por nivel de ingresos, el 32 por ciento pertenecía al grupo con ingresos del hogar inferiores a los 30.000 dólares y el 42 por ciento al de más de 75.000 dólares. El 42 por ciento disponía de banda ancha en su casa y el 26 por ciento se conectaba a través de modem. Respecto a la popularidad se señalan dos motivos: el contenido, que abarca desde historia antigua a cuestiones de cultura popular, y porque los autores pueden crear, editar en cualquier momento y lugar, nuevos artículos o voces. Entradas sobre términos relacionados con las nuevas tecnologías, celebridades o escándalos políticos pueden implementarse en cuestión de minutos. El segundo motivo es que los buscadores remiten en un alto grado a las voces o artículos que contiene Wikipedia. El buscador Google, por ejemplo, concede a los documentos de esta enciclopedia un pagerank alto, por lo que se sitúan en los primeros lugares entre los resultados de una búsqueda. Wikipedia ha estado sometida a críticas y a constantes ataques de desaprensivos. Algunos biografiados han podido leer en sus biografías datos falsos. A raíz de unos cuantos casos se establecieron controles adicionales en el proceso de creación y edición de los textos. Determinadas voces están bloquedas y no puden modificarse. Un día de otoño de 2007 en los medios de comunicación españoles de prensa, radio y televisión se habló del tema de que era facilísimo introducir cambios y mentiras en Wikipedia; incluso algún medio hizo una demostración en directo. No tardaron en aparecer los imitadores. Simplemente lamentable. Esto obliga a establecer unos filtros mínimos. En el volumen 438 de Nature, correspondiente al 15 de diciembre de 200737, un grupo de especialistas revisó detalladamente una muestra de entradas escogidas aleatoriamente de Wikipedia y de la Enciclopedia Británica, y encontraron una media de cuatro errores u omisiones por cada, artículo de la Wikipedia (un total de 162 errores), mientras que en la Británica la media era de tres (un total de 123). En los ocho casos de errores hallados considerados por los investigadores como “serios”, hubo un empate: cuatro vinieron de cada una de las fuentes. Con estas cifras, la fiabilidad de Wikipedia quedaba fuera de duda, dado que la diferencia no era estadísticamente significativa. Sin embargo, hay un factor más: las entradas en la Wikipedia son, como media, 2.6 veces más largas que en la E. Británica, lo que mejora la ratio de conversión texto/errores claramente en favor de la Wikipedia. Hay que tener en cuenta que la E. Británica mantiene un consejo editorial de expertos que escriben y revisan los artículos, mientras que cualquiera puede escribir en Wikipedia. Los responsables de la Enciclopedia Británica solicitaron a Nature que se retractara del resultado del estudio comparativo. Lejos de hacerlo, defendieron la validez del mismo. Como sistema abierto, mientras la comunidad esté en funcionamiento, Wikipedia no dejará de evolucionar38.
La Wikimedia Foundation impulsa otros proyectos, como Wiktionary (http://www.wiktionary.org). Se trata de crear un diccionario libre y gratuito en todos los idiomas. El proyecto se inició en 2002. Está disponible en más de 100 lenguas. Otro proyecto es Wikibooks (http://www.wikibooks.org) y su finalidad es poner a disposición de cualquier persona libros de texto, manuales, tutoriales u otros textos pedagógicos de contenido libre y de acceso gratuito. En 2006 lanzó Wikiversity (http://www.wikiversity.org), que contiene proyectos de aprendizaje (materiales didácticos) para cualquier nivel educativo. En la versión española encontramos una “Facultad de medicina” con su división de Preclínicas; de Medicina general; de Cirugía; de Especialidades; de Medicina familiar, general e interna; del Cuidado de la salud y Práctica general; del Cuidado de la Mujer, el Niño y Salud de la Ancianidad; de Ciencia de la Rehabilitación e Integración social; de Diagnóstico y Ciencias Terapéuticas; de Medicina experimental; de Medicina Militar; de Medicina Legal y Forense. Lamentablemente la información que contienen es muy escasa. – Citizendium (http://www.citizendium.org) Uno de los cofundadores de Wikipedia, Larry Sanger, ha impulsado este nuevo proyecto. Citizendium quiere ser una alternativa a Wikipedia y superar sus principales problemas. Para hacerlo se han establecido sistemas que permiten controlar la responsabilidad de quien escribe y edita los artículos con el fin de ofrecer contenidos de calidad académica. Fue lanzada en marzo de 2007 tras cuatro meses de prueba. Participaron 180 editores especialistas o expertos y 800 autores crearon más de mil artículos. Se puede participar como autor (crear nuevos artículos, editar los existentes o participar en la zona de foros); como editor (especialista en un campo con atribuciones especiales); y como agente (que asegura el respeto de las normas y ayuda a gestionar el proyecto). Para participar hay que identificarse, enviar una pequeña biografía, firmar la declaración de principios de Citizendium y demostrar que se es quien se dice ser. De momento sólo se elabora en inglés. Si tiene éxito se lanzarán versiones en otros idiomas. – El proyecto Knol de Google39 La noticia ha saltado hace pocos meses. Google parece que tiene ya en fase de pruebas el proyecto Knol (unidad de conocimiento), que pretende convertirse en una nueva y mejorada Wikipedia. La edición no será anónima; las entradas serán creadas por autoridades en la materia y estarán firmadas. La libertad de los autores será total y podrá haber varios enfoques si el tema así lo requiere. Se prevé que haya participación de los usuarios: podrán enviar preguntas, comentarios, contenidos adicionales, etc. Estará integrada con el buscador Google, de forma que cuando se busque una palabra, en primer lugar, aparecerá el artículo knol que tenga que ver con el tema. De momento no sabemos más. En estos momentos se funciona con invitaciones. Cuando se abra al público, como señalan en el blog oficial “alentarán a las personas que conozcan un tema en particular a que escriban un artículo”.
Las Wikis Las llamadas wikis tienen su origen en la comunidad de patrones de programación. El término proviene del hawaiano wiki wiki, que significa “rápido”. La
Véase la anotación Encouraging people to contribuye knowledge, en el Blog oficial de Goole: http://go ogleblog.blogsp ot. c om/2007/12/enc ouragi ngpeople-to-contribute.html [Consultado el 8 de enero de 2008].
39
153
primera fue creada por Ward Cunningham (1949-) en 1995 y la definió como “la base de datos en línea más simple que pueda funcionar”. Se llamaba WikiWikiWeb40, que forma parte de Portland Pattern Repository. Una wiki es un sitio Web colaborativo que puede ser editado por varios usuarios que pueden crear, modificar o borrar el contenido de una página Web de forma interactiva, fácil y rápida. Fue adoptado en el año 2001 por los creadores de Nupedia y de Wikipedia como hemos visto anteriormente. Hay varias herramientas 2.0 que la implementan. Se trata de scripts de servidor escritos en Perl o PHP. También se usa una base de datos como MySQL. Las wikis están introduciéndose en la enseñanza, la investigación, en las empresas, y en todo aquello que requiera del trabajo cooperativo de un grupo de personas.
Aplicaciones Web de ofimática
40 Véase la siguiente URL: [Consultada el 3 de enero de 2008].
154
Como hemos dicho al principio, la Web se está convirtiendo en una plataforma para la ejecución de aplicaciones o programas de productividad; entre las más populares están las que se denominan de ofimática (procesador de texto, hoja de cálculo, creación de presentaciones, etc.). No es necesario tener instalado el programa en el ordenador y ofrecen muchas ventajas. A continuación nos ocuparemos de las más conocidas y utilizadas. – Google Docs (http://docs.google.com). Viene a ser una suite ofimática compuesta por un procesador de textos, hoja de cálculo y una aplicación para elaborar presentaciones, a la que se añade mensajería instantánea y se coloca en la Web. Está pensada para colaborar on line. Las interfaces están en castellano. Para utilizar este servicio es necesario tener una cuenta de correo Gmail (el mail de Google). La página inicial, a la que se accede cuando se inicia la sesión presenta un panel en la parte izquierda desde donde se administran las carpetas en las que están clasificados los documentos, y en la parte principal, a la derecha, aparece la lista de documentos existentes en el ordenador en principio por fecha. Para crear un nuevo documento hay que ir al menú horizontal superior y elegir “Nuevo” y seleccionar del menú desplegable lo que se desee (documento texto, hoja de cálculo o presentación). También podemos subir un documento que ya tengamos en el ordenador. Cada aplicación funciona de forma parecida a como lo hacen las más conocidas, pero ofrecen menos prestaciones. Sin embargo, tiene ventajas utilizar este servicio. Trabajar en grupo significa que cada miembro elabora sus documentos con una aplicación que está en su ordenador, lo guarda y distribuye copias entre el resto de los miembros. Trabajar un documento en varios ordenadores, o entre varias personas que se encuentran en distintos lugares y pasárselos en unidades de memorias implica que se creen versiones del documento que dificultan su control. Con este tipo de aplicaciones Web esto es “pasado”. Con Google Docs, por ejemplo, varias personas pueden trabajar en un mismo documento que se guarda en Internet independientemente del sistema operativo de cada ordenador, a salvo de versiones y de los virus u otras incidencias. Al tiempo que se redacta pueden incluirse ideas, comentarios o lo que se desee; después pueden qui-
tarse en la versión final. También es posible invitar a alguien a leer el texto o documento sin que pueda modificarlo. El uso de la hoja de cálculo permite establecer incluso un debate en directo con los compañeros en la propia hoja; sólo hay que hacer clic en la pestaña “Debate” del menú horizontal superior. Es como chatear. Por otro lado, tanto con los textos como con las hojas de cálculo se guardan versiones de los documentos guardados, y se puede volver a una versión anterior si se ha cometido un error. Los documentos también disponen de corrector ortográfico en 30 idiomas, incluidos el español y el catalán. Constantemente se añaden nuevas prestaciones. Por ejemplo, ahora es posible guardar documentos en determinados formatos. Dependerá del tipo de documento. Para ello, desde la página inicial del servicio se selecciona el documento que queramos y si clicamos en la pestaña “Más acciones” del menú horizontal superior, nos aparece en un menú desplegable los distintos formatos disponibles: html, open office, texto plano, rtf, Word, pdf, etc. La opción de guardar en pdf es muy útil.
Imagen 12. Barras de herramientas de los editores de texto de Google Docs y Zoho.
– ZoHo (http://www.zoho.com). Servicio desarrollado por la empresa norteamericana AdventNet. Es quizás la suite ofimática Web más completa del momento, con una docena de aplicaciones que van desde la edición de
Imagen 13. Captura de pantalla de la página principal de Zoho, donde pueden verse las aplicaciones que ofrece.
155
texto y hojas de cálculo al correo electrónico, pasando por un administrador de proyectos, bases de datos, wikis, Chat, conferencias vía Web, etc. Algunas están en fase beta. También es necesario registrarse. En la información de la cuenta del usuario se puede indicar el nombre en Skype y seleccionar el idioma y la ubicación geográfica, así como el huso horario. Vale la pena explorar Zoho en toda su amplitud, ya que cuenta con muchos recursos, aparte de los más usuales. Por ejemplo Zoho Wiki permite establecer wikis públicas (serán indexadas y aparecerán en los resultados de los motores de búsqueda) o privadas, y facilita la creación de grupos de trabajo. Zoho projects sirve para administrar proyectos. Se pueden asignar tareas a los miembros que se encuentren vinculados junto con el plazo para que se lleven a cabo, contemplar las acciones que ya se han realizado y lo que falta por hacer, cargar archivos, etc. – Thinkfree (http://www.thinkfree.com). Otra alternativa. Ofrece servicios para elaborar documentos de texto, hojas de cálculo y presentaciones, con la posibilidad de generar archivos en formato pdf (muy útil). De forma gratuita se pueden almacenar hasta 1 Gigabyte de datos. Nos proporciona también herramientas para Microsoft Office y Facebook.
156
Publicar en Internet
Publicar en revistas y repositorios En otros capítulos de este libro hemos hecho referencia a nuevas formas de publicar en Internet, algunas muy interesantes como páginas Web y los blogs. En este capítulo nos ocuparemos de las más tradicionales, especialmente desde que se han adaptado a las nuevas tecnologías, por una parte; y aquéllas que han surgido como consecuencia de la aparición de Internet, por otra. En algunas áreas del conocimiento, como las humanidades, priman los capítulos de libro y los libros, pero en ciencias y en medicina la publicación en revistas sigue siendo la pauta más habitual, sobre todo lo que se refiere a la investigación. Se estima en la actualidad una cifra entre 17.000 y 18.000 revistas médicas. Sin embargo, algunas áreas de la ciencia como la física, las matemáticas o la informática, se han adaptado mucho mejor a los cambios. La medicina sigue aferrada a normas de conducta muy tradicionales y mediatizadas por grandes grupos editoriales. Hasta hace poco las revistas se editaban en papel y se enviaban a las bibliotecas, hemerotecas y a los suscriptores por correo postal. El mismo medio se utilizaba para mandar los artículos y para que los expertos los revisaran, lo que dilataba extraordinariamente el proceso entre la redacción y la publicación. En algunas revistas el proceso podía prolongarse hasta 18 meses. En los años noventa algunas editoras de revistas médicas empezaron a crear sitios Web cuyos únicos contenidos eran los formularios para realizar suscripciones, información de contacto y, en algunos casos, los sumarios. Parece ser que la primera revista médica que se publicó parcialmente en Internet, a través de la World Wide Web, fue el British Medical Journal. Podía leerse la editorial, los índices y se podían descargar los resúmenes de los artículos. El resto de revistas siguió sus pasos, especialmente las de mayor impacto. Después siguió la publicación completa en HTML con la posibilidad de descargar cada artículo en formato pdf. Muchas de las revistas están disponibles por este procedimiento desde los años noventa. Algunas, además, han ido cargando en sus servidores números retrospectivos a gran velocidad, tanto que en determinados casos podemos acceder a la revista desde el número uno que se remonta, en algunos casos, al siglo XIX. El acceso es inmediato si se está suscrito o se pertenece a instituciones universitarias o sanitarias que suscriben amplios “paquetes” de revistas por sumas muy sustanciosas. Sin embargo, la aparición de Internet y, especialmente, de la World Wide Web, ha llegado a poner en crisis los sistemas tradicionales de publicación. Algunos especialistas, incluso, señalan que las revistas en soporte papel tie157
nen los días contados. Pero una de las consecuencias más importantes de las nuevas tecnologías de la información y comunicación ha sido la del acceso universal a las publicaciones científicas. En abril del año 2000, por ejemplo, PubMed Central (PMC) ofreció en red el archivo digital de artículos de revistas biomédicas y de ciencias de la vida de los US Nacional Institutes of Health (NIH): A free archive of life science journals (http://www.pubmedcentral.nih. gov/). En la actualidad se puede acceder a través de este sitio a más de 350 revistas. En algunas, el acceso a lo último publicado es inmediato y en otras hay que esperar un tiempo que oscila entre los 4 y los 24 meses. En el sitio Web se indica este dato para cada caso, así como el año o volumen inicial disponible a texto abierto. Se estima que la publicación de una revista en formato electrónico es un 80 por ciento más barato que hacerlo en papel. Pero, además, se incrementa de forma considerable la difusión de los artículos, aumenta la visibilidad de sus autores y se ahorra mucho tiempo. Este tipo de edición no implica que se resienta la calidad de las revistas. A continuación vamos a analizar las distintas posibilidades de publicación y de acceso a lo publicado.
Las publicaciones tradicionales La publicación tradicional sigue las mismas pautas que antes de que se creara el World Wide Web excepto que, para algunos procedimientos, se utilizan las herramientas que proporciona Internet: correo electrónico, publicación electrónica, publicación en pdf, disponibilidad en red, etc. Para acceder a los contenidos hay que estar suscrito. El precio de las suscripciones a estas revistas ha experimentado en los últimos años un alza considerable. Sólo las grandes bibliotecas y las instituciones pueden permitirse los costes, y algunas ni eso. Se trata de revistas de mucho impacto y prestigio, publicadas por grandes grupos editoriales. Publicar en ellas implica obtener méritos que servirán a los autores para conseguir puestos, becas, y todo lo que significa promoción. No es menester indicar que detrás hay grandes empresas, cuya finalidad es generar negocio, es decir, “ganar dinero”. Todos conocemos las sumas millonarias que han gastado instituciones españolas de investigación o gubernamentales para insertar publicidad sobre la actividad científica española o autonómica en estas revistas. Hay una página donde se pueden consultar las normas editoriales de más de tres mil revistas médicas. Se trata de la página Instructions to Authors in the Health Sciences, de la Raymond H. Mulford Library de la University of Toledo, Ohio (http://mulford.meduohio.edu/instr/). También da acceso a las “instrucciones para los autores”, la dirección de envío de los artículos y otras informaciones de utilidad. Respecto a la publicación en revistas podemos mencionar aquí el servicio Citing Medicine (http://www.ncbi.nlm.nih.gov/books/bv.fcgi?rid=citmed. TOC&depth=2) de la National Library of Medicine, que ofrece una guía para autores, redactores y editores, añade cómo citar materiales que hasta ahora no eran habituales, como listas de discusión, wikis, correo electrónico y blogs. 158
Otro tipo de publicaciones Desde la aparición de Internet se escuchan expresiones como open archives o archivos abiertos. La comunidad científica y académica lleva años reflexionando sobre la publicación científica en esta nueva etapa y busca alternativas al sistema tradicional que gira en torno a las grandes editoriales. Se habla del tema del control de calidad y de revisión por pares, de crear el acceso universal y abierto a los trabajos científicos, de crear repositorios, de la protección de los derechos de autor, entre otros asuntos. Las instituciones docentes y de investigación se planean también estructurar de otra manera este capital intelectual, de hacerlo coherente y accesible porque, en definitiva, es su principal fuente de prestigio y de captación de fondos1. Otro de los argumentos que se esgrime es que prácticamente la totalidad de trabajos científicos procede de investigaciones financiadas con fondos públicos, lo que supone, por tanto, una contradicción que después haya que pagar para poder consultarlos. A principios de los años noventa aparecieron los primeros depósitos de documentos científicos de carácter temático. La iniciativa más pionera la lideró Paul Ginsparg, profesor de física y ciencias de la información y computación de la Cornell University desde 2001. En 1991 creó el arXiv, un lugar donde archivar preprints sobre física que más tarde se amplió a las áreas de astronomía, matemáticas, ciencias de la computación, biología cuantitativa y, más recientemente, estadística. Al principio se alojó en Los Alamos Nacional Laboratory como LANL Preprint archive y ahora está hospedado y mantenido por la Cornell University con extensiones (servidores espejo) en varios lugares del mundo (http://arxiv.org/). Cuando se creó cualquier investigador podía dejar una copia de sus trabajos en el depósito abierto en forma de preprint para que el resto de la comunidad científica los revisara, criticara o comentara. Esta fórmula iba más allá de la revisión por pares.
La Declaración de Budapest para el Acceso abierto Los días 1 y 2 de diciembre de 2001 tuvo lugar en Budapest una reunión convocada por el Instituto para una Sociedad Abierta (Open Society Institute OSI) con el fin de favorecer el esfuerzo internacional para propiciar que la producción científica estuviera disponible en Internet de forma gratuita. Se trataba de buscar una estrategia conjunta basándose en algunas iniciativas individuales que ya se habían desarrollado. El resultado fue la Iniciativa de Budapest para el Acceso Abierto (Budapest Open Access Initiative BOAI), que es tanto una declaración de principios como de estrategias y de compromiso. Con los años se han ido sumando investigadores, instituciones, laboratorios, editores, fundaciones y un largo etcétera2. Entre las estrategias que se sugirieron están: a) El autoarchivo. “Los científicos necesitan herramientas y ayuda para depositar los artículos para su revisión en archivos electrónicos abiertos; esta práctica se denomina autoarchivo. Cuando estos archivos se hayan adecuado a los estándares establecidos por el Open Archives Initiative, será posible tratar, a través de motores de búsqueda y otras herramien-
1 Serrano Muñoz, J.; Prats Prat, J. Repertorios abieros: el libre acceso a los contenidos, Revista de Universidad y Sociedad del Conocimiento, 2005; 2(2) (http://www. uoc.edu/rusc/dt/esp/serrano.html) [Consultado el 8 de noviembre de 2007]. Véase también: Martínez, D. La crisis de las revistas científicas y las nuevas oportunidades de Internet, En: Telos. Cuadernos de Comunicación, Tecnología y Sociedad, 2003; 3(56): 9-12. 2 Véase Budapest Open Access Initiative en la siguiente URL: http://www.soros.org/ openaccess/index.shtml [Consultado el 15 de diciembre de 2007].
159
3 La Declaración puede encontrarse en formato pdf en esta URL: http://www.zim.mpg.de/openaccess-berlin/berlin_declaration.pdf [Consultada el 16 de diciembre de 2007]. 4 Véase Sociedad Max Planck, ed.. 2003. La Declaración de Berlín sobre acceso abierto. GeoTrópico, 1 (2), 152-154, versión PDF. Online: http://www.geotropico.org/Berlin-I-2.pdf [Consultado el 7 de enero de 2008].
160
tas, archivos que originalmente eran distintos, como si se tratara de uno solo. De este modo, no será necesario que los usuarios sepan qué archivos existen o dónde están localizados para poder acceder a sus contenidos” b) Revistas de acceso abierto. Se trata de crear nuevas revistas de acceso abierto y facilitar la transición de las antiguas a esta nueva situación. Éstas no cobrarán derechos de suscripción o acceso, y buscarán métodos alternativos para cubrir sus gastos: fundaciones, gobiernos, universidades, laboratorios, publicidad, etc. Estas revistas deben contar también con un comité de selección. El día 11 de abril de 2003 se reunieron en la sede del Howard Hughes Medical Institute una serie de científicos, editores, documentalistas y bibliotecarios relacionados con la información médica con el fin de estimular la discusión sobre la forma de materializar, de forma rápida, el acceso abierto a la literatura científica. Por otro lado, la Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities3 contiene una definición de acceso abierto como recomendación de los grupos de trabajo sobre organismos e instituciones financiadores de I+D, bibliotecas y editores, sociedades científicas e investigadores. Esta Declaración fue suscrita el 22 de octubre de 2003 por los representantes de destacadas instituciones científicas para apoyar el acceso abierto y el depósito de archivos abiertos institucionales. El CSIC, por ejemplo, se adhirió el 31 de enero de 2006. Destacamos estos dos puntos de la Declaración4: 1. “Los autores y depositarios de la propiedad intelectual de tales contribuciones deben garantizar, a todos los usuarios por igual, el derecho gratuito, irrevocable y mundial de acceder a un trabajo erudito, lo mismo que licencia para copiarlo, usarlo, distribuirlo, transmitirlo y exhibirlo públicamente, y para hacer y distribuir trabajos derivativos, en cualquier medio digital para cualquier propósito responsable, todo sujeto al reconocimiento apropiado de autoría (los estándares de la comunidad continuarán proveyendo los mecanismos para hacer cumplir el reconocimiento apropiado y uso responsable de las obras publicadas, como ahora se hace), lo mismo que el derecho de efectuar copias impresas en pequeño número para su uso personal”. 2. “Una versión completa del trabajo y todos sus materiales complementarios, que incluya una copia del permiso del que se habla arriba, en un conveniente formato electrónico estándar, se deposita (y así es publicado) en, por lo menos, un repositorio on line, que utilice estándares técnicos aceptables (tales como las definiciones del Acceso Abierto), que sea apoyado y mantenido por una institución académica, sociedad erudita, agencia gubernamental, o una bien establecida organización que busque implementar el acceso abierto, distribución irrestricta, interoperabilidad y capacidad archivística a largo plazo.” Es necesario destacar otro factor que ha favorecido el desarrollo del Open access. Se trata de que la comunicación pública de los trabajos en repositorios institucionales constituye una garantía de la originalidad de los contenidos y de la autoría. A este hecho se suma la iniciativa Creative Commons (http://es.creativecommons.org/). Es una organización sin ánimo de lucro que facilita diversos modelos de licencias en distintos idiomas y que están
adaptadas a las diferentes legislaciones nacionales. Los autores pueden hacer públicos sus trabajos, reservándose algunos derechos, como puede ser su uso comercial. Ofrece un abanico de licencias que abarcan desde el tradicional sistema de derechos de autor hasta el dominio público. Incluyen opciones a aquellos creadores que quieren que terceras personas utilicen o modifiquen su obra bajo determinadas condiciones, que son escogidas por el propio autor. Entre las opciones de una obra con “todos los derechos reservados” o una con “ningún derecho reservado”, Creative Commons propone tener “algunos derechos reservados”. La mayor parte de los contenidos de los blogs han optado por este tipo de licencias, camino que están siguiendo muchos artistas con sus obras. Un tipo especial de estas licencias para trabajos científicos, que incluyen patentes, material multimedia, etc., se desarrolla bajo la iniciativa Science commons (http://sciencecommons.org/). No obstante, hay grupos que también están en contra de este tipo de licencias. Muchas instituciones han creado ya repositorios. Al mismo tiempo han surgido herramientas y estándares para desarrollar estrategias que ofrezcan garantías de continuidad, de crecimiento y de soportar los gastos. También han aparecido protocolos como el Open Archives Initiative Metadata Harvesting Protocol (OAI-MHP)5 y herramientas que facilitan la interoperabilidad con otros sistemas. De hecho actualmente se facilita el traspaso de unos depósitos a otros y de estos a otros entornos. Existen muchos repositorios institucionales y archivos temáticos distribuidos por la red. Por ejemplo, EPrints for Digital Repositories6 es una plataforma flexible para crear repostitorios de alto valor y gran calidad. También existen herramientas que nos permiten buscar a la vez en varios de estos repositorios, como: – OAISTER (http://www.oaister.org/). Se trata de un proyecto de la Universidad de Michigan. Es una potentísima herramienta que permite buscar de varias formas y por distintos tipos de recursos; también por instituciones. En estos momentos facilita el acceso a 14.673.867 de registros procedentes de 934 repositorios7. Utiliza para buscar su descripción mediante metadatos con Open Archives Initiative Protocol for Metadata Harvesting. – ScientificCommons (http://en.scientificcommons.org/). Es un proyecto de la Universidad de St. Gallen en Suiza. Da acceso a 16.845.379 documentos, procedentes de 7.116.284 autores y de 898 repositorios8. – HighWire Press (http://highwire.stanford.edu/). Se trata de una especie de repositorio de la Universidad de Stanford de gran impacto y de contenidos revisados por pares, con 1.096 revistas y 4.629.081 artículos a texto completo, que proceden de 130 editoriales académicas. En España se han creado también algunos repositorios. Entre estos podemos mencionar: – e-ciencia. (http://www.madrimasd.org/informacionidi/e-ciencia/). Se trata de un proyecto que se enmarca en el contrato-programa de cooperación interbibliotecaria entre la Comunidad de Madrid y el Consorcio Madroño, para crear una plataforma digital de acceso libre y abierto a la producción científica en la Comunidad de Madrid. Participan la Consejería de Educación, el Consorcio Madroño, el CSIC, y las Bibliotecas de la Universidad de Alcalá, Autónoma de Madrid, Carlos III, Complutense, UNED, Politécnica de Madrid y la Rey Juan Carlos.
5 Véase The Open Archives Initiative Protocol for Metadata Harversting en la siguiente URL: http:// www.openarchives.org/OAI/openarchivesprotocol.html [Consultado el 17 de diciembre de 2007]. 6 Su URL es: http://www.eprints. org/ 7 A fecha de 28 de enero de 2008. 8 A fecha de 28 de enero de 2008.
161
9 Véase el post ´”Cómo publicar tu trabajo en un acceso abierto: los repositorios institucionales”, En Weblog Open Access (http:// Weblogs.madrimasd.org/openaccess/archive/2007/02/03/58607. aspx) [Consultado en marzo de 2007]. 10 European University Association (EUA): http://www.eua.be/index. php [Consultado el 5 de febrero de 2008]. Sobre las Recomendaciones véase Mailing List SPARCOAForum: https://mx2.arl.org/ Lists/SPARC-OAForum/Message/4180.html [Consultado el 5 de febrero de 2008].
162
– Digital CSIC.(http://digital.csic.es). Es el recién lanzado repositorio institucional del Consejo Superior de Investigaciones Científicas (CSIC). Según se lee en la página inicial: “Es un depósito de documentos digitales, cuyo objetivo es organizar, archivar, preservar y difundir en modo de acceso abierto la producción intelectual resultante de la actividad investigadora del CSIC. En estos momentos se organiza en “Comunidades”, entre las que se encuentran las de biología y biomedicina, ciencia y tecnología de alimentos, ciencia y tecnología de materiales, ciencia y tecnologías físicas, ciencia y tecnologías químicas, ciencias agrarias, humanidades y ciencias sociales, recursos naturales y servicios centrales. Permite listar por títulos, autores, materias y fecha, así como hacer búsquedas simples y avanzadas. Desde el 7 de febrero también se pueden recuperar contenidos de Digital. CSIC desde el portal e-Ciencia. – Consorcio Catalán. Repositorio de Tesis Doctorales TDX (leídas en Cataluña y en otras comunidades autónomas) (http://www.tesisenxarxa.net/). RACO o Revistes Catalanes amb Access Obert (http://www.raco.cat/). RECERCAT o Repositorio cooperativo de documentos digitales, que incluye la literatura de investigación de las universidades y los centros de investigación de Cataluña (http://www.recercat.net/). – UPCommons. Universitat Politècnica de Catalunya (https://upcommons. upc.edu/). Se trata de un proyecto de gran envergadura. Se basa en la filosofía del autoarchivado activo y de la difusión en abierto de cualquier contenido que produzca la Universidad: archivos de docencia, de investigación, gráficos, e-prints, tesis, revistas, trabajos académicos (de estudiantes), vídeos, etc. Para publicar en repositorios es recomendable saber si la institución a la que se pertenece tiene este tipo de depósitos o se integra en alguno de los existentes, como el del CSIC, los que forman e-ciencia, o algunos de los del Consorcio de Cataluña. Si no es el caso hay que buscar algún repositorio independiente. El tipo de publicaciones que podemos depositar en los mismos son tesis, trabajos de investigación de tercer ciclo, capítulos de libros, teleconferencias, presentaciones, materiales didácticos, vídeos y artículos, entre otros. Se suele pedir que se firme una hoja de compromisos y condiciones. El trabajo de incluir el documento o archivo en el repositorio es una tarea que suelen realizar los bibliotecarios o servicios de información y documentación de las correspondientes instituciones. A veces se plantean problemas o dudas con los artículos que uno ya ha publicado en otro lugar. Deben tenerse en cuenta las condiciones del contrato que se firmó con el editor. Si se ha hecho una cesión exclusiva de distribución no se puede hacer el depósito. Por lo general, la mayoría de revistas y casas editoras permiten algún tipo de autoarchivo9. El día 25 de enero de 2008 el Consejo de la European University Association10 aprobó de forma unánime las recomendaciones que elaboró un grupo de trabajo sobre el open access. Entre éstas se menciona explícitamente que “los resultados de las investigaciones públicamente financiadas también deberán estar accesibles de forma pública en el menor tiempo posible. Asimismo se asegura la calidad mediante el procedimiento de revisión por pares, que será una condición previa para cualquier publicación científica y un elemento esencial en esta nueva era de la edición digital”. Asimismo el Conse-
jo Europeo de Investigación acaba de publicar sus directrices sobre el open access11.
Revistas de acceso abierto Como hemos visto más arriba, otra de las recomendaciones de la Declaración de Budapest es la de crear revistas de acceso abierto. En este sentido ya podemos hablar de varias iniciativas, así como de los portales que las recogen: – The Scholarly Publishing & Academia Resources Coalition SPARC (http:// www.arl.org/sparc/). Se trata de una alianza de universidades, de bibliotecas de investigación, de editoriales y de otras organizaciones que pretende superar la desigualdad en el acceso a la información y de estudiar y poner en práctica nuevos modelos de comunicación académica. En estos momentos se está desarrollando una iniciativa SPARC Europa – Public Library of Science PLOS (http://www.plos.org/). Se trata de una organización sin ánimo de lucro de científicos y médicos comprometidos en convertir en pública la literatura médica y científica. Cuentan con un buen número de revistas. PLOS one es una innovación de PLOS; se dedica a organizar la comunidad de autores y de revisores no anónimos. Su intención es devolver el control sobre las publicaciones a la comunidad académica o científica. Ofrece a los científicos interesados publicar en sus revistas de acceso abierto con algunas novedades respecto a revistas de publicación en acceso abierto parecidas. Por un lado asegura que el artículo, una vez aceptado, se publicará en un plazo relativamente corto de días. Por otro, que distingue dos tipos de revisión por pares: el tradicional y el posterior a la publicación. En este último caso, una vez que el artículo ha sido publicado en línea, se inicia un proceso libre de anotar o comentar el documento, en una discusión abierta. PLOS ofrece también el software libre necesario. Como apreciamos, esta iniciativa está en la línea de la Web 2.0, pero como hay unos gastos se cobra al autor unas tasas por publicar; en estos momentos es de 1.250 dólares12, bastante inferior a las de las revistas tradicionales de impacto. – BioMed Central (http://www.biomedcentral.com). Se trata de un lugar de edición independiente especializado en el acceso libre e inmediato a los trabajos de investigación biomédica revisados por pares. Cuenta con 186 revistas que incluyen títulos generalistas como Journal of Biology y otras más especializadas como Malaria Journal o BMC Bioinformatics. BioMed Central también ofrece otros servicios, algunos gratuitos y otros que requieren un abono o pago. Por ejemplo, del segundo caso, el acceso a revistas como Genome Biology. También ofrece Open Repository, un servicio para lanzar, alojar y mantener repositorios institucionales para organizaciones. Las revistas de BioMed Central son seguidas por ISI y alcanzan pronto un impacto importante. Todos los artículos son registrados en Scopus (http://www.scopus.com/scopus/home.url) y Google scholar (http:// scholar.google.com). Todos los artículos científicos publicados por BioMed Central se archivan de inmediato en PubMed Central de los Estados Unidos y en otros archivos internacionales (INIST, de Francia; Koninklijke
ERC Scientific Council Guidelines for Open Access. 17 Diciembre 2007: http://erc.europa.eu/ pdf/ScC_Guidelines_Open_Access_ revised_Dec07_FINAL.pdf. Hecho publico el 10 de enero de 2008. [Consultado el 28 de enero de 2008]. 12 Véase Plos one Editorial and Publishing Policies, PLOS one: http:// www.plosone.org/static/policies. action [Consultado el 10 de enero de 2008]. 11
163
13 Estos datos son relativos a 28 de enero de 2008. 14 Véase FreeBooks4Doctors: http://www.freebooks4doctors. com/ [Consultado el 28 de enero de 2008]. 15 A fecha de 28 de enero de 2008.
164
Bibliotheek, de Holanda; Potsdam University, de Alemania; y UK PubMed Central, en el Reino Unido. Muchas instituciones obligan a sus científicos a depositar copias de sus trabajos en sus propios repositorios, pero PubMed Central no lo impide, sino que lo permite y apoya. El procesamiento de un trabajo tiene un coste medio de unos 1.150 euros; depende de la revista al que vaya destinado. – Directory of Open Access Journals DOAJ (http://www.doaj.org/). Es un portal que contiene un directorio de revistas de acceso abierto, de la Universidad de Lund (Suecia). Cubre publicaciones libres, a texto completo y calidad controlada. En este momento la lista recoge 3.098 títulos. De estos, en 1.010 se puede buscar en el nivel de artículo. El número total de trabajos recogidos es de 170.851. Del área de ciencias de la salud cuenta con 256 títulos de medicina, 97 de salud pública, 31 de odontología y 21 de enfermería. Dentro de medicina encontramos, entre otras especialidades, 135 de Medicina interna, 59 de Cirugía, 48 de Neurología, 39 de Medicina cardiovascular y 30 de Psiquiatría13. – Free Medical Journals Web (http://www.freemedicaljournals.com/). Provee el acceso a 430 revistas. La mayoría en ingles, pero también las encontramos en español, francés, alemán, portugués, turco y otros idiomas. Puede accederse por título, por especialidad, o por idioma. Se informa del factor de impacto de estas revistas. Este sitio también ofrece libros gratuitos de tema médico. En estos momentos hay 630 títulos disponibles 14. – Portal de revistas biomédicas (Infodoctor). Se trata de un directorio de revistas médicas. Incluye todas las españolas. Figuran por separado las que son de texto abierto. Permite hacer varios tipos de búsquedas. – SciELO Scientific Electronic Library Online (Biblioteca Científica Electrónica en Línea) (http://www.scielo.org). Fruto de la cooperación entre FAPESP Fundación de Apoyo a la Investigación del Estado de São Paulo, BIREME Centro Latinoamericano y del Caribe de Información en Ciencias de la Salud, así como instituciones nacionales e internacionales relacionadas con la comunicación científica y editores científicos. Constituye un modelo para la publicación electrónica cooperativa de revistas científicas en Internet. Ha sido desarrollado especialmente para responder a las necesidades de la comunicación científica de los países en desarrollo, particularmente de América Latina y el Caribe. Proporciona una solución para asegurar la visibilidad y el acceso universal a su literatura científica. Además, el Modelo SciELO incluye también procedimientos integrados para medir el uso y el impacto de las revistas científicas. Uno de sus componentes permite la publicación electrónica de ediciones completas de revistas científicas, la organización de bases de datos bibliográficas y de textos completos, la recuperación de textos por su contenido, la preservación de archivos electrónicos y la producción de indicadores estadísticos de uso e impacto de la literatura científica. La metodología también incluye criterios de evaluación de revistas basado en los estándares internacionales de comunicación científica. Los textos completos se enriquecen dinámicamente con enlaces de hipertexto, con bases de datos nacionales e internacionales. En estos momentos reúne 201 títulos de revistas de ciencias de la salud15. Hay también un sciELO España, biblioteca virtual formada por una colección de revistas científicas españolas de ciencias de la salud, seleccionadas de acuer-
do con unos criterios de calidad preestablecidos. El proyecto lo desarrolla la Biblioteca Nacional de Ciencias de la Salud16. Cuenta con 34 títulos. – HighWire Press (http://highwire.stanford.edu/lists/freeart.dtl). De la Universidad de Stanford. Da acceso a 1.834.366 artículos a texto completo. – IMBIOMED Índice Mexicano de Revistas Médicas Latinoamericanas (http://www.imbiomed.com/). Reúne revistas de varios países latinoamericanos. La mayor contribución procede de México con 84 revistas; Cuba, con 32; y Colombia, con 2317. En 2006 M.F. Abad García, A. González Termal y C. Martínez Catalán, publicaron un artículo en Medicina Clínica18 (Barcelona) en donde se estudia el acceso abierto y las revistas médicas españolas. En diciembre de 2005 había en España 170 revistas médicas accesibles en Internet. Si se quitan las destinadas a la formación, actualización o narración de experiencias y divulgación, quedan 127. Un tercio de las 127 revistas estaban vinculadas al movimiento de acceso abierto y se integraban en alguna plataforma de las anteriormente mencionadas, como sciELO. Hay que señalar que una revista puede estar accesible en más de una plataforma y también desde el sitio Web de la editorial o de la propia revista. De las 40 revistas de acceso abierto sólo 20 estaban incluidas en el DOAJ o Directory of Open Access Journals, lo que limita su utilidad como fuente de referencia para las revistas médicas españolas. En la actualidad cualquier grupo científico, departamento universitario, centro, etc. puede descargarse de forma gratuita un software de gestión de revistas electrónicas que ha desarrollado la Universidad de Stanford dentro del marco del proyecto Public Konwledge (Open Journal Systems, http:// pkp.sfu.ca/?q=ojs). Lo que acabamos de describir en este capítulo requiere un cambio de mentalidad. Los grandes y poderosos grupos editoriales creados en el siglo XX que controlan la gestión del conocimiento científico tendrán que buscar nuevas fórmulas de negocio. Los servicios de publicación de las universidades, así como los de bibliotecas y documentación, deberán cobrar protagonismo en la creación y mantenimiento de repositorios, así como en la garantía de la circulación del conocimiento entre ellos. Por último, los evaluadores y las mal llamadas “agencias” de evaluación, así como los científicos y su obsesión más por el currículo que por la calidad de las publicaciones, por el envoltorio que por el contenido, deberán cambiar las pautas de comportamiento para hacer frente a lo que se nos viene encima.
16 El proyecto está siendo desarrollado en España por la Biblioteca Nacional de Ciencias de la Salud, gracias al acuerdo de colaboración establecido en la OPS/OMS y el Instituto de Salud Carlos III. 17 A fecha de 28 de Febrero de 2008. 18 Abad, MF; González, A; Martínez, C. Acceso abierto y revistas médicas españolas. Med Clin (Barcelona).
165
Los pacientes e Internet
Introducción En otros capítulos nos hemos referido a las iniciativas que se desarrollan en estos momentos para garantizar la calidad de la información médica en la World Wide Web, al uso del correo electrónico y de la mensajería instantánea en la relación médico-paciente, y a las comunidades virtuales y foros de pacientes. En este capítulo nos ocuparemos de los portales informativos para los pacientes1.
El derecho a una información rigurosa y adecuada En el año 2003 tuvo lugar en Barcelona una reunión de profesionales de la salud y de representantes de organizaciones y asociaciones de pacientes y usuarios del Estado español. Fue organizada por la Fundación Biblioteca Joseph Laporte, con el patrocinio de Laboratorios MSD España y el aval de la Academia de Ciències Mediques de Catalunya i de Balears, la Asociación Española Contra el Cáncer, la Federación de Diabéticos Españoles, la Liga Reumatológica Española, la Sociedad Española de Atención al Usuario de la Sanidad, y la Universitat Autònoma de Barcelona. El objetivo de la reunión era obtener información sobre las vivencias de los pacientes y su visión acerca de seis temas sobre los que se realizó un trabajo previo: (a) necesidades de información de los pacientes; (b) implicación de los pacientes en la toma de decisiones clínicas; (c) comunicación y relación médico-paciente; (d) accesibilidad del paciente a la asistencia sanitaria; (e) participación de los pacientes en las políticas sanitarias; y (f) derechos de los pacientes. De la reunión surgió un documento que se conoce como Declaración de Barcelona de las Asociaciones de Pacientes2. El tema que nos interesa en este capítulo es el que hace referencia a la información médica. Una de las conclusiones fue que había necesidad de información por parte de los pacientes que reuniera una serie de requisitos: que fuera proporcionada por los profesionales; inteligible; adaptada a sus necesidades; que se proporcionara secuencialmente ajustándose a la evolución de la enfermedad y la capacidad del enfermo; de buena calidad y acreditada en la prueba científica y el juicio clínico; y que incluyera información sobre las ventajas y los riesgos de las nuevas pruebas diagnósticas y terapéuticas. Se mencionaba también la prevención de una serie de riesgos, como no pedir información por miedo a la estigmatización que pudiera asociarse a la enfermedad; el seguimiento de itinerarios inapropiados que podrían llevar a
1 Jiménez Pernett, J.; García Gutiérrez, J.F.; Martín Jiménez, J.L.; Bermúdez Tamayo, C. Tendencias en el uso de Internet como fuente de información sobre la salud, UOCPapers. Revista sobre la Sociedad del Conocimiento, nº 4 (2007), http:// www.uoc.edu/uocpapers/4/dt/ esp/jimenez.html [Consultado el 15 de diciembre de 2007]. 2 Disponible en pdf en esta URL: http:// www.ashecova.org/php_ lib/archivo_descargar.php?doc_ id=75 [Consultado el 15 de enero de 2008].
167
la búsqueda de tratamientos inadecuados; y marginación de los habitantes de las zonas rurales, familiares o cuidadores, inmigrantes y afectados por enfermedades raras. En esta Declaración se afirma, de forma tajante, que hay que reivindicar la información como un hecho normal en nuestra sociedad y se definen también los roles de informador asociados a los profesionales de la salud y el respeto a la pluralidad de las distintas fuentes o agentes de información. Respecto a este segundo punto, (a) el especialista debe ser el centro de la información y coordinador de la misma; (b) el médico de atención primaria debe coordinar la información sobre la atención integral de los pacientes; (c) las asociaciones de pacientes y familiares constituyen un elemento clave en la cadena de información, apoyo y ayuda; (d) la enfermería debería especializarse en desarrollar habilidades para informar a los pacientes y familiares; (e) el farmacéutico debe dar noticia, cuando sea oportuno, de los posibles problemas potenciales relacionados con el uso de los fármacos, especialmente las interacciones, el cumplimiento de la posología y los efectos secundarios; (f) las administraciones públicas tienen que proporcionar aquella información que permita una atención integral a los pacientes, incluyendo los aspectos relacionados con la atención sociosanitaria, la integración en el mundo laboral y el apoyo psicológico; (g) los medios de comunicación tienen la responsabilidad de contrastar la veracidad y calidad de la información que difunden, evitando crear falsas expectativas o generar situaciones de alarma social. Asimismo, debería haber una profesionalización que abarcara las áreas de información y comunicación de temas de salud; (h) la información proporcionada por Internet debería estar acreditada según criterios de calidad basados en códigos éticos; (i) la información producida desde las industrias farmacéuticas se contempla de forma dispar, existiendo valoraciones a favor y en contra de su difusión libre. Finalmente la Declaración señala que una información sanitaria de calidad debe reunir una serie de criterios: (1) veracidad; (2) que se fundamente en pruebas científicas; (3) transparencia en la fuente de información (identificación explícita de quién la produce y de cómo se produce); (4) claridad; (5) acceso rápido, fácil y universal (6) adecuación a la capacidad de comprensión del paciente y a la evolución de la enfermedad; (7) acreditación externa. No es éste el lugar adecuado para seguir hablando de la información que solicita el paciente y de cómo deben proporcionársela los diferentes profesionales sanitarios. Hay abundante bibliografía rigurosa sobre el tema en general, en casos de diferentes especialidades y enfermedades y basada, por lo general, en estudios científicos. Nosotros nos ceñiremos a la información disponible en la World Wide Web. No es necesario demostrar que el paciente con conocimientos y acceso a Internet buscará de inmediato información en este medio. Sabemos, además, que la hay en abundancia y que es de buena y de mala calidad. Si introducimos en el buscador Google “enfermedad de Hodking”, por ejemplo, en 0,31 segundos nos proporciona un listado con 33.900 referencias. Casi seguro que esto desborda a cualquiera. Está claro que si se orienta al paciente en este sentido se habrá avanzado mucho. Respaldado por su médico, puede acceder a una información de calidad contrastada por profesionales e instituciones sanitarias. 168
Iniciativas llevadas a cabo por profesionales Entre las iniciativas españolas podemos mencionar: – Webpacientes.org (http://www.Webpacientes.org/). Es uno de los proyectos de la Fundació Biblioteca Josep Laporte3. En el desarrollo de este sitio Web se planteó el comportamiento de búsqueda del usuario desde el punto de vista cognitivo, psico-emocional e interactivo en el espacio de la World Wide Web. Una de las preguntas clave fue ¿qué espera encontrar el paciente, familiar o cuidador en un espacio Web de tipo sanitario? Se trata de ofrecer información al paciente y su entorno que no sólo se limite a describir la enfermedad desde el punto de vista patológico, sino que tenga también en cuenta los factores personales, sociales y psicoemocionales. El sitio se estructura en dos partes: contenidos y servicios4. a) Contenidos. Documentos y artículos relacionados con los problemas asociados a los pacientes previamente seleccionados y evaluados por expertos. A esto se une información sobre política sanitaria aplicada a distintas enfermedades, planes de salud y otros asuntos. Incluye, asimismo, datos sobre pruebas diagnósticas de distintos padecimientos, glosarios, etc. Dentro de los contenidos proporciona una selección de enlaces escogidos por su calidad. Por último, una sección que se dedica al tema de los derechos de los pacientes. b) Servicios. Ofrece una sección denominada e-Testimonios, donde se puede acceder a documentos escritos por asociaciones de pacientes en torno a Imagen 1. Captura de pantalla de la Webpacientes.org
3 Su URL es: http://www.fbjoseplaporte.org/. 4 Véase Gabriele Muñiz, G.; Fernández Maldonado, L.; Pineda i Traïd, E.; Moreno Laurel, J., Webpacientes.org, una experiencia en línea de información y formación en esalud, UOCpapers. Revista sobre la sociedad del conocimiento, 2007; 4: http://www.uoc.edu/uocpapers/4/dt/esp/muniz.html [Consultado el 20 de noviembre de 2007].
169
una enfermedad, testimonios concretos de enfermos, etc. Otra sección es e-Pacientes, servicio de información médica actualizada en forma de podcast, con los beneficios que supone este formato y que ya hemos analizado en otro capítulo. La página también proporciona noticias nacionales y del extranjero sobre los derechos de los pacientes y áreas de salud relacionadas con el tema. Toda la información a la que se puede acceder se revisa según los criterios de calidad preestablecidos (HONcode y Web Médica Acreditada del Colegio de Médicos de Barcelona). – Universidad de los pacientes (http://www.universidadpacientes.org/). Es una “universidad” específica y monográfica dedicada a pacientes, familiares, cuidadores, voluntarios y ciudadanos en general, que estén interesados en los temas de salud. Pretende garantizar la igualdad de oportunidades en la educación y el acceso a una asistencia de calidad por parte de los pacientes y los usuarios de los servicios de salud. Su objetivo general es la promoción de la modernización y la mejora de la calidad de la atención sanitaria mediante el desarrollo de actividades de información, formación e investigación. Tiene un Consejo académico integrado por representantes de la Universitat Autònoma de Barcelona y de la Fundació Biblioteca Josep Laporte. Ellos aprueban el plan estratégico anual y determinan los criterios de evaluación y acreditación de las actividades que se proponen. También dispone de un Consejo asesor cuya función consiste en asesorar al Consejo académico universitario, evaluar el impacto de las actividades que se llevan a cabo, identificar nuevas necesidades y contribuir a su expansión nacional e internacional mediante colaboraciones y alianzas. Desarrollan actividades de información sanitaria; formación, educación y coaching; investigación; asesoramiento a las asociaciones de pacientes; y acreditación de actividades. Sus “aulas” en estos momentos son: asma, cáncer, depresión, dermatología, dolor, ética, ictus, innovación y desarrollo, promoción de la asistencia farmacéutica, salud y mujer, sociología de la salud y política sanitaria, transtorno de déficit de atención e hiperactividad, biotecnología, comunicación y relación profesional-paciente, derechos de los pacientes, diabetes, enfermedades del aparato respiratorio, hábitos de vida saludables, información terapéutica y toma de decisiones compartidas, obesidad, salud cardiovascular, salud mental, tabaquismo, y terapias de soporte en quimioterapia. Desde el sitio Web se puede acceder al Foro español de pacientes, a las organizaciones de pacientes, noticias, etc. – Centro de Documentación para Pacientes (http://www.Webpacientes.org/ cdoc/). Es un servicio dirigido a los ciudadanos que quieren participar en el cuidado de su salud. Les ayuda a ampliar su información y conocimiento sobre una determinada enfermedad o condición de salud facilitando el acceso a recursos de Internet de calidad seleccionados y agrupados por categorías, las últimas publicaciones y avances científicos, así como documentos específicos (artículos de revistas, capítulos de libros, etc.). Como su nombre indica es un centro de documentación. Hay que registrarse. – Fisterra salud (http://www.fisterra.com/Salud/index.asp). Este sitio Web nació por iniciativa de un grupo de profesionales relacionados con la aten170
ción primaria que estaban interesados en compartir información y recursos de tipo práctico que constituyeran una ayuda en la asistencia a los pacientes. Forma parte de Fisterra.com, un portal para los profesionales de la salud que ya hemos descrito en otro capítulo. Fisterra es independiente de cualquier institución, empresa editorial tradicional o compañía farmacéutica, en lo que a financiación y propiedad se refiere. Obtiene recursos a través de la venta de productos y servicios: “suscripciones a Fisterrae, matrículas de cursos, libros, aplicaciones informáticas e inserción de publicidad”. Tiene varias secciones: a) Información y consejos sobre problemas de salud. En forma de directorio por partes del cuerpo (aparatos y sistemas); por desórdenes y enfermedades; por grupos demográficos; salud, prevención y bienestar. b) Dietas. Información sobre todo tipo de dietas (hipocalóricas, para diabéticos, problemas digestivos, dislipemia, etc.), recomendaciones dietéticas, y preparación y dietas en las exploraciones. c) Procedimientos. Información sobre procedimientos diagnósticos, terapéuticos y medicamentos. d) Vacunas. Contiene abundante información sobre el tema: una introducción con los calendarios de vacunación infantil por comunidades autónomas; las enfermedades y sus vacunas; las vacunas en situaciones especiales, que incluye la vacunas en los viajes. e) Enlaces. Se trata de una colección de enlaces a sitios de calidad. Los contenidos están acreditados y firmados. Fisterra cuenta con el apoyo de Fisterra.com, gran cantidad de profesionales, y con la objetividad, la independencia y la elaboración de guías y documentos basados en la mejor evidencia científica5. – Medline Plus. Información de salud para Usted (http://medlineplus.gov/ spanish/). Se trata de un servicio que ofrece la Biblioteca Nacional de Medicina de los Estados Unidos y los Institutos Nacionales de la Salud. Está en inglés y en castellano. Este sitio está orientado a suministrar información fiable a los pacientes y enfermos. Puede ser de utilidad para los distintos profesionales de la salud y los estudiantes de las mismas. Contiene las siguientes secciones: a) Temas de salud. Se trata de un directorio en el que se puede acceder al listado de todos los temas por orden alfabético o se pueden seleccionar por “Partes de cuerpo/sistemas”, “Desórdenes y enfermedades”, y “Diagnósticos y tratamientos”. b) Medicinas y suplementos. Hace referencia tanto a los medicamentos de patente, por la marca o por el nombre genérico, así como a las hierbas y suplementos. A ambos se accede por orden alfabético. El primer repertorio es un producto de la American Society of Health-System Pharmacists6, y el segundo, de Natural Standard7. Este apartado es muy interesante, ya que el consumo de tratamientos complementarios y de suplementos dietéticos y de productos naturales es muy alto en los Estados Unidos. La información puede ser de gran interés para el público europeo. En la página también se remite al lector al sitio Web de la Administración de Drogas y Alimentos (FDA) de los Estados Unidos, donde se proporciona más información sobre fármacos.
5 Véase Farjas Abadía, M.P.; Serrano Peña, J. FisterraSalud: Un portal para pacientes, UOCpapers. Revista sobre la Sociedad del conocimiento, 2007; 4: http://www.uoc.edu/ uocpapers/4/dt/esp/farjas_serrano.html [Consultado el 20 de noviembre de 2007]. 6 Véase: http://www.ashp.org/s_ashp/index.asp [Consultado el 8 de enero de 2008]. 7 Natural Standard (http://www. naturalstandard.com/) fue fundado por un grupo de clínicos e investigadores con el fin de proveer información de gran calidad basada en la evidencia sobre este tipo de productos, así como de varios tipos de tratamientos complementarios o alternativos.
171
Véase http://www.adam.com/ About_ADAM/index.html [Consultada el 9 de enero de 2008].
8
172
c) Enciclopedia médica en español. La Enciclopedia Ilustrada de Salud (Health Illustrated Encyclopedia) de A.D.A.M8, incluye más de 4.000 artículos acerca de enfermedades, exploraciones, síntomas, lesiones y procedimientos quirúrgicos. También contiene una biblioteca extensa de fotografías médicas e ilustraciones. Se accede por la primera letra del tema. d) Tutoriales interactivos. Creados por el Patient Education Institute (Instituto para la Educación del Paciente). Estos tutoriales o pequeños manuales o guías ofrecen información acerca de diferentes enfermedades, medidas para su prevención, procedimientos médicos y promoción de una vida saludable. Combinan vídeo, animaciones y audio, junto a excelentes gráficos e imágenes. Aprovechan muy bien la interactividad y se adaptan al ritmo de cada usuario. Pueden ser de gran utilidad para los profesionales de la medicina, ya que le proporcionan un modelo de los términos en los que puede comunicarse con los pacientes. e) Noticias. Colección de noticias ordenadas cronológicamente que se toman, generalmente, de Reuters Health y del servicio Healthday. f) Vídeos de procedimientos quirúrgicos. Esta sección proporciona enlaces a videos vía Internet (videocasts) pregrabados de procedimientos o intervenciones quirúrgicas. Se trata de operaciones reales que se han desarrollado en centros médicos de los Estados Unidos desde enero de 2004. Los vídeos tienen una duración de una hora. Los que se han incorporado a partir de julio de 2007 están en formato flash. Los anteriores están en formato Realmedia (http://spain.real.com/player/). El sitio Web permite buscar en todas las secciones y ofrece también enlaces a noticias de salud destacadas y a novedades de última hora. Como se señala en el sitio, se trata del portal de Internet de información de salud para el público de la Biblioteca Nacional de Medicina. Los profesionales de la salud y el público en general pueden estar seguros de su contenido fiable y actualizado. Es un ejemplo a seguir. El mismo portal en inglés todavía es más completo: contiene directorios para encontrar profesionales médicos y odontólogos así como hospitales; búsqueda de recursos sobre salud por zonas geográficas; otros recursos como bibliotecas, organizaciones y sitios internacionales; e incluso información sobre la búsqueda de nuevos medicamentos y tratamientos. Especialmente interesante me parece la página de enlaces sobre Organizations by Health Topic, que puede encontrarse en la siguiente dirección y que nos ahorra mucho espacio en este libro: http://www.nlm.nih.gov/medlineplus/organizations/orgbytopic_a.html – Saludalia (http://www.saludalia.com/). Portal que tiene como objetivo informar, formar y dar servicios sobre salud a todos los usuarios de la red, con contenidos en español de la más alta calidad. Tiene un comité editorial compuesto de profesionales y con un Comité de colaboradores externo. Suscribe los Principios del código HONcode, que revisa periódicamente su cumplimiento, y los del eHealth Code of Ethics, de la Internet Healtcare Coalition. Respecto a su diseño cumple con los estándares del 3WC Consortium. – NHS Direct (http://www.nhsdirect.nhs.uk/). Portal de información médica para los pacientes y la gente en general del Reino Unido. Cuenta con una guía de autoayuda que puede utilizarse como protocolo de inicio cuando el usuario o familiar no se encuentran bien.
Imagen 2. Captura de pantalla del portal Fisterra salud, destinado a los pacientes y público en general.
Iniciativas gubernamentales – Portal de salud de salud pública de la Unión Europea (http://ec.europa.eu/ health-eu/index_es.htm). Se trata de un portal de información médica dirigida, fundamentalmente, al ciudadano, pero también a los profesionales y políticos. Se publica en 22 idiomas. Las secciones más destacables de este portal son: a) Mi salud. Dividida a su vez en otras subsecciones: Bebés y niños; Jóvenes; Mujeres; Hombres; Personas mayores; y Personas con discapacidades. b) Mi estilo de vida. Cuenta con las siguientes subsecciones: Alimentación, Tabaco, Sexo, Alcohol, Viajar, Drogas y Deportes y ocio. Si abrimos, por ejemplo, el enlace “Alimentación” nos encontramos con una introducción seguida por una serie de enlaces que conducen a documentos e informes, clasificados en: Salud pública, Indicadores de salud de la CE; Información Sanitaria Europea; e Investigación. A medida que profundizamos en los niveles jerárquicos de las distintas páginas dejan de estar traducidas; sólo están disponibles en inglés. c) Mi entorno. Contiene las siguientes partes: En casa; En el Trabajo; Entorno social; Salud Medio-ambiental; Seguridad de los consumidores; Riesgos físicos; Riesgos biológicos; Riesgos químicos; Seguridad vial; Bioterrorismo; 173
Seguridad alimentaria. Podemos profundizar en cada uno de estos temas gracias a los enlaces que se proporcionan. d) Problemas de salud. Las secciones son las siguientes: VIH-SIDA; Gripe; Otras enfermedades infecciosas; Salud mental; Cáncer; Enfermedades poco comunes; Enfermedades cardio-vasculares; Otras enfermedades no transmisibles. e) Cuidar de mí. Contiene las siguientes partes: Seguridad de los pacientes; La movilidad europea; Garantía de calidad; Proyectos a largo plazo; Medicamentos y tratamientos; Vacunas; Salud en línea; Seguro; y Cuidadores. Especialmente interesante en este caso resulta el tema Salud en línea o “uso genérico de herramientas basadas en las tecnologías de la información y la comunicación para la asistencia y perfeccionamiento de la prevención, diagnóstico, tratamiento, seguimiento y gestión de la salud y del modo de vida.”. Comprende la interacción entre los pacientes y los proveedores de servicios sanitarios, la transmisión de datos entre instituciones, la comunicación entre pacientes o profesionales de la salud; redes de información sanitaria, los historiales médicos electrónicos, los servicios de telemedicina y los sistemas de comunicación personal para el seguimiento y la asistencia a los pacientes. Según se dice en el sitio Web la salud en línea puede ser muy beneficiosa para toda la comunidad, pues permite un mejor acceso a la asistencia sanitaria y una mayor calidad de la misma, unos sistemas sanitarios centrados en el ciudadano y la eficacia y productividad del sector de la salud. Dentro de esta subsección podemos encontrar materiales clasificados por: “Guía para el futuro”, “Apoyo de la UE”, y “Health initiatives coordinated by the EU”. f) Salud en la UE. En esta sección hallamos mucha información de tipo institucional clasificada en estas subsecciones: Políticas, Programas, Investigación, Prevención y promoción, Indicadores de salud de la CE, y Estadística. Bajo el menú principal de la columna izquierda encontramos disponibles otros enlaces que nos llevan a otros sitios, como al Boletín Salud-UE. Bajo éstos una serie de noticias relacionadas con los temas del sitio. En la columna izquierda se disponen enlaces a varios comunicados de prensa, actos y publicaciones, entre otros. – Ministerio de Sanidad y Consumo (http://www.msc.es). Contiene una sección titulada “Ciudadanos”, en la que se encuentran los siguientes enlaces: Enfermedades, Salud mental, Accidentes y lesiones, Violencia y salud, Enfermedades raras, Seguridad del paciente, Asociaciones de enfermos y familiares; Salud ambiental y laboral; Prestaciones y centros sanitarios; Información administrativa; y Empresas. Cada una de estas secciones se divide en subsecciones. Por ejemplo “Protección de la salud” cuenta con las siguientes: Infancia, Adolescencia, Adultos, Mayores, Mujeres, Vacunaciones, y Tabaco. Así cada capítulo se va ramificando de forma jerárquica. La información que se reúne es abundante. El sitio Web también cuenta con una sección para profesionales, otra de Biblioteca y Publicaciones, otra de Estadísticas y, finalmente, una de normativa. – healthfinder.gov (http://www.healthfinder.gov). Se trata de una guía gratuita de información sanitaria de confianza, desarrollada por el Departamento de Salud y Servicios Humanos de los Estados Unidos (U.S. Department 174
of Health and Human Services). Este sitio proporciona información por temas ordenados alfabéticamente, en forma de directorio y también permite
Imagen 3. Portal healthfinder.gov de información sanitaria fiable
las búsquedas. Los contenidos han sido cuidadosamente revisados y provienen de más de 1.500 agencias gubernamentales, organizaciones sin fines de lucro y universidades. Cuenta con una versión en castellano.
Iniciativas que surgen de los pacientes y su entorno Creemos que no es éste el sitio adecuado para evaluar la información que procede de los propios enfermos, familiares o cuidadores. En la red se encuentran gran cantidad de foros, blogs, páginas Web, y comunidades virtuales en los que hay enfermos que ofrecen su visión y experiencia de las enfermedades que padecen. De gran interés para los pacientes y su entorno son las asociaciones de pacientes de diversas enfermedades: – Asociación Española de Enfermos de Hepatitis C. (http://www.aehc.es/). – Asociación Española de Afectados por Linfomas (http://www.aeal.net/). – Asociación Española Contra el Cáncer (http://www.todocancer.com/ esp). – Asociación Española de Pacientes con Cefalea (http://www.campanacefaleas.com/). – Asociación Española de Alérgicos a Alimentos y Látex (http://www.aepnaa. org/). – Asociación Española de Transplantados) (http://www.asociaciondetrasplantados.es/). – Associació Catalana de Malalts d’Hepatitis “C” (http://www.asscat.org/html/default.asp). – Asociación Nacional para problemas de Crecimiento (http://www.crecimiento.org/). 175
– Associació de Bipolars de Catalunya (http://www.bipolars.org/). – Confederación Española de Familiares de Enfermos de Alzheimer y otras Demencias (http://www.ceafa.org/). – Conartritis. Coordinadora Nacional de Artritis (http://www.conartritis. org/). – Confederación Española de Agrupaciones de Familiares y Personas con Enfermedad Mental (http://www.feafes.com/). – Federación de Asociaciones de Celiacos (http://www.celiacos.org/). – Federación Española de Cáncer de Mama (http://www.fecma.org/). – Federación Española de Daño Cerebral (http://www.fedace.org/). – Federación de Diabéticos Españoles (http://www.arquitecte.org/users/fede/). – Federación Española de Enfermedades Raras (http://www.enfermedadesraras.org/). – Federación Española de Hemofilia (http://www.hemofilia.com/). – Federación Española de Parkinson (http://www.fedesparkinson.org). – Fundación Española del Corazón (http://www.fundaciondelcorazon. com). – Fundación Hipercolesterolemia Familiar (http://www.colesterolfamiliar. com/n/index.html). – Liga Reumatológica Española (http://www.lire.es/lire04/index.html). – Sine Dolore (http://www.sinedolore.org/). Una excelente iniciativa de la Asociación Española contra el Cáncer es haber abierto un canal propio en YouTube. Se trata, sin duda, de una buena decisión, y demuestra que saben utilizar medios tan populares como éste.
Imagen 4. Captura de pantalla de la página del canal YouTube de la Asociación Española contra el Cáncer.
Finalmente, también podemos mencionar: – Foro Español de Pacientes. (http://www.Webpacientes.org/fep/). Se trata de una entidad de referencia de las organizaciones que representan los in176
tereses de los pacientes españoles, mediante unas líneas de actuación: “(a) impulso de las condiciones que permitan la adecuada representación de las organizaciones que representan los intereses de los pacientes en órganos de participación y gobierno; (b) divulgación de los principios recogidos en la Declaración de Barcelona de los pacientes; (c) desarrollo de una labor de difusión y comunicación de las actividades realizadas por las organizaciones que lo integran; (d) apoyo de cualquier tipo de actividades que puedan ser de interés para las organizaciones que representan los intereses de los pacientes; (e) fomento de la constitución de Federaciones de Asociaciones de pacientes que representan una misma entidad clínica o patologías relacionadas.
177
Noticia sobre la Telemedicina Una introducción al tema Telemedicina es un término que hace referencia a la prestación de servicios médicos a distancia. Su versión inglesa Telemedicine es uno de los descriptores MeSH. Aunque este servicio “a distancia” ha existido hasta el momento por otros procedimientos, el teléfono1, por ejemplo, con las nuevas tecnologías de la información y la comunicación está cobrando una dimensión renovada. En realidad es una nueva forma de ejercer la medicina2. El término “medicina” no sólo hace referencia al acto médico sino que incluye también otros campos: prevención, asistencia, profesión, enseñanza e investigación. Todos ellos se ven afectados igualmente por el desarrollo de las TIC. Hay quien prefiere la palabra “eSalud”. “Telemedicina” es un término que se introdujo en MeSH en 1993 y significa, como hemos dicho, prestación de asistencia o servicios de salud a distancia a través de las telecomunicaciones. Incluye consulta interactiva y servicio diagnóstico. Por debajo se encuentra “Remote consultation”, “Telepathology” y “Teleradiology”. Una búsqueda en PubMed con esta palabra arroja una cifra de 9.434 referencias. La búsqueda simple de “telemedicina” en el Índice Médico Español (IME), nos proporciona 46 documentos publicados entre 1997 y 2006. Un vistazo a los títulos nos descubre la variedad de temas que integra la telemedicina: desde la enseñanza a través de Internet, hasta el control a distancia de los pacientes, pasando por el acceso a la información por parte de los profesionales, así como por parte de los pacientes y la población en general. El término “eHealth”, sin embargo, es más confuso. En el año 2005 varios profesionales de la Universidad de Toronto publicaron un trabajo en el Journal of Medical Internet Research sobre las distintas definiciones de eHealth. Seleccionaron una serie de informes, artículos, referencias, cartas y sitios Web en inglés. Hicieron un análisis cualitativo de los conceptos y los codificaron por el contenido, temas emergentes, patrones e ideas nuevas. Recogieron un total de 51 definiciones (entre 1999 y 2004) y no había consenso respecto al significado. En todas hallaron varios componentes que se repetían: salud y tecnología en todas, y negocio o comercio en algunas. Los sitios Web, documentos y trabajos utilizados contenían citas cruzadas; el artículo más citado (en 87 casos) fue el de G. Eysenbach3, “What is e-health?”, seguido por el de J. Mitchell4, “From telehealth to e-health: The unstoppable rise of e-health”. Las definiciones son: “Un nuevo término que describe el uso combinado de la comunicación electrónica y la tecnología de la información en el sector de la salud. El uso de
1 Véase, por ejemplo,: Car J, Sheikh A. Telephone consultations. BMJ. 2003;326:966-9. 2 Ramos Mártínez, A. Realidad y futuro de la telemedicina, Jano, 2006, n. 1620: 14 y Realidad y futuro de la telemedicina, Med. Clin. (Barcelona) 2006: 127: 335-336. 3 Eysenbach G. What is ehealth? J Med Internet Res. 2001 Jun 18;3(2):e20. doi: 10.2196/ jmir.3.2.e20. 4 Mitchell, J. From telehealth to e-health: The unstoppable rise of e-health. Canberra, Australia, Commonwealth Department of Communications, Information Technology and the Arts (DOCITA), 1999.
179
datos digitales (transmitidos, almacenados y recuperados de forma electrónica) en el sector de la salud, con fines clínicos, educativos y administrativos, tanto localmente como a distancia” [Mitchell, 1999]. “E-salud es un campo emergente en la intersección de la informática médica, la salud pública y los negocios, en referencia a los servicios de salud y de la información proporcionada a través de Internet y tecnologías relacionadas. En un sentido más amplio, el término caracteriza no sólo un desarrollo técnico, sino también un estado mental, una forma de pensar, una actitud y un compromiso para la red, el pensamiento globalizado, la mejora de la atención sanitaria a nivel local, regional, y en todo el mundo mediante el uso de las tecnologías de la información y comunicación”. [Eysenbach]. En pubMed el término eHealth arroja 268 referencias. Existen de hecho numerosas experiencias en el mundo de telemedicina y publicaciones específicas. ¿Qué ventajas puede aportar la telemedicina o la eSalud? Vamos a mencionar unas cuantas: a) Para los profesionales – Disponer de los datos de los pacientes en red o de su historia clínica. – Comunicación de resultados de pruebas o de informes de pacientes mediante diversas posibilidades que ya hemos analizado en otros capítulos. – Intercambio de información médica de pacientes entre los diferentes profesionales (especialistas, médicos de atención primaria, hospitales, etc.). – Intercambio de información entre los pacientes y los profesionales. – Monitorización a distancia de pacientes mediante dispositivos transportados por éste o dentro del hospital. – Trabajo colaborativo entre profesionales sin el requisito de la presencia física – Acceso a la información (legislativa, profesional, científica, médica, de investigación, docente, etc.) – Acceso a zonas geográficas desfavorecidas – Acceso a zonas con escasa cobertura sanitaria – Creación y participación en equipos virtuales de asistencia – E-learning: enseñanza de grado, posgrado y especizalizada; cursos de reciclaje y actualización. – Elaboración de materiales multimedia – Desarrollo de las TIC en paralelo con la robótica aplicada a la medicina b) Para los pacientes y la población en general – Acceso no presencial a los profesionales – Posibilidad de asistencia a distancia – Seguimiento de la evolución del paciente – Mejora de los aspectos administrativos relacionados con la asistencia – Acceso a información fiable, contrastada y de calidad – Intercambio de información entre pacientes – Acceso a Asociaciones de pacientes No cabe la menor duda de que también hay desventajas, como: – Falta de garantía en lo que se refiere a la privacidad – Desigual acceso a las TIC. (de disponibilidad, de tipo económico, de formación, etc.). – Desigual acceso a las TIC por parte del personal sanitario 180
– Determinadas soluciones o recursos de eSalud son insuficientes e inadecuados para una serie de problemas y casos clínicos específicos – Dificultades para expresar por escrito los problemas que aquejan al paciente, así como determinados estados de ánimo, emociones, etc. – Demora en las respuestas – Falta de contacto físico en la anamnesis, observación y exploración durante el acto médico y también en lo que se refiere a los factores humanos. La mayor parte de los capítulos de este libro podían caber perfectamente dentro del campo semántico de “telemedicina”. No obstante, para quien quiera profundizar en esta área, proporcionamos algunas direcciones donde se puede encontrar información. – IT iTelemedicina.com (http://www.itelemedicina.com). Es un portal especializado en el tema. Se orienta de forma especial a tres grupos de personas: profesionales sanitarios, directivos y gestores en el ámbito de los servicios de salud. Contiene varias secciones: Introducción a la telemedicina; Telemedicina en la red; Telemedicina en España; Documentos; e iTelemedicina. En el apartado de “Telemedicina en la red” hallamos un pequeño directorio con los siguientes temas: Recursos e información; Organizaciones; Publicaciones y revistas; Programas de telemedicina; Normalización; Aplicaciones clínicas; Aspectos legales y éticos; Documentación básica; Esalud; Movilidad; Evaluación; y TIC y sanidad. Cada una de estas secciones contiene un buen número de enlaces a sitios Web, documentos, informes, etc. de bastante calidad. – eHealth Initiative (http://www.ehealthinitiative.org/). Sitio Web de una organización independiente que persigue la mejora de la calidad, seguridad y eficacia en la asistencia sanitaria a través de las TIC. – Telemedicina Information Exchange (http://tie.telemed.org/). Contiene gran cantidad de recursos y una base de datos con más de 6.000 referencias de trabajos sobre el tema. – Journal of Medical Internet Research (http://www.jmir.org/). Es una revista open access y sus artículos están sometidos a revisión por pares. Disponible desde su creación en 1999. – eHealth Internacional (http://www.ehealthinternational.org/). Revista científica en formato HTML, asociada a BiomedCentral y de acceso libre. – Telehealth (http://www.hrsa.gov/telehealth/). Organización pública de los Estados Unidos cuya objetivo es promover la investigación y la difusión de la información en Telemedicina. Su actividad fundamental es el desarrollo y mantenimiento del Telemedicine Information Exchange.
181