La seguridad informática· Un documento que cambiará el mundo
1.La seguridad informática
1.1 VIRUS
Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento del ordenador, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos.Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos por que no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.
1.2 TROYANOS En informática, se denomina troyano un software malicioso que bajo una apariencia inofensiva se ejecuta de manera oculta en el sistema y permite el acceso remoto de un usuario no autorizado al sistema. Un troyano no es
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
un virus informático, las principales diferencias son que los troyanos no propagan la infección a otros sistemas por si mismos y necesitan recibir instrucciones de un individuo para realizar su propósito. Los troyanos están compuestos principalmente por dos programas: un cliente, que envía las órdenes que se deben ejecutar en la computadora infectada y un servidor situado en la computadora infectada, que recibe las órdenes del cliente, las ejecuta y casi siempre devuelve un resultado al programa cliente. La mayoría de infecciones con troyanos ocurren cuando se ejecuta un programa infectado con un troyano. Estos programas pueden ser de cualquier tipo, desde instaladores hasta presentaciones de fotos. Al ejecutar el programa, este se muestra y realiza las tareas de forma normal, pero en un segundo plano y al mismo tiempo se instala el troyano. El proceso de infección no es visible para el usuario ya que no se muestran ventanas ni alertas de ningún tipo. Evitar la infección de un troyano es difícil. Debido a que cualquier programa puede realizar acciones maliciosas en un ordenador hay que ser cuidadoso a la hora de ejecutarlos.Una de las principales características de los troyanos es que no son visibles para el usuario. Un troyano puede estar ejecutándose en un ordenador durante meses sin que el usuario perciba nada. Esto hace muy difícil su detección y eliminación de forma manual. Algunos patrones para identificarlos son: un programa desconocido se ejecuta al iniciar el ordenador, se crean o borran archivos de forma automática, el ordenador funciona más lento de lo normal, errores en el sistema operativo.Por otro lado los programas antivirus están diseñados para eliminar todo tipo de software malicioso, además de eliminarlos también previenen de nuevas infecciones actuando antes de que el sistema resulte infectado. Es muy recomendable tener siempre un antivirus instalado en el equipo y a ser posible también un firewall.
1.3 SPAM
Se llama spam, correo basura o sms basura a los mensajes no solicitados, habitualmente de tipo publicitario, enviados en grandes cantidades (incluso masivas) que perjudican de alguna o varias maneras al receptor. La acción de enviar dichos mensajes se denomina spamming. Aunque se puede hacer por distintas vías, la más utilizada entre el público en general es la basada en el correo electrónico. Otras tecnologías de internet que han sido objeto de correo basura incluyen grupos de noticias, usenet, motores de búsqueda, wikis, foros, blogs, también a través de popups y todo tipo de imágenes y textos en la web. El correo basura también puede tener como objetivo los teléfonos móviles (a través de mensajes de texto) y los sistemas de mensajería instantánea como por ejemplo Outlook, Lotus Notes, etc. También se llama spam a los virus sueltos en la red y páginas filtradas (casino, sorteos, premios, viajes y pornografía), se activa mediante el ingreso a páginas de comunidades o grupos o acceder a links en diversas páginas.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
1.4 SEGURIDAD PASIVA/ACTIVA
Los métodos para disminuir o reducir los riesgos asociados a los virus pueden ser los denominados activos o pasivos. Activos ▪ Antivirus: son programas que tratan de descubrir las trazas que ha dejado un software malicioso, para detectarlo y eliminarlo, y en algunos casos contener o parar la contaminación. Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de infección y notificando al usuario de posibles incidencias de seguridad. ▪ Filtros de ficheros: consiste en generar filtros de ficheros dañinos si el ordenador está conectado a una red. Estos filtros pueden usarse, por ejemplo, en el sistema de correos o usando técnicas de firewall. En general, este sistema proporciona una seguridad donde no se requiere la intervención del usuario, puede ser muy eficaz, y permitir emplear únicamente recursos de forma más selectiva.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
Pasivos ▪ Evitar introducir a tu equipo medios de almacenamiento extraíbles que consideres que pudieran estar infectados con algún virus. ▪ No instalar software "pirata". ▪ Evitar descargar software de Internet. ▪ No abrir mensajes provenientes de una dirección electrónica desconocida. ▪ No aceptar e-mails de desconocidos. ▪ Generalmente, suelen enviar "fotos" por la web, que dicen llamarse "mifoto.jpg", tienen un ícono cuadrado blanco, con una línea azul en la parte superior. En realidad, no estamos en presencia de una foto, sino de una aplicación Windows (*.exe). Su verdadero nombre es "mifoto.jpg.exe", pero la parte final "*.exe" no la vemos porque Windows tiene deshabilitada (por defecto) la visualización de las extensiones registradas, es por eso que solo vemos "mifoto.jpg" y no "mifoto.jpg.exe". Cuando la intentamos abrir (con doble click) en realidad estamos ejecutando el código de la misma, que corre bajo MS-DOS
1.5 ANTIVIRUS Los antivirus nacieron como una herramienta simple cuyo objetivo fuera detectar y eliminar virus informáticos, durante la década de 1980 Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, los antivirus han evolucionado hacia programas más avanzados que no sólo buscan detectar un Virus informáticos, sino bloquearlo, desinfectar y prevenir una infección de los mismos, así como actualmente ya son capaces de reconocer otros tipos de malware, como spyware, rootkits, etc. El funcionamiento de un antivirus varía de uno a otro, aunque su comportamiento normal se basa en contar con una lista de virus conocidos y su formas de reconocerlos (las llamadas firmas o vacunas), y analizar contra esa lista los archivos almacenados o transmitidos desde y hacia un ordenador. Adicionalmente, muchos de los antivirus actuales han incorporado funciones de detección proactiva, que no se basan en una lista de malware conocido, sino que analizan el comportamiento
de
los
archivos
o
comunicaciones
para
detectar
cuáles
son
potencialmente dañinas para el ordenador, con técnicas como Heurística, HIPS, etc.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
Usualmente, un antivirus tiene un (o varios) componente residente en memoria que se encarga de analizar y verificar todos los archivos abiertos, creados, modificados, ejecutados y transmitidos en tiempo real, es decir, mientras el ordenador está en uso. Asimismo, cuentan con un componente de análisis bajo demanda (los conocidos scanners, exploradores, etc), y módulos de protección de correo electrónico, Internet, etc. El objetivo primordial de cualquier antivirus actual es detectar la mayor cantidad de amenazas informáticas que puedan afectar un ordenador y bloquearlas antes de que la misma pueda infectar un equipo, o poder eliminarla tras la infección.Actualmente hay una gran mayoría de antivirus pero no todos se asemejan al pretendido por todos, un antivirus eficaz en todos los sentidos.
1.6 CORTAFUEGOS Un firewall es una parte de un sistema o una red que está diseñada para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar, descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios. Los cortafuegos pueden ser implementados en hardware o software, o una combinación de ambos. Los cortafuegos se utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a través del cortafuegos, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad especificados. También es frecuente conectar al cortafuegos a una tercera red, llamada Zona desmilitarizada o DMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red exterior . Un cortafuegos correctamente configurado añade una protección necesaria a la red, pero que en ningún caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y protección.
1.7 LA IDENTIDAD DIGITAL Y EL FRAUDE La identidad digital se refiere al aspecto de tecnología digital que está preocupada con la mediación de experiencia de la gente de su propia identidad y la identidad de otra gente y cosas. La identidad digital también tiene otro uso común como la representación digital de un juego de reclamaciones hechas por un sujeto digital sobre sí u otro sujeto digital. La autenticación es un aspecto clave de atribución de identidad a base de confianza, proporcionando
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
un aseguramiento codificado de la identidad de una entidad al otro. Metodologías de autenticación incluyen la presentación de un objeto único como una tarjeta de crédito bancaria, la provisión de información confidencial como una contraseña o la respuesta a una pregunta planificada, la confirmación de propiedad de una dirección de correo electrónico, y soluciones más robustas pero relativamente costosas que utilizan metodologías de cifrado. En general, la autenticación entre empresas prioritiza la seguridad(el valor) mientras el usuario a la autenticación de negocio tiende hacia la simplicidad. Nuevas técnicas físicas de autenticación como la exploración de lirio(iris) y la escritura manuscrita actualmente están siendo desarrolladas y en la esperanza de proporcionar la protección mejorada contra la identidad.
1.8 CIFRADO DE LA INFORMACIÓN Se dice que la informacion esta cifrada o encriptada cuando esta protegida, esto puede ser con una clave o con un Hash, la herramienta de cifrado esta integrada a windows apartir de la version 2000, por lo general esos archivos (el titulo) se ve en color verde, los que estan en otro sistema de archivos en Azul y los normales en negro.
1.9 FIRMA DIGITAL La firma digital hace referencia, en la transmisión de mensajes telemáticos y en la gestión de documentos electrónicos, a un método criptográfico que asocia la identidad de una persona o de un equipo informático al mensaje o documento. En función del tipo de firma, puede, además, asegurar la integridad del documento o mensaje.La firma electrónica, como la firma hológrafa (autógrafa, manuscrita), puede vincularse a un documento para identificar al autor, para señalar conformidad (o disconformidad) con el contenido, para indicar que se ha leído y, en su defecto mostrar el tipo de firma y garantizar que no se pueda modificar su contenido.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
1.10 CERTIFICADOS DIGITALES Un certificado digital es un documento digital mediante el cual un tercero confiable (una autoridad de certificación) garantiza la vinculación entre la identidad de un sujeto o entidad y su clave pública.Si bien existen variados formatos para certificados digitales, los más comúnmente empleados se rigen por el estándar UIT-T X.509. El certificado contiene usualmente el nombre de la entidad certificada, número de serie, fecha de expiración, una copia de la clave pública del titular del certificado (utilizada para la verificación de su firma digital) y la firma digital de la autoridad emisora del certificado de forma que el receptor pueda verificar que esta última ha establecido realmente la asociación
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
2 Protocolo seguro HTTPS
Hypertext Transfer Protocol Secure (en español: Protocolo seguro de transferencia de hipertexto), más conocido por sus siglas HTTPS, es un protocolo de red basado en el protocolo HTTP, destinado a la transferencia segura de datos de hipertexto, es decir, es la versión segura de HTTP. Es utilizado principalmente por entidades bancarias, tiendas en línea, y cualquier tipo de servicio que requiera el envío de datos personales o contraseñas.La idea principal de https es la de crear un canal seguro sobre una red insegura. Esto proporciona una protección razonable contra ataques eavesdropping y man-in-the-middle, siempre que se empleen métodos de cifrado adecuados y que el certificado del servidor sea verificado y resulte de confianza. El sistema HTTPS utiliza un cifrado basado en SSL/TLS para crear un canal cifrado (cuyo nivel de cifrado depende del servidor remoto y del navegador utilizado por el cliente) más apropiado para el tráfico de información sensible que el protocolo HTTP. De este modo se consigue que la información sensible (usuario y claves de paso normalmente) no pueda ser usada por un atacante que haya conseguido interceptar la transferencia de datos de la conexión, ya que lo único que obtendrá será un flujo de datos cifrados que le resultará imposible de descifrar. El puerto estándar para este protocolo es el 443.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
Redes sociales y trabajo colaborativo
3.1 REDES SOCIALES
En el ámbito de las ciencias sociales, una red social es una estructura social, un grupo de personas relacionadas entre sí, y puede representarse analíticamente en forma de uno o varios grafos. En el ámbito de Internet, las redes sociales son páginas que permiten a las personas conectarse con sus amigos e incluso realizar nuevas amistades, a fin de compartir contenidos, interactuar y crear comunidades sobre intereses similares: trabajo, lecturas, juegos, amistad, relaciones amorosas, etc. Los principales competidores a nivel mundial son: Hi5, MySpace, Facebook, Tuenti, Twitter y Orkut.Una revisión de los sitios de redes sociales hace evidente que sus fundamentos tecnológicos están basados en la consolidación de aplicaciones de uso común en un único sitio. Se emplean las tecnologías estándar, como el correo electrónico y sus protocolos http para facilitar las operaciones de subir o bajar información, ya sea fotos o información sobre el perfil; la mensajería instantánea y los otros protocolos de uso común que se pueden encontrar a lo largo de muchas páginas web. Las características de las salas de chat también están disponibles y permiten a los usuarios conectarse instantáneamente en modalidad de uno a uno o en pequeños grupos, en función de la oferta del sitio.Los principales proveedores de SRS están construidos sobre plataformas que apoyan las necesidades de los consumidores con diferentes herramientas para facilitar el intercambio de información. Estas tecnologías se encuentran en una etapa de madurez y se usan de forma generalizada, por lo que son consideradas un componente integral de muchos de los principales sitios.Las redes sociales también han servido para estafar y secuestrar a los consumidores de estas redes sociales. Esto ha sido fundamental en el cumplimiento de los requisitos de conectividad que impulsa muchas de las características de redes sociales. Como se trata de mercados maduros, probablemente habrá innovaciones que seguirán impulsando las nuevas características y capacidades que se adapten a la satisfacción de necesidades de este mercado demográfico.Para los SRS no existen normas específicas para el despliegue de la tecnología de cada sitio. Sin embargo, como todos ellos son ofrecidos a través de Internet a través de navegadores Web, deben atenerse a las normas comunes que son impulsadas por la aplicación y el diseño funcional de las necesidades. Por lo tanto, las normas son inducidas más por el mercado y menos por un consejo de administración o por reglamentos oficiales. A medida que los nuevos navegadores y plataformas se han desplegado, los proveedores están obligados a adaptar e integrar y a permitir que sus sitios sigan siendo utilizables por nuevos consumidores.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
3.2 CHAT
El chat también conocido como cibercharla, designa una comunicación escrita realizada de manera instantánea a través de Internet entre dos o más personas ya sea de manera pública a través de los llamados chats públicos (mediante los cuales cualquier usuario puede tener acceso a la conversación) o privada, en los que se comunican sólo 2 personas a la vez. Son muchas las acepciones de la palabra chat, y por lo general agrupa a todos los protocolos que cumplen la función de comunicar a dos o más personas, dentro de éstos los clientes de chat (como, por ejemplo, X-Chat, ChatZilla (el cliente de Mozilla/SeaMonkey o el mIRC); éstos usan el protocolo IRC, cuyas siglas significan Internet Relay Chat. Otros son protocolos distintos pero agrupados en la mensajería instantánea, tales como Windows Live Messenger, Yahoo! Messenger, Jabber o ICQ, entre los más conocidos, o también el servicio SMS de telefonía móvil. Actualmente Orkut de Google cuenta con un servicio de Chat en linea.También se puede incluir aquí el peer-to-peer. Es muy usado, además, el método webchat, que no es otra cosa que enviar y recibir mensajes a través de una página dinámica de Internet, o usando el protocolo "IRC" si se trata de un applet de Java. El videochat no es más que una evolución o mezcla entre la videoconferencia y el chat tradicional, dotando al usuario de tres modos de comunicación sobre el mismo canal. Existen igualmente servicios de videochat de multidifusión o de mensajería instantánea uno a uno. Distintos sitios web ofrecen servicios de videochat en línea, si bien también existen programas de cómputo especializados como Paltalk. Asi mismo, los programas de mensajería instantánea más famosos, como Windows Live Messenger o Yahoo Messenger, también permiten el uso de audio y vídeo en sus comunicaciones.
Skype es un software para realizar llamadas sobre Internet (VoIP), fundada en 2003 por el danés Janus Friis y el sueco Niklas Zennström, creadores de Kazaa. El código y protocolo de Skype permanecen cerrados y propietarios, pero los usuarios interesados pueden descargar gratuitamente la aplicación del sitio oficial. Los usuarios de Skype pueden hablar entre ellos gratuitamente.La aplicación también incluye una característica denominada YY SkypeOut, que permite a los usuarios llamar a teléfonos convencionales, cobrándoseles diversas tarifas según el país de destino: 0,017 € por minuto en muchos de ellos, incluyendo en algunos los teléfonos móviles, subiendo en otros hasta 0,55 €, aunque puede llamarse a casi cualquier teléfono del mundo. Otra opción que brinda Skype es SkypeIn, gracias al cual ellos otorgan un número de teléfono para que desde un aparato telefónico en cualquier parte del mundo puedan contactarte a tu ordenador. Además, proveen de un servicio de buzón de voz gratuito.La interfaz de Skype es muy parecida a otros software de mensajería instantánea tales como Windows Live Messenger o Yahoo! Messenger, y de igual forma que en éstos es posible entablar una conversación de mensajes instantáneos con los usuarios del mismo software. Este programa también te permite enviar mensajes de voz en caso de que el
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
usuario no se encuentre disponible, aunque eso sí, es un servicio de pago, que tiene un costo desde 5,00 € por 3 meses, éste viene incluido gratuito con SkypeIn.
3.5 WIKIS Un wiki, o una wiki, es un sitio web cuyas páginas web pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes (...), esta palabra se convierte en un «enlace web» a la página wiki. En una página sobre «alpinismo» puede haber una palabra como «piolet» o «brújula» que esté marcada como palabra perteneciente a un título de página wiki. La mayor parte de las implementaciones de wikis indican en el URL de la página el propio título de la página wiki , facilitando el uso y comprensibilidad del link fuera del propio sitio web. Además, esto permite formar en muchas ocasiones una coherencia terminológica, generando una ordenación natural del contenido. La aplicación de mayor peso y a la que le debe su mayor fama hasta el momento ha sido la creación de enciclopedias colaborativas, género al que pertenece la Wikipedia. Existen muchas otras aplicaciones más cercanas a la coordinación de informaciones y acciones, o la puesta en común de conocimientos o textos dentro de grupos. La mayor parte de los wikis actuales conservan un historial de cambios que permite recuperar fácilmente cualquier estado anterior y ver 'quién' hizo cada cambio, lo cual facilita enormemente el mantenimiento conjunto y el control de usuarios destructivos. Habitualmente, sin necesidad de una revisión previa, se actualiza el contenido que muestra la página wiki editada.
3.6 BSCW Basic Support for Cooperative Work (BSCW) es un paquete de software colaborativo para la colaboración en la web desarrollado por la Fraunhofer Society. BSCW soporta subidas de ficheros, notificación de eventos y gestión de grupos de trabajo.El cliente tan sólo necesita un navegador web para poder utilizarlo.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
3.7 MOODLE "Moodle" es un Ambiente Educativo Virtual, sistema de gestión de cursos, de distribución libre, que ayuda a los educadores a crear comunidades de aprendizaje en línea. Este tipo de plataformas tecnológicas también se conoce como LMS (Learning Management System).Moodle fue creado por Martin Dougiamas, quien fue administrador de WebCT en la Universidad Tecnológica de Curtin. Basó su diseño en las ideas del constructivismo en pedagogía que afirman que el conocimiento se construye en la mente del estudiante en lugar de ser transmitido sin cambios a partir de libros o enseñanzas y en el aprendizaje colaborativo. Un profesor que opera desde este punto de vista crea un ambiente centrado en el estudiante que le ayuda a construir ese conocimiento con base en sus habilidades y conocimientos propios en lugar de simplemente publicar y transmitir la información que se considera que los estudiantes deben conocer.La primera versión de la herramienta apareció el 20 de agosto de 2002 y, a partir de allí han aparecido nuevas versiones de forma regular. Hasta julio de 2008, la base de usuarios registrados incluye más 21 millones, distribuidos en 46.000 sitios en todo el mundo y está traducido a más de 75 idiomas.Una de las características más atractivas de Moodle, que también aparece en otros gestores de contenido educativo, es la posibilidad de que los alumnos participen en la creación de glosarios, y en todas las lecciones se generan automáticamente enlaces a las palabras incluidas en estos.
3.8 GOOGLE DOCS PARA TRABAJO COLABORATIVO Google Docs y Hojas de cálculo, oficialmente Google Docs & Spreadsheets es un programa gratuito basado en Web para crear documentos en línea con la posibilidad de colaborar en grupo. Incluye un Procesador de textos, una Hoja de cálculo, Programa de presentación básico y un editor de formularios destinados a encuestas. Google Docs junto con GMail, Google Calendar y Google Talk; el 7 de julio de 2009, dejaron su calidad de Beta y pasaron a ser productos terminados. A partir de enero del 2010, Google ha empezado a aceptar cualquier archivo en Google Docs, entrando al negocio del almacenamiento online con un máximo de 1 GB (con expansiones por costos adicionales) y preparando el camino para Google Chrome OS.Se puede crear documentos de texto, hojas de cálculo, presentaciones y bases de datos desde la misma aplicación o importarlos utilizando su interfaz web o enviándolos utilizando el correo electrónico, además de subir cualquier tipo de archivo. Los archivos se almacenan en los servidores de Google. Los archivos almacenados pueden ser exportados en diversos formatos estándar o ser enviados por correo electrónico.Durante la edición de los documentos, éstos se guardan automáticamente para
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
evitar pérdida de información.Otra característica importante es la posibilidad de colaboración de grupos de trabajo, además de poder compartirlos con múltiples usuarios al mismo tiempo.Este sitio se originó una vez comprado el editor en línea Writely por parte de Google.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
SOCIEDAD DE LA INFORMACIÓN
1.1 DEFINICIÓN La sociedad de la información es la que intenta implantar todas las nuevas tecnologías tanto de información como de comunicación.Esta sociedad tiene dos expresiones tecnológicas concretas: 1. Internet. 2. La capacidad de ingeniería genética.
1.2 HISTORIA DE LA INFORMACIÓN La sociedad de la información basa sus cimientos en apoyada en una tecnología que se fundamenta en la digilitización y en la facilidad de transmisión a traves de las redes de ordenadores interconectados.
Década de los 60 Se empezó a utilizar el término de sociedad de información. Marshall McLuhan llamó a la posibilidad de difusión de la información: "aldea global".
Década de los 70 James Martin en un libro suyo acuñó el término autopistas electrónicas por el repentino aumento en los trabajos de informatización y telecomunicaciones.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
Década de los 80 Aparece otro factor del cambio social: la aparición y rápida difusión del PC.
Década de los 90 Se habla con fluidez de autopistas de la información, además en las redes hay contenidos extras como:
▪ Hipertexto. ▪ Multimedia. ▪ Virtualidad. ▪ Interactividad etc...
1.3 GLOBALIZACIÓN DE LA INFORMACIÓN Es el poder de los medios de comunicación para transmitir información de forma inmediata y global, y la posibilidad de tener información instantánea de cualquier parte del planeta como una de las características de nuestra sociedad. Gracias a esto todas las informaciones se mueven con rapidez y permiten su recepción inmediatamente.
1.4 NUEVOS SECTORES LABORALES La nueva estructura social y laboral que comporta la Sociedad de la Información está planteando una revolución en el mercado laboral.Se perfilan ya nuevas modalidades laborales que afectarán a las profesiones que conocemos hoy en día: el teletrabajo es una opción que intenta aprovechar las tecnologías de la información para facilitar el trabajo desde casa. Con esta modalidad laboral se pretende evitar desplazamientos englobando todos aquellos trabajos realizados por personas externas a una determinada organización, sin tener en cuenta su ubicación geográfica, puesto que son llevados a cabo a distancia.Los trabajadores del mundo actual ven cómo deben adaptarse a unos nuevos modos de entender el mundo laboral que les obliga a reciclarse continuamente o a cambiar frecuentemente de actividad profesional a causa de formas de relacióncon la empresa, como, por ejemplo, el trabajo temporal.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
1.5 LA FRACTURA DIGITAL Una de las características de nuestra sociedad es la fractura o brecha digital, es decir, la distancia (y no nos referimos a términos físicos) que existe entre conectados y no conectados, ya sean éstos personas, capas sociales o países enteros.Si bien podemos decir que una de las causas principales de la aparición de estas diferencias es la pobreza, no es éste el único factor, ya que no basta con enchufar un ordenador en una choza para superar la fractura digital, pues también hay que superar los abismos del contenido. Así pues, más importante que el acceso al ordenador es la educación.A la luz de estas consideraciones, cada vez son más las voces que reclaman un giro en la política de los países más desarrollados para que dirijan sus esfuerzos hacia la consecución de un desarrollo sostenible; es decir, la búsqueda de un futuro mejor a través de centrar el progreso en el ser humano, por medio de un crecimiento económico basado en la equidad social, en el equilibrio ecológico, el respeto a la diversidad étnica y cultural, la participación ciudadana, y que garantice la calidad de vida de las generaciones futuras.
1.6 LA GLOBALIZACIÓN DEL CONOCIMIENTO
El conocimiento se basa en la información, pero ésta por sí sola no genera conocimiento. Para que esta información se convierta en conocimiento es necesaria la puesta en marcha, el desarrollo y el mantenimiento de una serie de estrategias que podemos agrupar en dos etapas: 1. Discriminación de aquella información relevante para nuestro interés. 2. Análisis desde una postura reflexiva, intentando profundizar en cada uno de los elementos, descomponiendo el mensaje para reconstruirlo desde nuestra propia realidad.
Se equiparan equivocadamente los conceptos de Sociedad de la Información y Sociedad del Conocimiento, puesto que, mientras que la primera designa a la organización social caracterizada por una generalización del uso de las redes y una globalización de la información, la segunda hace referencia a aquella sociedad basada en el uso crítico, racional y reflexivo de la información global y distribuida.A pesar de que se considera a las redes telemáticas como potentes contextos formativos y a los ordenadores como herramientas imprescindibles y con una gran potencialidad dentro de los procesos de formación, estas grandes posibilidades resultarán ínfimas si no van acompañadas de una serie de medidas fomentadas desde los estamentos políticos. Los sistemas educativos deben atender las demandas sociales que se realicen en este sentido.Una de estas
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
demandas es la educación multimedia, es decir, aquella educación que capacite al alumnado para comunicarse utilizando distintos lenguajes y medios y que desarrolle su autonomía personal y el pensamiento crítico.Con estas capacidades, los seres humanos pueden construir una sociedad justa e intercultural donde se conviva con las innovaciones que vayan apareciendo.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
Microprocesadores
LOS INICIOS La historia de los procesadores ha pasado por diferentes situaciones, siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del año 1971 hasta el actual Pentium II del presente año ha llovido mucho en el campo de los procesadores. Tanto, que no estamos seguros si las cifras que se barajan en Intel se pueden, incluso, quedar cortas. Aquel primer procesador 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 KHz (sí, habéis leído bien, kilohertzios), disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador. Este ordenador tenía un coste de entorno a los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades, en lo que suponía la aparición del primer ordenador que la gente podía comprar, y no ya simplemente utilizar.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
LA INTRODUCCIÓN DE IBM Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere. En cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado. En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de ordenadores en todo el mundo.
MICROSOFT TAMBIÉN JUEGA El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los quetenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de direccionar 4 Gigas dememoria, tamaño que
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico. En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces sólo conocíamos unos pocos. Windows vino a ser un soplo de aire fresco para la industria, pues permitió que personas de cualquier condición pudiera manejar un ordenador con unos requerimientos mínimos de informática.Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había pasado de unos ordenadores en los que prácticamente cualquier tarea compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso co-procesador matemático incorporado, lo que suponía una reducción del coste para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.
LLEGA EL PENTIUM Sin embargo, Intel no se quedó contemplando la gran obra que había creado, y rápidamente anunció que en breve estaría en la calle una nueva gama de procesadores que multiplicaría de forma general por cinco los rendimientos medios de los 80486. Se trataba de los Pentium, conocidos por P5 en el mundillo de la informática mientras se estaban desarrollando, y de los que la prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una palabra. Esto era debido a que otras compañías dedicadas a la producción de procesadores estaban utilizando los mismos nombres puesto que no se podía registrar una cadena de ellos como marca, y por lo tanto, eran de dominio público. De modo que a Intel no le quedó más remedio que ponerle una palabra a su familia de procesadores, que además, con el paso del tiempo, se popularizó en los Estados Unidos de tal forma, que era identificada con velocidad y
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
potencia en numerosos cómics y programas de televisión. Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes. Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio (ver recuadro explicativo). Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador de este tipo, está seriamente atrasado y no puede trabajar con garantías con los programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones.
PENTIUM PRO Y PENTIUM II La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz. Un procesador que en principio no tiene muchos visos de saltar al mercado doméstico, puesto que los procesadores Pentium MMX parecen cubrir de momento todas las necesidades en este campo. No podemos asegurar que en un futuro cercano esto no acabe ocurriendo, pues en el mundo de la informática han sucedido las cosas más extrañas, y nunca se sabe por dónde puede tirar un mercado en constante evolución. Una evolución que demostró Intel hace muy poco con un nuevo procesador, denominado Pentium II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium Pro con el MMX. Como resultado, el Pentium II es el procesador más rápido de cuantos ha comercializado Intel. Por el momento únicamente se dispone de las versiones a 233 y 266 MHz, pero después de este verano podremos disfrutar de la versión de 300 MHz, que supondrá un nuevo récord de velocidad de reloj. El Pentium II, cuyas características fueron tratadas con detalle en el artículo de portada del pasado mes de la revista, es hoy (por poco tiempo) el extremo de la cadena evolutiva de Intel.
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
EL FUTURO DE LOS MICROPROCESADORES La evolución que están sufriendo los procesadores es algo que no parece escapar a la atención de millones de personas, cuyo trabajo depende de hasta dónde sean capaces de llegar los ingenieros de Intel a la hora de desarrollar nuevos chips. El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano. Para empezar, la velocidad se incrementará una media del 33 por ciento con respecto a la generación de anterior. Es decir, el mismo procesador usando esta nueva tecnología puede ir un 33 por ciento más rápido que el anterior. Para que os podáis hacer una idea del tamaño de esta tecnología, deciros que el valor de 0.25 micras es unas 400 veces más pequeño que un pelo de cualquier persona. Y este tamaño es el que tienen los transistores que componen el procesador. El transistor, como muchos sabréis, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad, pero se ajusta a ella más o menos). Dicha corriente eléctrica circula entre dos puntos, de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar pues el tiempo de paso es menor. Aunque estamos hablando de millonésimas de segundo, tened en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo bastante importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos incluso utilizando el mismo procesador. Por el momento, en un futuro cercano además de contar con la arquitectura de 0.25 micras, podremos disfrutar de duna de 0.07 para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores y alcanzando una velocidad de reloj cercana a los 10000 MHz, es decir, 10 GHz.
LA TECNOLOGÍA MMX Aunque no podamos considerar la tecnología MMX como un procesador en sí mismo, sería injusto no hablar de ella en un informe como éste. Es uno de los mayores pasos que ha dado Intel en la presente década, y según ellos mismos, todos los procesadores que fabriquen a partir de mediados del próximo año llevarán incorporada esta arquitectura. Para su desarrollo se analizaron un amplio rango de programas para determinar el funcionamiento de diferentes tareas: algoritmos de descompresión de vídeo, audio o gráficos, formas de reconocimiento del habla o proceso de imágenes, etc. El análisis dio como resultado que numerosos algoritmos usaban ciclos repetitivos que ocupaban menos del 10% del código del programa, pero que en la práctica suponían el 90% del tiempo de ejecución. De modo que nació la tecnología MMX, compuesta por 57 instrucciones y 4 tipos de datos nuevos, que
Sergio Cardenas Obreo• Madrid
La seguridad informática· Un documento que cambiará el mundo
se encargan de realizar esos trabajos cíclicos consumiendo mucho menos tiempo de ejecución. Antes, para manipular 8 bytes de datos gráficos requería 8 repeticiones de la misma instrucción; ahora, con la nueva tecnología, se puede utilizar una única instrucción aplicada a los 8 bytes simultáneamente, obteniendo de este modo un incremento del rendimiento de 8X.
EL MICROPROCESADOR
El microprocesador es un circuito integrado que contiene algunos o todos los elementos hardware, y el de CPU, que es un concepto lógico. Una CPU puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias CPU. Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real.La tendencia de los últimos años ha sido la de integrar más núcleos dentro de un mismo empaque, además de componentes como memorias Cache y controladores de memoria, elementos que antes estaban montados sobre la placa base como dispositivos individuales.
Sergio Cardenas Obreo• Madrid