manual de reparacion y mantenimiento de computadoras

Page 1


Presentaciรณn

Los alumnos de cuarto bachillerato del colegio INEVOC han recopilado la informaciรณn de los conocimientos bรกsicos sobre el mantenimiento de la computadora y la prevenciรณn de virus en el sistema de los ordenadores.

Estudiantes: Reina Damaris Tucux Yax Jherdy Brandon Gramajo Gramajo Emerson Daniel Racancoj Sop Sindy Paola Ventura Pastor


La Computadora La primera máquina de calcular mecánica, un precursor de la computadora digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.


Hoy en día Una computadora es una máquina electrónica usada para procesar todo tipo de información. Podemos hacer trabajos de oficina con ella, guardar datos, imagenes, escribir cartas, leer el periodico, comunicarnos con familiares o amigos a través de correos electrónicos, ver videos, dibujar, hacer informes, crear programas de computadoras que llevan a cabo diversas funciones e incluso nos permite hacer presentaciones que pueden ver otros usuarios de computadoras alrededor del mundo, el hecho de que usted este leyendo este trabajo de Proyecto Salón Hogar, es evidencia de ello.

Los educadores tanto de Puerto Rico como del mundo entero pueden utilizarla para escribir los planes de la escuela, para llevar las notas o records de todos sus estudiantes. Para hacer ayudas visuales, para crear presentaciones de sus escuelas o para compartirlas y para colaborar con otros profesores alrededor del mundo.


hadware y sofware

Hay dos parte básicas que explicar para entender la computadora, estas partes son: el software y el hardware.

El software

es un término genérico para los programas que funcionan en el

interior de una computadora. En este caso posiblemente sea Windows el sistema operativo o programa de funcionamiento que le da la vida a su computadora, es así como usted puede ver ahora mismo esta información en su pantalla.

Hardware El hardware es el término comunmente utilizado para los componentes físicos de una computadora. Éste es el nivel más básico en el cual la computadora funciona. El punto dominante a recordar es que toda la información está procesada electrónicamente por el Hardware. La PC está preparada como su computadora personal, aunque esa abreviatura (PC) es a menudo

asociada con la computadora con la cual

funciona el sistema

operativo de Windows. Debajo está un cuadro de una PC (computadora personal) estándar con cada pieza del hardware etiquetada.


LOS VANTILADORES Y SUIS FUNCIONES La mayoría de nosotros pensamos, al momento de ver actuar un fan o ventilador en el gabinete de una PC, en lo simpáticos que se ven con sus pequeñas aspas y el airecito tibio que sacan fuera de la caja. Sin embargo, estos pequeños dispositivos cumplen con una función más que importantes en la computadora, y quizás sin ellos las PC tendrían una vida útil mucho menor de la que tienen en la actualidad.


Un fan de PC, o ventilador, como también se lo conoce más popularmente, es uno de los elementos que tienen más importancia dentro de la PC, ya que cumplen con la nada desdeñable tarea de mantener a una temperatura normal de funcionamiento el gabinete de la misma, y sin ellos lo más probable es que el calor se extienda más allá de los límites tolerables de los componentes de motherobard, placa de video y demás partes de la computadora.


Qué es un fan cooler Básicamente, un ventilador o fan cooler es un ventilador, mucho más acerca de ello no se puede decir, sin embargo es vital para el buen funcionamiento de la PC. Ellos se encargan tanto de extraer el aire caliente como de inyectar aire más fresco del exterior.

Para ello generalmente una computadora está equipada con uno o más de estos fans para sacar el aire caliente del interior del gabinete. Sin embargo, también existe la posibilidad de ubicar ventiladores al frente del gabinete para soplar aire fresco adentro de la caja. Cabe destacar que el ventilador o cooler para estos casos es el mismo, lo único que varía es la dirección en la que giran las aspas.

Qué es un fan cooler Los ventiladores o fans pueden tener varios tamaños, variando la cantidad de aire que inyectan o expulsan de acuerdo al tamaño elegido, es decir que si el fan es pequeño, menos caudal de aire moverán, al contrario que un fan más grande.

Refrigeración pasiva vs activa

Conforme la potencia de los componentes internos de la PC va aumentando, también el calor que producen, y por lo tanto se necesita un método más eficaz que la disipación pasiva para controlarlo. En este sentido, una de las mejores formas de mantener a raya a el calor es mediante la refrigeración activa, es decir mediante ventiladores.


Qué es un fan cooler Anteriormente, el tipo de refrigeración usado para a un nivel aceptable el calor generado por la electrónica, era mediante disipador de aluminio u otros materiales, técnica llamada “Refrigeración pasiva”, sin embargo, como mencionamos, la potencia de proceso de los componentes aumentó, y con esta también el calor que despiden, y los disipadores de metal ya no fueron una solución viable.


Qué es un fan cooler Como podemos ver en cualquier computadora moderna, la mayor parte de los componentes internos de la misma están refrigerados a través de un fan. La CPU, la placa de video, los chipsets y muchos otros dispositivos cuentan con un ventilador adosado a un disipador de metal con el propósito de mantener el calor generado por los mismos dentro de límites razonables.

Es decir que estas placas cuentan con un sistema híbrido de refrigeración, con la intención de mantener aún más la protección ante los sobrecalentamientos. Si estas placas y chips no tuvieran esta protección, se sobrecalentarían provocando en el mejor de los casos inestabilidad en el sistema, y en el peor, la pérdida total de los mismos.


En los dispositivos de almacenamiento del computador, se almacenan en forma temporal o permanentemente los programas y datos que son manejados por las aplicaciones que se ejecutan en estos sistemas.

Debido a la cantidad de información que es manejada actualmente por los usuarios, los dispositivos de almacenamiento se han vuelto casi tan importantes como el computador. Aunque actualmente existen dispositivos para almacenar que superan los 650 MB de memoria; no es suficiente por la falta de capacidad para transportar los documentos y hacer reserva de la información más importante.

Es por tal razón que hoy en día existen diferentes dispositivos de almacenamiento, que tienen su propia tecnología. En la presente investigación se estudiaran todos y cada uno de los dispositivos de almacenamiento de un computador, las distintas marcas, clasificación, entre otros puntos que se irán desarrollando a medida que se avanza en la investigación.

Dispositivos de Almacenamiento de un Computador.

Los sistemas informáticos pueden almacenar los datos tanto interna (en la memoria) como externamente (en los dispositivos de almacenamiento). Internamente, las instrucciones o datos pueden almacenarse por un tiempo en los chips de silicio de la RAM (memoria de acceso aleatorio) montados directamente en la placa de circuitos principal de la computadora, o bien en chips montados en tarjetas periféricas conectadas a la placa de circuitos principal del ordenador. Estos chips de RAM constan de conmutadores sensibles a los cambios de la corriente eléctrica, esto quiere decir que los datos son almacenados

por tiempo limitado (hasta que dejamos de suministrar energía eléctrica) por esta razón aparecen los dispositivos de almacenamiento secundarios o auxiliares, los


cuales son capaces de conservar la información de manera permanente, mientras su estado físico sea óptimo. Los dispositivos de almacenamiento externo pueden residir dentro del CPU y están fuera de la placa de circuito principal. [1]

Clasificación de los Dispositivos de Almacenamiento.

Los Dispositivos de Almacenamiento se pueden clasificar de acuerdo al modo de acceso a los datos que contienen:

Acceso secuencial: En el acceso secuencial, el elemento de lectura del dispositivo debe pasar por el espacio ocupado por la totalidad de los datos almacenados previamente al espacio ocupado físicamente por los datos almacenados que componen el conjunto de información a la que se desea acceder. Acceso aleatorio: En el modo de acceso aleatorio, el elemento de lectura accede directamente a la dirección donde se encuentra almacenada físicamente la información que se desea localizar sin tener que pasar previamente por la almacenada entre el principio de la superficie de grabación y el punto donde se almacena la información buscada.

Tipos de Dispositivos de Almacenamiento

Memorias: Memoria ROM: Esta memoria es sólo de lectura, y sirve para almacenar el programa básico de iniciación, instalado desde fábrica. Este programa entra en función en cuanto es encendida la computadora y su primer función es la de reconocer los dispositivos, (incluyendo memoria de trabajo), dispositivos.


Memoria RAM: Esta es la denominada memoria de acceso aleatorio o sea, como puede leerse también puede escribirse en ella, tiene la característica de ser volátil, esto es, que sólo opera mientras esté encendida la computadora. En ella son almacenadas tanto las instrucciones que necesita ejecutar el microprocesador como los datos que introducimos y deseamos procesar, así como los resultados obtenidos de esto.

Memorias Auxiliares: Por las características propias del uso de la memoria ROM y el manejo de la RAM, existen varios medios de almacenamiento de información, entre los más comunes se encuentran: El disco duro, El Disquete o Disco Flexible, etc...

Medidas de Almacenamiento de la Información

Byte: unidad de información que consta de 8 bits; en procesamiento informático y almacenamiento, el equivalente a un único carácter, como puede ser una letra, un número o un signo de puntuación. Kilobyte (Kb): Equivale a 1.024 bytes. Megabyte (Mb): Un millón de bytes o 1.048.576 bytes.


Gigabyte (Gb): Equivale a mil millones de bytes.

Dispositivos Magnéticos

Cinta Magnética: Esta formada por una cinta de material plástico recubierta de material ferromagnético, sobre dicha cinta se registran los caracteres en formas de combinaciones de puntos, sobre pistas paralelas al eje longitudinal de la cinta. Estas cintas son soporte de tipo secuencial, esto supone un inconveniente puesto que para acceder a una información determinada se hace necesario leer todas las que le preceden, con la consiguiente perdida de tiempo. Tambores Magnéticos: Están formados por cilindros con material magnético capaz de retener información, Esta se graba y lee mediante un cabezal cuyo brazo se mueve en la dirección del eje de giro del tambor. El acceso a la información es directo y no secuencial. Disco Duro: Son en la actualidad el principal subsistema de almacenamiento de información en los sistemas informáticos. Es un dispositivo encargado de almacenar información de forma persistente en un ordenador, es considerado el sistema de almacenamiento más importante del computador y en él se guardan los archivos de los programas.

Disquette o Disco flexible: Un disco flexible o también disquette (en inglés floppy disk), es un tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un material magnético que permite la grabación y lectura de datos, fino y flexible (de ahí su


denominación) encerrado en una carcasa fina cuadrada o rectangular de plástico. Los discos, usados usualmente son los de 3 ½ o 5 ¼ pulgadas, utilizados en ordenadores o computadoras personales, aunque actualmente los discos de 5 ¼ pulgadas están en desuso

Dispositivos Ópticos

El CD-R: es un disco compacto de 650 MB de capacidad que puede ser leído cuantas veces se desee, pero cuyo contenido no puede ser modificado una vez que ya ha sido grabado. Dado que no pueden ser borrados ni regrabados, son adecuados para almacenar archivos u otros conjuntos de información invariable.


CD-RW: posee la capacidad del CD-R con la diferencia que estos discos son regrabables lo que les da una gran ventaja. Las unidades CD-RW pueden grabar información sobre discos CD-R y CD-RW y además pueden leer discos CD-ROM y CDS de audio. Las interfaces soportadas son EIDE, SCSI y USB.[3]

DVD-ROM: es un disco compacto con capacidad de almacen ar 4.7 GB de datos en una cara del disco, un aumento de más de 7 veces con respecto a los CD-R y CD-RW. Y esto es en una sola cara. Los futuros medios de DVD-ROM serán capaces de almacenar datos en ambas caras del disco, y usar medios de doble capa para permitir a las unidades leer hasta cuatro niveles de datos almacenados en las dos caras del disco dando como resultado una capacidad de almacenamiento de 17 GB. Las unidades DVD-ROM son capaces de leer los formatos de discos CD-R y CD-RW.

Entre las aplicaciones que

aprovechan la gran capacidad de almacenamiento de los DVD-ROM tenemos las películas de larga duración y los juegos basados en DVD que ofrecen videos MPEG-2 de alta resolución, sonido inmersivo Dolby AC-3, y poderosas graficas 3D.


DVD-RAM: este medio tiene una capacidad de 2.6 GB en una ca ra del disco y 5.2 GB en un disco de doble cara, Los DVD-RAM son capaces de leer cualquier disco CD-R o CD-RW pero no es capaz de escribir sobre estos.

Los DVD-RAM son regrabables pero

los discos no pueden ser leídos por unidades DVD-ROM.

Pc - Cards:

La norma de PCMCIA es la que define a las PC Cards. Las PC Cards

pueden ser almacenamiento o tarjetas de I/O. Estas son compactas, muy fiable, y ligeras haciéndolos ideal para notebooks, palmtop, handheld y los PDAs,. Debido a su pequeño tamaño, son usadas para el almacenamiento de datos,

aplicaciones,

tarjetas de

memoria, cámaras electrónicas y teléfonos celulares. Las PC Cards tienen el tamaño de una tarjeta del crédito, pero su espesor varía. La norma de PCMCIA define tres PC Cards diferentes: Tipo I 3.3 milímetros (mm) de espesor, Tipo II son 5.0 mm espesor, y Tipo III son 10.5 mm espesor. Entre los producto más nuevos que usan PC Cards tenemos el Clik! PC Card Drive de Iomega esta unidad PC Card Tipo II la cual puede leer y escribir


sobre discos Clik! de 40 MB de capacidad, esta unidad esta diseñada para trabajar con computadores portátiles con mínimo consumo de baterías, el tamaño de los discos es de 2x2 pulgadas.[3] (Ver anexo 7)

Flash Cards: son tarjetas de memoria

no volátil es decir conservan los datos aun

cuando no estén alimentadas por una fuente eléctrica, y los datos pueden ser leídos, modificados o borrados en estas tarjetas. Con el rápido crecimiento de los dispositivos digitales como: asistentes personales digitales, cámaras digitales, teléfonos celulares y dispositivos digitales de música, las flash cards han sido adoptadas como medio de almacenamiento de estos dispositivos haciendo que estas bajen su precio y aumenten su capacidad de almacenamiento muy rápidamente.

Recientemente Toshiba libero al

mercado sus nuevas flash cards la SmartMedia de 64 MB y el super-thin 512M-bit chip. La SmartMedia es capaz de almacenar 72 imágenes digitales con una resolución de 1800x1200 pixels y más de 1 hora de música con calidad de CD. Entre los productos del mercado que usan esta tecnología tenemos los reproductores de audio digital Rio de Diamond, Nomad de Creative Labs, los PDAs de Compaq, el Microdrive de IBM con 340 MB de almacenamiento entre otros.

Dispositivos Extraíbles Pen Drive o Memory Flash: Es un pequeño dispositivo de almacenamiento que utiliza la memoria flash para guardar la información sin necesidad de pilas. Los Pen Drive son resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento portable, como los CD y los disquetes. Los sistemas operativos más modernos pueden leer y escribir en ello sin necesidad de controladores especiales. En los equipos antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar


un controlador de dispositivo.

Unidades de Zip: La unidad Iomega ZIP es una unidad de dis co extraíble. Está disponible en tres versiones principales, la hay con interfaz SCSI, IDE, y otra que se conecta a un puerto paralelo. Este documento describe cómo usar el ZIP con Linux. Se debería leer en conjunción con el HOWTO SCSI a menos que posea la versión IDE.

Marcas de los Dispositivos de Almacenamiento de un Computador Hoy en día en el mercado, se encuentran infinidades de marcas de dispositivos de almacenamiento; debido a la gran demanda que surge y por la búsqueda de la mejor calidad y garantía del producto. Entre las marcas de mayor uso se tienen: SAMSUNG SEAGATE WESTERN DIGITAL MARKVISION TOSHIBA SONY


IBM DYSAN LG HP MAXTOR KINGSTON IMATION TDK

Proceso de creación del software Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la solución de un problema u obtención de un producto, en este caso particular, para lograr un producto software que resuelva un problema específico.

El proceso de creación de software puede llegar a ser muy complejo, dependiendo de su porte, características y criticidad del mismo. Por ejemplo la creación de un sistema operativo es una tarea que requiere proyecto, gestión, numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de un sencillo programa (por ejemplo, la resolución de una ecuación de segundo orden), éste puede ser realizado por un solo programador (incluso aficionado) fácilmente. Es así que normalmente se dividen en tres categorías según su tamaño (líneas de código) o costo: de «pequeño», «mediano» y «gran porte». Existen varias metodologías para estimarlo, una de las más populares es el sistema COCOMO que provee métodos y un software (programa) que calcula y


provee una aproximación de todos los costos de producción en un «proyecto software» (relación horas/hombre, costo monetario, cantidad de líneas fuente de acuerdo a lenguaje usado, etc.). Considerando los de gran porte, es necesario realizar complejas tareas, tanto técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica para tratar su estudio y realización: es conocida como Ingeniería de Software.

En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre en casos de mediano y gran porte (y a veces también en algunos de pequeño porte, según su complejidad), se deben seguir ciertas etapas que son necesarias para la construcción del software. Tales etapas, si bien deben existir, son flexibles en su forma de aplicación, de acuerdo a la metodología o proceso de desarrollo escogido y utilizado por el equipo de desarrollo o por el analista-programador solitario

Los «procesos de desarrollo de software» poseen reglas preestablecidas, y deben ser aplicados en la creación del software de mediano y gran porte, ya que en caso contrario lo más seguro es que el proyecto no logre concluir o termine sin cumplir los objetivos previstos, y con variedad de fallos inaceptables (fracasan, en pocas palabras). Entre tales «procesos» los hay ágiles o livianos (ejemplo XP), pesados y lentos (ejemplo RUP), y variantes intermedias. Normalmente se aplican de acuerdo al tipo y porte del software a desarrollar, a criterio del líder (si lo hay) del equipo de desarrollo. Algunos de esos procesos son Programación Extrema (en inglés eXtreme Programming o XP), Proceso Unificado de Rational (en inglés Rational Unified Process o RUP), Feature Driven Development (FDD), etc.


Cualquiera sea el «proceso» utilizado y aplicado al desarrollo del software (RUP, FDD, XP, etc), y casi independientemente de él, siempre se debe aplicar un «modelo de ciclo de vida».6

Se estima que, del total de proyectos software grandes emprendidos, un 28 % fracasan, un 46 % caen en severas modificaciones que lo retrasan y un 26 % son totalmente exitosos.7

Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal causa de fallos y fracasos es la falta de aplicación de una buena metodología o proceso de desarrollo. Entre otras, una fuerte tendencia, desde hace pocas décadas, es mejorar las metodologías o procesos de desarrollo, o crear nuevas y concientizar a los profesionales de la informática a su utilización adecuada. Normalmente los especialistas en el estudio y desarrollo de estas áreas (metodologías) y afines (tales como modelos y hasta la gestión misma de los proyectos) son los ingenieros en software, es su orientación. Los especialistas en cualquier otra área de desarrollo informático (analista, programador, Lic. en informática, ingeniero en informática, ingeniero de sistemas, etc.) normalmente aplican sus conocimientos especializados pero utilizando modelos, paradigmas y procesos ya elaborados. Es común para el desarrollo de software de mediano porte que los equipos humanos involucrados apliquen «metodologías propias», normalmente un híbrido de los procesos anteriores y a veces con criterios propios.


El proceso de desarrollo puede involucrar numerosas y variadas tareas,6 desde lo administrativo, pasando por lo técnico y hasta la gestión y el gerenciamiento. Pero, casi rigurosamente, siempre se cumplen ciertas etapas mínimas; las que se pueden resumir como sigue: Captura, elicitación8 , especificación y análisis de requisitos (ERS) Diseño Codificación Pruebas (unitarias y de integración) Instalación y paso a producción Mantenimiento En las anteriores etapas pueden variar ligeramente sus nombres, o ser más globales, o contrariamente, ser más refinadas; por ejemplo indicar como una única fase (a los fines documentales e interpretativos) de «análisis y diseño»; o indicar como «implementación» lo que está dicho como «codificación»; pero en rigor, todas existen e incluyen, básicamente, las mismas tareas específicas.

En el apartado 4 del presente artículo se brindan mayores detalles de cada una de las etapas indicadas.

Modelos de proceso o ciclo de vida Para cada una de las fases o etapas listadas en el ítem anterior, existen subetapas (o tareas). El modelo de proceso o modelo de ciclo de vida utilizado para el desarrollo, define el orden de las tareas o actividades involucradas,6 también define la coordinación entre ellas, y su enlace y realimentación. Entre los más conocidos se puede mencionar: modelo en cascada o secuencial, modelo espiral,


modelo iterativo incremental. De los antedichos hay a su vez algunas variantes o alternativas, más o menos atractivas según sea la aplicación requerida y sus requisitos.7

Modelo cascada Este, aunque es más comúnmente conocido como modelo en cascada es también llamado «modelo clásico», «modelo tradicional» o «modelo lineal secuencial». El modelo en cascada puro difícilmente se utiliza tal cual, pues esto implicaría un previo y absoluto conocimiento de los requisitos, la no volatilidad de los mismos (o rigidez) y etapas subsiguientes libres de errores; ello sólo podría ser aplicable a escasos y pequeños sistemas a desarrollar. En estas circunstancias, el paso de una etapa a otra de las mencionadas sería sin retorno, por ejemplo pasar del diseño a la codificación implicaría un diseño exacto y sin errores ni probable modificación o evolución: «codifique lo diseñado sin errores, no habrá en absoluto variantes futuras». Esto es utópico; ya que intrínsecamente el software es de carácter evolutivo,9 cambiante y difícilmente libre de errores, tanto durante su desarrollo como durante su vida operativa.6

Modelo cascada puro o secuencial para el ciclo de vida del software. Algún cambio durante la ejecución de una cualquiera de las etapas en este modelo secuencial implicaría reiniciar desde el principio todo el ciclo completo, lo cual redundaría en altos costos de tiempo y desarrollo. La Figura 2 muestra un posible esquema de el modelo en cuestión.6

Sin embargo, el modelo cascada en algunas de sus variantes es uno de los actualmente más utilizados,10 por su eficacia y simplicidad, más que nada en software de pequeño y algunos de mediano porte; pero nunca (o muy rara vez) se


lo usa en su "forma pura", como se dijo anteriormente. En lugar de ello, siempre se produce alguna realimentación entre etapas, que no es completamente predecible ni rígida; esto da oportunidad al desarrollo de productos software en los cuales hay ciertas incertezas, cambios o evoluciones durante el ciclo de vida. Así por ejemplo, una vez capturados y especificados los requisitos (primera etapa) se puede pasar al diseño del sistema, pero durante esta última fase lo más probable es que se deban realizar ajustes en los requisitos (aunque sean mínimos), ya sea por fallas detectadas, ambigüedades o bien por que los propios requisitos han cambiado o evolucionado; con lo cual se debe retornar a la primera o previa etapa, hacer los reajuste pertinentes y luego continuar nuevamente con el diseño; esto último se conoce como realimentación. Lo normal en el modelo cascada será entonces la aplicación del mismo con sus etapas realimentadas de alguna forma, permitiendo retroceder de una a la anterior (e incluso poder saltar a varias anteriores) si es requerido. De esta manera se obtiene el «modelo cascada realimentado», que puede ser esquematizado como lo ilustra la Figura 3.

Modelo cascada realimentado para el ciclo de vida. Lo dicho es, a grandes rasgos, la forma y utilización de este modelo, uno de los más usados y populares.6 El modelo cascada realimentado resulta muy atractivo, hasta ideal, si el proyecto presenta alta rigidez (pocos cambios, previsto no evolutivo), los requisitos son muy claros y están correctamente especificados.10

Hay más variantes similares al modelo: refino de etapas (más etapas, menores y más específicas) o incluso mostrar menos etapas de las indicadas, aunque en tal caso la faltante estará dentro de alguna otra. El orden de esas fases indicadas en el ítem previo es el lógico y adecuado, pero adviértase, como se dijo, que normalmente habrá realimentación hacia atrás. El modelo lineal o en cascada es el paradigma más antiguo y extensamente


utilizado, sin embargo las críticas a él (ver desventajas) han puesto en duda su eficacia. Pese a todo, tiene un lugar muy importante en la Ingeniería de software y continúa siendo el más utilizado; y siempre es mejor que un enfoque al azar.10

Desventajas del modelo cascada: Los cambios introducidos durante el desarrollo pueden confundir al equipo profesional en las etapas tempranas del proyecto. Si los cambios se producen en etapa madura (codificación o prueba) pueden ser catastróficos para un proyecto grande. No es frecuente que el cliente o usuario final explicite clara y completamente los requisitos (etapa de inicio); y el modelo lineal lo requiere. La incertidumbre natural en los comienzos es luego difícil de acomodar.10 El cliente debe tener paciencia ya que el software no estará disponible hasta muy avanzado el proyecto. Un error detectado por el cliente (en fase de operación) puede ser desastroso, implicando reinicio del proyecto, con altos costos.

Modelos evolutivos

El software evoluciona con el tiempo.11 9 Los requisitos del usuario y del producto suelen cambiar conforme se desarrolla el mismo. Las fechas de mercado y la competencia hacen que no sea posible esperar a poner en el mercado un producto absolutamente completo, por lo que se aconsejable introducir una versión funcional limitada de alguna forma para aliviar las presiones competitivas.

En esas u otras situaciones similares los desarrolladores necesitan modelos de


progreso que estén diseñados para acomodarse a una evolución temporal o progresiva, donde los requisitos centrales son conocidos de antemano, aunque no estén bien definidos a nivel detalle.

En el modelo cascada y cascada realimentado no se tiene demasiado en cuenta la naturaleza evolutiva del software,11 se plantea como estático, con requisitos bien conocidos y definidos desde el inicio. Los evolutivos son modelos iterativos, permiten desarrollar versiones cada vez más completas y complejas, hasta llegar al objetivo final deseado; incluso evolucionar más allá, durante la fase de operación. Los modelos «iterativo incremental» y «espiral» (entre otros) son dos de los más conocidos y utilizados del tipo evolutivo.10

Modelo iterativo incremental En términos generales, se puede distinguir, en la Figura 4, los pasos generales que sigue el proceso de desarrollo de un producto software. En el modelo de ciclo de vida seleccionado, se identifican claramente dichos pasos. La descripción del sistema es esencial para especificar y confeccionar los distintos incrementos hasta llegar al producto global y final. Las actividades concurrentes (especificación, desarrollo y validación) sintetizan el desarrollo pormenorizado de los incrementos, que se hará posteriormente.


Diagrama

genérico

del

desarrollo

evolutivo

incremental. El diagrama de la Figura 4 muestra en forma muy esquemática, el funcionamiento de un ciclo iterativo incremental, el cual permite la entrega de versiones parciales a medida que se va construyendo el producto final.6 Es decir, a medida que cada incremento definido llega a su etapa de operación y mantenimiento. Cada versión emitida incorpora a los anteriores incrementos las funcionalidades y requisitos que fueron analizados necesarios.

El incremental es un modelo de tipo evolutivo que está basado en varios ciclos Cascada Realimentados aplicados repetidamente, con una filosofía iterativa.10 En la Figura 5 se muestra un refino del diagrama previo, bajo un esquema temporal, para obtener finalmente el esquema del modelo de ciclo de vida Iterativo Incremental, con sus actividades genéricas asociadas. Aquí se observa claramente cada ciclo cascada que es aplicado para la obtención de un incremento; estos últimos se van integrando para obtener el producto final completo. Cada incremento es un ciclo Cascada Realimentado, aunque, por simplicidad, en la Figura 5 se muestra como secuencial puro.

Modelo iterativo incremental para el ciclo de vida del software. Se observa que existen actividades de desarrollo (para cada incremento) que son


realizadas en paralelo o concurrentemente, así por ejemplo, en la Figura, mientras se realiza el diseño detalle del primer incremento ya se está realizando en análisis del segundo. La Figura 5 es sólo esquemática, un incremento no necesariamente se iniciará durante la fase de diseño del anterior, puede ser posterior (incluso antes), en cualquier tiempo de la etapa previa. Cada incremento concluye con la actividad de «operación y mantenimiento» (indicada como «Operación» en la figura), que es donde se produce la entrega del producto parcial al cliente. El momento de inicio de cada incremento es dependiente de varios factores: tipo de sistema; independencia o dependencia entre incrementos (dos de ellos totalmente independientes pueden ser fácilmente iniciados al mismo tiempo si se dispone de personal suficiente); capacidad y cantidad de profesionales involucrados en el desarrollo; etc.

Bajo este modelo se entrega software «por partes funcionales más pequeñas», pero reutilizables, llamadas incrementos. En general cada incremento se construye sobre aquel que ya fue entregado.6

Como se muestra en la Figura 5, se aplican secuencias Cascada en forma escalonada, mientras progresa el tiempo calendario. Cada secuencia lineal o Cascada produce un incremento y a menudo el primer incremento es un sistema básico, con muchas funciones suplementarias (conocidas o no) sin entregar.

El cliente utiliza inicialmente ese sistema básico, intertanto, el resultado de su uso y evaluación puede aportar al plan para el desarrollo del/los siguientes incrementos (o versiones). Además también aportan a ese plan otros factores, como lo es la priorización (mayor o menor urgencia en la necesidad de cada incremento en particular) y la dependencia entre incrementos (o independencia).


Luego de cada integración se entrega un producto con mayor funcionalidad que el previo. El proceso se repite hasta alcanzar el software final completo.

Siendo iterativo, con el modelo incremental se entrega un producto parcial pero completamente operacional en cada incremento, y no una parte que sea usada para reajustar los requisitos (como si ocurre en el modelo de construcción de prototipos).10

El enfoque incremental resulta muy útil cuando se dispone de baja dotación de personal para el desarrollo; también si no hay disponible fecha límite del proyecto por lo que se entregan versiones incompletas pero que proporcionan al usuario funcionalidad básica (y cada vez mayor). También es un modelo útil a los fines de versiones de evaluación.

Nota: Puede ser considerado y útil, en cualquier momento o incremento incorporar temporalmente el paradigma MCP como complemento, teniendo así una mixtura de modelos que mejoran el esquema y desarrollo general.

Un procesador de texto que sea desarrollado bajo el paradigma Incremental podría aportar, en principio, funciones básicas de edición de archivos y producción de documentos (algo como un editor simple). En un segundo incremento se le podría agregar edición más sofisticada, y de generación y mezcla de documentos. En un tercer incremento podría considerarse el agregado de funciones de corrección ortográfica, esquemas de paginado y plantillas; en un cuarto


capacidades de dibujo propias y ecuaciones matemáticas. Así sucesivamente hasta llegar al procesador final requerido. Así, el producto va creciendo, acercándose a su meta final, pero desde la entrega del primer incremento ya es útil y funcional para el cliente, el cual observa una respuesta rápida en cuanto a entrega temprana; sin notar que la fecha límite del proyecto puede no estar acotada ni tan definida, lo que da margen de operación y alivia presiones al equipo de desarrollo.

Como se dijo, el Iterativo Incremental es un modelo del tipo evolutivo, es decir donde se permiten y esperan probables cambios en los requisitos en tiempo de desarrollo; se admite cierto margen para que el software pueda evolucionar.9 Aplicable cuando los requisitos son medianamente bien conocidos pero no son completamente estáticos y definidos, cuestión esa que si es indispensable para poder utilizar un modelo Cascada.

El modelo es aconsejable para el desarrollo de software en el cual se observe, en su etapa inicial de análisis, que posee áreas bastante bien definidas a cubrir, con suficiente independencia como para ser desarrolladas en etapas sucesivas. Tales áreas a cubrir suelen tener distintos grados de apremio por lo cual las mismas se deben priorizar en un análisis previo, es decir, definir cual será la primera, la segunda, y así sucesivamente; esto se conoce como «definición de los incrementos» con base en la priorización. Pueden no existir prioridades funcionales por parte del cliente, pero el desarrollador debe fijarlas de todos modos y con algún criterio, ya que basándose en ellas se desarrollarán y entregarán los distintos incrementos.

El

hecho

de

que

existan

incrementos

funcionales

del

software

lleva

inmediatamente a pensar en un esquema de desarrollo modular, por tanto este


modelo facilita tal paradigma de diseño. En resumen, un modelo incremental lleva a pensar en un desarrollo modular, con entregas parciales del producto software denominados «incrementos» del sistema, que son escogidos según prioridades predefinidas de algún modo. El modelo permite una implementación con refinamientos sucesivos (ampliación o mejora). Con cada incremento se agrega nueva funcionalidad o se cubren nuevos requisitos o bien se mejora la versión previamente implementada del producto software.

Este modelo brinda cierta flexibilidad para que durante el desarrollo se incluyan cambios en los requisitos por parte del usuario, un cambio de requisitos propuesto y aprobado puede analizarse e implementarse como un nuevo incremento o, eventualmente, podrá constituir una mejora/adecuación de uno ya planeado. Aunque si se produce un cambio de requisitos por parte del cliente que afecte incrementos previos ya terminados (detección/incorporación tardía) se debe evaluar la factibilidad y realizar un acuerdo con el cliente, ya que puede impactar fuertemente en los costos.

La selección de este modelo permite realizar entregas funcionales tempranas al cliente (lo cual es beneficioso tanto para él como para el grupo de desarrollo). Se priorizan las entregas de aquellos módulos o incrementos en que surja la necesidad operativa de hacerlo, por ejemplo para cargas previas de información, indispensable para los incrementos siguientes.10

El modelo iterativo incremental no obliga a especificar con precisión y detalle absolutamente todo lo que el sistema debe hacer, (y cómo), antes de ser construido (como el caso del cascada, con requisitos congelados). Sólo se hace en el incremento en desarrollo. Esto torna más manejable el proceso y reduce el impacto en los costos. Esto es así, porque en caso de alterar o rehacer los


requisitos, solo afecta una parte del sistema. Aunque, lógicamente, esta situación se agrava si se presenta en estado avanzado, es decir en los últimos incrementos. En definitiva, el modelo facilita la incorporación de nuevos requisitos durante el desarrollo Con un paradigma incremental se reduce el tiempo de desarrollo inicial, ya que se implementa funcionalidad parcial. También provee un impacto ventajoso frente al cliente, que es la entrega temprana de partes operativas del software. El modelo proporciona todas las ventajas del modelo en cascada realimentado, reduciendo sus desventajas sólo al ámbito de cada incremento. El modelo incremental no es recomendable para casos de sistemas de tiempo real, de alto nivel de seguridad, de procesamiento distribuido, o de alto índice de riesgos.

Modelo espiral El modelo espiral fue propuesto inicialmente por Barry Boehm. Es un modelo evolutivo que conjuga la naturaleza iterativa del modelo MCP con los aspectos controlados y sistemáticos del Modelo Cascada. Proporciona potencial para desarrollo rápido de versiones incrementales. En el modelo Espiral el software se construye en una serie de versiones incrementales. En las primeras iteraciones la versión incremental podría ser un modelo en papel o bien un prototipo. En las últimas iteraciones se producen versiones cada vez más completas del sistema diseñado.6 10 El modelo se divide en un número de Actividades de marco de trabajo, llamadas «regiones de tareas». En general existen entre tres y seis regiones de tareas (hay variantes del modelo). En la Figura 6 se muestra el esquema de un Modelo Espiral con 6 regiones. En este caso se explica una variante del modelo original de Boehm, expuesto en su tratado de 1988; en 1998 expuso un tratado más reciente. Modelo espiral para el ciclo de vida del software.


Las regiones definidas en el modelo de la figura son: Región 1 - Tareas requeridas para establecer la comunicación entre el cliente y el desarrollador. Región 2 - Tareas inherentes a la definición de los recursos, tiempo y otra información relacionada con el proyecto. Región 3 - Tareas necesarias para evaluar los riesgos técnicos y de gestión del proyecto. Región 4 -Tareas para construir una o más representaciones de la aplicación software. Región 5 - Tareas para construir la aplicación, instalarla, probarla y proporcionar soporte al usuario o cliente (Ej. documentación y práctica). Región 6 - Tareas para obtener la reacción del cliente, según la evaluación de lo creado e instalado en los ciclos anteriores.

Las actividades enunciadas para el marco de trabajo son generales y se aplican a cualquier proyecto, grande, mediano o pequeño, complejo o no. Las regiones que definen esas actividades comprenden un «conjunto de tareas» del trabajo: ese conjunto sí se debe adaptar a las características del proyecto en particular a emprender. Nótese que lo listado en los ítems de 1 a 6 son conjuntos de tareas, algunas de las ellas normalmente dependen del proyecto o desarrollo en si. Proyectos pequeños requieren baja cantidad de tareas y también de formalidad. En proyectos mayores o críticos cada región de tareas contiene labores de más alto nivel de formalidad. En cualquier caso se aplican actividades de protección (por ejemplo, gestión de configuración del software, garantía de calidad, etc.).

Al inicio del ciclo, o proceso evolutivo, el equipo de ingeniería gira alrededor del


espiral (metafóricamente hablando) comenzando por el centro (marcado con ? en la Figura 6) y en el sentido indicado; el primer circuito de la espiral puede producir el desarrollo de una especificación del producto; los pasos siguientes podrían generar un prototipo y progresivamente versiones más sofisticadas del software.

Cada paso por la región de planificación provoca ajustes en el plan del proyecto; el coste y planificación se realimentan en función de la evaluación del cliente. El gestor de proyectos debe ajustar el número de iteraciones requeridas para completar el desarrollo.

El modelo espiral puede ir adaptándose y aplicarse a lo largo de todo el Ciclo de vida del software (en el modelo clásico, o cascada, el proceso termina a la entrega del software).

Una visión alternativa del modelo puede observarse examinando el «eje de punto de entrada de proyectos». Cada uno de los circulitos (?) fijados a lo largo del eje representan puntos de arranque de los distintos proyectos (relacionados); a saber: Un proyecto de «desarrollo de conceptos» comienza al inicio de la espiral, hace múltiples iteraciones hasta que se completa, es la zona marcada con verde. Si lo anterior se va a desarrollar como producto real, se inicia otro proyecto: «Desarrollo de nuevo Producto». Que evolucionará con iteraciones hasta culminar; es la zona marcada en color azul. Eventual y análogamente se generarán proyectos de «mejoras de productos» y de «mantenimiento de productos», con las iteraciones necesarias en cada área (zonas roja y gris, respectivamente).


Cuando la espiral se caracteriza de esta forma, está operativa hasta que el software se retira, eventualmente puede estar inactiva (el proceso), pero cuando se produce un cambio el proceso arranca nuevamente en el punto de entrada apropiado (por ejemplo, en «mejora del producto»).

El modelo espiral da un enfoque realista, que evoluciona igual que el software;11 se adapta muy bien para desarrollos a gran escala. El Espiral utiliza el MCP para reducir riesgos y permite aplicarlo en cualquier etapa de la evolución. Mantiene el enfoque clásico (cascada) pero incorpora un marco de trabajo iterativo que refleja mejor la realidad.

Este modelo requiere considerar riesgos técnicos en todas las etapas del proyecto; aplicado adecuadamente debe reducirlos antes de que sean un verdadero problema.

El Modelo evolutivo como el Espiral es particularmente apto para el desarrollo de Sistemas Operativos (complejos); también en sistemas de altos riesgos o críticos (Ej. navegadores y controladores aeronáuticos) y en todos aquellos en que sea necesaria una fuerte gestión del proyecto y sus riesgos, técnicos o de gestión.

importantes: Desventajas Requiere mucha experiencia y habilidad para la evaluación de los riesgos, lo cual es requisito para el éxito del proyecto. Es difícil convencer a los grandes clientes que se podrá controlar este enfoque evolutivo.


Este modelo no se ha usado tanto, como el Cascada (Incremental) o MCP, por lo que no se tiene bien medida su eficacia, es un paradigma relativamente nuevo y difícil de implementar y controlar.

Modelo espiral Win & Win Una variante interesante del Modelo Espiral previamente visto (Figura 6) es el «Modelo espiral Win-Win»7 (Barry Boehm). El Modelo Espiral previo (clásico) sugiere la comunicación con el cliente para fijar los requisitos, en que simplemente se pregunta al cliente qué necesita y él proporciona la información para continuar; pero esto es en un contexto ideal que rara vez ocurre. Normalmente cliente y desarrollador entran en una negociación, se negocia coste frente a funcionalidad, rendimiento, calidad, etc.

«Es así que la obtención de requisitos requiere una negociación, que tiene éxito cuando ambas partes ganan».

Las mejores negociaciones se fuerzan en obtener «Victoria & Victoria» (Win & Win), es decir que el cliente gane obteniendo el producto que lo satisfaga, y el


desarrollador también gane consiguiendo presupuesto y fecha de entrega realista. Evidentemente, este modelo requiere fuertes habilidades de negociación.

El modelo Win-Win define un conjunto de actividades de negociación al principio de cada paso alrededor de la espiral; se definen las siguientes actividades: 1.Identificación del sistema o subsistemas clave de los directivos(*) (saber qué quieren). 2.Determinación de «condiciones de victoria» de los directivos (saber qué necesitan y los satisface) 3.Negociación de las condiciones «victoria» de los directivos para obtener condiciones «Victoria & Victoria» (negociar para que ambos ganen).

(*) Directivo: Cliente escogido con interés directo en el producto, que puede ser premiado por la organización si tiene éxito o criticado si no.

El modelo Win & Win hace énfasis en la negociación inicial, también introduce 3 hitos en el proceso llamados «puntos de fijación», que ayudan a establecer la completitud de un ciclo de la espiral, y proporcionan hitos de decisión antes de continuar el proyecto de desarrollo del software.

Etapas en el desarrollo del software

Captura, análisis y especificación de requisitos[editar]

Al inicio de un desarrollo (no de un proyecto), esta es la primera fase que se


realiza, y, según el modelo de proceso adoptado, puede casi terminar para pasar a la próxima etapa (caso de Modelo Cascada Realimentado) o puede hacerse parcialmente para luego retomarla (caso Modelo Iterativo Incremental u otros de carácter evolutivo).

En simple palabras y básicamente, durante esta fase, se adquieren, reúnen y especifican las características funcionales y no funcionales que deberá cumplir el futuro programa o sistema a desarrollar.

Las bondades de las características, tanto del sistema o programa a desarrollar, como de su entorno, parámetros no funcionales y arquitectura dependen enormemente de lo bien lograda que esté esta etapa. Esta es, probablemente, la de mayor importancia y una de las fases más difíciles de lograr certeramente, pues no es automatizable, no es muy técnica y depende en gran medida de la habilidad y experiencia del analista que la realice.

Involucra fuertemente al usuario o cliente del sistema, por tanto tiene matices muy subjetivos y es difícil de modelar con certeza o aplicar una técnica que sea «la más cercana a la adecuada» (de hecho no existe «la estrictamente adecuada»). Si bien se han ideado varias metodologías, incluso software de apoyo, para captura, elicitación y registro de requisitos, no existe una forma infalible o absolutamente confiable, y deben aplicarse conjuntamente buenos criterios y mucho sentido común por parte del o los analistas encargados de la tarea; es fundamental también lograr una fluida y adecuada comunicación y comprensión con el usuario final o cliente del sistema.

El artefacto más importante resultado de la culminación de esta etapa es lo que se


conoce como especificación de requisitos software o simplemente documento ERS.

Como se dijo, la habilidad del analista para interactuar con el cliente es fundamental; lo común es que el cliente tenga un objetivo general o problema que resolver, no conoce en absoluto el área (informática), ni su jerga, ni siquiera sabe con precisión qué debería hacer el producto software (qué y cuantas funciones) ni, mucho menos, cómo debe operar. En otros casos menos frecuentes, el cliente «piensa» que sabe precisamente lo que el software tiene que hacer, y generalmente acierta muy parcialmente, pero su empecinamiento entorpece la tarea de elicitación. El analista debe tener la capacidad para lidiar con este tipo de problemas, que incluyen relaciones humanas; tiene que saber ponerse al nivel del usuario para permitir una adecuada comunicación y comprensión.

Escasas son las situaciones en que el cliente sabe con certeza e incluso con completitud lo que requiere de su futuro sistema, este es el caso más sencillo para el analista.

Las tareas relativas a captura, elicitación, modelado y registro de requisitos, además de ser sumamente importante, puede llegar a ser dificultosa de lograr acertadamente y llevar bastante tiempo relativo al proceso total del desarrollo; al proceso y metodologías para llevar a cabo este conjunto de actividades normalmente se las asume parte propia de la Ingeniería de Software, pero dada la antedicha complejidad, actualmente se habla de una Ingeniería de requisitos12 , aunque ella aún no existe formalmente.


Hay grupos de estudio e investigación, en todo el mundo, que están exclusivamente abocados a idear modelos, técnicas y procesos para intentar lograr la correcta captura, análisis y registro de requisitos. Estos grupos son los que normalmente hablan de la Ingeniería de requisitos; es decir se plantea ésta como un área o disciplina pero no como una carrera universitaria en si misma.

Algunos requisitos no necesitan la presencia del cliente, para ser capturados o analizados; en ciertos casos los puede proponer el mismo analista o, incluso, adoptar unilateralmente decisiones que considera adecuadas (tanto en requisitos funcionales como no funcionales). Por citar ejemplos probables: Algunos requisitos sobre la arquitectura del sistema, requisitos no funcionales tales como los relativos al rendimiento, nivel de soporte a errores operativos, plataformas de desarrollo, relaciones internas o ligas entre la información (entre registros o tablas de datos) a almacenar en caso de bases o bancos de datos, etc. Algunos funcionales tales como opciones secundarias o de soporte necesarias para una mejor o más sencilla operatividad; etc.

La obtención de especificaciones a partir del cliente (u otros actores intervinientes) es un proceso humano muy interactivo e iterativo; normalmente a medida que se captura la información, se la analiza y realimenta con el cliente, refinándola, puliéndola y corrigiendo si es necesario; cualquiera sea el método de ERS utilizado. EL analista siempre debe llegar a conocer la temática y el problema que resolver, dominarlo, hasta cierto punto, hasta el ámbito que el futuro sistema a desarrollar lo abarque. Por ello el analista debe tener alta capacidad para comprender problemas de muy diversas áreas o disciplinas de trabajo (que no son específicamente suyas); así por ejemplo, si el sistema a desarrollar será para gestionar información de una aseguradora y sus sucursales remotas, el analista se debe compenetrar en cómo ella trabaja y maneja su información, desde niveles


muy bajos e incluso llegando hasta los gerenciales. Dada a gran diversidad de campos a cubrir, los analistas suelen ser asistidos por especialistas, es decir gente que conoce profundamente el área para la cual se desarrollará el software; evidentemente una única persona (el analista) no puede abarcar tan vasta cantidad de áreas del conocimiento. En empresas grandes de desarrollo de productos software, es común tener analistas especializados en ciertas áreas de trabajo.

Contrariamente, no es problema del cliente, es decir él no tiene por qué saber nada de software, ni de diseños, ni otras cosas relacionadas; sólo se debe limitar a aportar objetivos, datos e información (de mano propia o de sus registros, equipos, empleados, etc) al analista, y guiado por él, para que, en primera instancia, defina el «Universo de Discurso», y con posterior trabajo logre confeccionar el adecuado documento ERS. Es bien conocida la presión que sufren los desarrolladores de sistemas informáticos para comprender y rescatar las necesidades de los clientes/usuarios. Cuanto más complejo es el contexto del problema más difícil es lograrlo, a veces se fuerza a los desarrolladores a tener que convertirse en casi expertos de los dominios que analizan.

Cuando esto no sucede es muy probable que se genere un conjunto de requisitos13 erróneos o incompletos y por lo tanto un producto de software con alto grado de desaprobación por parte de los clientes/usuarios y un altísimo costo de reingeniería y mantenimiento. Todo aquello que no se detecte, o resulte mal entendido en la etapa inicial provocará un fuerte impacto negativo en los requisitos, propagando esta corriente degradante a lo largo de todo el proceso de desarrollo e incrementando su perjuicio cuanto más tardía sea su detección (Bell y Thayer 1976)(Davis 1993).


Procesos, modelado y formas de elicitación de requisitos[editar]

Siendo que la captura, elicitación y especificación de requisitos, es una parte crucial en el proceso de desarrollo de software, ya que de esta etapa depende el logro de los objetivos finales previstos, se han ideado modelos y diversas metodologías de trabajo para estos fines. También existen herramientas software que apoyan las tareas relativas realizadas por el ingeniero en requisitos.

El estándar IEEE 830-1998 brinda una normalización de las «Prácticas Recomendadas para la Especificación de Requisitos Software».14

A medida que se obtienen los requisitos, normalmente se los va analizando, el resultado de este análisis, con o sin el cliente, se plasma en un documento, conocido como ERS o Especificación de Requisitos Software, cuya estructura puede venir definida por varios estándares, tales como CMMI.

Un primer paso para realizar el relevamiento de información es el conocimiento y definición acertada lo que se conoce como «Universo de Discurso» del problema, que se define y entiende por:

Universo de Discurso (UdeD): es el contexto general en el cual el software deberá ser desarrollado y deberá operar. El UdeD incluye todas las fuentes de información y todas las personas relacionadas con el software. Esas personas son conocidas también como actores de ese universo. El UdeD es la realidad circunstanciada por el conjunto de objetivos definidos por quienes demandaron el software.


A partir de la extracción y análisis de información en su ámbito se obtienen todas las especificaciones necesarias y tipos de requisitos para el futuro producto software.

El objetivo de la Ingeniería de requisitos (IR) es sistematizar el proceso de definición de requisitos permitiendo elicitar, modelar y analizar el problema, generando

un

compromiso

entre

los

ingenieros

de

requisitos

y

los

clientes/usuarios, ya que ambos participan en la generación y definición de los requisitos del sistema. La IR aporta un conjunto de métodos, técnicas y herramientas que asisten a los ingenieros de requisitos (analistas) para obtener requisitos lo más seguros, veraces, completos y oportunos posibles, permitiendo básicamente:

Comprender el problema Facilitar la obtención de las necesidades del cliente/usuario Validar con el cliente/usuario Garantizar las especificaciones de requisitos

Si bien existen diversas formas, modelos y metodologías para elicitar, definir y documentar requisitos, no se puede decir que alguna de ellas sea mejor o peor que la otra, suelen tener muchísimo en común, y todas cumplen el mismo objetivo. Sin embargo, lo que si se puede decir sin dudas es que es indispensable utilizar alguna de ellas para documentar las especificaciones del futuro producto software. Así por ejemplo, hay un grupo de investigación argentino que desde hace varios años ha propuesto y estudia el uso del LEL (Léxico Extendido del Lenguaje) y


Escenarios como metodología, aquí15 se presenta una de las tantas referencias y bibliografía sobre ello. Otra forma, más ortodoxa, de capturar y documentar requisitos se puede obtener en detalle, por ejemplo, en el trabajo de la Universidad de Sevilla sobre «Metodología para el Análisis de Requisitos de Sistemas Software».16 se muestra un esquema, más o menos riguroso, aunque no detallado, de los pasos y tareas a seguir para realizar la captura, análisis y especificación de requisitos software. También allí se observa qué artefacto o documento se obtiene en cada etapa del proceso. En el diagrama no se explicita metodología o modelo a utilizar, sencillamente se pautan las tareas que deben cumplirse, de alguna manera. Requisitos

Diagrama de tareas para captura y análisis de. Una posible lista, general y ordenada, de tareas recomendadas para obtener la definición de lo que se debe realizar, los productos a obtener y las técnicas a emplear durante la actividad de elicitación de requisitos, en fase de Especificación de Requisitos Software es: 1.Obtener información sobre el dominio del problema y el sistema actual (UdeD). 2.Preparar y realizar las reuniones para elicitación/negociación. 3.Identificar/revisar los objetivos del usuario. 4.Identificar/revisar los objetivos del sistema.


5.Identificar/revisar los requisitos de información. 6.Identificar/revisar los requisitos funcionales. 7.Identificar/revisar los requisitos no funcionales. 8.Priorizar objetivos y requisitos.

Algunos principios básicos a tener en cuenta: Presentar y entender cabalmente el dominio de la información del problema. Definir correctamente las funciones que debe realizar el Software. Representar el comportamiento del software a consecuencias de acontecimientos externos, particulares, incluso inesperados. Reconocer requisitos incompletos, ambiguos o contradictorios. Dividir claramente los modelos que representan la información, las funciones y comportamiento y características no funcionales.

Clasificación e identificación de requisitos

Se pueden identificar dos formas de requisitos: Requisitos de usuario: Los requisitos de usuario son frases en lenguaje natural junto a diagramas con los servicios que el sistema debe proporcionar, así como las restricciones bajo las que debe operar. Requisitos de sistema: Los requisitos de sistema determinan los servicios del sistema y pero con las restricciones en detalle. Sirven como contrato.


Es decir, ambos son lo mismo, pero con distinto nivel de detalle.

Ejemplo de requisito de usuario: El sistema debe hacer préstamos Ejemplo de requisito de sistema: Función préstamo: entrada código socio, código ejemplar; salida: fecha devolución; etc.

Se clasifican en tres los tipos de requisitos de sistema: Requisitos funcionales Los requisitos funcionales describen: Los servicios que proporciona el sistema (funciones). La respuesta del sistema ante determinadas entradas. El comportamiento del sistema en situaciones particulares. Requisitos no funcionales

Los requisitos no funcionales son restricciones de los servicios o funciones que ofrece el sistema (ej. cotas de tiempo, proceso de desarrollo, rendimiento, etc.)

Ejemplo 1. La biblioteca Central debe ser capaz de atender simultáneamente a todas las bibliotecas de la Universidad

Ejemplo 2. El tiempo de respuesta a una consulta remota no debe ser superior a


1/2 s

A su vez, hay tres tipos de requisitos no funcionales: Requisitos del producto. Especifican el comportamiento del producto (Ej. prestaciones, memoria, tasa de fallos, etc.) Requisitos organizativos. Se derivan de las políticas y procedimientos de las organizaciones de los clientes y desarrolladores (Ej. estándares de proceso, lenguajes de programación, etc.) Requisitos externos. Se derivan de factores externos al sistema y al proceso de desarrollo (Ej. requisitos legislativos, éticos, etc.) Requisitos del dominio.

Los requisitos del dominio se derivan del dominio de la aplicación y reflejan características de dicho dominio.

Pueden ser funcionales o no funcionales.

Ej. El sistema de biblioteca de la Universidad debe ser capaz de exportar datos mediante el Lenguaje de Intercomunicación de Bibliotecas de España (LIBE). Ej. El sistema de biblioteca no podrá acceder a bibliotecas con material censurado.


Diseño del sistema En ingeniería de software, el diseño es una fase de ciclo de vida del software. Se basa en la especificación de requisitos producido por el análisis de los requisitos (fase de análisis), el diseño define cómo estos requisitos se cumplirán, la estructura que debe darse al sistema de software para que se haga realidad.

El diseño sigue siendo una fase separada del la programación o codificación, esta última corresponde a la traducción en un determinado lenguaje de programación de las premisas adoptadas en el diseño.

Las distinciones entre las actividades mencionadas hasta ahora no siempre son claras cómo se quisiera en las teorías clásicas de ingeniería de software. El diseño, en particular, puede describir el funcionamiento interno de un sistema en diferentes niveles de detalle, cada una de ellos se coloca en una posición intermedia entre el análisis y codificación

Normalmente se entiende por "diseño de la arquitectura" al diseño de "muy alto nivel", que sólo define la estructura del sistema en términos de la módulos de software de que se compone y las relaciones macroscópicas entre ellos. A este nivel de diseño pertenecen fórmulas como cliente-servidor o “tres niveles”, o, más generalmente, las decisiones sobre el uso de la arquitectura de hardware especial que se utilice, el sistema operativo, DBMS, Protocolos de red, etc.

Un nivel intermedio de detalle puede definir la descomposición del sistema en módulos, pero esta vez con una referencia más o menos explícita al modo de descomposición que ofrece el particular lenguaje de programación con el que el


desarrollo se va a implementar, por ejemplo, en un diseño realizado con la tecnología de objetos, el proyecto podría describir al sistema en términos de clases y sus interrelaciones.

El diseño detallado, por último, es una descripción del sistema muy cercana a la codificación (por ejemplo, describir no sólo las clases en abstracto, sino también sus atributos y los métodos con sus tipos).

Debido a la naturaleza "intangible" del software, y dependiendo de las herramientas que se utilizan en el proceso, la frontera entre el diseño y la codificación también puede ser virtualmente imposible de identificar. Por ejemplo, algunas herramientas CASE son capaces de generar código a partir de diagramas UML, los que describen gráficamente la estructura de un sistema software.

Codificación del software

Durante esta etapa se realizan las tareas que comúnmente se conocen como programación; que consiste, esencialmente, en llevar a código fuente, en el lenguaje de programación elegido, todo lo diseñado en la fase anterior. Esta tarea la realiza el programador, siguiendo por completo los lineamientos impuestos en el diseño y en consideración siempre a los requisitos funcionales y no funcionales (ERS) especificados en la primera etapa.


Es común pensar que la etapa de programación o codificación (algunos la llaman implementación) es la que insume la mayor parte del trabajo de desarrollo del software; sin embargo, esto puede ser relativo (y generalmente aplicable a sistemas de pequeño porte) ya que las etapas previas son cruciales, críticas y pueden llevar bastante más tiempo. Se suele hacer estimaciones de un 30% del tiempo total insumido en la programación, pero esta cifra no es consistente ya que depende en gran medida de las características del sistema, su criticidad y el lenguaje de programación elegido.7 En tanto menor es el nivel del lenguaje mayor será el tiempo de programación requerido, así por ejemplo se tardaría más tiempo en codificar un algoritmo en lenguaje ensamblador que el mismo programado en lenguaje C.

Mientras se programa la aplicación, sistema, o software en general, se realizan también tareas de depuración, esto es la labor de ir liberando al código de los errores factibles de ser hallados en esta fase (de semántica, sintáctica y lógica). Hay una suerte de solapamiento con la fase siguiente, ya que para depurar la lógica es necesario realizar pruebas unitarias, normalmente con datos de prueba; claro es que no todos los errores serán encontrados sólo en la etapa de programación, habrán otros que se encontrarán durante las etapas subsiguientes. La aparición de algún error funcional (mala respuesta a los requisitos) eventualmente puede llevar a retornar a la fase de diseño antes de continuar la codificación.

Durante la fase de programación, el código puede adoptar varios estados, dependiendo de la forma de trabajo y del lenguaje elegido, a saber: Código fuente: es el escrito directamente por los programadores en editores de texto, lo cual genera el programa. Contiene el conjunto de instrucciones


codificadas en algún lenguaje de alto nivel. Puede estar distribuido en paquetes, procedimientos, bibliotecas fuente, etc. Código objeto: es el código binario o intermedio resultante de procesar con un compilador el código fuente. Consiste en una traducción completa y de una sola vez de éste último. El código objeto no es inteligible por el ser humano (normalmente es formato binario) pero tampoco es directamente ejecutable por la computadora. Se trata de una representación intermedia entre el código fuente y el código ejecutable, a los fines de un enlace final con las rutinas de biblioteca y entre procedimientos o bien para su uso con un pequeño intérprete intermedio [a modo de distintos ejemplos véase EUPHORIA, (intérprete intermedio), FORTRAN (compilador puro) MSIL (Microsoft Intermediate Language) (intérprete) y BASIC (intérprete puro, intérprete intermedio, compilador intermedio o compilador puro, depende de la versión utilizada)]. El código objeto no existe si el programador trabaja con un lenguaje a modo de intérprete puro, en este caso el mismo intérprete se encarga de traducir y ejecutar línea por línea el código fuente (de acuerdo al flujo del programa), en tiempo de ejecución. En este caso tampoco existe el o los archivos de código ejecutable. Una desventaja de esta modalidad es que la ejecución del programa o sistema es un poco más lenta que si se hiciera con un intérprete intermedio, y bastante más lenta que si existe el o los archivos de código ejecutable. Es decir no favorece el rendimiento en velocidad de ejecución. Pero una gran ventaja de la modalidad intérprete puro, es que él está forma de trabajo facilita enormemente la tarea de depuración del código fuente (frente a la alternativa de hacerlo con un compilador puro). Frecuentemente se suele usar una forma mixta de trabajo (si el lenguaje de programación elegido lo permite), es decir inicialmente trabajar a modo de intérprete puro, y una vez depurado el código fuente (liberado de errores) se utiliza un compilador del mismo lenguaje para obtener el código ejecutable completo, con lo cual se agiliza la depuración y la velocidad de ejecución se optimiza.

Código ejecutable: Es el código binario resultado de enlazar uno o más


fragmentos de código objeto con las rutinas y bibliotecas necesarias. Constituye uno o más archivos binarios con un formato tal que el sistema operativo es capaz de cargarlo en la memoria RAM (eventualmente también parte en una memoria virtual), y proceder a su ejecución directa. Por lo anterior se dice que el código ejecutable es directamente «inteligible por la computadora». El código ejecutable, también conocido como código máquina, no existe si se programa con modalidad de «intérprete puro».

Pruebas (unitarias y de integración) Entre las diversas pruebas que se le efectúan al software se pueden distinguir principalmente: Prueba unitarias: Consisten en probar o testear piezas de software pequeñas; a nivel de secciones, procedimientos, funciones y módulos; aquellas que tengan funcionalidades específicas. Dichas pruebas se utilizan para asegurar el correcto funcionamiento de secciones de código, mucho más reducidas que el conjunto, y que tienen funciones concretas con cierto grado de independencia. Pruebas de integración: Se realizan una vez que las pruebas unitarias fueron concluidas exitosamente; con éstas se intenta asegurar que el sistema completo, incluso los subsistemas que componen las piezas individuales grandes del software funcionen correctamente al operar e inteoperar en conjunto.

Las pruebas normalmente se efectúan con los llamados datos de prueba, que es un conjunto seleccionado de datos típicos a los que puede verse sometido el sistema, los módulos o los bloques de código. También se escogen: Datos que llevan a condiciones límites al software a fin de probar su tolerancia y robustez; datos de utilidad para mediciones de rendimiento; datos que provocan condiciones eventuales o particulares poco comunes y a las que el software normalmente no


estará sometido pero pueden ocurrir; etc. Los «datos de prueba» no necesariamente son ficticios o «creados», pero normalmente sí lo son los de poca probabilidad de ocurrencia.

Generalmente, existe un fase probatoria final y completa del software, llamada Beta Test, durante la cual el sistema instalado en condiciones normales de operación y trabajo es probado exhaustivamente a fin de encontrar errores, inestabilidades, respuestas erróneas, etc. que hayan pasado los previos controles. Estas son normalmente realizadas por personal idóneo contratado o afectado específicamente a ello. Los posibles errores encontrados se transmiten a los desarrolladores para su depuración. En el caso de software de desarrollo «a pedido», el usuario final (cliente) es el que realiza el Beta Test, teniendo para ello un período de prueba pactado con el desarrollador.

Instalación y paso a producción

La instalación del software es el proceso por el cual los programas desarrollados son transferidos apropiadamente al computador destino, inicializados, y, eventualmente, configurados; todo ello con el propósito de ser ya utilizados por el


usuario final. Constituye la etapa final en el desarrollo propiamente dicho del software. Luego de ésta el producto entrará en la fase de funcionamiento y producción, para el que fuera diseñado.

La instalación, dependiendo del sistema desarrollado, puede consistir en una simple copia al disco rígido destino (casos raros actualmente); o bien, más comúnmente, con una de complejidad intermedia en la que los distintos archivos componentes del software (ejecutables, bibliotecas, datos propios, etc.) son descomprimidos y copiados a lugares específicos preestablecidos del disco; incluso se crean vínculos con otros productos, además del propio sistema operativo. Este último caso, comúnmente es un proceso bastante automático que es creado y guiado con heramientas software específicas (empaquetado y distribución, instaladores).

En productos de mayor complejidad, la segunda alternativa es la utilizada, pero es realizada o guiada por especialistas; puede incluso requerirse la instalación en varios y distintos computadores (instalación distribuida).

También, en software de mediana y alta complejidad normalmente es requerido un proceso de configuración y chequeo, por el cual se asignan adecuado parámetros de funcionamiento y se testea la operatividad funcional del producto.

En productos de venta masiva las instalaciones completas, si son relativamente simples, suelen ser realizadas por los propios usuarios finales (tales como


sistemas operativos, paquetes de oficina, utilitarios, etc.) con herramientas propias de instalación guiada; incluso la configuración suele ser automática. En productos de diseño específico o «a medida» la instalación queda restringida, normalmente, a personas especialistas involucradas en el desarrollo del software en cuestión.

Una vez realizada exitosamente la instalación del software, el mismo pasa a la fase de producción (operatividad), durante la cual cumple las funciones para las que fue desarrollado, es decir, es finalmente utilizado por el (o los) usuario final, produciendo los resultados esperados.

Mantenimiento

El mantenimiento de software es el proceso de control, mejora y optimización del software ya desarrollado e instalado, que también incluye depuración de errores y defectos que puedan haberse filtrado de la fase de pruebas de control y beta test. Esta fase es la última (antes de iterar, según el modelo empleado) que se aplica al


ciclo de vida del desarrollo de software. La fase de mantenimiento es la que viene después de que el software está operativo y en producción.

De un buen diseño y documentación del desarrollo dependerá cómo será la fase de mantenimiento, tanto en costo temporal como monetario. Modificaciones realizadas a un software que fue elaborado con una documentación indebida o pobre y mal diseño puede llegar a ser tanto o más costosa que desarrollar el software desde el inicio. Por ello, es de fundamental importancia respetar debidamente todas las tareas de las fases del desarrollo y mantener adecuada y completa la documentación.

El período de la fase de mantenimiento es normalmente el mayor en todo el ciclo de vida.7 Esta fase involucra también actualizaciones y evoluciones del software; no necesariamente implica que el sistema tuvo errores. Uno o más cambios en el software, por ejemplo de adaptación o evolutivos, puede llevar incluso a rever y adaptar desde parte de las primeras fases del desarrollo inicial, alterando todas las demás; dependiendo de cuán profundos sean los cambios. El modelo cascada común es particularmente costoso en mantenimiento, ya que su rigidez implica que cualquier cambio provoca regreso a fase inicial y fuertes alteraciones en las demás fases del ciclo de vida.

Durante el período de mantenimiento, es común que surjan nuevas revisiones y versiones del producto; que lo liberan más depurado, con mayor y mejor funcionalidad, mejor rendimiento, etc. Varias son las facetas que pueden ser alteradas para

provocar

ampliaciones y mejoras.

cambios deseables,

evolutivos,

adaptaciones

o


Básicamente se tienen los siguientes tipos de cambios: Perfectivos: Aquellos que llevan a una mejora de la calidad interna del software en cualquier aspecto: Reestructuración del código, definición más clara del sistema y su documentación; optimización del rendimiento y eficiencia. Evolutivos: Agregados, modificaciones, incluso eliminaciones, necesarias en el software para cubrir su expansión o cambio, según las necesidades del usuario. Adaptivos: Modificaciones que afectan a los entornos en los que el sistema opera, tales como: Cambios de configuración del hardware (por actualización o mejora de componentes electrónicos), cambios en el software de base, en gestores de base de datos, en comunicaciones, etc. Correctivos: Alteraciones necesarias para corregir errores de cualquier tipo en el producto software desarrollado.

Carácter evolutivo del software

El software es el producto derivado del proceso de desarrollo, según la ingeniería de software. Este producto es intrínsecamente evolutivo durante su ciclo de vida. El software evoluciona, en general, generando versiones cada vez más completas,


complejas, mejoradas, optimizadas en algún aspecto, adecuadas a nuevas plataformas (sean de hardware o sistemas operativos), etc.17

Cuando un sistema deja de evolucionar, eventualmente cumplirá con su ciclo de vida, entrará en obsolescencia e inevitablemente, tarde o temprano, será reemplazado por un producto nuevo.

El software evoluciona sencillamente por que se debe adaptar a los cambios del entorno, sean funcionales (exigencias de usuarios), operativos, de plataforma o arquitectura hardware.

La dinámica de evolución del software es el estudio de los cambios del sistema. La mayor contribución en esta área fue realizada por Meir M. Lehman y Belady, comenzando en los años 70 y 80. Su trabajo continuó en la década de 1990, con Lehman y otros investigadores18 de relevancia en la realimentación en los procesos de evolución (Lehman, 1996; Lehman et al., 1998; lehman et al., 2001). A partir de esos estudios propusieron un conjunto de leyes (conocidas como leyes de Lehman)9 respecto de los cambios producidos en los sistemas. Estas leyes (en realidad son hipótesis) son invariantes y ampliamente aplicables.

Lehman y Belady analizaron el crecimiento y la evolución de varios sistemas software de gran porte; derivando finalmente, según sus medidas, las siguientes ocho leyes: 1.Cambio continuo: Un programa que se usa en un entorno real necesariamente


debe cambiar o se volverá progresivamente menos útil en ese entorno. 2.Complejidad creciente: A medida que un programa en evolución cambia, su estructura tiende a ser cada vez más compleja. Se deben dedicar recursos extras para preservar y simplificar la estrucutura. 3.Evolución prolongada del programa: La evolución de los programas es un proceso autorregulativo. Los atributos de los sistemas, tales como tamaño, tiempo entre entregas y la cantidad de errores documentados son aproximadamente invariantes para cada entrega del sistema. 4.Estabilidad organizacional: Durante el tiempo de vida de un programa, su velocidad de desarrollo es aproximadamente constante e independiente de los recursos dedicados al desarrollo del sistema. 5.Conservación de la familiaridad: Durante el tiempo de vida de un sistema, el cambio incremental en cada entrega es aproximadamente constante. 6.Crecimiento continuado: La funcionalidad ofrecida por los sistemas tiene que crecer continuamente para mantener la satisfacción de los usuarios. 7.Decremento de la calidad: La calidad de los sistemas software comenzará a disminuir a menos que dichos sistemas se adapten a los cambios de su entorno de funcionamiento. 8.Realimentación del sistema: Los procesos de evolución incorporan sistemas de realimentación multiagente y multibucle y estos deben ser tratados como sistemas de realimentación para lograr una mejora sig


Los procesadores Según Gordon Moore, co-fundador de Intel y autor de la ley que lleva su nombre, los nuevos procesadores nahalem de Intel representan el mayor avance de la tecnología aplicada a transistores desde la década del 60. Estos procesadores, con un tamaño menor al de la uña de un dedo, son el resultado de un avance tecnológico que comenzó hace algunos años atrás con computadoras más grandes y con menor capacidad. Con la introducción de materiales completamente novedosos, como los circuitos basados en Hafnio, se alcanzó una reducción de hasta un 30% en la pérdida de energía en comparación a los procesadores de generaciones anteriores.

La primera computadora electrónica fue la ABC (Atanasoft Berry Computer), construido en 1937 por el doctor Vincent Atanasoft y Clifford Berry Pesaba 320 Kg y ocupaba el espacio de una mesa. Su principal función era resolver problemas de álgebra con una mayor exactitud. En los inicios de la era de la informática las computadoras eran, en verdad, grandes máquinas capaces sólo de realizar algunos

pocos

cálculos

matemáticos

En 1946 fue presentada públicamente ENIAC (Electronic Numerical Integrator and Computer), creada por John Presper Eckert y John William Mauchly. Se trataba de un coloso de 167m2 y pesaba 27 toneladas, cuyo funcionamiento podía elevar la temperatura ambiente a 50 C. A diferencia de sus contemporáneas, la ENIAC prescindía

completamente

de

procesos

analógicos.

Durante las décadas de 50 y 60 se generó otro gran avance: los ordenadores dejaron de funcionar a base de válvulas y comenzaron a utilizar circuitos transistores.


La

historia

de

los

procesadores

Intel

Inventados en 1947 por William Shockley, John Bardeen y Walter Brattain, los transistores son pequeños interruptores de transmisión eléctrica. El desarrollo de circuitos integrados permitió, en 1971, la aparición del primer microprocesador, el 4004

de

Intel,

que

contenía

2000

transistores.

En 1981 apareció el procesador 8088 de Intel. El mismo era de 16 bits, trabajaba con

un

máximo

de

10MHz

y

contenía

29.000

transistores.

Un año después, el procesador Intel 286, que contaba con 39.000 transistores, fue lanzado

al

mercado.

En 1985 Intel desarrolló un procesador que contenía 287.000 transistores, o sea, cien veces más que el procesador 4004 de quince años atrás: era el Intel 386, que con sus 32 bits fue el primero que permitió la ejecución de múltiples tareas. El Procesador Intel Pentium fue lanzado en 1991. Ocupaba una superficie de 0.8 micrones y contenía 3 millones de transistores. Ocho años después la cantidad de transistores pasó a ser tres veces mayor (9.5 millones) con el Procesador Intel Pentium

III.

En el comienzo del nuevo milenio, Intel se encontraba desarrollando procesadores de 90 nm que ofrecían una mayor performance y un menor consumo de energía. Fueron

los

primeros

procesadores

fabricados

con

Silicio.

En 2005 nació el primer procesador multi-núcleo del mercado: el Intel Pentium D. Fue el comienzo de la tecnología Dual-Core en microprocesadores, que un año después llevó al desarrollo del procesador Intel Core 2 Duo. Su proceso de fabricación de 65 nm permitió que se llegara a disponer de hasta 290 millones de transistores.


Los avances en la tecnología multi-núcleo continuó su curso y los procesadores de cuatro núcleos Intel Core 2 Quad hicieron su aparición en 2007. De esta forma, el liderazgo de la Intel nuevamente se tradujo en una mayor performance para el usuario, que ahora puede aprovechar al máximo la experiencia multimedia. Finalmente, llegó la era de los 45 nm en 2008, conocidos bajo el nombre de Nehalem. Los procesadores más pequeños del mundo, que usan Hafnio como componente, fueron implementados en el desarrollo de los Intel Core 2 Duo, Intel Core 2 Quad, Intel Xeon y también en la línea más reciente de procesadores, Intel Atom, que representa la mayor innovación dentro de la electrónica en los últimos 40

años.

Las innovaciones en la arquitectura de la informática permitieron que un poder mucho mayor que el de aquel enorme coloso ENIAC apareciera en un microchip más chico que la punta de un dedo. Así, los Procesadores Intel de 45 nm son la nueva era dentro del avance tecnológico en el cual Intel continúa haciendo historia .


Clasificación según estándares de monitores

Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes.

Monitores MDA:

Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos. Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios. Características: 

Sin modo gráfico.

Resolución 720_350 píxeles.

Soporte de texto monocromático.

No soporta gráfico ni colores.

La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.

Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.


Monitor CGA: Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM. A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color. Características: 

Resoluciones 160_200, 320×200, 640×200 píxeles.

Soporte de gráfico a color.

Diseñado principalmente para juegos de computadoras.

La tarjeta gráfica contenía 16 KB de memoria de vídeo.


Monitor EGA: Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución. EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características. Características: 

Resolución de 640_350 píxeles.

Soporte para 16 colores.

La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

Monitor VGA: Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones. Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas. Características:


Soporte de 720×400 píxeles en modo texto.

Soporte de 640×480 píxeles en modo gráfico con 16 colores.

Soporte de 320×200 píxeles en modo gráfico con 256 colores.

Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.

Monitor SVGA:

SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA. SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones. Características: 

Resolución de 800×600, 1024_768 píxeles y superiores.


Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.

Clasificación según tecnología de monitores En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.

Monitores CRT: Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun. Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan. Funcionamiento: Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.


Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo. Ventajas:

Tecnología robusta.

Resolución de alta calidad.

Excelente calidad de imagen (definición, contraste, luminosidad).

Económico.

Desventajas: 

Presenta parpadeo por el refrescado de imagen.

Consumo de energía.

Generación de calor.

Generación de radiaciones eléctricas y magnéticas.

Alto peso y tamaño.

Pantallas LCD: A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.


Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros. Funcionamiento: El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez. Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no. Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul. Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros. Ventajas: 

Poco peso y tamaño.

Buena calidad de colores.

No contiene parpadeo.

Poco consume de energía.

Poca generación de calor.

No genera radiaciones eléctricas y magnéticas.

Desventajas: 

Alto costo.

Angulo limitado de visibilidad.

 

Pantallas Plasma:


La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow. Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad. Funcionamiento: El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado. Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma. El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible. Ventajas: 

Excelente brillo.

Alta resolución.

Amplio ángulo de visión.

No contiene mercurio.

Tamaño de pantalla elevado.


Desventajas: 

Vida útil corta.

Coste de fabricación elevado, superior a los LCD.

Consumo de electricidad elevado.

Poca pureza del color.

Consumo energético y emisión de calor elevada

.

¿Qué es la resolución de pantalla? Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (“X”), el cual se coloca al principio y el número de filas (“Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:

Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo.


1975 – 1981: Inicio de Microsoft La compañía fue fundada en 1975 por William H. Gates III y Paul Allen. Ambos se habían conocido durante su época de estudiantes por su afición común a programar con la computadora PDP-10 de Digital Equipment Corporation. Pocos han oído hablar de las microcomputadoras, pero dos jóvenes apasionados de la informática, Bill Gates y Paul Allen, perciben que la informática personal es el camino hacia el futuro. Su idea es que en cada hogar haya un escritorio con un equipo personal. Ese mismo año Popular Electronics dedicó su portada y un artículo al Altair 8800, la primera computadora personal. Ese artículo animo a Gates y Allen a desarrollar un la primera versión del lenguaje Basic para este equipo. El lenguaje fue un éxito y múltiples empresas compraron las licencias .Con el dinero ganado fundaron la base en Albuquerque, Nuevo México. No tardaron en llegar nuevas versiones de Basic, un segundo producto llamado Microsoft Fortran, otro lenguaje de programación, y con todo ello pronto sacó versiones del lenguaje Basic para los microprocesadores 8080 y 8086. En junio de 1980, Gates y Allen contratan a Steve Ballmer, ex compañero de Gates de Harvard, para que les ayude a dirigir la empresa. Poco después, tras trasladarse a Bellevue, Washington, IBM contrató a Microsoft para escribir el sistema operático del IBM PC, que saldría al mercado el año siguiente. Este proyecto llamado inicialmente “Chess”, pretendía ser la base sobre la que se pudieran ejecutar los programas del equipo. Presionados por el poco tiempo disponible, compraron QDOS (Quick and Dirty Operative System) a Tim Paterson, un programador de Seattle por 50.000 dólares, y le cambiaron el nombre a MS-DOS (Microsoft Disk Operative System). Esta primera versión de MS-DOS soportaba 16 Kb de memoria RAM. Disquetes de 5,25 pulgadas de una sola cara de 160 Kb e incluía ya 22 órdenes. Además de incluir ya el intérprete de comandos COMMAND.COM. y manejar archivos con extensión .com y .exe


En 1981, tras comenzar a comercializar los IBM con MSDOS los usuarios descubren el uso de la tecla de la barra invertida (\).

MS-DOS nos acompañó desde 1981 con la versión 1.0 hasta el año 2000 con la versión 8.0(que estaba incluida en Microsoft Windows Millenium Edition), en ese intervalo de casi 20 años, fue incluyendo nuevas funcionalidades y ampliando sus capacidades: MS-DOS 2.0 (1983) aportó el soporte para discos duros, MS-DOS 2.11 incluyó el soporte para LAN, MS-DOS 6.0 (1993) llegó con el desfragmentador de disco o el antivirus MSAV y MS-DOS 6.22 fue la última versión de MS-DOS que se distribuyó por separado ya que las sucesivas versiones (MS-DOS 7.0 y MS-DOS 8.0) vendrían integradas en Windows 95, Windows 98 y Windows Me sucesivamente.

.


Windows 1.0 MS-DOS era eficaz pero de difícil comprensión para algunas personas, por lo que 4 años más tarde, Microsoft lanzó Windows. Aunque fue llamado inicialmente “Interface Manager”, finalmente se le cambió el nombre porque describe mejor los cuadros y las “ventanas” informáticas, que resultan fundamentales en el sistema. La interfaz inicial sufrió un cambio tras el Apple Lisa, un experimento de Apple por crear una interfaz gráfica de usuario. Este amplia las prestaciones de MS-DOS e incorpora una interfaz gráfica de usuario. Ahora en lugar de escribir comandos, es posible desplazarse entre pantallas o “ventanas” moviendo el mouse, y señalando lo que se quiere.

Las siguientes fueron las principales características de Windows 1 Interfaz gráfica con menús desplegables, ventanas en cascada y soporte para mouse.  Gráficos de pantalla e impresora independientes del dispositivo.  Multitarea cooperativa entre las aplicaciones Windows. Windows 1.0 requiere como mínimo 256 KB, y recomienda disponer de 512KB.


Windows 2.0

En diciembre del 1987, sale al mercado Windows 2.0. Sus características más importantes fueron el soporte de archivos PIF para aplicaciones DOS y la opción de superponer ventanas, controlar el diseño de la pantalla, y los métodos abreviados de teclado. Será el primer Windows que incorpore el Panel de control, presente hasta la actualidad. Nacen aplicaciones como Excel, Word for Windows, Corel Draw, etc. Los primeros programas basados en Windows. Este sistema operativo, estdiseñado para el procesador Intel 286, por lo que al salir al mercado el 386, se publica Windows/386, para aprovechar sus

funcionalidades

de

memoria

extendida. Esta nueva característica permitía múltiples máquinas virtuales DOS con multitarea. Tiene su propio formato

de

archivo

ejecutable

y

proporciona sus propios controladores de dispositivo.


Windows 3.0

Publicado en mayo de 1990, supone una reconstrucción de Windows, que ahora consigue re direccionar más de 640KB de memoria. Gracias a ello sus gráficos avanzados son de 16 colores.

Las siguientes fueron las principales características de Windows 3.0: 

Modo estándar (286), con soporte mejor soporte de memoria (large memory).

Se agregó en Administrador de Programas y de Archivos

Soporte de Red

Soporte para combo boxes, menús jerárquico y los archivos .INI privados para capa aplicación empezaron a cobrar más valor. Todo ello se instala con múltiples disquetes, por lo que Windows se usa cada vez más en el trabajo y en casa, que también incluye juegos como el Solitario, Buscaminas…“Ahora, puede.

usar el increíble poder de Windows 3.0 para holgazanear” es el texto del anuncio, algo impensable hasta la época.

Poco tiempo después llegan al mercado Windows 3.1 y 3.11, que permiten: 

Trabajar en grupo de trabajo punto a punto

Fuentes escalables True Type.


Compatibilidad con redes de dominio

Capacidad para que una aplicación reinicie la máquina.

Windows 3.11 sólo es una actualización que contenía parches para errores menores.

Windows NT Windows NT se lanza en julio de 1993, tras haber vendido más de 10 millones de copias de Windows 3.0/3.1, Windows es ya el sistema operativo más utilizado. Por ello Windows NT fue diseñado para estaciones

de

trabajo

avanzadas

y

para servidores.

Las letras NT provienen de la designación del producto como “Nueva Tecnología” (New Technology). Aunque la leyenda urbana dice que Dave Cutler, responsable de proyecto, trajo sus conocimientos sobre VMS en DEC. (Windows NT son las letras posteriores del abecedario a VMS).


Es un proyecto iniciado en la década anterior, con la intención de crear un nuevo sistema operativo de 32 bits desde cero. Pero éste sufrió problemas de compatibilidad con el hardware y software existentes. A diferencia de Windows 3.1, que era una interfaz gráfica que corría sobre MS-DOS, Windows NT es un sistema operativo por sí solo. NT necesita un 386 con al menos 12MB de RAM y un disco duro de 75MB.

Windows NT 3.1 Inicialmente estaba destinado a ser una versión de un sistema operativo creado entre Microsoft

IBM.

Cuando

desde

Microsoft vieron el éxito decidió abandonar la colaboración con IBM y lo lanzó al mercado rebautizándolo NT.

como

Windows


La estrategia de marketing de Microsoft era que Windows NT pareciera la continuación de Windows 3.1.Por primera vez se dio soporte para el sistema de ficheros NTFS, pero no se hará realmente efectivo hasta la llegada de Windows 2000.Podía correr en microprocesadores Intel x86, DEC Alpha, MIPS R4000.

Windows NT 3.5 / 3.51 Publicado a finales de 1994, Microsoft da el salto a la arquitectura Power PC, manteniendo la arquitectura de Intel x86. Uno de los principales objetivos era aumentar la velocidad del sistema operativo. Inicialmente se llamó al proyecto “Daytona” en honor a un circuito de carreras de EE.UU Incorpora un añadido llamado “NewShell”. Que no era más que la versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú de inicio. El objetivo final de Microsoft es que los usuarios prueben la nueva interfaz gráfica que será presentada en un futuro próximo. Windows NT 3.51 fue el último de la serie que se ejecutaron en un 386.


Windows NT 4.0 Windows NT 4.0 fue la cuarta versión del sistema operativo de Microsoft Windows NT, lanzado en 1996. Su interfaz es similar a la de Windows 95, y es un sistema de 32 bits.

Durante su etapa de desarrollo, tiene el nombre de “Cairo”. Presenta novedades como el soporte para diferentes plataformas como MIPS, Alpha, Intel, etc. Presenta varias versiones como Workstation, Server, etc. Estas permitían adaptarlo a varias Necesidades. Tiene un pobre soporte de DirectX, con lo que la mayoría de juegos en 3D no funcionaban. Incorpora características importantes para mejorar las aplicaciones en red y mejorar las comunicaciones.


Windows 95 El 24 de agosto de 1995 Microsoft lanza Windows 95, el cual supone un record de ventas con7 millones de copias en 5 semanas. Es el lanzamiento más publicitado de Microsoft.Durante su desarrollo se conoció como Windows 4 o también como Chicago. Sustituyo a MS-DOS como sistema operativo y a Windows 3.x como entorno gráfico. Se encuadra dentro de la familia Windows 9x.

En esta época empieza a surgir el correo

electrónico,

los fax/módems y

los juegos

multimedia,

95

Windows

tiene

compatibilidad integrada con internet, conexión de red por acceso telefónico y nuevas funciones de Plug and Play que facilitan la instalación de hardware y software. Es un sistemas operativo con interfaz gráfica de usuario hibrido de entre 16 y 32 bits, ofrece funciones multimedia mejoradas, características más eficaces para equipos informáticos móviles y redes integradas. Incorporo el sistema de archivos FAT32, y el primer y novedoso USB. En Windows 95 aparecen por primera

vez

el menú

Inicio,

la barra

de

tareas y

los botones

para


minimizar, maximizar y cerrar ventanas, y cambio el nombre a los directorios llamándolos carpetas. Existen versiones

tanto

en

disquetes

como

en CD-ROM. La versión en 13 disquetes usaba un formato no estándar llamado DMF que les permitía almacenar una capacidad mayor a 1,44MB. La versión en CD-ROM ofrecía una selección de accesorios y complementos multimedia mucho mayor, además de algunos controladores de dispositivos, juegos y versiones demo de algunos programas.

Microsoft no cambio todo el código de Windows a 32 bits, sino que partes del código permanecieron para 16 bits por razones de compatibilidad, rendimiento y tiempos de desarrollo. Esto, junto con el hecho de que muchas debilidades de diseño no se corrigieron, hizo que las sucesivas versiones de Windows, acarrearan problemas de fondo, eventualmente impactando en la eficiencia y estabilidad

del

S.O.

Mucha gente no considera a Windows 95 como un sistemas operativo real, pues se necesitaba primero cargar MS-DOS como parte del proceso de inicio, es decir, no era completamente independiente. Incluye a MS-DOS como una aplicación.

Microsoft consiguió una ventaja con Windows 95, que solo se cargase en su versión de DOS (MS-DOS).Con la entrada de los 32 bits en el acceso a ficheros, se pudo añadir al sistema el uso de nombres de ficheros largos, que estaba


disponible tanto para los programas del sistema, como lo de DOS arrancados bajo Windows.

Los requisitos mínimos eran los siguientes: 

PC con un procesador 386DX o superior (se recomienda 486)

4 megabytes (MB) de memoria (se recomiendan 8 MB)

Espacio en disco duro necesario normalmente para actualizarse a Windows 95: 35 a 40 MB. El requisito real varía, dependiendo de las características que elija instalar.

Espacio en disco duro necesario normalmente para instalar Windows 95 en un sistema limpio: 50 a 55 MB. El requisito real varía, dependiendo de las características que elija instalar.

Una unidad de disco de 3,5 pulgadas de alta densidad (instalación desde diskettes)

Resolución VGA o superior (se recomienda SVGA de 256 colores)

Estos requisitos eran insuficientes para el trabajo diario más allá del uso de una aplicación por estación de trabajo, debido

al

constante

la memoria virtual.

Windows 98

uso

de


Fue presentado el 25 de junio de 1998, Windows 98 (con nombre en clave Memphis) es la primera versión de Windows diseñada específicamente para los consumidores. Los equipos informáticos son habituales en la oficina y en el hogar. Aun es un sistema operativo basado en MS-DOS. Se publican dos ediciones de este S.O., esta última con correcciones para muchos problemas menores, soporte de USB mejorado y el Internet Explorer 5, la conexión compartida a internet que permitía compartir a múltiples ordenadores en una LAN una única conexión a Internet por medio de NAT, y soporte para DVDROM. No era una actualización gratuita para los compradores de la primera edición, lo que suponía un problema ya que muchos programas necesitaban Windows 98SE. Algunas de las características de Windows 98 son un mejor soporte de AGP, soporte para múltiples monitores y WebTV. Ofrece soporte para el sistema de ficheros FAT32, permitiendo soportar particiones de disco mayores a los 2GB de Windows 95. Tenía un nuevo estándar de controladores (Windows Driver Model), aunque aún podía usar el antiguo estándar (VxD). Una de sus características más controversiales, fue la integración del navegador Internet Explorer a la interfaz gráfica de Windows y al explorador de archivos, llevando esto a Microsoft a ser acusado de monopolio. La publicación de Windows 98 tuvo una notable demostración pública por parte de su presidente Bill Gates destacando la facilidad de uso del sistema operativo y su mejorado soporte Plug and Play. Sin embargo cuando intento conectar un escáner e instalarlo, el sistema operativo se colgó mostrando un pantallazo azul. Los requisitos del sistema son: 

Procesador 486 DX2 a 66 MHz o superior con 16 MB de memoria RAM (se recomiendan 24 MB).


Suficiente espacio en el disco duro. La cantidad de espacio necesario depende del método de instalación elegido y de los componentes que haya seleccionado. 

Actualizando desde Windows 95 o desde 3.1: 140-315 MB (normalmente 205 MB) de espacio. 

Nueva instalación usando el sistema de ficheros FAT16: 210-400 MB (normalmente 260 MB) de espacio.

Nueva instalación usando el sistema de ficheros FAT32: 190-305 MB (normalmente 210 MB) de espacio.

No soporta instalación en particiones/discos con el sistema de ficheros NTFS como las versiones Windows NT

NOTA: Ambos,

Windows

98

y

Windows

98SE,

tienen

considerables problemas asociados a discos duros de un tamaño superior a 32 GB. Se hizo pública una actualización de software para corregir esta deficiencia. 

Monitor con resolución VGA o superior.

Unidad de CD-ROM.

Microsoft Mouse o un dispositivo apuntador compatible.


Windows 2000 Se puso en circulación el 17 de febrero del

2000,

conocido

durante

su

desarrollo como NT 5.0. Es una versión útil

para

sistemas,

los administradores tuvo

éxito

tanto

mercado de los servidores como en el de las estaciones de

en

de el

trabajo

Es un sistema operativo para empresas, y algunas de las tareas que puede realizar son: crear cuentas de usuarios, asignar recursos y privilegios, actuar como servidor web, FTP, servidor de impresión, DNS, DHCP, etc. Su principal punto fuerte es el Active Directory, herramienta desde la cual se puede administrar

toda

la

infraestructura

de

una

organización.

En dicho sistema operativo, se introdujeron algunas modificaciones respecto a sus predecesores como el sistema de archivos NTFS 5, con la capacidad de cifrar y comprimir archivos. Tres días antes de su lanzamiento se filtró un documento de un empleado revelando que tenía más de 63.000 defectos potenciales conocidos. El 12 de febrero de 2004 Microsoft anunció que partes del código fuente de Windows 2000 fueron filtradas y colgadas en internet, y el 16 de febrero se descubrió un exploit que fue supuestamente descubierto por un particular estudio del código fuente.


Hay cuatro variantes de Windows 2000: 

Windows 2000 Professional: Estaba destinado a estaciones de trabajo.

Windows 2000 Server: Esta destinada a ser servidor de archivos, impresión, web, FTP. Es ideal para cuando no se requiere de un servidor dedicado a cada tarea o departamento, y de esta manera tener todo centralizado en un solo servidor.

Windows 2000 Advanced Server: Está orientado a empresas medianas o grandes que tienen un mayor número de usuarios en la red. Ofrece una estructura completa de clústeres para alta disponibilidad y escalabilidad y admite multiprocesamiento simétrico de ocho vías, además de memoria de 8 GB con la extensión de dirección física. Soporta hasta 8 procesadores y soporte RAID. Su principal función es la de servidor de aplicaciones o de tareas crítica dentro de una organización grande. 

Windows 2000 Datacenter Edition: Es una versión de primer nivel especializada

para

Windows

2000

Server

que

admite

multiprocesamiento simétrico de 32 vías y hasta 64GB de memoria física. Está destinado a servidores muy potentes, para manejar grandes volúmenes de datos, y para ISP a gran escala y alojamiento de sitios Web.


Windows ME Fue lanzado el 14 de septiembre del 2000. Es un sistema operativo grafico hibrido de 16/32 bits. Es el sucesor de Windows 98 en la familia Win 9x y de Windows 2000 cronológicamente, fue puesto en el mercado como “Home Edition” cuando fue comparado con Windows 2000, lanzado siete meses antes. Fue diseñado para que fuera de gran facilidad de uso para usuarios caseros, y Microsoft también puso al día la interfaz gráfica con algunas características de Windows 2000.

No está construido bajo el núcleo de Windows NT ya que fue usado solamente en los S.O. profesionales de Microsoft hasta ese momento. Windows ME es una versión basada de la familia de Win9x como sus antecesores, pero con MS-DOS ejecutado en tiempo real pero muy restringido, para poder correr más rápido durante el arranque del sistema.

Fue concebido como un proyecto rápido que serviría como sustituto temporal entre Windows 98 y Windows XP, por lo que fue ampliamente criticado y no tuvo la popularidad esperada. Las críticas se centraban especialmente en sus problemas de estabilidad y deficiencias para modo real en DOS.

Fue el último sistema operativo basado en el kernel Windows 9x, teniendo a MSDOS de fondo.


Requisitos

del

sistema: 

Un procesador Pentium o compatible de 150 MHz

320 MB de espacio libre de disco duro.

Por lo menos 32 MB RAM.

Windows XP

Con nombre clave “Whistler”, Windows XP se lanzó al mercado el 25 de octubre de 2001.

Las letras “XP” provienen de la palabra eXPerience y su periodo de desarrollo fue menor a 18 meses, concretamente entre Diciembre de 1999 y Agosto de 2001.

Actualmente es el sistema operativo más utilizado del planeta para procesadores x86 y se considera que existen más de 400 millones de copias funcionando.

Sucesor de Windows 2000, es el primer sistema operativo de Microsoft orientado al consumidor que se construye con un núcleo y arquitectura de Windows NT disponible en dos versiones: una para plataformas de 32 bits y otra para plataformas de 64 bits.

En XP se introdujeron algunas características que mejoraron el S.O. notablemente con respecto a sus antecesores:

Ambiente gráfico más agradable que el de sus predecesores.

Secuencias más rápidas de inicio y de hibernación.


Capacidad del sistema operativo de desconectar un dispositivo externo, de instalar nuevas aplicaciones y controladores sin necesidad de reiniciar.

Una nueva interfaz de uso más fácil, incluyendo herramientas para el desarrollo de temas de escritorio.

Uso de varias cuentas, lo que permite que un usuario guarde el estado actual y aplicaciones abiertos en su escritorio y permita que otro usuario abra una sesión sin perder esa información.

ClearType, diseñado para mejorar legibilidad del texto encendido en pantallas de cristal líquido (LCD) y monitores similares.

Escritorio Remoto, que permite a los usuarios abrir una sesión con una computadora que funciona con Windows XP a través de una red o Internet, teniendo acceso a sus usos, archivos, impresoras, y dispositivos.

Soporte para la mayoría de módems ADSL y wireless, así como el establecimiento de una red FireWire.

Algo destacable fueron las nuevas capacidades que se introdujeron para la gestión de software y evitar así el denominado “DLL Hell” (infierno de las DLLs) que tanto se dio en versiones anteriores.

Al estar basado en Windows NT, XP presenta grandes mejoras en estabilidad y rendimiento. Su IGU (Interfaz Gráfica de Usuario) destaca por su fácil manejo con respecto a versiones anteriores y otros sistemas operativos. Dicha IGU recibe el nombre de Luna y presenta cambios tales como:


Colores brillantes.

El menú Inicio y la capacidad de indexación de los directorios de Windows fueron reajustados

Botón “Cerrar” (cruz) de color rojo.

Botones estándar de colores en las barras de herramientas de Windows e Internet Explorer.

Un rectángulo azul translúcido en la selección de los archivos.

Un gráfico en los iconos de la carpeta, indicando el tipo de información que se almacena.

Sombras para las etiquetas del icono en el tablero del escritorio

Capacidad de agrupar aplicaciones similares en la barra de tareas.

Capacidad para prevenir cambios accidentales.

Destaca programas recién instalados en el menú de inicio.

Sombras bajo los menús (Windows 2000 tenía bajo el puntero del ratón, pero no en los menús).

Al igual que en los anteriores Windows (Windows 98, Windows ME, Windows 2000), el Explorador de Windows incluye la vista preliminar (en miniatura) de archivos Web (*.htm, *.html) en los detalles en la barra de tareas comunes en las carpetas y en la vista en miniatura, ya sean páginas Web guardadas localmente o accesos directos a Internet.

Windows XP es la primera versión de S.O. de Microsoft que utiliza la Activación de Producto para reducir la piratería del mismo, algo que no sentó demasiado bien entre parte de los usuarios.


Para Windows XP no todo fueron elogios, ya que recibió numerosas críticas por vulnerabilidades en su seguridad y por integrar Internet Explorer y Windows Media Player. Durante la vida de XP, Microsoft se encargaría de mantener su S.O. actualizado y seguro distribuyendo lo que se conoce como Service Packs, alcanzado un total de 3: 

SERVICE PACK 1: 9 de Noviembre de 2002.

SERVICE PACK 2: 6 de Agosto de 2004.

SERVICE PACK 3: 6 de Mayo de 2008.

En junio del 2008 Microsoft anunció oficialmente, que ya no distribuiría más

Windows XP. 30 días después, afirmó que no habían terminado con su sistema operativo más popular y aunque Windows XP no se vendería en tiendas, Microsoft y sus socios continuarían ofreciendo soporte técnico para él durante meses y años. De hecho,


Microsoft

ofrecerá soporte

técnico para Windows XP hasta el año 2014, como se tenía planeado. El hecho de que Windows Vista requiera

semejante

cantidad de memoria RAM, junto con la aparición de los ordenadores micro portátil (con 1 GB de memoria RAM) ha sido decisivo en los sucesivos retrasos en la despedida de XP.

Requisitos mínimos del sistema: 

Procesador de 233 MHz o superior.

Memoria de 64MB RAM

Video: Super VGA (800×600 o superior)

Disco duro : 1,5GB (más 1,8GB SP2 y 900MB SP3).

WINDOWS VISTA Microsoft comenzoó a trabajar en los planes de desarrollo de Windows Vista (nombre en clave «Longhorn») en 2001, despueó s de la introduccioó n de Windows XP. Inicialmente estaba previsto para ser lanzado a finales de 2003 como un paso menor entre Windows XP y «Blackcomb».


El proceso de desarrollo terminó el 8 de

noviembre de 2006 y

en

los

siguientes tres meses fue entregado a los

fabricantes

de

hardware

y

software, clientes de negocios y canales de distribución, iniciando así un numero sin precedentes de pruebas beta del programa. Aunque Microsoft esperaba que el sistema operativo estuviera disponible en todo el mundo para la navidad de 2006, se anunció en marzo de ese año que la fecha de lanzamiento sería aplazada hasta enero de 2007, con el fin de otorgar mayor tiempo a las empresas para la construcción de nuevos controladores que fueran compatibles con el nuevo sistema operativo. El 30 de enero de 2007 fue lanzado mundialmente y fue puesto a disposición para ser comprado y descargado desde el sitio web de Microsoft. La aparición de Windows Vista viene después de más de 5 años de la introducción de Windows XP, es decir, el tiempo más largo entre dos versiones consecutivas de Microsoft Windows. La campaña de lanzamiento fue incluso más costosa que la de Windows 95, ocurrido el 25 de agosto de 1995, debido a que esta incluyó además otros productos como Microsoft Office 2007 y Exchange Server 2007. Las expectativas creadas por Microsoft respecto a Vista decepcionaron a muchos usuarios, debido a los altos requerimientos de hardware necesarios para poder ejecutarlo correctamente: 

Procesador de 800 MHz o superior.

Memoria de 512MB RAM


Video: Tarjeta Gráfica compatible con DirectX 9.0

Disco duro : 15GB de espacio libre (HDD de 20GB de capacidad).

Asimismo, en sus primeros años se dieron gran cantidad de problemas de compatibilidad con programas y controladores de hardware debido a que no funcionaban o no existían versiones para Windows Vista. Varias empresas y universidades optaron por no instalar Vista en sus equipos por problemas con programas lanzados originalmente para Windows XP, así como porque requiere una gran inversión debido a la necesidad de comprar equipos nuevos para poder ejecutar Vista.

NUEVAS CARACTERÍSTICAS PARA EL USUARIO: 

Windows Media Center: es una aplicación que, al igual que en la versión Media Center Edition, permite la grabación y visualización de música, imágenes, vídeos y televisión grabada.

Windows

Aero: Es

una

nueva interfaz

gráfica que

permite

la

transparencia en las ventanas. Incluye «Flip 3D», una mini-aplicación que permite cambiar de ventana con presionar la tecla Windows y el tabulador. Además, permite tener una vista preliminar de las ventanas abiertas, con sólo pasar el ratón sobre los botones en la barra de tareas. 

Internet Explorer 7: Es el nuevo explorador de internet que se incluye con Windows Vista, el cual permite la navegación a través de pestañas y el botón «Pestañas rápidas», que muestras vistas en miniatura en todas las páginas abiertas. También incluye mejoras en la seguridad como las


advertencias antiphishing y el modo protegido (sólo en Vista) que evita que los sitios web ejecuten código sin permiso del usuario. 

Windows

Sidebar: (Barra

lateral

de

Windows)

es

una

nueva

herramienta, ubicada inmóvilmente en el costado derecho de la pantalla. Esta aplicación permite ejecutar pequeños programas (gadgets) en el escritorio, sin necesidad de abrir ventanas físicas. Algunos ejecutan funciones básicas, como la hora, el clima o buscar información en Google o Wikipedia. 

Windows Defender: sistema antispyware.

Añade al firewall de sistema la capacidad de bloquear conexiones que salen del sistema sin previa autorización. 

Windows Mail: es un cliente de correo electrónico, que permite el manejo de cuentas de e-mail. En funciones, es el sustituto de Outlook Express.


User Account Control: (Control de cuenta de usuario) es una caracteríóstica del sistema que limita

las

operaciones

de

determinados tipos de usuarios en el equipo. A diferencia de las anteriores versiones de Windows, los nuevos usuarios de Windows Vista (con cuenta estaó ndar) no tienen derechos de administrador por defecto, como la instalacioó n y la modificacioó n a registros del sistema.

WINDOWS 7 Windows 7 es la versión más reciente de Microsoft Windows, línea de sistemas operativos producida por Microsoft Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, Tablet PC, netbooks y equiposmedia center.


El desarrollo de este sistema operativo comenzó inmediatamente después del lanzamiento de Windows Vista. El 20 de julio de 2007 se reveló que ese sistema operativo era llamado internamente por Microsoft como la versión «7». Hasta ese momento la compañía había declarado que Windows 7 tendría soporte para plataformas de 32 bits y 64 bits, aunque la versión para servidores que comparte su mismo núcleo (Windows Server 2008 R2, que sucedería a Windows Server 2008) sería exclusivamente de 64 bits.

El 13 de octubre de 2008 fue anunciado que «Windows 7», además de haber sido uno de tantos nombres en código, sería el nombre oficial de este nuevo sistema operativo. Mike Nash(vicepresidente de estrategia en plataformas Windows de Microsoft) dijo que esto se debía a que con Windows 7 se «apunta a la simplicidad, y el nombre debía reflejarlo».

Ya para el 7 de enero de 2009, la versión beta se publicó para suscriptores de Technet y MSDN. El 9 de enero se habilitó brevemente al público general mediante descarga directa en la página oficial. El 5 de mayo se liberó la versión Release Candidate en 5 idiomas, entre ellos el español. Estuvo disponible para descargar hasta el 20 de agosto de 2009. El 2 de junio Microsoft anunció que la salida mundial de Windows 7 tendría lugar el 22 de octubre. El 24

de

julio,

los

directivos

de

Microsoft Steve

Ballmer y Steven

Sinofsky anunciaron la finalización del proceso de desarrollo con la compilación de la versión RTM, destinada a la distribución de Windows.


NUEVAS CARACTERÍSTICAS: 

Reconocimiento de escritura a mano mejorado.

Soporte para discos duros virtuales.

Rendimiento mejorado en procesadores multinúcleo.

Mejor rendimiento de arranque del sistema.

Soporte para sistemas que utilizan múltiples tarjetas gráficas (multiGPU).

Ampliación de funciones y rediseño de la Calculadora (Estadística y Programación).

Modo XP: permite ejecutar un equipo virtual Windows XP de forma transparente para el usuario.

Requisitos de hardware mínimos recomendados para Windows 7: Arquitectura 32 bits: 

Procesador 1 GHz

Memoria RAM 1 GB de RAM

Dispositivo de gráficos DirectX 9 con soporte de controladores WDDM 1.0 (para Windows)

Disco duro 16 GB de espacio libre

Unidad óptica DVD-R

Arquitectura 64 bits: 

Procesador 1 GHz

Memoria RAM 2 GB de RAM

Dispositivo de gráficos DirectX 9 con soporte de controladores WDDM 1.0 (para Windows Aero)


Disco duro 20 GB de espacio libre

Unidad óptica DVD-R

EL FUTURO DE WINDOWS… Muchos equipos portátiles ya no vienen con ranura para DVD, y algunos tienen unidades de estado sólido en lugar de discos duros convencionales. Casi todo se trasmite, se guarda en unidades flash o se almacena en la “nube” (un espacio en línea para compartir archivos y almacenamiento). Windows Live (un conjunto de programas y servicios gratuitos para trabajar con fotos, películas, mensajería instantánea, correo electrónico y redes sociales) está perfectamente integrado con Windows para que el usuario pueda mantenerse en contacto desde su equipo, teléfono o Internet a fin de extender Windows a la nube. Mientras tanto, se está trabajando en la siguiente versión de Windows: Windows 8



Historia De Las Memorias RAM.

En los años 30 se utilizan las tarjetas perforadas. En 1946; el computador ENIAC, tiene como punto de memoria la utilización de válvulas electrónicas de vacío para la construcción de vi-estables. En los inicios de los años 50 apareció el tubo de rayos catódicos con memoria de capacidad de 1200 bits se conocía como el tubo de Williams. En 1953 aparece la memoria operativa de ferrita se utilizo hasta los años 70. En 1968 IBM diseña la primera memoria comercial de semiconductores con capacidad de 64 bits.

Los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferro magnético de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria muy pequeña.


Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio. En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1 Kilobyte, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos. En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplicación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4 Kb en un empaque de 16 pines, mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización, entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.


En la actualidad, los módulos de memoria RAM han incorporado una gran cantidad de tecnologías que les permite otorgar una mayor velocidad en los procesos, con una estabilidad superior, en comparación a las viejas memorias que se utilizaban hace varios años atrás. A diferencia de las antiguas memorias, que funcionaban de manera asincrónica con el reloj del bus, y sólo lograban una velocidad de 66 Mhz, hoy las memorias RAM son construidas con la tecnología adecuada que les permite utilizar una señal de sincronización, con el fin de aumentar la velocidad de sus funciones de lectura y escritura, alcanzado velocidades de hasta 2666MHZ.

Dentro de las memorias RAM que pueden encontrarse en el mercado actual, existen diversos tipos que se diferencian por su formato físico y las capacidades de velocidad que logran desarrollar. Cuál es la que se debe utilizar para nuestra PC, dependerá del tipo de motherboard que posea el equipo, ya que es necesaria la compatibilidad total de los elementos para que éstos funcionen correctamente. Como mencionamos en un artículo anterior, las memorias que se utilizan actualmente en las computadoras de escritorio son en general módulos DIMM, que permite un acceso aleatorio sincronizado con el reloj de bus, para mejorar la performance en la velocidad de los procesos. Por otra parte, la memoria RAM puede ser del tipo DDR, DDR2, DDR3 o RDRAM, las cuales se diferencias por la velocidad que éstas pueden alcanzar, y su rendimiento en diversas condiciones. Memoria DDR SDRAM .


Fue una de las memorias más utilizadas anteriormente, sin lugar a dudas, la cual se caracteriza por estar sincronizada y funcionar enviando los datos por duplicado en cada ciclo de reloj.

Esto permite que la memoria obtenga el doble de velocidad de procesamiento que el propio bus del sistema, ofreciendo un rendimiento adecuado del equipo. Cabe destacar que físicamente el módulo DIMM de las memorias DDR SDRAM poseen 184 contactos de conexión con la motherboard. Memorias DDR Las memorias del tipo DDR2 son en realidad un avance en la tecnología de las memorias DDR, que gracias a una serie de cambios estructurales han permitido aumentar la performance del componente. Se trata de un módulo DIMM que dispone de 240 contactos, que se caracteriza por alcanzar una velocidad duplicada de las frecuencias, en comparación con las del tipo DDR, posibilitando de esta manera la realización de cuatro transferencias por cada ciclo de reloj, al contrario de las DDR que sólo permiten hasta dos transferencias.

Muy utilizadas en todo tipo de implementaciones, las memorias DDR2 fueron reemplazadas en el mercado por su sucesora: la DDR3. Esta nueva tecnología se caracteriza por ofrecer mejoras notables en el comportamiento y rendimiento de la memoria RAM de los equipos.

Memorias DDR3.En estas se ha incorporado un sistema que les permite ofrecer un considerable rendimiento con un escaso nivel de voltaje, ofreciendo así la posibilidad de reducir drásticamente el consumo de energía.


Si bien las memorias DDR3 son módulos del tipo DIMM con 240 pines, al igual que las DDR2, lo cierto es que ambas son incompatibles, por lo que las motherboard más modernas y sofisticadas incorporan zócalos especiales para memorias DDR3. Por último, existe otro tipo de memoria que se caracteriza por ser uno de los modelos más costosos debido al fantástico Si bien las memorias DDR3 son módulos del tipo DIMM con 240 pines, al igual que las DDR2, lo cierto es que ambas son incompatibles, por lo que las motherboard más modernas y sofisticadas incorporan zócalos especiales para memorias DDR3. Por último, existe otro tipo de memoria que se caracteriza por ser uno de los modelos más costosos debido al fantástico rendimiento que proporcionan.

MEMORIAS RAMBUS DRAM. Conocidas también como RDRAM, las cuales funcionan bajo un protocolo propietario desarrollado por la compañía Rambus. Debido a sus elevados costos, el mercado de usuarios comunes no suelen utilizar este tipo de memoria, por lo que ha ganado mayor popularidad la del tipo DDR. En la actualidad las memorias RDRAM son por lo general utilizadas en grandes servidores y viene incorporada a la famosa consola de videojuegos PlayStation 3. Se trata de un módulo del tipo RIMM, que dispone de 184 contactos, y funciona de manera totalmente diferente a las memorias convencionales DDR, ya que trabaja elevando las frecuencias de los chips, para de esta manera evitar los cuellos de botella que pueden reducir la velocidad de transferencia de datos, alcanzando así un mayor ra


Historia De Los Teclados.

El teclado parece poco importante al pensar en un computador, pero ser el periférico que casi no ha sufrido cambios desde la invención de estos da nota de su importancia. Pero, ¿cuando se originó? Al estar inspirados en las máquinas de escribir podemos señalar al año 1714 como el origen del teclado porque este fue el año en el se lanzó a primera máquina de escribir de la marca Remington. Fue toda una revolución para la época, y durante los posteriores siglos la tecnología fue adoptada por el aumento de la productividad que permitía lograr que los trabajadores puedan escribir muchas más palabras por minuto que con el método manual, y hacerlo de una manera más cómodo y con un resultado más legible y estándar.

Disposición de las teclas En el siglo XIX se originó el otro componente fundamental de los teclados actuales, físicos y digitales: el orden de las teclas, denominados QWERTY por las primeras cinco de la fila superior. Su diseño fue patentado por el inventor y político Christopher Sholes en 1868 y posteriormente vendido a Remington en 1873. Contrariamente a lo que te puedas imaginar, el teclado QWERTY nació para lograr que se escriba más despacio. Sí, más lento. El problema es que con las máquinas de escribir si se escribía demasiado rápido se atascaban. La influencia de este orden de las teclas fue tanto que la disposición continúo en la era de los teclados modernos y la de los digitales.


QWERTY cuenta con dos variantes: en Alemania se utiliza QWERTZ, muy similar pero cambiando la Y por la Z. Mientras tanto, en Francia se utiliza AZERTY donde se mantienen ciertas características pero el orden cambia bastante. El teclado en español también está modificado, con la inclusión de la letra Ñ. Actualmente estas modificaciones pequeñas siguen presentes dependiendo de los caracteres especiales requeridos por cada lenguaje. QWERTY no es el método más eficaz. De hecho, el teclado Dvorak quería reemplazarlo con una disposición distinta que según demuestran los datos requería recorrer menos distancias en promedio para redactar textos. Pero el público ya estaba tan acostumbrado a QWERTY que lograr que prueben el modelo de Dvorak era algo demasiado complicado.

La Era De La Computación.

IBM fue la primer marca en desarrollar teclados para computadores. Esto era en la época en que los equipos estaban limitados por su excesivo precio y escasa funcionalidad. Cuando la informática comenzó a hacerse masiva aparecieron nuevos modelos, muy similares a los disponibles hoy en el mercado. Con Windows 95 de Microsoft disponible en el mercado fueron muchas las compañías que se sumaron como fabricantes al jugoso negocio de los periféricos. De ese teclado a hoy, hay pocas modificaciones. Las principales son la posibilidad de conectarlos a través del puerto USB y más tarde los teclados inalámbricos que utilizan Bluetooth o Wi-Fi para desprenderse por completo de los molestos cables.


El Teclado Digital De Hoy y El Futuro. Hoy en día conviven dos grandes tipos de teclado: el físico y el digital. La denominada era post-PC nos trajo a la audiencia masiva las pantallas táctiles que por la fuerza de la costumbre se vieron obligadas a adoptar la disposición de teclas QWERTY en sus teclados. Para el futuro la pregunta es, ¿hasta cuándo vamos a necesitar el teclado? Cada vez surgen más tecnologías, con mayor precisión que las anteriores, para identificar comandos de voz. Nuestra generación está acostumbrada a escribir todo y dictarle todo por voz a un computador parece ridículo, pero la cuestión es si los usuarios del futuro se sentirán más cómodo con este método que no requiere intervención manual sobre el dispositivo.

HISTORIA DEL MOUSE. 1952: Nace el primer TrackBall, creado por la Marina Canadiense Aproximadamente diez años antes de la creación del primer mouse, el Comando Marítimo de las Fuerzas Canadienses contactó a varias empresas que pudieran estar interesadas en participar de varios proyectos que involucraban a las fuerzas armadas, universidades y compañías privadas. Uno de esos proyectos pretendía crear una máquina que fuera capaz de compartir datos de radares y sonoros en tiempo real, para que todos los combatientes pudieran tener una visión unificada del campo de batalla. Este proyecto fue conocido como DATAR.


Pero la parte más interesante es que el DATAR incluía un dispositivo curioso para la época. Los operadores enviaban los datos de los radares a través de un TrackBall, una especie de "mouse" en el que, para poder mover el cursor, bastaba con girar una bola ubicada en el dispositivo. Claro que este primer TrackBall no tenía la elegancia y el peso de los modelos actuales. Para tener una idea, la Marina Canadiense usaba una bola del tamaño de una de boliche para la construcción de ese dispositivo, y como se trataba de un proyecto militar y por lo tanto secreto, éste TrackBall nunca fue registrado.

1963: El primer prototipo de mouse, creado por Douglas Engelbart De forma independiente, el investigador Douglas Engelbart, del Instituto de Investigación Stanford, trabajó en un proyecto muy avanzado para la época en la que vivía. A principio de la década de los 60, la mayoría de las computadoras todavía eran operadas con tarjetas perforadas y otros métodos que no permitían la interacción del usuario con la máquina. Engelbart trabajaba en una máquina que tenía como objetivo aumentar el intelecto humano. Muchas de las tecnologías que se utilizan en la actualidad surgieron de ese proyecto, como la interfaz gráfica, los videos y el chat. Entre los dispositivos de entrada presentados por Engelbart en 1968, durante la primera demostración pública de su proyecto, había una pequeña caja de madera con un botón rojo en la parte superior y un cable que salía de uno de los lados, simulando de alguna forma, la cola de un ratón. Fue el primer mouse de la historia


Fuente de poder Cuando se habla de fuente de poder, (o, en ocasiones, de fuente de alimentación y fuente de energía), se hace referencia al sistema que otorga la electricidad imprescindible para alimentar a equipos como ordenadores o computadoras. Generalmente, en las PC de escritorio, la ya citada fuente de poder se localiza en la parte posterior del gabinete y es complementada por un ventilador que impide que el dispositivo se recaliente.

Historia (evolución).

Podemos definir fuente de alimentación como aparato electrónico modificador de la electricidad que convierte la tensión alterna en una tensión continua. Remontándonos un poco en la historia describiremos que en la industria no se contaba con equipos eléctricos, luego se empezaron a introducir dispositivos eléctricos no muy sofisticados por lo que no eran muy sensibles a sobretensiones, luego llegaron los equipo más modernos que necesitaban de bajos voltajes y por lo tanto eran muy sensibles a sobretensiones, cambios bruscos o ruido en las tensiones de alimentación por lo que se ha iniciando la construcción de fuentes de alimentación que proporcionaran el voltaje suficiente de estos dispositivos y que garanticen la estabilidad de la tensión que ingresa al equipo. Hoy en día los equipos electrónicos, en su mayoría, funcionan con corriente continua, así, el dispositivo que convierte la corriente alterna a corriente continua, en los niveles requeridos por el circuito electrónico a alimentar, se llama fuente de alimentación. En resumen la función de una fuente de alimentación es convertir la tensión alterna en una tensión en una tensión continua.


Tipos.

Las dos fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser: AT o ATX Las fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX, es en ese momento cuando ya se empezarían a utilizar fuentes de alimentación ATX. Las características de las fuentes AT, son que sus conectores a placa base varían de los utilizados en las fuentes ATX, y por otra parte, quizás bastante más peligroso, es que la fuente se activa a través de un interruptor, y en ese interruptor hay un voltaje de 220v, con el riesgo que supondría manipular el PC. También destacar que comparadas tecnológicamente con las fuentes ATX, las AT son un tanto rudimentarias electrónicamente hablando. En ATX, es un poco distinto, ya que se moderniza el circuito de la fuente, y siempre está activa, aunque el ordenador no esté funcionando, la fuente siempre está alimentada con una tensión pequeña para mantenerla en espera. Una de las ventajas es que las fuentes ATX no disponen de un interruptor que enciende/apaga la fuente, si no que se trata de un pulsador conectado a la placa base, y esta se encarga de encender la fuente, esto conlleva pues el poder realizar conexiones/desconexiones por software. Existe una tabla, para clasificar las fuentes según su potencia y caja. Sobremesa AT => 150-200 W


Semitorre => 200-300 W Torre => 230-250 W Slim => 75-100 W Sobremesa ATX => 200-250 W No obstante, comentar, que estos datos son muy variables, y únicamente son orientativos, ya que varía según el numero de dispositivos conectados al PC.

 Funcionamiento.

 Etapa de transformación. Esta etapa consta básicamente de un transformador que esta formado por un bobinado primario y uno o varios bobinados secundario, que tiene como función principal , convertir la energía eléctrica alterna de la red , en energía alterna de otro nivel de voltaje, por medio de la acción de un campo magnético. Ademas provee una aislación galvánica entre la entrada y la salida.

 Etapa de rectificación. Esta etapa queda constituida por diodos rectificadores cuya función es de rectificar la señal proveniente del bobinado secundario del transformador. Existen 2 tipos de configuraciones que son rectificación de media onda y de onda completa.

 Etapa de filtrado. Esta etapa queda constituida por uno o varios capacitores que se utilizan para eliminar el componente de tensión alterna que proviene de la etapa de rectificación. Los capacitores se cargan al valor máximo de voltaje entregado por el rectificador y se descargan lentamente cuando la señal pulsante desaparece. Permitiendo lograr una nivel de tensión lo mas continua posible.


 Etapa de regulación. Esta etapa consiste del uso de uno o varios circuitos integrados que tienen la función de mantener constante las características del sistema y tienen la capacidad de mantener el estado de la salida independientemente de la entrada. Esta etapa se puede dividir en : Reguladores lineales y regulador de conmutación (switching) .

 Reguladores lineales. Son dispositivos electrónicos que permiten controlan la tensión de salida ajustando continuamente la caída de tensión en un transistor de potencia conectado en serie entre la entrada y la salida. Es decir que operan con una corriente continua, donde el nivel de tensión a la entrada siempre debe ser superior a el de salida.

 Fuentes conmutadas Configuracion Buck-Boost / inverter Esta configuración toma la tensión de entrada y produce una tensión de salida opuesta en polaridad la cual puede ser de una magnitud mayor o menor que la entrada.

 Conectores.

o El conector ATX de 20/24 pines.


Es el que alimenta a la placa madre, antiguamente de 20 pines, la norma actual prevĂŠ 24 pines. Casi siempre estĂĄ compuesto de un bloque de 20 pines, al que podemos agregar un bloque de 4 pines. Esto a fin de respetar la compatibilidad con las antiguas placas con conectores de 20 pines.

o Foto de un conector de 20 + 4 pines separados.


o El conector "ATX P4". Este conector, llamado "ATX P4" (o también ATX 12V), fue introducido por Intel para las Pentium 4, se conecta a la placa madre y es reservado exclusivamente a la alimentación del procesador, sin él es imposible iniciar el PC. En la actualidad la mayoría de placas madres poseen 8 pines, debido al aumento de la potencia del CPU. En las últimas normas de fuentes de alimentación, esto se traduce en el uso de un conector de 8 pines (llamado a veces EPS 12V), compuesto de 2 bloques de 4 pines, para garantizar la compatibilidad con las placas antiguas y el clásico "ATX P4".

o El mismo conector separado en dos:


o El conector tipo “MOLEX”.

El mas clásico, aun presente en todos los PC, a veces utilizado directamente en la placa madre (MSI), sirve para conectar el disco duro y unidades de todo tipo (lectora, grabadora). Algunas tarjetas graficas también pueden necesitar este conector. Podemos encontrar sin dificultad adaptadores molex/sata si es necesario. En segundo plano, podemos ver un sobreviviente: el conector necesario para un viejo lector de disquetes…


o El conector “SATA”

Aparecido con la norma del mismo nombre, está presente en todos los PC modernos, una fuente de alimentación de calidad debe poseer 4 como mínimo. Básicamente sirve para la alimentación de disco duros y grabadoras bajo la norma SATA.

o El conector "PCI express" para tarjeta grafica.


La potencia de las tarjetas graficas no para de aumentar, muchas de ellas necesitan en la actualidad una fuente de alimentación directa del bloque principal (a veces incluso dos). Es la función de este conector. Inicialmente de 6 pines, cada vez más los podemos encontrar de 8. Si piensas comprar una tarjeta grafica potente, toma en cuenta este punto: la alimentación deberá disponer al menos de dos conectores PCI Express, al menos uno de ellos de 6/8 pines como el de la foto:

Si tu fuente de alimentación no dispone de conectores de 8 pines, existen adaptadores de 6 a 8 pines:

De igual modo existen adaptadores de molex a PCI Express si no dispones de uno en tu fuente de alimentación: *a. Caracteristicas de fuente de poder Tipos de Fuentes de alimentación y sus Caracterizaciones Después de comentar anteriormente en fuentes de poder o fuente de alimentación, procederemos a diferenciar los dos tipos que existen actualmente. Las dos fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser: AT o ATX.


Las fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX (“la cual es la llegada de la SIMD, que es una introducción múltiple de datos introducido en sus microprocesadores”) .

Es en ese momento cuando se desarrolla SIMD que se empezarían a utilizar fuentes de alimentación ATX es un estándar de la tecnología avanzada de extendido mejorando la funcionalidad de entrada y salida .


Características de AT y ATX Las características de las fuentes AT, son que sus conectores a placa base varían de los utilizados en las fuentes ATX, y por otra parte, quizás bastante más peligroso, es que la fuente se activa a través de un interruptor, y en ese interruptor hay un voltaje de 220v, con el riesgo que supondría manipular el computador.

También destacar que comparadas tecnológicamente con las fuentes ATX, las AT son un tanto rudimentarias electrónicamente hablando. En ATX, es un poco distinto, ya que se moderniza el circuito de la fuente, y siempre está activa, aunque el ordenador no esté funcionando, la fuente siempre está alimentada con una tensión pequeña para mantenerla en espera. Una de las ventajas es que las fuentes ATX no disponen de un interruptor que enciende/apaga la fuente, si no que se trata de un pulsador conectado a la placa base, y esta se encarga de encender la fuente, esto conlleva pues el poder realizar conexiones/desconexiones por software. En cambio, en las fuentes ATX solo existe un conector para la placa base, todo de una pieza, y solo hay una manera de encajar lo, así que por eso no hay problema Existen dos tipos de conectores para alimentar dispositivos: El más grande, sirve para conectar dispositivos como discos duros, lectores de CD-ROM, grabadoras, etc y el otro, es visiblemente más pequeño, sirve para alimentar por ejemplo disqueteras o algunos dispositivos ZIP .

Instalación de una fuente ATX 

Para instalar una fuente de alimentación ATX, necesitaremos un destornillador de punta de estrella.

Empezaremos por ubicar la fuente en su sitio, asegurando que los agujeros de los tornillos, coinciden exactamente con los de la caja.

Una vez hecho esto, procederemos a atornillar la fuente.

Acto seguido, conectaremos la alimentación a la placa base con el conector anteriormente comentado, y realizaremos la misma tarea con el resto de los dispositivos instalados.

Un punto a comentar, es que solo hay una manera posible para realizar el conexionado de alimentación a los dispositivos, sobretodo, NUNCA debemos forzar un dispositivo.




Tras realizar todas las conexiones, las revisaremos, y procederemos a encender el equipo


tarjeta madre La tarjeta madre, placa base o motherboard es una de circuito impreso que permite la integración de todos los componentes de una computadora. Para esto, cuenta con un software básico conocido como BIOS, que le permite cumplir con sus funciones. Pero ¿qué funciones son básicamente las que realiza toda tarjeta madre o placa base? Son varias y todas importantes y fundamentales para conseguir el funcionamiento correcto y óptimo de cualquier ordenador. En concreto, entre dichas tareas se encontrarían la comunicación de datos, el control y el monitoreo, la administración o la gestión de la energía eléctrica así como la distribución de la misma por todo el computador, la conexión física de los diversos componentes del citado y, por supuesto, la temporización y el sincronismo. La tarjeta madre alberga los conectores necesarios para el procesador, la memoria RAM, los puertos y el resto de las placas (como la tarjeta de video o la tarjeta de red)

Actualmente entre los conectores más importantes y fundamentales que presenta toda placa base se encuentran los de sonido, el puerto USB, el puerto paralelo, el puerto firmware y el de serie, el de Red y los de tipo PS/2. Los de sonido son los que se emplean para conectar desde micrófonos hasta altavoces mientras que el citado USB es el que se utiliza para conectar todo tipo de dispositivos periféricos tales como ratones, impresoras o un escáner. Existen varios conceptos vinculados a las tarjetas madre que deben ser comprendidos para conocer el funcionamiento de esta placa base. Por ejemplo, se conoce como chipset al conjunto de los principales circuitos integrados que se instalan en la tarjeta madre El socket o zócalo es un sistema electromecánico de soporte y conexión eléctrica que permite la fijación y conexión del microprocesador al motherboard. Por otra parte, un slot es una ranura que se encuentra en la tarjeta madre y que posibilita conectar a ésta distintas tarjetas adicionales o de expansión, que, en general, sirven para controlar dispositivos periféricos como las impresoras. Las computadoras actuales suelen presentar entre ocho y doce slots. Los puertos IDE o ATA son aquellos que controlan los dispositivos de almacenamiento de datos, como los discos duros. Otros puertos importantes en


una tarjeta madre son PS/2 (para conectar el mouse y el teclado), USB, COM1 y LPT1. Cabe destacar, por último, que existen distintos tipos de placas madre, como XT, AT, Babi-AT, ATX, Mini-ATX, micro ATX, LPX, NLX, Nano-ITX, BTX, WTX y ETX, entre otros. La citada tarjeta madre ATX se caracteriza, por ejemplo, por el hecho de que es la más fácil tanto a la hora de colocarse como a la hora de funcionar en materia de ventilación. Mientras, la Babi-AT fue la que años atrás se convirtió en la más utilizada por su formado reducido y por su adaptación a cualquier tipo de caja, pero la circunstancia que hizo que dejara de ser la primordial fue que sus componentes están muy cerca y eso en ocasiones traía muchos problemas de funcionamiento

La unión de la CPU, tarjeta gráfica, conectores del procesador, tarjeta de sonido, controladores, disco duro, memoria (RAM), y otros dispositivos en un sistema de computo, así como de las puertas en serie y las puertas en paralelo. Es posible encontrar también los conectores que permiten la expansión de la memoria y los controles que administran el buen funcionamiento de los denominados accesorios periféricos básicos, tales como la pantalla, el teclado, el mouse, disco duro, etc. Contiene un chipset el cual controla el funcionamiento del CPU, las ranuras de expansión y controladores. De este modo, cuando en un computador comienza un proceso de datos, existen múltiples partes que operan realizando diferentes tareas, cada uno llevando a cabo una parte del proceso. Sin embargo, lo más importante será la conexión que se logra entre el procesador central (CPU) y otros procesadores a la tarjeta madre


TIPOS DE TARJETAS Las tarjetas madres o principales existen en varias formas y con diversos conectores para dispositivos, periféricos, etc. Los tipos más comunes de tarjetas son:

ATX Son las más comunes y difundidas en el mercado, se puede decir que se están convirtiendo en un estándar son las de más fácil ventilación y menos enredo de cables, debido a la colocación de los conectores ya que el microprocesador suele colocarse cerca del ventilador de la fuente de alimentación y los conectores para discos cerca de los extremos de la placa. Además, reciben la electricidad mediante un conector formado por una sola pieza.

AT ó Babi-AT Fue el estándar durante años con un formato reducido, por adaptarse con mayor facilidad a cualquier caja, pero sus componentes estaban muy juntos, lo que hacia que algunas veces las tarjetas de expansión largas tuvieran problemas.


DISEÑOS PROPIETARIOS Pese a la existencia de estos típicos y estándares modelos, los grandes fabricantes de ordenadores como IBM, COMPAQ, Dell, Hewlett-Packard, Sun Microsystems, etc. Sacan al mercado tarjetas de tamaños y formas diferentes, ya sea por originalidad o simplemente porque los diseños existentes no se adaptan a sus necesidades. De cualquier modo, hasta los grandes de la informática usan cada vez menos estas particulares placas, sobre todo desde la llegada de las placas ATX.

4. ELEMENTOS QUE CONFORMAN UNA TARJETA MADRE Muchos de los elementos fundacionales de la tarjeta madre siguen formando parte de ella (con sus respectivas mejoras), otros han pasado al exterior, y muchos otros se han incorporado. En la actualidad, una tarjeta madre estándar cuenta básicamente con los siguientes elementos:


1.- conectores: 1) Conectores PS/2 para mouse y teclado: incorporan un icono para distinguir su uso. 2) Puerto paralelo: utilizado por la impresora. Actualmente reemplazado por USB. 3) Conectores de sonido: las tarjetas madre modernas incluyen una placa de sonido con todas sus conexiones. 4) Puerto serie: utilizado para mouse y conexiones de baja velocidad entre PCS. 5) Puerto USB: puerto de alta velocidad empleado por muchos dispositivos externos, como los escáneres o las cámaras digitales. 6) Puerto Firmware: puerto de alta velocidad empleado por muchos dispositivos externos. No todas las tarjetas madre cuentan con una conexión de este tipo. 7) Red: generalmente las tarjetas madre de última generación incorporan una placa de red y la conexión correspondiente.

2.- Socket: La tarjeta principal viene con un zócalo de CPU que permite colocar el microprocesador. Es un conector cuadrado, la cual tiene orificios muy pequeños en donde encajan los pines cuando se coloca el microprocesador a presión.

En el se inserta el procesador o microprocesador: Chip o el conjunto de chips que ejecuta instrucciones en datos, mandados por el software. Elemento central del proceso de datos. Se encuentra equipado con buses de direcciones de datos y control que le permiten llevar cabo sus tareas.


3.- Bancos de memoria Son los conectores donde se inserta la memoria principal de una PC, llamada RAM. Estos conectores han ido variando en tamaño, capacidad y forma de conectarse.

4.- Floppy o FDD: conector para disquetera, ya casi no se utilizan. 5.- Conectores IDE: aquí se conecta el cable plano que establece la conexión con los discos duros y unidades lectoras de CD/CD-RW. 6.- Conectores Eléctricos: Es donde se le da vida a la computadora, ya que es allí donde se le proporciona la energía desde la fuente de poder a la tarjeta madre o principal. 7.- Chip BIOS / CMOS Chip que incorpora un programa encargado de dar soporte al manejo de algunos dispositivos de entrada y salida. Además conserva ciertos parámetros como el tipo de algunos discos duros, la fecha y hora del sistema, etc. los cuales guarda en una memoria del tipo CMOS, de muy bajo consumo y que es mantenida con una pila. 8.- El Bus


Envía la información entre las partes del equipo. 9.- Conectores de gabinete RESET y encendido: estas funciones están provistas por estos pequeños enchufes. El manual de la tarjeta madre indica como conectarlos correctamente. 10.- Chipset: Conjunto de chips que se encargan de controlar determinadas funciones del ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el control de los puertos y slots.

11.- Batería Componente encargado de suministrar energía a la memoria que guarda los datos de la configuración del Setup. 12.- Ranuras de expansión:

Ranuras donde se insertan las tarjetas de otros dispositivos como por ejemplo tarjetas de vídeo, sonido, módem, etc. Dependiendo la tecnología en que se basen presentan un aspecto externo diferente, con diferente tamaño e incluso en distinto color. Conectores más comunes:

Conectores externos: para dispositivos periféricos externos como el teclado, ratón, impresora, módem externo, cámaras Web, cámaras digitales, scanner, entre otras. Conectores Internos: para dispositivos internos, como pueden ser la unidad de disco flexible o comúnmente llamada disquete, el disco duro, las unidades de CD, etc. 13.-Ranuras AGP: o más bien ranura, ya que se dedica exclusivamente a conectar tarjetas de vídeo 3D, por lo que sólo suele haber una; además, su propia estructura impide que se utilice para todos los propósitos, por lo que se utiliza como una ayuda para el PCI.


-Disipador del calor y

ventilador

Controla

temperatura.

la

-Jumper Pequeño conductor de cobre cubierto de plástico utilizado para unir dos pines y completar un circuito.

Disco duro Forma parte de la tarjeta madre y del procesador se utiliza para acceder rápidamente a la información que utiliza el procesador En informática, la unidad de disco duro o unidad de disco rígido (en inglés: Ward Disk Drive, HDD) es el dispositivo de almacenamiento de datos que emplea un sistema de grabación magnética para almacenar archivos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. Es memoria no volátil. El primer disco duro fue inventado por IBM, en 1956. A lo largo de los años, han disminuido los precios de los discos duros, al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para computadoras personales, desde su aparición en los años 1960.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1 Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5 pulgadas los modelos para PC y servidores, y 2,5 pulgadas los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizada. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los SATA. Existe además FC (empleado exclusivamente en servidores).


Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del sistema de archivos o formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad de los mismos usando prefijos del Sistema Internacional, que emplean múltiplos de potencias de 1000 según la normativa IEC e IEEE, en lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y son los usados por sistemas operativos de Microsoft. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en algunos sistemas operativos será representado como 465 GiB (es decir gibibytes; 1 GiB = 1024 MiB) y en otros como 500 GB

Mantenimiento y cuidado Los discos duros también necesitan cuidado, siga las siguientes instrucciones para evitar la pérdida de datos y evitar que el disco duro quede inservible: 1. No quitar la etiqueta ligeramente plateada que se encuentra a los lados y/o algunas veces en la parte frontal, esto puede causar que entre polvo y raye el disco, asimismo el polvo que pueda contener electricidad puede mover los datos y causar daños. 2. No tapar los agujeros pequeños, ya que son un filtro de aire y puede causar sobrecalentamiento. 3. Realizar periódicamente copias de seguridad en discos DVD, Blu-ray o en

un disco duro externo de la información importante, eventos como apagones o ataques de virus pueden dañar el disco duro o la información, si ocurre un apagón desconectar el ordenador. Si se usa un servicio de alojamiento de archivos, no debe ser la única opción ni se debe guardar ahí información delicada o crítica, pues el servicio puede fallar, ser clausurado o atacado. 4. Se recomienda crear al menos dos particiones: Una para el sistema operativo y los programas y otra para los datos del usuario. De esta forma se pueden facilitar la copia de seguridad y la restauración, al posibilitar retroceder o reinstalar completamente el sistema operativo sin perder los datos personales en el proceso. 5. Optimizar (desfragmentar) el disco duro regularmente usando la herramienta incluida en el sistema operativo o un programa de otro fabricante para reducir el desgaste, facilitar la recuperación en caso de un problema, y mantener una buena velocidad de respuesta. Se recomienda


una frecuencia de cuatro a seis meses dependiendo del uso. 6. Descargar y usar un

programa que lea los datos de los sensores del disco duro (S.M.A.R.T.), para vigilar la condición del disco duro. Si indica que está en peligro, copiar la información importante y reemplazar el disco duro lo más pronto posible para evitar la pérdida de información. 7. Evitar que el disco sufra golpes físicos, especialmente durante su funcionamiento. Los circuitos, cabezales y discos pueden dañarse. 8. Si el disco duro presenta problemas de confiabilidad, un funcionamiento anormalmente lento o aparecen sin razón aparente archivos dañados o ilegibles, analizarlo con un comprobador de disco. También se recomienda realizar una comprobación de rutina cada cierta cantidad de meses para detectar errores menores y corregirlos antes de que se agraven.

Unidad de disco duro de 2½" que está abierto, exponiendo su funcionamiento interno. Disco duro Western Digital Escorpio Blue de 500 GB con conexiones SATA; es común en computadoras portátiles

Historia


Antiguo disco duro de IBM (modelo 62PC, «Picola»), de 64,5 MB, fabricado en 1979. Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire). El primer disco duro, aparecido en 1956, fue el Rama I, presentado con la computadora IBM 350: pesaba una tonelada y su capacidad era de 5 MB. Más grande que un frigorífico actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo. Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición. La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos durante años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta. El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magneto resistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60 % anual en la década de 1990. En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado 40 GB (40 000 MB). A la fecha (2016), ya se dispone de en el uso cotidiano con discos duros de más de 5 TB, esto es, 5000 GB (5 000 000 MB). En 2001 fue lanzado el iPod, que empleaba un disco duro que ofrecía una capacidad alta para la época. Junto a la simplicidad, calidad y elegancia del dispositivo, este fue un factor clave para su éxito. En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya que las


memorias flash los acabaron desplazando, debido al aumento de capacidad, mayor resistencia y menor consumo de energía

Historia Antiguo disco duro de IBM (modelo 62PC, «Picola»), de 64,5 MB, fabricado en 1979. Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire). El primer disco duro, aparecido en 1956, fue el Rama I, presentado con la computadora IBM 350: pesaba una tonelada y su capacidad era de 5 MB. Más grande que un frigorífico actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo. Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición. La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos durante años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta. El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magneto resistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar


más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60 % anual en la década de 1990. En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado 40 GB (40 000 MB). A la fecha (2016), ya se dispone de en el uso cotidiano con discos duros de más de 5 TB, esto es, 5000 GB (5 000 000 MB). En 2001 fue lanzado el iPod, que empleaba un disco duro que ofrecía una capacidad alta para la época. Junto a la simplicidad, calidad y elegancia del dispositivo, este fue un factor clave para su éxito. En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, debido al aumento de capacidad, mayor resistencia y menor consumo de energía

Estructura física Componentes de una unidad de disco duro. De izquierda a derecha, fila superior: tapa, carcasa, plato, eje; fila inferior: espuma aislante, circuito impreso de control, cabezal de lectura/escritura, actuador e imán, tornillos. Dentro de la unidad de disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 o 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos. Cada plato posee dos “ojos”, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene dos cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay ocho cabezas para leer cuatro platos, aunque por


cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Los cabezales de lectura/escritura no tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre los cabezales y los platos cuando los discos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas)

Impresora Una impresora es un dispositivo periférico del ordenador que permite producir una gama permanente de textos o gráficos de documentos almacenados en un formato electrónico, imprimiéndolos en medios físicos, normalmente en papel, utilizando cartuchos de tinta o tecnología láser (con tóner). Muchas de las impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetas Compact Flash, Secure Digital o Memory Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora. Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y los gastos por página es relativamente alto. Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más


Tipos de impresoras Las impresoras son típicamente clasificadas teniendo en cuenta características como la escala cromática que es capaz de imprimir, es decir en colores o blanco y negro, el tipo de conexión, la cantidad de páginas por minuto que son capaces de procesar y grabar y el tipo específico de tecnología que utiliza para ello. Con respecto al tipo de conexión, existen varios protocolos como USB, Ethernet, inalámbrico por W-Fi, puerto paralelo y USB,siendo este último el más moderno y utilizado de la actualidad. En los siguientes párrafos conoceremos los distintos tipos de impresoras que podemos encontrar en el mercado y sus características principales. Conociendo como funcionan y el tipo de funcionalidades que ofrecen, podremos tener un mejor panorama, y de esta forma, realizar una compra inteligente y que se ajuste a nuestras necesidades reales.

Impresora

de

puntos

Uno de los ejemplos de impresora de matriz de puntos más conocidos es el de la EPSON LX-300, y es una teconología de impresión que se basan en el principio de la decalcación, es decir que la impresión se produce al golpear una aguja o una rueda de caracteres contra una cinta con tinta. El resultado del golpe es la impresión de un punto o un caracter en el papel que está detrás de la cinta. Prácticamente ya nadie las utiliza hoy en día, ya que han sido sobrepasadas en tecnología y capacidad por las impresoras de chorro de tinta.

Usos más habituales: Comercio, pequeña oficina. Impresora

de

chorro

de

tinta


Una de las tecnologías de impresión más utilizadas y extendidas, ya que son baratas de mantener y fáciles de operar. Estas impresoras imprimen utilizando uno o varios cartuchos de tinta diferentes, que suelen ser Cian, Magenta, Amarillo y Negro, pigmentos habitualmente utilizados en la impresión offset, y que nos garantía una excelente calidad en las impresiones. llegando a tener en ocasiones una calidad semejante a las impresiones laser en color.

Usos más habituales: Comercio, pequeña oficina, hogar, industria, diseño gráfico. Impresora

láser

Uno de los rasgos más importante cuando hablamos de impresoras láser, es sin duda alguna la calidad que se obtiene en las impresiones, calidad que en los últimos años ha sido ampliamente utilizada para la preprensa en imprentas de pequeño porte. Actualmente podemos encontrar en el mercado impresoras laser realmente económicas, y con características que sorprenden.

Usos más habituales: Comercio, pequeña oficina, imprenta, diseño gráfico y lugares en donde se requiera grandes volumenes de impresión a alta velocidad. Plotters


Este tipo de tecnología es ampliamente utilizada en la actualidad para realizar toda clase de proyectos publicitarios tales como gigantografías, además de cartelería comercial y publicitaria en tamaños extra grandes. Esta es una herramienta que le permite al usuario realizar proyectos de impresión de grandes dimensiones, ya que algunos modelos son capaces de imprimir hasta 160 cm de ancho. Otra de los usos frecuentes de los plotters, también llamados trazadores, es en el ámbito de la arquitectura para el dibujo de planos. En la actualidad, los plotters trabajan con la tecnología de de inyección de tinta, lo que les otorga una excelente flexibilidad y calidad.

Matricial La tecnología más común de impresión es la de la matriz de puntos, que funciona por medio de un cabezal de impresión que contiene un grupo de agujas. Los caracteres son impresos en el papel mediante la combinación de esas agujas. La ventaja de la matriz de puntos está en la rapidez y en el precio. Sin embargo, como las letras y números son hechos mediante una serie de puntos, la calidad de la impresión deja que desear y son impresoras que hacen mucho ruido. Algunas impresoras de matriz de puntos resuelven el problema de la mala calidad de impresión imprimiendo los puntos dos o tres veces. En ese caso, llenan los espacios en blanco dejados entre puntos en la primera impresión. Chorro

a

Tinta

Las impresoras de chorro a tinta tienen un precio mucho más bajo que las matriciales. Inyectan gotas de tinta que forman el carácter a ser impreso. Las gotas pasan por un electrodo y reciben carga eléctrica. Ese tipo de impresora trabaja con enorme rapidez, teniendo la capacidad de imprimir muchos caracteres por segundo. Su calidad de impresión es muy buena. Son ideales para impresiones a color. Láser Sistema semejante al utilizado en las fotocopiadoras, por sensibilización del papel y uso de toner para la impresión. Posee alta velocidad y alta resolución, tanto para textos como para gráficos. Existen impresoras láser color, las cuales usan 4 toners extras además del negro, uno para cada color primario (CMYK)



BibliografĂ­a.

http://www.monografias.com/trabajos19/historia-computadora/historiacomputadora.shtml http://www.batanga.com/curiosidades/4274/historia-de-la-computadora-los-inicios http://neetescuela.com/wp-content/uploads/2013/01/11.jpg http://www.c3po.es/wp-content/uploads/2015/11/hardware.jpg http://edwardslaw.ca/wp-content/uploads/2015/07/Software-Image-230705539.jpg http://tecnologia-facil.com/wp-content/uploads/2015/06/que-es-fan-cooler-2.jpg http://tecnologia-facil.com/wp-content/uploads/2015/06/que-es-fan-cooler-3.jpg http://tecnologia-facil.com/wp-content/uploads/2015/06/que-es-fan-cooler-4.jpg http://tecnologia-facil.com/que-es/que-es-funcion-ventilador-pc/ http://www.guru-store.com/blog/wp-content/uploads/2012/05/sentidoflujo.jpg http://www.monografias.com/trabajos35/dispositivos-almacenamiento/dispositivosalmacenamiento.shtml#ixzz4APuHCbux http://www.monografias.com/trabajos35/dispositivos-almacenamiento/Image2847.gif http://www.monografias.com/trabajos35/dispositivos-almacenamiento/Image2848.gif http://www.monografias.com/trabajos35/dispositivos-almacenamiento/Image2849.gif http://www.monografias.com/trabajos35/dispositivos-almacenamiento/Image2860.gif http://www.monografias.com/trabajos35/dispositivos-almacenamiento/Image2851.gif http://www.monografias.com/trabajos35/dispositivos-almacenamiento/Image2852.gif http://www.monografias.com/trabajos35/dispositivos-almacenamiento/Image2853.gif https://upload.wikimedia.org/wikipedia/commons/2/24/DVDRAM_FUJIFILM_disc_removable_without_cartridge_locking_pin.jpg http://ria-ram/Los-distintos-tipos-de-memorias-RAM.php


http://hipertextual.com/archivo/2014/03/evolucion-teclado/

http://www.informatica-hoy.com.ar/historia-de-la-computadora/Historia-mouse.php

http://www.informatica-hoy.com.ar/memo


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.