MANUAL DE INFORMATICA BASICA . Informática es una ciencia que estudia métodos, procesos, técnicas, con el fin de almacenar, procesar y transmitir información y datos en formato digital. JOSE MANUEL HERNANDEZ DIONISIO 20/07/2013
Orígenes En los inicios del proceso de información, con la informática sólo se facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización de esos procesos trajo como consecuencia directa una disminución de los costos y un incremento en la productividad. En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones / herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos. Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Entre las funciones principales de la informática se cuentan las siguientes: Creación de nuevas especificaciones de trabajo Desarrollo e implementación de sistemas informáticos Sistematización de procesos Optimización de los métodos y sistemas informáticos existentes Facilita la automatización de datos
Sistemas de tratamiento de la información Los sistemas computacionales, generalmente implementados como dispositivos electrónicos, permiten el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas: Entrada: captación de la información. Proceso: tratamiento de la información. Salida: transmisión de resultados. Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de dispositivos que permiten al usuario localizar, dentro de la logística, los elementos que se demandan. Están basados en la electricidad, o sea, no en el control del flujo del electrón, sino en la continuidad o discontinuidad de una corriente eléctrica, si es alterna o continua o si es inducida, contrainducida, en fase o desfase (ver periférico de entrada).
Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de información que no se demandará por un largo periodo de tiempo. Estos sistemas usan los conceptos de biblioteca para localizar la información demandada. Código ASCII, Es un método para la correspondencia de cadenas de bits permitiendo de esta forma la comunicación entre dispositivos digitales así como su proceso y almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código ASCII para representar textos, gráficos, audio e infinidad de información para el control y manipulación de dispositivos digitales. Los virus informáticos son programas que se introducen en un ordenador, sin conocimiento del usuario, para ejecutar en él acciones no deseadas. Estas acciones son: Unirse a un programa. Mostrar mensajes o imágenes, generalmente molestas. Ralentizar o bloquear el ordenador. Destruir la información almacenada. Reducir el espacio en el disco. Los tipos de virus informáticos que existen son: Gusanos: recogiendo información, contraseñas, para enviarla a otro. Bombas lógicas o de tiempo: que se activan cuando sucede algo especial, como puede ser una fecha. Troyanos: hace que los ordenadores vallan más lentos. Falsos virus: información falsa. Estos virus se pueden prevenir: Haciendo copias de seguridad. Copias de programas originales. Rechazo de copias de origen dudoso. Uso de contraseñas.
LA INFORMATICA EN EL SIGLO XXI La revolución informática es un periodo de avances tecnológicos, que abarca desde mediados del siglo XX hasta la actualidad (aunque todavía no se reconoce oficialmente, pero se habla de ella). La revolución informática está ahora en el punto donde estaba la revolución industrial en la década de 1820. Se deduce que la máquina de vapor fue para la primera revolución industrial, lo que el computadora ha sido para la revolución informática, es decir el detonante y símbolo del periodo.
Hoy en día todo el mundo cree que no hay nada en la historia económica que haya progresado de manera más rápida, y que haya tenido un mayor impacto, que la revolución informática. La Ley de Moore afirma que el precio del elemento básico de la revolución informática, el microchip, cae 50% cada 18 meses. Lo mismo que ocurrió con los productos cuya manufactura se mecanizo en la primera revolución industrial. La revolución informática, así como la revolución industrial, ha cambiado todos los aspectos de la vida diaria, hoy no se puede imaginar la vida sin tecnología. Se dice que le revolución informática empezó con la invención de el televisor y el teléfono. Uno de los grandes impactos causados por la revolución tecnológica es que revoluciono la vida diaria y el mercado laboral, haciendo las cosas sumamente más fáciles.
Software Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware. Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario. El anglicismo "software" es el más ampliamente difundido al referirse a este concepto, especialmente en la jerga técnica; el término sinónimo "logical", derivado del término francés "logiciel", sobre todo es utilizado en países y zonas de influencia francesa.
Definición de software Existen varias definiciones similares aceptadas para software, pero probablemente la más formal sea la siguiente: Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados, que forman parte de las operaciones de un sistema de computación. Extraído del estándar 729 del IEEE5
Considerando esta definición, el concepto de software va más allá de los programas de computación en sus distintos estados: código fuente, binario o ejecutable; también su documentación, los datos a procesar e incluso la información de usuario forman parte del software: es decir, abarca todo lo intangible, todo lo «no físico» relacionado. El término «software» fue usado por primera vez en este sentido por John W. Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones (programa) desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por Alan Turing en su ensayo de 1936, «Los números computables», con una aplicación al problema de decisión.
Hardware El término hardware se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. 1 Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora». 2 El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware (y software).3 4 La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas. Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados.