VENEZUELA: 4 $
Tecnología Actual Nº 6.4 $
SUMARIO 3
LA COMUNICACIÓN Y LA TEORÍA GENERAL SISTEMAS.
6
PERSPECTIVA DE LA TGS
DE
7
9
11 13
LA COMUNICACIÓN AUTOMATIZADA
15
INFORMATICA
16
INICIOS DEL PROCESAMIENTO DE INFORMACIÓN
18
LA COMPUTACIÓN Y LA INFORMÁTICA
20
GENERACIONES DE LAS COMPUTADORAS
21
UNA PEQUEÑA HISTORIA
23
ADMINISTRADOR DE SISTEMAS
25
INGENIERIA DE INFORMATICA
27
TEORIA GENERAL DE SISTEMAS, SU EVOLUCION Y OBJETIVOS.
29
CIBERNETICA
31
TECNOLOGIA XXI
SISTEMAS
Y
LA
INGENIERA
03 Extra Tecnología
El estado que guarda actualmente la teoría de la comunicación nos sugiere tomar en consideración y valorar los desarrollos experimentados en disciplinas paralelas y que mediante una serie de disposiciones de teoría hacen posible aventurar descripciones de la comunicación capaces de asimilar el alto grado de sofisticación que ésta presenta en la sociedad moderna. Un campo teórico en el que estos desarrollos parecen tomar un sesgo fértil es nuevamente la Teoría General de Sistemas, particularmente con la figura del alemán Niklas Luhmann quien realizó una reconstrucción la misma dentro de las fronteras de la sociología y cuyo logro estriba en integrar en una perspectiva omniabarcante a la sociedad y a la comunicación considerándolas como una misma realidad. La teoría General de Sistemas (TGS) se presenta como una forma sistemática y científica de aproximación y representación de la realidad y, al mismo tiempo, como una orientación hacia una práctica estimulante para formas de trabajo multidisciplinarias.
La Teoría de la Comunicación se ha estableciéndose progresivamente como un campo científico que reclama para sí, desde la propia comunicación, el reconocimiento de su estatuto y especificidad cognitiva. Ella representa un claro ejemplo de cómo las descripciones producidas por la ciencia involucran cada vez más elementos disciplinares diversos, irreductibles unos a otros, que posibilitan la reconstrucción de realidades concebidas como el producto de la intervención de múltiples variables no susceptibles de ser contempladas por un único esquema de observación. La descripción del fenómeno de la comunicación hace necesaria la participación de estructuras de observación provenientes de disciplinas consideradas como “ajenas” a lo que se pudiera considerar como “lo comunicativo” y sin las cuales la complejidad de dicho fenómeno, tal y como lo concebimos hoy en día, sería inaprehensible.
La Teoría de la Comunicación ha configurado un bagaje semántico híbrido. Un ejemplo representativo de estas incursiones “foráneas” es la teoría matemática de la información establecida en 1948 por el ingeniero de los laboratorios Bell, Claude Elwood Shannon.
En la TGS lo importante son las relaciones y los conjuntos que a partir de ellas emergen; ofreciendo un ambiente adecuado para la interrelación y comunicación entre especialistas y especialidades. Y sus objetivos son:
El modelo explicativo de Shannon tiene como premisa básica la delimitación de la comunicación a los procesos de transmisión de la información entendida como cantidad física susceptible de ser tratada matemáticamente.
• Impulsar el desarrollo de una terminología general que permita describir las características, funciones y comportamientos sistémicos. • Desarrollar un conjunto de leyes aplicables a todos estos comportamientos. • Promover una formalización (matemática) de estas leyes.
Lejos de las consideraciones psicológicas o semióticas asociadas a problemas como la comprensión o finalidad de la comunicación, Shannon recurrió al concepto termodinámico de entropía para describir el grado de desorganización que es capaz de aceptar un sistema de comunicación a partir de las selecciones binarias involucradas en la producción de información.
La primera formulación en tal sentido es atribuible al biólogo Ludwing Von Bertalanffy (1901-1972), quien adoptó la denominación "Teoría General de Sistemas". Para él, la TGS debería constituirse en un mecanismo de integración entre las ciencias naturales y sociales, y ser al mismo tiempo un instrumento básico para la formación y preparación de científicos.
06 Extra Tecnología
Staff _________ Director T.S.U. Nadeé R. Ordoñez M. Subdirector de Información: Alejandro Montes de Oca Subdirector de Arte: Gabriel Pineda Consejo Editorial: Coordinadores: Nacional Emilio Zebadúa Estados Humberto Valverde Internacional Emilio Tenti Fanfani
Edición: Gil del Valle Diseño Gráfico: Miguel Rivera López Corrector: Marco Antonio Ramírez López Asesor: Eduardo Rodríguez
a perspectiva de la TGS se desprende del principio clave de totalidad orgánica. La meta de la Teoría General de los Sistemas no es buscar analogías entre las ciencias (humanas, sociales, naturales, etc.), sino tratar de evitar la superficialidad científica que ha estancado a las ciencias. Para ello emplea como instrumento, modelos utilizables y transferibles entre varios polos científicos, toda vez que dichos modelos sean posibles e integrables a las respectivas disciplinas. Si miramos a nuestro alrededor, en el lugar que nos encontremos, podremos darnos cuenta de la enorme cantidad de organismos que nos rodean. Por ejemplo, si estamos en nuestra casa, podremos observar que cerca de nosotros se encuentra, tal vez, un computador, un televisor, nuestros hermanos, alguna mascota, etc. Si los analizamos uno por uno, también podremos observar que cada artefacto, animal o persona funciona de una manera distinta en base a sus propias necesidades y objetivos. Estamos hablando de distintos sistemas, cada uno de ellos compuestos por sus propios elementos, que se relacionan entre sí de una forma equilibrada para lograr un objetivo común.
Ventas y publicidad: T. 01 (55) 2282 6420 Tennyson 125, Colonia Polanco, Del. Miguel Hidalgo, Distrito Federal, C.P. 11550 Teléfono: + 52 (55) 2282 6420
Es así como también lo describe Ludwig Von Bertalanffy en su Teoría General de Sistemas. Este biólogo y filósofo, redujo la realidad al funcionamiento de los sistemas que la componen. En la teoría, el autor explica que los sistemas se componen de una estructura y una organización, siendo la primera modificable, mientras que la segunda refleja la identidad y esencia de cada sistema, por lo que no puede ser alterada.
¿Te interesa publicar en az? Escríbenos a: educacion@revistaaz.com suscripciones@revistaaz.com www.educacionyculturaaz.com
De esta manera, todos los elementos que forman parte del sistema se interrelacionan de tal manera de lograr su objetivo. Pero no todos son capaces de lograr sus metas de forma cerrada o autónoma, sino que algunos necesitan de su entorno para lograrlo.
Por esto mismo Bertalanffy destaca el entorno como un elemento fundamental que determina ciertos sistemas (abiertos). Tomando en cuenta las descripciones anteriores, se podría decir que la comunicación también es un sistema; un sistema cuyos elementos podrían ser el emisor, código, mensaje, canal y receptor. Y para que este sistema funcione, es imprescindible que todos sus elementos estén conectados y en perfecto equilibrio, pues es la única forma de lograr una comunicación efectiva. Por ejemplo, si falla el código entre un emisor y un receptor, es muy probable que éstos no logren comunicar sus mensajes. Lo mismo ocurre si falla el canal o si el mensaje no está claro. Pero más allá de esto, la gran importancia de que los procesos comunicativos sean efectivos, se basa en que la comunicación es un sistema que abarca muchísimos subsistemas, en base a la comunicación se pueden crear otros sistemas como organismos institucionales, sistemas de gobierno, etc. Por eso es fundamental que la comunicación, como un sistema que engloba a muchos otros sistemas presentes en la sociedad, funcione de forma correcta para poder mantener una sociedad equilibrada y estable. Que es un sistema? Un sistema con respecto a la totalidad se fundamenta en dos opiniones, debido a que es una realidad: 1.- La realidad es un todo estructurado en vías de desarrollo y autocreacion. 2.- La realidad es comprendida como un conjunto de todos los hechos. En el 1º caso la totalidad no significa todos los hechos; totalidad significa realidad como un todo estructurado, en el cual puede ser comprendido cualquier hecho. Y en el 2º caso, la realidad no puede ser abarcada totalmente pues, siempre es posible agregar otros hecho y aspectos; la totalidad se convierte en algo místico. La TGS se inserta en la 1º opinión, pues reconoce la existencia de analogías estructurales entre las mas diversas disciplinas y, concibe el sistema como un todo organizado, capaz de explicar la realidad objeto de análisis.
07 Extra Tecnología
La TGS surgió en el campo de la Biología, y pronto se vio su capacidad de inspirar desarrollos en disciplinas distintas y se apreció su influencia en la aparición de otras nuevas. Un sistema dinámico es un sistema físico, cuyo estado evoluciona con el tiempo. El comportamiento en dicho estado se puede caracterizar determinando los límites del sistema, los elementos y sus relaciones; de esta forma se puede elaborar modelos que buscan representar la estructura del mismo sistema. La teoría general de sistemas (TGS), teoría de sistemas o enfoque sistémico es un esfuerzo de estudio interdisciplinario que trata de encontrar las propiedades comunes a entidades llamadas sistemas. Éstos se presentan en todos los niveles de la realidad, pero que tradicionalmente son objetivos de disciplinas académicas diferentes. Su puesta en marcha se atribuye al biólogo austriaco Ludwig von Bertalanffy, quien acuñó la denominación a mediados del siglo XX. Al definir los límites del sistema se hace, en primer lugar, una selección de aquellos componentes que contribuyan a generar los modos de comportamiento, y luego se determina el espacio donde se llevará a cabo el estudio, omitiendo toda clase de aspectos irrelevantes.
La TGS surgió en el campo de la Biología, . Así se ha ido constituyendo el amplio campo de la sistémica o de las ciencias de los sistemas, con especialidades como la cibernética, la teoría de la información, la teoría de juegos, la teoría del caos o la teoría de las catástrofes. En algunas, como la última, ha seguido ocupando un lugar prominente la Biología. Más reciente es la influencia de la TGS en las Ciencias Sociales. Destaca la intensa influencia del sociólogo alemán NiklasLuhmann, que ha conseguido introducir sólidamente el pensamiento sistémico en este área.
En cuanto a la elaboración de los modelos, los elementos y sus relaciones, de los sistemas se debe tener en cuenta: Un sistema está formado por un conjunto de elementos en interacción. El comportamiento del sistema se puede mostrar a través de diagramas causales. Hay varios tipos de variables: variables exógenas (son aquellas que afectan al sistema sin que éste las provoque) y las variables endógenas (afectan al sistema pero éste sí las provoca). Un sistema dinámico es la representación matemática de un proceso determinístico [Kuznetsov, 1995]. Si se conoce la ley que gobierna su evolución y su estado inicial, se puede predecir cualquier estado futuro del sistema. Llamamos sistema a la «suma total de partes que funcionan independientemente, pero conjuntamente para lograr productos o resultados requeridos, basándose en las necesidades». (Kaufman).
Según el diccionario de la Real Academia Española, Sistema es el conjunto de reglas o principios sobre una materia racionalmente enlazados entre sí, o el conjunto de cosas que ordenadamente relacionadas entre sí contribuyen a determinado objeto. Hoy se define un sistema como «un todo estructurado de elementos, interrelacionados entre sí, organizados por la especie humana con el fin de lograr unos objetivos. Cualquier cambio o variación de cualquiera de los elementos puede determinar cambios en todo el sistema». El dinamismo sistémico contempla los procesos de intercambio entre el propio sistema y su medio, que pueden así modificar al sistema o mantener una forma, organización o estado dado del mismo. Los sistemas en los que interviene la especie humana como elemento constitutivo, sociedad, educación, comunicación, etc., suelen considerarse sistemas abiertos. Son sistemas cerrados aquellos en los que fundamentalmente los elementos son mecánicos, electrónicos o cibernéticos.
09 Extra Tecnología
u organización, también se le conoce como Sistema de Información operativa. Sistemas de Información Gerencial (MIS).- Orientados a solucionar problemas empresariales en general.
Un sistema de información (SI) es un conjunto de elementos orientados al tratamiento y administración de datos e información, organizados y listos para su uso posterior, generados para cubrir una necesidad u objetivo. Dichos elementos formarán parte de alguna de las siguientes categorías: Personas, Datos y Actividades o técnicas de trabajo. Recursos materiales en general (generalmente recursos informáticos y de comunicación, aunque no necesariamente). Todos estos elementos interactúan para procesar los datos (incluidos los procesos manuales y automáticos) y dan lugar a información más elaborada, que se distribuye de la manera más adecuada posible en una determinada organización, en función de sus objetivos. Habitualmente el término se usa de manera errónea como sinónimo de sistema de información informático, en parte porque en la mayor parte de los casos los recursos materiales de un sistema de información están constituidos casi en su totalidad por sistemas informáticos. Estrictamente hablando, un sistema de información no tiene por qué disponer de dichos recursos (aunque en la práctica esto no suela ocurrir). Se podría decir entonces que los sistemas de información informáticos son una subclase o un subconjunto de los sistemas de información en general. La primera clasificación se basa en la jerarquía de una organización y se llamó el modelo de la pirámide.4 Según la función a la que vayan destinados o el tipo de usuario final del mismo,5 los SI pueden clasificarse en: Sistemas de Procesamiento de Transacciones (TPS).- Gestiona la información referente a las transacciones producidas en una empresa
Sistemas de Soporte de Decisiones (DSS).- Herramienta para realizar el análisis de las diferentes variables de negocio con la finalidad de apoyar el proceso de toma de decisiones. Sistemas de Información Ejecutiva (EIS).- Herramienta orientada a usuarios de nivel gerencial, que permite monitorizar el estado de las variables de un área o unidad de la empresa a partir de información interna y externa a la misma. Es en este nivel cuando los sistemas de información manejan información estratégica para las empresas.
EVOLUCIÓN DE LOS SISTEMAS DE INFORMACIÓN A LO LARGO DEL TIEMPO. Estos sistemas de información no surgieron simultáneamente en el mercado; los primeros en aparecer fueron los TPS, en la década de los 60, sin embargo, con el tiempo, otros sistemas de información comenzaron a evolucionar. Los primeros proporcionan información a los siguientes a medida que aumenta la escala organizacional. Sistemas de Automatización de Oficinas (OAS).- Aplicaciones destinadas a ayudar al trabajo diario del administrativo de una empresa u organización. Sistemas de Planificación de Recursos (ERP).- Integran la información y los procesos de una organización en un solo sistema. Sistemas Expertos (SE).- Emulan el comportamiento de un experto en un dominio concreto. Los últimos fueron los SE, que alcanzaron su auge en los 90 (aunque estos últimos tuvieron una tímida aparición en los 70 que no cuajó, ya que la tecnología no estaba suficientemente desarrollada).
11 Extra Tecnología
JULIO 2013
Ingeniería de Sistema La ingeniería de sistemas es un modo de enfoque interdisciplinario que permite estudiar y comprender la realidad, con el propósito de implementar u optimizar sistemas complejos. Puede verse como la aplicación tecnológica de la teoría de sistemas a los esfuerzos de la ingeniería, adoptando en todo este trabajo el paradigma sistémico. La ingeniería de sistemas integra otras disciplinas y grupos de especialidad en un esfuerzo de equipo, formando un proceso de desarrollo estructurado. De tal manera podríamos definir, que la ingeniería de sistemas es la ingeniería de la transdisciplinariedad, la cual ha demostrado sus fortalezas al gestionar el comportamiento impredecible y la aparición de características imprevistas en los sistemas, denominadas propiedades emergentes. Por ello, es la ingeniería ideal para operar escenarios de cambio y transformación en la conducta de sistemas que fueron diseñados sin prever consecuencias no comprendidas claramente en el momento de su configuración, pero que se manifiestan de enorme implicación en la vida futura del sistema. Un sistema es un conjunto de elementos que se interrelacionan buscando lograr un objetivo. Por que concluyo que la teoría general de sistema solo busca el estudio de propiedades comunes y las relaciones entre ellos debido, a que son sistemas abiertos y a su vez son subsistemas. Un ejemplo: puede ser una familia integrado por el padre – madre – tres hijos. La cual estrechamente se encuentran relacionados por tradiciones familiares como: procedencia de los padres – educación - empleos posiciones económica y esto influye en escuela – maestros – ministerio de educación …. Desde el punto de vista de la ingeniería la palabra sistema es muy utilizada en nuestra actualidad por todos los campos de ciencias como: física, química, matemática biología, lógica, cibernética, economía, sociología y por supuesto la rama de ingeniería, muy especialmente la ingeniería de sistemas debido a que su objetivo principal es la concepción, planificación, evaluación y construcción científica de sistemas relacionados con el hombremaquina. Dicho esto se puede decir, que los ingenieros en sistemas se interesan por sistemas creados por el hombre y los naturales, debido a que los mismos sufren procesos de adaptaciones que puedo expresar como una habilidad para relacionarse con el medio ambiente de manera factible. Un ejemplo de ello seria el nacimiento de un bebe (sistema natural) y un marcapaso (sistema creado por el hombre).
13 Extra Tecnología
La simplificación del trabajo permitida por la división del trabajo también posibilito el diseño y construcción de máquinas que reproducían los movimientos del trabajador. A medida que evolucionó la tecnología de transferencia de energía, estas máquinas especializadas se motorizaron, aumentando así su eficacia productiva. El desarrollo de la tecnología energética también dio lugar al surgimiento del sistema fabril de producción, ya que todos los trabajadores y máquinas debían estar situados junto a la fuente de energía.
trabajo, la transferencia de energía y la mecanización de las fábricas, y el desarrollo de las máquinas de transferencia y sistemas de realimentación, como se explica a continuación.
¿Qué es la Informática? Es la ciencia que busca la máxima eficiencia y economía en el tratamiento de la información mediante la utilización de unas máquinas automáticas concretas, los ordenadores conocidos también con el nombre de computadora. Cada actividad humana utiliza un determinado tipo de información y necesita tratarla de manera específica. La informática estudia las diferentes formas y métodos de procesar la información de manera automática y se define como el tratamiento racional de la información. Informática es una palabra compuesta que proviene de la contracción de las palabras INFORmación y autoMATICA. Podemos decir, entonces que la informática es el tratamiento automatizado de la información y los mecanismos que permiten realizar estas transformaciones. La informática es la ciencia que estudia los sistemas intel igentes de información, es ciencia porque sus conocimientos son de validez universal y, además, utiliza el método científico. ELEMENTOS DE LA AUTOMATIZACIÓN. La fabricación automatizada surgió de la íntima relación entre fuerzas económicas e innovaciones técnicas como la división del
La división del trabajo esto es, la reducción de un proceso de fabricación o de prestación de servicios a sus fases independientes más pequeñas, se desarrolló en la segunda mitad del siglo XVIII, y fue analizada por primera vez por el economista británico Adan Smith en su libro Investigación sobre la naturaleza y causas de la riqueza de las naciones (1776). En la fabricación, la división del trabajo permitió incrementar la producción y reducir el nivel de especialización de los obreros. La mecanización fue la siguiente etapa necesaria para la evolución hacia la automatización.
La maquina de transferencia es un dispositivo utilizado para mover la pieza que se está trabajando desde una máquina herramienta especializada hasta otra, colocándola de forma adecuada para la siguiente operación de maquinado. Los robots industriales, diseñados en un principio para realizar tareas sencillas en entornos peligrosos para los trabajadores, son hoy extremadamente hábiles y se utilizan para trasladar, manipular y situar piezas ligeras y pesadas, realizando así todas las funciones de una máquina de transferencia. En realidad, se trata de varias máquinas separadas que están integradas en lo que a simple vista podría considerarse una sola. En la década de 1920 la industria del automóvil combinó estos conceptos en un sistema de producción integrado. El objetivo de este sistema de línea de montaje era abaratar los precios. A pesar de los avances más recientes, éste es el sistema de producción con el que la mayoría de la gente asocia el término automatización.
15 Extra Tecnología
INFORMATICA necesaria para las operaciones de dicha empresa y para actividades de dirección y control, correspondientes para desempeñar su actividad de acuerdo a sus estrategias de negocio.
El sistema de información en una empresa debe responder a objetivos de la organización en los niveles operativo, táctico y estratégico. Ejemplo la actividad contable de una empresa como es el suministro de datos sobre las actividades, el suministro de informes y el mantenimiento de registros es un sistema de información contable que responde al objetivo de la empresa. La información estar disponible: El vocablo informática proviene del francés informatique, acuñado por el ingeniero Philippe Dreyfus en 1962. Es un acrónimo de las palabras information y automatique (información automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento y de comunicación. La informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También está definida como el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas: Entrada: Captación de la información digital. Proceso: Tratamiento de la información. Salida: Transmisión de resultados binarios. La informática permite hoy la actualización y manejo de archivos en una base de datos centralizada. Ejemplo: por medio de una máquina electrónica conectada a la unidad central, el cajero en cualquier sucursal puede encontrar la cuenta del cliente, efectuar un retiro y actualizar el saldo, la conexión con la base de datos ocurre por línea telefónica.
Por otra parte este tratamiento de la información, presente en todas las actividades humanas, lo podemos realizar nosotros directamente o con la ayuda de determinados instrumentos y máquina, como son las calculadoras, computadores. SISTEMAS DE INFORMACIÓN . Es un conjunto formal de procesos que, operando sobre una colección de datos estructurada según las necesidades de la empresa, recopila, elabora y distribuye la. Información
para que
sea útil debe
En gráficos y/o informes escritos A tiempo oportuno, es decir, cuando se los necesita. A un costo económico, módico, o sea, a un precio razonable. Ejemplo: En una empresa, utilizando un programa se puede realizar la nómina de empleados en el menor tiempo posible. Algunos datos que se deben entrar son: código, nombre, cargo, salario básico, días trabajados, horas extras y descuentos, después del procesamiento de datos, el resultado es un cheque con el neto a pagar.
16 Extra Tecnología
INICIOS DEL PROCESAMIENTO DE INFORMACIÓN En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos repetitivos y monótonos del área administrativa, gracias a la automatización de esos procesos, ello trajo como consecuencia directa una disminución de los costes y un incremento en la producción.
En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos (como internet), la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Una de la aplicaciones más importantes de la informática es proveer información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos. Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las
demandas sobre su eficacia. El procesado de textos es la utilización del computador a las actividades vinculadas a la elaboración de documentos escritos; mediante un programa de los llamados aplicaciones o programas de utilidad, que ha sido elaborado para ese fin y se encuentra instalado en el computador. El WordStar – que practicamente fue el primero que fuera utilizado ampliamente en los computadores iniciales – se caracterizaba por utilizar para las diversas operaciones un sistema de combinaciones de teclas, especialmente con la tecla “control”, que obligaba a memorizar todas esas claves. más simples cuestiones domésticas, hasta los cálculos científicos más complejos. Entre las funciones principales de la informática se cuentan las siguientes: Creación de nuevas especificaciones de trabajo. Desarrollo e implementación de sistemas informáticos. Sistematización procesos.
de
Optimización de los métodos y sistemas informáticos existentes. Durante los diez años próximos muchas nuevas características fueron introducidas en el campo. Una innovación importante era el desarrollo de los programas del chequeo de la ortografía y de las listas de correo. Otro introducido por
avance, Xerox en
su Sistema de Información Estrella (Star Information System), permitieron el trabajar en más de un documento a la vez en la misma pantalla. Algunos programas ahora incluso incorporan las funciones de contabilidad y de inventario, combinando el procesamiento de textos con la informática y terminar así la unión del procesador de textos a la computadora. El campo combinado se conoce como tratamiento de la información. El WORDSTAR, desarrollado por Micropro International, emergió como el estándar de la industria en paquetes de software, aunque otros, actualmente, lo sobrepasan en muchísimas características. Hay más de sesenta sistemas completos del procesamiento de textos en el mercado, y más de treinta paquetes de software para el uso en computadoras, todos con diversas capacidades y
Era un programa anterior a la generalización del uso del “ratón“, de los indicadores gráficos y las pantallas en color; que si bien en sus últimas versiones había evolucionado hacia las nuevas posibilidades de los computadores más modernos, en la práctica ha quedado en casi total desuso, siendo sustituído por los de otras marcas.
18 Extra Tecnología
La computación y la informática han tenido un protagonismo definitivo en el avance de la sociedad venezolana, delimitando eventos marcados que han estructurado su historia. La presente investigación documental esboza la historia de la computación e informática en Venezuela desde el año 1938 hasta el año 2011. El estudio tuvo como propósito profundizar en el proceso de adquisición de tecnologías y su distribución dentro del período de transición de la dictadura a la democracia a finales de la década del 50 hasta su inclusión en instituciones financieras, universidades y los hogares venezolanos en los años posteriores.. Las computadoras no han nacido en los últimos años, en realidad el hombre siempre buscó tener dispositivos que le ayudaran a efectuar cálculos precisos y rápidos; una breve reseña histórica nos permitirá, comprender cómo llegamos a las computadoras actuales. Los chinos hace más de 3000 años a. C. desarrollaron el ABACO, con éste realizaban cálculos rápidos y complejos. Éste instrumento tenía un marco de madera cables horizontales con bolas agujereadas que corrían de izquierda a derecha, como muestra la figura. En el siglo XVII, el creciente interés en Europa, por las nuevas ciencias, tales como la astronomía y la navegación, impulsó a las mentes creativas a simplificar los cálculos. Habría costado años a los primeros científicos calcular la vasta cantidad de datos numéricos cuyos patrones estaban intentando descubrir. En 1614, el escocés John Napier anunció su descubrimiento de los logaritmos, permitiendo que los resultados de complicadas multiplicaciones se redujeran a un proceso de simple suma. Muy poco después, en los años 20 del mismo siglo, se inventó la regla de cálculo, basada en los principios matemáticos descubiertos por Napier. PASCAL en 1642 crea una máquina mecánica de sumar, parecida a los cuenta kilómetros que utilizan en la actualidad los automóviles. Pero ésta tenía algunos problemas con las sumas largas; pero en 1671 LEIBNITZ le agregó la posibilidad de: restar, sumar, multiplicar y dividir. Su máquina estaba formada sobre ruedas dentadas, cada una de estas ruedas tenía diez dientes, éstos correspondían a los números de 0 al 9. Siendo el sistema de tal tipo, que el paso de 9 a 0 daba lugar a un salto de la rueda. Los conceptos de esta máquina se utilizaron mucho tiempo, pero éstas calculadoras exigían intervención del operador, ya que éste debía escribir cada resultado parcial en una hoja de papel. Esto era sumamente largo y por lo tanto produce a errores en los informes. Otra revolución en esta historia fue la que realizó BABBAGE. Éste diseño y desarrollo la primera computadora de uso general. Fue un genio pero la época no lo ayudó para poder terminar de construirla. Llamó a su descubrimiento "Máquina de las diferencias". En 1833 concibió una segunda máquina que le llevó 20 años. Esta era capaz de realizar una suma en segundos y necesitaba un mínimo tiempo de atención del operador. A esta segunda máquina la llamó "Analítica". Leibniz aplicó la lógica y la materializó en su exitosa maquina de calcular. En 1804, Joseph Jacquard empezó a utilizar un telar que se servia de tarjetas perforadas para controlar la creación de complejos diseños textiles, (la misma técnica se utilizaría posteriormente en pianolas y organillos, que empleaban tarjetas
LA COMPUTACIÓN Y LA INFORMÁTICA perforadas para copiar música de piano, tanto clásica como popular. La primer operación de procesamiento de datos fue lograda en 1890 por HERNAN HOLLERICH. Éste desarrolló un sistema mecánico para calcular y agrupar datos de censos. El nuevo sistema se basaba en tarjetas perforadas. Lo utilizaron en el censo de población en Estados Unidos en donde se logró por primera vez, que los resultados fueran conocidos a los dos años y medio, mientras que el censo anterior se tardó siete años para conocer estos datos. La primera mujer programadora fue ADA AUGUSTA BYRON (1815 - 1852) se interesó por los descubrimientos de BABBAGE a quién ayudó en los estudios de esta gran filosofía. En 1930, el norteamericano Vannevar Bush diseñó en el MIT (Massachusetts Institute of Technology) el analizador diferencial, marcando el inicio de nuestra era de computadoras; el "analizador" era una máquina electrónica que medía grados de cambio en un modelo. La maquina ocupaba la mayor parte de una gran sala; para analizar un nuevo problema,un grupo de ingenieros debía cambiar las proporciones, y sólo aparecían, tras dos o tres días, con las manos cubiertas de aceite. Aun la capacidad de la máquina para resolver complicados cálculos sobrepasaba cualquier invento anterior. En 1936, el científico independiente Alan Turing, de Gran Bretaña, captó la atención de los científicos con un trabajo que sobre un estudio sobre los números y las computadoras, propuso soluciones a problemas hasta entonces no resueltos. La primera computadora totalmente electrónica fue la ENIAC (Electric Numeric Integrator And Calculator), fue construida en 1943 y 1945 por JOHN MANCHI y J. PROPER ECKUT. Podía multiplicar 10.000 veces más rápido que la máquina de AIKEN, pero tenía sus problemas. Como estaba construida con casi 18,000 válvulas de vacío, era enorme la energía que consumía y el calor que producía. Esto hacia que las válvulas se quemaran rápidamente y que las casas de alrededor tuvieran cortes de luz. La Segunda Guerra Mundial vio a Alemania y a los otros países occidentales en competencia por desarrollar una mayor velocidad de cálculo, junto a un aumento de la capacidad de trabajo, para así lograr decodificar los mensajes enemigos. En respuesta a su presión EE.UU, desarrolló en Harvard el enorme computador Mark I, con una altura de 2,5 m, inspirado por las ideas de Babbage, y el Mark I se dedicó a problemas balísticos de la Marina. En Alemania, se estaba comprobando las aerodinámicas proyectadas en el computador . El primer intento de sobreponerse a las limitaciones de velocidad y errores fue de HOWARD AIKEN. Trabajó con ingenieros de I.B.M y crearon una calculadora automática Llamada MARK I (en 1944). Luego sé construyó MARK II. (Estas máquinas no pudieron satisfacer las necesidades de ese momento ya que eran millones los datos para guardar y resolver, aunque sirvieron de base para que cuando se crearan las válvulas al vacío comenzara la computación electrónica.
20 Extra Tecnología
GENERACIONES DE LAS COMPUTADORAS Tres científicos de los laboratorios Bell, William Bardeen y Walter Bratt, inventaron el transistor, recibiendo el premio novel de Física en 1956. A continuación se desarrolló el circuito integrado o "IC" que pronto recibiría el sobrenombre de "chip". Se atribuye el mérito de este invento a Robert Noyce. La fabricación del microchip 6,45 mm2 (la décima parte de una pulgada cuadrada), pronto fue seguida por la Capacidad de integrar hasta 10 transistores miniaturizados y eventualmente 1.000 piezas varias en el mismo espacio. Alrededor de 1971, el microprocesador había sido desarrollado por la nueva compañía de Noyce, Intel. Esta novedad colocó en un finito microchip los circuitos para todas las funciones usuales de un computador. Fueron integrados ahora en el chip en una serie de delgadísimas capas. Esto hizo que la computación fuera más rápida y más flexible, al tiempo que los circuitos mejorados permitieron al computador realizar varias tareas al mismo tiempo y reservar memoria con mayor eficacia. La contribución de estos inventos ha sido incalculable en cuanto a la disponibilidad de computadoras personales de difícil uso. Los usuarios dan por hecho rápidas y fiables respuestas a sus comandos, y un gran almacenamiento de memoria, tanto en términos de memoria de trabajo RAM como en espacio de almacenamiento en disco duro para trabajos terminados. Los pioneros cuentan cómo en los años 60, cuando utilizaban sistemas centrales, estaban limitados a 4 K de memoria de trabajo, aproximadamente 1.5 páginas escritas. Escribiendo programas, tenían que mantener las líneas de instrucciones cortas; sus comandos. Eran enviados por dispositivos de memoria que sólo podían retener una cantidad limitada de información antes de que se perdiera. 1. Primera Generación (1945-1955) Se llama así a la generación de tubos al vacío y válvulas. Se caracterizó por maquinas muy grandes y pesadas. Muy lentas en sus procesos, tanto que la resolución de programas largos implicaba varios d/as de espera. Pese a todo fue muy útil pues podía resolver 5.000 cálculos por segundo. 2. Segunda Generación (1955 - 1965) Se Llamaba de los transistores y sistemas en Lote. En las computadoras de esta generación se reemplazaron las válvulas por los transistores. Con eso se pudo reducir el tamaño de los ordenadores y aumentar su velocidad de trabajo. Aunque todavía eran un poco lentas 3. Tercera Generación (1965 - 1980) Se llama de circuitos integrados y de multiprogramación. El gran descubrimiento de este periodo fueron los circuitos integrados denominados CHIP. El circuito integrado consiste en un gran número de componentes electrónicos (transistores, resistencias, etc.) miniaturizados y encapsulados en un espacio de pocos centímetros. Este descubrimiento produjo grandes cambios en cuanto al tamaño de las computadoras; en velocidad, en compatibilidad, e introduciendo nuevas técnicas de programación. 4. Cuarta Generación (1980-1990) Se la denomina de computadora personal o de computadora hogareña. Se llama así ya que los microprocesadores son chips mucho más pequeños que contienen en un centímetro cuadrado, miles de Si hacen memoria quiere decir que la computadora ENIAC con 18.000 válvulas, que ocupaba mas de una habitación, hoy se resume en un centímetro cuadrado. De esta forma muchas familias comenzaron a tener computadoras en sus casas, como por ejemplo las TEXAS INSTRUMENT 99/4A, COMMODORE 64 Y 128, SPECTRUM. 5. Quinta Generación (1990) Hasta la Fecha En la actualidad los piases más adelantados, entre los que figuran Japón y Estados Unidos están investigando y produciendo, los primeros prototipos de nuevos ordenadores que formaran la Quinto Generación. (Estos tendrán la capacidad de realizar deducciones empleando el lenguaje del hombre.) Esta Quinta generación que recién comienza se denominará: Computadora inteligente o inteligencia artificial Computadoras que se destacaron en ésta generación : PC AT 80286, PC AT 80386, PC AT 80486. PC AT 586 PENTIUM PENTIUM PRO PENTIUM II PENTIUM III
21 Extra Tecnología
UNA PEQUEÑA HISTORIA IBM. La computadora era más barata que la original, y el sistema OS, parecía desproporcionadamente caro. Frente a esto, un joven americano emprendedor y tenaz, se encerró en su habitación con una PC y no salió de ella hasta haber obtenido como resultado un sistema operativo compatible con el de IBM. Lo llamó DOS, siglas de Disk Operative System, porque además, entraba en un solo disquete. Ese joven es hoy el dueño de la empresa más grande del mundo dedicada al desarrollo de software, y marca el rumbo al mercado informático; se llama Bill Gates y su empresa, Microsoft. Las computadoras fabricadas por terceros, es decir, no por IBM, se extendieron rápidamente, su costo era hasta tres veces menores que la original del gigante azul, y por supuesto, el sistema operativo era el DOS de Bill Gates. En la jerga, se comenzó a llamar a las PC'S, clones, o sea copias. IBM perdió el control muy pronto. El rumbo de la tecnología era marcado ahora por la empresa INTEL, que fabricaba los microprocesadores. El corazón, el cerebro de la PC lanzando uno nuevo aproximadamente cada año. De inmediato Bill Gates con su flamante empresa Microsoft, desarrollaba programas para aprovechar al máximo las capacidades de éste. Pronto quedó claro que los lideres eran INTEL y Microsoft. IBM, dueño de la idea, había perdido toda influencia sobre el tema. Hoy las computadoras de IBM llevan procesadores INTEL y ejecutan programas de Microsoft. Durante este periodo, surgieron las líneas de procesadores 286, 386 y 486.
Del mismo modo que la TV, el video o la cámara, la PC trabaja en compatibilidad con alguna norma estándar. Las normas mas conocidas en el mundo de las computadoras personales son dos: IBM y Macintosh, la primera impuesta por la empresa homónima conocida como el Gigante Azul y la segunda por la empresa APPLE. Esta última, fue pionera en desarrollar bastante de la tecnología que después adoptó IBM, pero la política de APPLE fue hasta hace poco, tener un producto caro y dirigido a un mercado especifico como el del diseño gráfico, sólo había software para Machintosh referido a las artes gratificas, por esto IBM, a pesar de su abismal diferencia tecnológica, logró imponerse en el resto de los ámbitos, aunque no por mérito de su fabricante. Otras empresas se lanzaron a fabricar computadoras. El problema era el Sistema Operativo. La computadora, es un conjunto de piezas que muestra resultados acordes con el software que le ponemos. Cuando una computadora arranca, necesita de un programa base para comenzar a operarla, un software que contenga los pasos básicos que le permita copiar y ejecutar los programas que se le instalan. Este software básico o de arranque se llama Sistema Operativo. La PC que lanzó IBM (años 1979/1980), venia con un sistema operativo propio denominado por esa empresa como OS, (iniciales de Operative System) ocupaba varios disquetes y tenía un costo adicional elevadisimo; obviamente la PC no funcionaba sin él. Los fabricantes que querían incursionar en el mercado debían comprar a IBM el OS. Estas computadoras fabricadas por terceros fueron llamadas, compatibles, ya que su hardware era capaz de ejecutar el OS de
Desde hace unos años, las cosas se dieron vuelta y Microsoft pasó a desarrollar software que exigía demasiado a los procesadores de INTEL, por lo que éste se veía obligado a apurar los tiempos de lanzamiento de nuevos modelos. Aprovechando esta situación, por 1993, IBM, APPLE y Motorola intentan quebrar el liderazgo INTEL-Microsoft, y lanzan el Power PC, un procesador que prometía hacer estragos, pero solo lo utilizan APPLE en sus computadoras personales e IBM en su línea de servidores AS400. Simultáneamente otros fabricantes de procesadores tomaron impulso. Estas circunstancias impulsaron a INTEL a crear un procesador distinto. (Los anteriores eran continuas mejoras al 286 mas poderoso), así nació el Pentium. Microsoft tiene una inesperada compañera que también demanda mas tecnología en el hardware: INTERNET. Digamos que, por culpa de Internet, INTEL creó el MMX. En realidad es un Pentium con mejoras que optimiza la ejecución de video y sonido multimedia en la PC. Luego nacen los modelos Pentium Pro, Pentium II y Pentium III. La evolución de la informática afecta a todos los aspectos de la vida, la computadora hoy tiene muchas aplicaciones. Por ejemplo cuando vamos a un hospital encontramos en la recepción una computadora informándonos dónde se encuentra la sección que buscamos (sí es pediatría, internación o rayos). Además, si necesitamos una ecografía observamos una computadora que registra todos los datos que el medico desea. De la misma forma que en nuestro ejemplo, podríamos señalar otras aplicaciones en diferentes áreas: medicina, tomografia computada, historias clinicas en bases de datos , brazos robot que reemplazan al hombre, etc.
23 Extra Tecnología
ADMINISTRADOR DE SISTEMAS. Un administrador de sistemas es la persona que tiene la responsabilidad de ejecutar y asegurar el correcto funcionamiento de un sistema informático, o algún aspecto de éste. El significado preciso varía. En las organizaciones con un sistema muy grande y complicado, generalmente dividen al personal informático según su especialidad. En este caso un administrador de sistema es aquel responsable del mantenimiento de un sistema informático existente. En muchas organizaciones, la tarea de un administrador de sistemas no se limita al mantenimiento, sino también a la planificación de crecimiento de la infraestructura IT a través del tiempo.
Las responsabilidades generalmente incluyen:
Realizar copias de seguridad. Actualizar el sistema operativo, y configurar los cambios. Instalar y configurar el nuevo hardware y software. Agregar, borrar y modificar información de las cuentas de usuarios, reestablecer contraseñas, etc. Responder consultas técnicas. Responsable de la seguridad. Responsable de documentar la configuración del sistema. Resolución de Problemas. Configuración optima del sistema.
Implantación de Planes de Recuperación ante Desastres (PRD). En grandes organizaciones, algunas de las tareas listadas arriba se dividen entre diferentes administradores de sistema. Por ejemplo, debe haber un individuo o un grupo responsable de probar e instalar las nuevas actualizaciones. En organizaciones más pequeñas, un administrador también puede tener responsabilidades asociadas a otros campos, como puede ser: Soporte técnico. Administrador de base de datos. Administrador de red. Analista de sistemas. Administrador de seguridad. Programador.
Los administradores de sistema, en grandes organizaciones, tienden a no ser arquitectos de sistemas, ingenieros de sistemas ni diseñadores de sistemas. Como sucede con muchos roles de este campo, en las pequeñas organizaciones las diferencias de roles no están muy delimitadas. Como sea, incluso en grandes organizaciones, los administradores de sistema sénior, tienen conocimiento en varias de estas otras áreas, como resultado de su amplia experiencia laboral.
25 Extra Tecnología
Por otro lado, también “La Ingeniería Informática tiene como objeto de estudio la Información, entendida como un elemento de gran valor dentro de las organizaciones y en tal sentido se propende por la selección y uso apropiado de las tecnologías que permitan su desarrollo y potencien su aporte en el proceso de toma de decisiones a nivel organizacional”.
Relaciones entre la ingeniería y la ingeniería de sistemas.
Antes de los planteamientos sobre los objetos de conocimiento, de estudio y de formación de la ingeniería de sistemas y la ingeniería informática, es prudente establecer diferencias entre estos dos conceptos. El objeto de conocimiento se refiere a la manera concreta como el sujeto piensa al objeto y su definición implica la existencia de protocolos teóricos y o experimentales. El objeto de conocimiento se diferencia por su propio discurso, su problemática concreta y su método de indagación y desarrollo (Arboleda y Lopera, 2002). Por su parte, el objeto de formación está relacionado con la formación profesional, con los procesos educativos para la formación del sujeto e implica el abordaje y dominio de cuerpos de conocimiento teóricos e instrumentales sobre la disciplina o campo del saber (Salazar, 2002). A su vez, los objetos de estudio son procesos que develan potencialidades para descubrir realidades, construir conocimientos, transformar prácticas o recrear saberes y discursos (Jiménez, 2002). Dentro del mundo académico y empresarial, con los avances de la tecnología que abren el abanico de los conocimientos y las tendencias hacia las especialidades de las disciplinas, no dejan de escucharse alertas acerca de los objetos de estudio y de formación de la ingeniería de sistemas y la ingeniería informática. Hay dificultades conceptuales al interior de cada uno, pero además, estos objetos parecen que se traslapan y entonces no se sabe con certeza hasta donde llegan los dominios del uno y el otro. Esta dificultad se acentúo aún mas con el Decreto 2563 de 2003 y la resolución 2773 de 2003 del Ministerio de Educación Nacional (2003), que dejaron en la misma balanza estas dos ingenierías. ¿Cuál son los objetos de estudio y de conocimiento de la ingeniería de sistemas y la ingeniería informática? ¿Cuál son los objetos de formación de estas ingenierías? “La ingeniería de sistemas es una profesión que tiene como objeto de estudio la información, su procesamiento, distribución, seguridad e Interpretación como elemento fundamental para el desarrollo de las organizaciones. Involucra aspectos de tipo tecnológico, administrativo y de generación de procesos”.
Hechas las claridades precedentes, se entra al análisis concreto de la ingeniería de sistemas dentro del marco general de la ingeniería. El concepto de ingeniería está relacionado con el ingeniar, idear o inventar, este saber se refiere a la capacidad de aplicación de los conocimientos científicos, a la invención, perfeccionamiento y utilización de la técnica industrial en diversas dimensiones de una realidad dada. “La profesión en la cual los conocimientos de las ciencias naturales y matemáticas se adquiere mediante el estudio, la experiencia y la práctica; se aplican con buen criterio para desarrollar los medios, aprovechar económicamente los materiales, los recursos y las fuerzas de la naturaleza, para el crecimiento y prosperidad de la humanidad”. La ingeniería de sistemas, en forma específica, se ocupa de la información, de su estructura, mantenimiento, sistematización y automatización, para que con criterios de servicio a la gente, contribuya a la optimización de procesos y operaciones y al desarrollo y puesta en escena de la comunicación. El propósito es aprovechar las propiedades del electromagnetismo y la electrónica digital para crear soluciones de automatización de información y calidad en los servicios para los usuarios. Varias cosas pueden concluirse de estas definiciones: a) Los ingenieros de sistemas están preparados para el análisis, diseño, desarrollo y evaluación de sistemas de información, no de otro tipo de sistemas. De hecho cada disciplina o ciencia implica unos sistemas propios, por ejemplo, sistemas biológicos, sistemas económicos, sistemas sociales. b) Por definición, la ingeniería es la aplicaron de las ciencias naturales y las matemáticas para resolver problemas y para esto aplican una cadena que incluye: análisis de contexto, diseño de las soluciones, implementación de las soluciones y pruebas. Esto lo hacen, los ingenieros civiles, los mecánicos, los electrónicos, y por supuesto, los ingenieros de sistemas. Más concretamente aun: los proyectos de ingeniería en general se caracterizan por ciertas etapas básicas: a) Conocimiento del contexto objeto de la solución planeada, b) Rigurosidad técnica en la fase de planeación del proyecto, c) evaluación de los recursos necesarios d) Rigurosidad técnica del diseño, d) Definición de rutas en la implementación, e) Evaluación, pruebas y planes de contingencia.
27 Extra Tecnología
TEORIA GENERAL DE SISTEMA SU EVOLUCION Y OBJETIVO
El problema, responde al por que, de la Investigación lo podemos definir como la situación propia de un objeto, que provoca una necesidad en un sujeto, el cual desarrollará una actividad para transformar la situación mencionada. El problema es objetivo en tanto es una situación presente en el objeto; pero es subjetivo, pues para que exista el problema, la situación tiene que generar una necesidad en el sujeto. Cualquier problema científico es consecuencia del desconocimiento de la existencia, en una esfera de la realidad, de elementos y relaciones de dicha realidad objetiva. El planteamiento del problema científico es la expresión de los límites del conocimiento científico actual que genera la insatisfacción de la necesidad del sujeto. El concepto de sistemas proporciona un marco común de referencia para este estudio: "Implica una fuerte orientación hacia el criterio final de realización o salida de un conjunto total de recursos y componentes, reunidos para servir un propósito especifico. La justificación de la TGS, gira alrededor de la premisa de que todos los sistemas no solo muestran una notable similitud de estructura y organización, sino que también reflejan problemas, dilemas y temas comunes. PROBLEMAS PARA LA CIENCIA. En cierta forma los métodos e ideas de la ingeniería de sistemas van contra los procedimientos empleados durante muchos años. Quizas dos enemigos todavía mas serios de la filosofía de sistemas son los escepticos y los deterministas. El escéptico cree que nunca podemos entender todos los aspectos de un problema.
Desde el punto de vista de la teoría general de sistemas, Se les ha confiado a las ciencias sociales, la responsabilidad de resolver el nudo Gordiano de la sociedad. Con el fin de lograr algún avance, estos deben hacer que converjan todas las áreas del conocimiento humano. Al lado del paradigma de sistemas, el enfoque de sistemas proporciona un procedimiento por el cual pueden planearse, diseñarse, evaluarse e implantarse soluciones para problemas de sistemas.
El determinista es una persona que piensa que el hombre no tiene control sobre las fuerzas que mueven al mundo real. Desde el punto de vista de la teoría general de sistemas, Se les ha confiado a las ciencias sociales, la responsabilidad de resolver el nudo Gordiano de la sociedad. Con el fin de lograr algún avance, estos deben hacer que converjan todas las áreas del conocimiento humano. Al lado del paradigma de sistemas, el enfoque de sistemas proporciona un procedimiento por el cual pueden planearse, diseñarse, evaluarse e implantarse soluciones para problemas de sistemas.
El concepto de sistemas proporciona un marco común de referencia para este estudio: "Implica una fuerte orientación hacia el criterio final de realización o salida de un conjunto total de recursos y componentes, reunidos para servir un propósito especifico. La justificación de la TGS, gira alrededor de la premisa de que todos los sistemas no solo muestran una notable similitud de estructura y organización, sino que también reflejan problemas, dilemas y temas comunes.
determinación del problema es una operación mediante la cual se especifica claramente y de un modo concreto sobre qué se va a realizar la investigación. Es el punto inicial de la cadena: Problema- Investigación- Solución; por tanto, determinará toda la posterior proyección de la investigación se debe tener en cuenta:
Interdisciplinariedad: corresponde a las relaciones mas o menos integrativas que aparecen entre dos disciplinas. Multidisciplinariedad. el termino refleja la siempre creciente necesidad de colaboración entre numerosos especialistas para el manejo de situaciones.
29 Extra Tecnología
CIBERNÉTICA La cibernética es el estudio interdisciplinario de la estructura de los sistemas reguladores. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. Tanto en sus orígenes como en su evolución, en la segunda mitad del siglo XX, la cibernética es igualmente aplicable a los sistemas físicos y sociales. Los sistemas complejos afectan su ambiente externo y luego se adaptan a él. En términos técnicos, se centra en funciones de control y comunicación: ambos fenómenos externos e internos del/al sistema. Esta capacidad es natural en los organismos vivos y se ha imitado en máquinas y organizaciones. Especial atención se presta a la retroalimentación y sus conceptos derivados. La cibernética es una ciencia, nacida hacia 1942 e impulsada inicialmente por Norbert Wiener y Arturo Rosenblueth Stearns que tiene como objeto “el control y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general”. En 1950, Ben Laposky, un matemático de Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y, luego, computer art e infoarte. También, durante la década del cincuenta, William Ross Ashby propone teorías relacionadas con la inteligencia artificial.
La cibernética dio gran impulso a la teoría de la información a mediados de los 60, la computadora digital sustituyó la analógica en la elaboración de imágenes electrónicas. En esos años aparecen la segunda generación de computadoras (con transistores en 1960) concretándose por entonces los 1° dibujos y gráficos de computadora, y la tercera (con circuitos integrados, en 1964) así como los lenguajes de programación.
En 1965 tuvo lugar en Stuttgart la exposición”Computer-graphik” . Pero la muestra que consagró la tendencia fue la que tuvo lugar en 1968 bajo el título “Cybernetic Serendipity” en el Instituto de Arte Contemporáneo de Londres. También en ese año se destacó la exposición “Mindextenders” del Museum of Contemporary Crafs de Londres. En 1969 el Museo Brooklin organizó la muestra “Some more Beginnings”. En ese mismo año, en Buenos Aires y otras ciudades de Argentina, se presentaba Arte y cibernética, organizada por Jorge Glusberg con esta muestra se inauguraría los principios de la relación arte/ imagen digital en ese país. En España la primera manifestación fue la de “Formas computables”- 1969- “Generación automática de formas plásticas” 1970-ambas organizadas por el Centro de Cálculo de la Universidad de Madrid. En los primeros meses de 1972, el Instituto Alemán de Madrid y de Barcelona han presentado una de las muestras más completas que ha tenido lugar en España, titulada <Impulso arte computador>. Las primeras experiencias de lo que luego se llamaría net.art. se remontan al año 1994, es importante aclarar que ya por los 1960 existían algunas antecedentes. De todas formas se puede establecer, que las primeras experiencias donde la tecnología informática puesta al servicio de la comunidad funcionó como soporte estético trascurren por aquellos años y rompe con la idea de lectura lineal de la obra...
31 Extra Tecnología
Tecnología del siglo XXI En el inicio del siglo XXI, la sociedad de hoy se encuentra en una nueva etapa cono consecución del desarrollo industrial del siglo pasado, las exigencias que demanda este nuevo orden mundial, donde el conocimiento y la información son el motor de los avances es en este artículo explica el desarrollo de la ciencia a partir de una visión postmoderna interdisciplinaria en el c científicos y tecnológicos, requiere de una base fundamental para la adopción global de dicho orden . El prontexto actual de la sociedad del conocimiento y el papel de la ciencia y tecnología dentro de este paradigma en el presente siglo.
Con el propósito de plasmar este ambicioso cóctel en imágenes, el director de “Titanic” despliega todos los recursos que tiene a mano. Desde la filmación con cámaras especiales para la “captura de movimientos”, pasando por el uso de la tercera dimensión y el registro de actores reales interactuando con personajes digitalizados, todo está al servicio de una historia plena de vértigo y espectacularidad. Para focalizar la anécdota vendría bien explicar que el término Avatar se emplea para definir la imagen gráfica o virtual que representa a un usuario que detrás de dicha fachada interacciona con otros integrantes de la red. En este caso, el tema va un poco más allá porque lo que realmente ocurre es que un soldado minusválido viaja al lejano planeta Pandora para “usurpar” el cuerpo criado artificialmente de un nativo de ese mundo y así lograr entablar contacto con los “aborígenes” locales y sonsacarles información que pueda ayudar a la conquista de los humanos. Un crítico estadounidense ha señalado cierta semejanza con la esencia argumental de “Danza con lobos”, en la cual Kevin Costner terminaba integrando la tribu indígena y asumiendo la defensa de aquellos a los que había venido a controlar /exterminar. El proceso prácticamente es el mismo, más allá de que también se planteen ciertas confrontaciones entre el equipo científico de la misión frente al aparato militar de la multinacional. Pero no es lo único ya que también podrían buscárseles ciertas reminiscencias del filme “Pelotón”, sin dejar de lado el potencial legendario que aparecía por ejemplo en la “Guerra de las galaxias”. Hay un poco de todo esto y más ya que el realizador de “Terminator” juega muchas fichas en la recreación de un hábitat onírico fosforescente con asombrosas vistas de una naturaleza paradisíaca y la impactante recreación de combates por aire y tierra. Obviamente, hay un manejo del estereotipo relativamente equilibrado, una presentación bastante hollywoodense de varios aspectos de la historia pero, con más de trescientos millones de dólares dando vueltas en su producción (aunque algunos dicen que la cifra trepó a quinientos, incluyendo la difusión publicitaria mundial) es lógico que el cineasta tomara sus recaudos para un premeditado impacto masivo. Cabe señalar, sin embargo, que en algunos tramos la película parece estirarse demasiado (se hace un poco larga, vamos) pero eso no quita que se trate de un largometraje destinado a marcar presencia en lo que tiene que ver con las mega realizaciones cinematográfico empresariales de la Meca. Se sabe que otros pesos pesados como Spielberg (con el que Cameron compite de igual a igual en su imaginería) están dentro del negocio como una especie de productores asociados o algo por el estilo. No es de extrañar porque desde hace tiempo nombres de la talla de Robert Zemeckis, George Lucas y los ya mencionados están procurando cambiar la dinámica del negocio en todo sentido. “Avatar” podría ser un engranaje clave de esas pretensiones que fusionan intereses artístico económicos buscando provocar un altísimo impacto en la platea. No podemos decir que no lo logra. Lo que es justo, es justo.