REVISTA CONCEPTUAL UCB

Page 1

Revista Conceptual UCB

REVISTA CONCEPTUAL UCB Nos entrega informaci贸n de las actuales tecnolog铆as con la aplicaci贸n en diferentes 谩reas 1


Revista Conceptual UCB

EDITORIAL El emprendimiento para realizar la revista, es coadyuvar a los alumnos en el ámbito de la investigación, dándoles parámetros para que ellos en su futuro, proyecten sus propias investigación de temas de interés personal con referencia a la carrera que están estudiando y les sea mucho mas fácil el desenvolvimiento al encontrar temas tanto en sus proyectos de grado como temas de tesis.

Se quiere realizar una directriz de la parte investigativa juntamente con la parte educativa, despertando a nuevas adquisiciones de saberes, que nos brindará a futuro, estudiantes con una visión más amplia en la parte de la investigación que es lo que debemos fomentar.

Este número esta orientado a diferentes aplicaciones que tiene la tecnología con las áreas de ciencia, llenando de expectativa a los alumnos por los semestres venideros y el futuro de la tecnología donde podrán contribuir, estos artículos muestran como se puede poner en practica desde un concepto hasta el desarrollo del artículo mostrando el interés que cada alumno. Se felicita y conmina a los autores de los artículos a poner en práctica efectiva los conocimientos adquiridos, y seguir por este camino que les llevará a grandes logros en su vida profesional, tomando en cuenta siempre “EL SABER ES PODER”.

Un agradecimiento particular a los familiares de los estudiantes por el apoyo que se les brinda día a día, y se les invita a que siempre brinden ese mismo apoyo para que los estudiantes sean excelentes profesionales que es lo que nuestro país necesita.

Elizabeth Pommier Gallo

2


Revista Conceptual UCB

La web 3.0 MSc. Elizabeth Patricia Pommier Gallo Ingeniería de Sistemas, Universidad Católica Boliviana Av. 14 de Septiembre 4807, Obrajes-Zona Sur. LP 4805, La Paz – Bolivia epommierg@.ucb.edu.bo Resumen— La Web 3.0 se basará en una Internet más ―inteligente‖, los usuarios podrán hacer busquedas más cercanas al lenguaje natural, la información tendrá semántica asociada y la Web podrá relacionar conceptos de multiples fuentes, también podrá deducir información a través de reglas asociadas al significado del contenido

que es lo mismo, se atiende a diferentes ámbitos, se tiene en cuenta el conjunto de lenguajes, a la vez que los procedimientos para poder añadir esa semántica a la información para que, de esta manera, sea entendible por los agentes encargados de procesarla. Además, se tiene en cuenta el desarrollo y la construcción de los agentes encargados de procesar esa información y de filtrar adecuadamente cuál de todas ellas es la útil para los usuarios o para los agentes que tienen que realizar una función concreta.

Palabras clave —web semantica, aplicacines, alcance social .

I. INTRODUCCIÓN La Web semántica (del inglés semantic web) es un conjunto de actividades desarrolladas en el seno de World Wide Web Consortium tendente a la creación de tecnologías para publicar datos legibles por aplicaciones informáticas (máquinas en la terminología de la Web semántica).1 Se basa en la idea de añadir metadatos semánticos y ontológicos a la World Wide Web. Esas informaciones adicionales —que describen el contenido, el significado y la relación de los datos— se deben proporcionar de manera formal, para que así sea posible evaluarlas automáticamente por máquinas de procesamiento. El objetivo es mejorar Internet ampliando la interoperabilidad entre los sistemas informáticos usando "agentes inteligentes". Agentes inteligentes son programas en las computadoras que buscan información sin operadores humanos.

Fig. 1 web 3.0

Con todo ello, los agentes deben recuperar y manipular la información pertinente, lo que requiere una integración sin fracturar la Web, pero sin dejar de aprovechar totalmente las infraestructuras que existen. En concreto, a través de esta modalidad de Web semántica se pueden obtener soluciones a problemas habituales en la búsqueda de información gracias a la utilización de una infraestructura o proceso común, mediante la cual, es posible compartir, procesar y transferir información de forma sencilla. En la actualidad, la World Wide Web está basada principalmente en documentos escritos en HTML, un lenguaje de marcado que sirve principalmente para crear hipertexto en Internet. El lenguaje HTML es válido para adecuar el aspecto visual de un documento e incluir objetos multimedia en el texto (imágenes, esquemas de diálogo, etc.). Pero ofrece pocas posibilidades para categorizar los elementos que configuran el texto más allá de las típicas

II. WEB SEMÁNTICA La Web Semántica es una ampliación de la Web, por medio de la que se intenta realizar un filtrado de manera automática pero precisa de la información. Es necesario hacer que la información que anida en la Web sea entendible por las propias máquinas. En concreto se atiende a su contenido, independientemente de la estructura sintáctica. O lo

3


Revista Conceptual UCB funciones estructurales, como sucede con otros lenguajes de maquetación (tipo LaTeX). La Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos.

III. COMPONENTES DE LA WEB 3.0 Los principales componentes de la Web Semántica son los metalenguajes y los estándares de representación XML, XML Schema, RDF, RDF Schema y OWL, así como el lenguaje SPARQL para la consulta de datos RDF.4 La OWL Web Ontology Language Overview describe la función y relación de cada uno de estos componentes de la Web Semántica: XML aporta la sintaxis superficial para los documentos estructurados, pero sin dotarles de ninguna restricción sobre el significado. XML Schema es un lenguaje para definir la estructura de los documentos XML. RDF es un modelo de datos para los recursos y las relaciones que se puedan establecer entre ellos. Aporta una semántica básica para este modelo de datos que puede representarse mediante XML. RDF Schema es un vocabulario para describir las propiedades y las clases de los recursos RDF, con una semántica para establecer jerarquías de generalización entre dichas propiedades y clases.

Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicaciones nonbrowser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada. La Web 3.0 va a ser en realidad la era de la inteligencia artificial habilitado para programas extensos de la Web. La Web 3,0 y las nuevas tecnologías ayudan a crear la web semántica mediante la generación de una base de datos mundial de los datos actualmente dispersos a través de Internet. Tenemos un millón de formatos de datos, incluso para una sola tarea sencilla. Esto es porque hay demasiadas solicitudes en todos los géneros, y cada uno de ellos crea su propio formato de datos, que se oculta a las demás solicitudes. La principal tarea de las tecnologías Web 3.0 es unificar todos estos formatos, y crear un formato común y extensible que pueda entender cualquier dato de la aplicación. Sólo cuando los datos no se ocultan a las máquinas, las máquinas no haran nada productivo.

Fig. 3 OWL. OWL es un lenguaje para definir ontologías mediante la descripción detallada de propiedades y clases: tales como relaciones entre clases (p.ej. disyunción), cardinalidad (por ejemplo "únicamente uno"), igualdad, tipologías de propiedades más complejas, caracterización de propiedades (por ejemplo simetría) o clases enumeradas. SPARQL es un lenguaje de consulta de conjuntos de datos RDF. Además en dicha especificación también se incluye un formato XML que detalla el modo en el que se estructuran los resultados obtenidos. La usabilidad y aprovechamiento de la Web y sus recursos interconectados puede aumentar con la web semántica gracias a: Los documentos etiquetados con información semántica (compárese ésta con la etiqueta <meta> de HTML, usada para facilitar el trabajo de los robots). Se pretende que esta información sea interpretada por el ordenador con una capacidad comparable a la del

Fig. 2 Revolución de la web

4


Revista Conceptual UCB lector humano. El etiquetado puede incluir metadatos descriptivos de otros aspectos documentales o protocolarios. Vocabularios comunes de metadatos (Ontología (Informática)) y mapas entre vocabularios que permitan a quienes elaboran los documentos disponer de nociones claras sobre cómo deben etiquetarlos para que los agentes automáticos puedan usar la información contenida en los metadatos (p.ej. el metadato author tenga el significado de "autor de la página" y no el del "autor del objeto descrito en la página"). Agentes automáticos que realicen tareas para los usuarios de estos metadatos de la Web Semántica

contenido quiere obtener de la web y en qué manera, que es el mayor reto. Para la empresa, incluso para el usuario visto como consumidor, el target se ha definido – incluso por la Comisión Europea en resolución de Septiembre de 2008 – más en la explotación de la personalización y semántica de los contenidos hacia la comercialización de productos adaptados al usuario. El uso de la Web 3.0 contribuye mucho al desarrollo de la Internet actual. Empresas como ZCubes, Zoho, Google, etc, que se especializan en la web 3.0, han creado aplicaciones para incorporarse a la revolución de la Web semántica. en el estándar 802.16e. La Web 3.0 ha habilitado tecnologías que incluyen las aplicaciones en línea (o de servicios web), lo que puede hacer prácticamente cualquier cosa. Por ejemplo, si vas a la página web ZCubes, puede crear páginas Web personalizadas que pueden contener texto, hojas de cálculo, guiones, música, imágenes, videos en vivo, los sitios web en vivo, y mucho más. Incluso puede escribir a mano en la página, y crear su propio dibujos vectoriales de alta calidad. Todas estas características se pueden incrustar en una sola página mediante arrastrar y soltar, y el producto (un archivo HTML normal) se puede guardar en su ordenador o se publicarán en la Web. Son ideas y conceptos mayores que ya debemos estar integrando a nuestros que haceres y nuevos aprendizajes. V. IMPACTO QUE PODRÁN TENER LA WEBS SEMÁNTICAS EN LAS RELACIONES PÚBLICAS

Fig. 4 Metadatos de la web Servicios Web (a menudo con agentes propios) que provean de información a los agentes (por ejemplo un servicio de garantías a quien un agente pudiera consultar sobre si un comercio electrónico tiene un historial de mal servicio o de generar correo basura). Los proveedores primarios de esta tecnología son las URIs que identifican los recursos junto con XML y los namespaces. Si a esto se añade un poco de lógica, mediante una RDF, u otras tecnologías como los mapas temáticos y algo de razonamiento basado en técnicas de inteligencia artificial, Internet podría estar cerca de alcanzar las aspiraciones iniciales de su inventor, Tim Berners-Lee. IV. POTENCIALIDADES El principal objetivo de la Web 3.0 debe ser la interconexión de contenidos y una jerarquización de la información orientada al usuario y la reutilización de esos mismos contenidos. Pero aquí hay un debate, y es que las potencialidades van en 2 vías: comercial y personal. Para el usuario el mayor potencial debe estar basado en la organización semántica de las taxonomías, en la clasificación ontológica. En definitiva, en que sea el usuario quien decida qué

Fig. 5 Desarrollo de la Internet actual. La forma tradicional de hacer negocios donde los gerentes miran después donde la media en un mercado dado se transforma en algo superfluo. Cómo las personas toman decisiones o se ven impactadas por la influencia será más personalizada que nunca. La información que recibe la gente será más acerca de

5


Revista Conceptual UCB sus interacciones pasadas, otros se involucran online y con los productos que compran y muchos menos todavía se involucrarán sobre donde viven. La priorización de las redes sociales se hará más difícil que nunca. En un mundo donde la información se entregará en forma de nicho en relación a la demanda, el alcance y la influencia de la vieja economía de las relaciones públicas de importa mucho menos.

demandado actualmente, sobre todo para asesorar a empresas sobre las herramientas disponibles y la idoneidad de las mismas para ofrecer productos orientados al usuario, y también para ayudar a inversores y emprendedores a distinguir el grano de la paja, y es que hay mucha paja de momento. Y, por supuesto, expertos en usabilidad web, imprescindibles para aportar la visión del usuario sobre las herramientas.

Las Relaciones públicas y el servicio al cliente se acercarán mucho mas entre si. A medida que la importancia de los medios de comunicación masivos disminuye y la importancia de los individuales aumenta, la separación entre los periodistas y cada día individual se convertirá en un punto crucial. Todo el mundo se convertirá en un portavoz de la compañía. Basándose en el punto anterior será imposible para los voceros tradicionales dedicar tiempo para el creciente número de registro en las declaraciones requeridas. En lugar de asuntos corporativos y departamentos de relaciones públicas tendrán que capacitar a toda la organización de los compromisos influyentes .

Fig. 6 Programas aplicables VII. CONCLUSIONES El camino para la Web 3.0 es la dirección hacia la visión 3D, liderada por el Web3D Consortium. Esto implicaría la transformación de la Web en una serie de espacios 3D, llevando más lejos el concepto propuesto por Second Life.5 Esto podría abrir nuevas formas de conectar y colaborar, utilizando espacios tridimensionales.6 Ya hoy en día vemos que se realizan películas en 3D para el cine, que van sustituyendo al sistema 2D, el futuro que viene es lleno de aplicaciones y potentes herramientas sociales y educativas que debemos explotar al máximo. REFERENCIAS [1] [2] [3]

Fig. 5 Lo mejor web 3.0.

[4]

VI. ¿CUÁLES SERÁN LOS PERFILES PROFESIONALES MÁS DEMANDADOS PARA DESARROLLAR ESTE CONCEPTO?

Haran falta programadores y expertos en bases de datos relacionales, que trabajen en la búsqueda de la inteligencia artificial necesaria para ofrecer – especialmente – buscadores semánticos, que aprendan del usuario y le den un servicio de organización y resultados adaptados de la información. El campo de la consultoría web profesional es, no obstante, el más

6

http://ocw.uc3m.es visitado 26 de octubre 2012 http://ocw.uc3m.es/ingenieria-telematica http://www.youtube.com visitado el 26 de octubre 2012 http://www.youtube.com/watch?v=K9V-2wmxddg 26 de octubre 2012 http://www.mindomo.com/es/mindmap/web-20-web-302671b7eeda744faab517aa258e9ad4e8 ¿Web 2.0, Web 3.0 o Web Semántica?: El impacto en los sistemas de información de la Web visitado 26 de octubre 2012 http://www.lluiscodina.com/Web20_WebSemantica200 9_Nov2009.pdf


Revista Conceptual UCB

DISEÑO HARDWARE-SOFTWARE Mauricio Oswaldo Flores Pauletti Ingeniería de Sistemas Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre No. 4807 esq. Calle 2, Obrajes pa_flores_t@estudiantes.ucb.edu.bo La Paz, Bolivia Resumen – Los avances de la tecnología son cada vez mayores y existe la necesidad de dar uso a las nuevas tecnologías. A medida que el hardware tiene mayores capacidades, el software debe adecuarse a este, aunque esto signifique dejar de lado paradigmas obsoletos. Palabras clave – Arquitectura, Paralelismo, Computación, Rendimiento, Programación.

tarjetas de video u otros recursos que simplemente no van a ser requeridos ni utilizados. A medida que se presentan problemas se necesitan soluciones acordes a la magnitud del mismo. Por costos no se puede exagerar en los gastos de los recursos a utilizar y el hardware no es excepción. Pero cuando no existe hardware comercializado capaz de realizar eficientemente los trabajos requeridos, tenemos que diseñar una arquitectura específica para nuestro programa, que cumpla las funciones y utilice todos sus recursos.

I. INTRODUCCIÓN Solamente el avance tecnológico no es suficiente para el progreso de la sociedad, es necesario desarrollar herramientas nuevas y aprovechar estos avances. El problema radica en los métodos de desarrollo que pueden volverse anticuados. Desarrollar una herramienta en serie nunca llega a utilizar toda la capacidad del hardware que cada vez es mayor, por eso es preciso utilizar nuevos métodos que efectivamente utilicen todos los recursos a disposición.

III. SOFTWARE A MEDIDA Los lenguajes de programación facilitan a los desarrolladores la forma en que realizan procesos en la máquina. Los programadores por lo general usan recursos de una arquitectura predeterminada o generalizada.

II. HARDWARE DISEÑADO Muchas personas tienen en sus ordenadores programas como el Microsoft Word o Excel. Del conjunto de estas personas, son contadas aquellas personas que conocen y/o usan todas las funciones disponibles en el software.

Fig. 2 Desarrollo de software a medida Si hace unas líneas nos referíamos a diseñar hardware especifico a ciertas tareas, de la misma forma se puede crear software específico para una arquitectura determinada. Aún más, se puede desarrollar software pensando en cómo puede ser la arquitectura para dicho software. Bajo este principio de relación entre hardware y software se pueden crear herramientas específicas y eficientes con costos bajos.

Fig. 1 Diseño de hardware Este fenómeno se extiende aún más en la adquisición de un ordenador de escritorio. Personas que solo van a utilizar programas Office no necesitan un procesador de última tecnología, ni pensar en

7


Revista Conceptual UCB IV. PARALELISMO La programación en serie es el método de solución a problemas más simple. En este tipo de programas la información sigue un flujo de una vía. Los últimos procesadores capaces de realizar múltiples tareas simultáneamente han abierto campo a lo que se conoce como programación en paralelo. Hacer programas que manejen múltiples canales de información y procesos se ha convertido en una necesidad actual. Es más, las arquitecturas de computador de hoy en día se enfocan cada vez más en permitir esto para mejorar el rendimiento de los ordenadores.

a su vez se colocó como estándar para el cómputo paralelo cuando se introdujo hace dos años. NVIDIA desarrolló un set de novedosas tecnologías de arquitectura que hacen que las GPU Kepler sean de alto rendimiento y alta eficiencia de energía, al igual que más aplicables para un amplio rango de desarrolladores y aplicaciones. Entre las principales innovaciones están: Multiprocesador Stream SMX – El bloque de construcción de cualquier GPU, el multiprocesador stream SMX fue diseñado desde sus cimientos para obtener alto rendimiento alta eficiencia de energía, Brinda hasta tres veces mayor rendimiento por watt que un multiprocesador stream Fermi, lo que hace posible crear una súper computadora que brinde hasta un petaflop de rendimiento en cómputo en tan solo 10 racks de servidor. La eficiencia de energía de SMX fue lograda al incrementar el número de núcleos de arquitectura CUDA® cuatro veces, mientras se reducen las velocidades de reloj de cada núcleo, regulando la energía de la GPU mientras está en reposo y maximizándolas cuando dentro del área de procesamiento paralelo de la GPU en vez de en la lógica controladora.

Fig. 3 Programación en paralelo Pero los ordenadores comunes no están capacitados para manejar información de magnitudes colosales como necesitan petroleras cuando hacen mediciones ultrasónicas para encontrar pozos petrolíferos, o cuando se tiene un sistema de radares en la defensa del espacio aéreo de una nación. La cantidad de información que se necesita para procesar casos de esta magnitud es incapaz de ser procesada en un ordenador normal, es más, el procesamiento de esta información es casi imposible si el software está desarrollado en serie por más poderoso que sea el hardware. Es necesario que la información sea procesada en paralelo porque de otra forma no se podrá procesar información al mismo ritmo que esta llega generando problemas e ineficiencia.

Fig. 4 paralelismo dinámico Paralelismo Dinámico – Esta capacidad permite que los hilos de GPU sean dinámicamente transferidos a nuevos hilos, lo que le permite a la GPU adaptar dinámicamente la información. Simplifica por mucho la programación paralela, permitiendo la aceleración en GPU en un set más extenso de algoritmos populares, como la mezcla adaptiva de refinamiento, métodos rápidos multipolar y métodos multiredes.

Las nuevas GPU NVIDIA Tesla K10 y K20 son aceleradoras de cómputo hechas para resolver los problemas más complejos del HPC en el mundo. Diseñadas con un enfoque muy fuerte en el alto rendimiento y con extrema eficiencia de consumo de energía, Kepler es tres veces más eficiente que su predecesor, la arquitectura NVIDIA Fermi™, la cual

Hyper-Q – Esto permite que múltiples núcleos de CPU sean usados simultáneamente con núcleos de arquitectura CUDA en una sola GPU Kepler. Esto incrementa dramáticamente el uso de la GPU, cortando los tiempos de reposo de la CPU y

8


Revista Conceptual UCB avanzando la programación. Hyper-Q es ideal para clusters de aplicaciones que usen MPI. V. CONCLUSIÓN Los computadores cada vez poseen más capacidad de procesamiento, a pesar de este hecho, algunos problemas o sistemas requieren un desarrollo correcto del hardware y/o del software para poder solucionar los problemas que se presentan en el caso específico. VI. REFERENCIA [1] M. Abd-El-Barr y H. El-Rewini Fundamentals of Computer Organization and Arquitecture [2] A. Grama, A. Gupta, G. Karypis, V. Kumar Introduction to Parallel Computing, 2da ed

9


Revista Conceptual UCB

Transmisión Inalámbrica Dieter Gustavo Portanda Larrea Ingeniería de Sistemas, Universidad Católica Boliviana Av. 14 de Septiembre 4807, Obrajes-Zona Sur. LP 4805, La Paz – Bolivia d_portanda_l@estudiantes.ucb.edu.bo Resumen— Los medios de transmisión inalámbricos son hoy en día muy comunes para la comunicación móvil, seguramente el lector habrá escuchado mucho acerca de tecnologías inalámbricas como ser Infrarrojos, Bluetooth, Wi-Fi, WiMax, 3G y 4G, todas estas tecnologías fueron apareciendo de acuerdo a las necesidades de comunicarse por canales no palpables convencionales. Pero, ¿Qué más se puede transmitir inalámbricamente? Para entender de mejor modo este tipo de tecnologías se presenta el siguiente artículo.

Las OEM se clasifican según su frecuencia de oscilación (f) o longitud de onda (λ), según: λ=c/f .

Palabras clave — Inalámbrico, Frecuencia, Hertz [Hz], Redes, Tecnología, Onda Electromagnética, Espectro, Energía, Información, canal, medio de transmisión.

Fig. 2 Onda Electromagnética.

I.

INTRODUCCIÓN

Entandamos que cuando hablemos de inalámbrico nos referimos al uso de un canal o medio de transmisión sin cables. Pero comúnmente se emplea medios de transmisión alámbricos, dependiendo de los requerimientos de transmisión se puede usar por ejemplo un cable coaxial, línea bifilar, una guía de ondas rectangular, fibra óptica, UTP, entre otros conocidos como cables, que en telecomunicaciones predominan y que todavía siguen en uso. Pero la necesidad de un ambiente móvil donde las personas lleven consigo las conexiones, dio paso al desarrollo de las telecomunicaciones de tecnología inalámbrica y fueron apareciendo generaciones de telecomunicaciones inalámbricas. Aunque las investigaciones no solo se enfocan en transmitir información, también hay avances en cuanto a suministrar energía a distancia sin cables.

Uno de los aspectos físicos más importantes es el espectro electromagnético que muestra las diferentes frecuencias casi infinitas de la distribución de la energía electromagnética. Este espectro se halla dividido en sectores o bandas. Cada banda con un nombre y un límite, constantemente actualizadas.

Fig. 2 Espectro Electromagnético.

II. FÍSICA INALÁMBRICA La transmisión inalámbrica en telecomunicaciones se basa en la naturaleza electromagnética. Las ecuaciones de Maxwell predicen la existencia de ondas electromagnéticas (OEM) que se propagan por el espacio a la velocidad de la luz c. Hecho confirmado por Heinrich Hertz al generar y detectar ondas electromagnéticas en 1887. Las OEM se generan por cargas eléctricas oscilantes, los cuales forman ángulos rectos entre sí y con la dirección de la propagación de la onda; de naturaleza transversal conducen energía y momentum. La relación entre campo eléctrico y magnético es E=cB (E= campo eléctrico; B= campo magnético). [7]

III. ESTANDARIZACIÓN Existen muchos organismos internacionales que regulan el uso efectivo del espectro electromagnético por ser un recurso limitado, como ser la Unión Internacional de Telecomunicaciones (ITU) o el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). Cada país miembro de la ITU o de cualquier otro ente regulador tiene plena soberanía sobre el uso del espectro de frecuencias dentro de normas aplicadas en su territorio. En Bolivia la principal organización reguladora de telecomunicaciones es la Autoridad de Fiscalización y Regulación de Telecomunicaciones y Transporte (ATT).

10


Revista Conceptual UCB redes de baja transmisión de datos, optimiza el gasto de energía, posee un cifrado de 128 bits AES. D. WiFi Una de las tecnologías más utilizadas y conocidas, bajo el estándar IEEE 802. 11x, entre los cuales los más importantes son 802.11a, 802.11b, 802.1 1g y 802.11 n, con un ancho de banda 600Mbps teóricamente, aunque en un principio se tenia tasas de transmisión de 1 a 2 Mbps. Fig. 3 Tecnologías Inalámbricas. IV. PRINCIPALES TECNOLOGÍAS A. IrDA Es la Asociación de Datos Infra Rojos definiendo estándares para la transmisión de datos a través del espectro infra rojo, soportando una gama amplia de dispositivos a velocidades de 9.600 bps y los 4 Mbps. Comunicación punto a punto, ángulo de estrecho de 30 grados. Cuenta con una serie de protocolos. PHY (Physical Signaling Layer) establece distancia máxima, la velocidad de transmisión y el modo en el que la información se transmite. IrLAP (Link Access Protocol) establece la conexión, IrLMP (Link Management Protocol) multiplexa servicios y aplicaciones de IrLAP, IAS (Information Access Service) brinda información de servicios, Tiny TP control de flujo de acuerdo con IrLAP, IrOBEX estándar para intercambiar comandos, IrCOMM adaptación a puertos serie y paralelo. IrLan acceso a LAN. [1][5]

802.11a fue creado para operar en frecuencias de 5GHz dentro de la banda de Super Altas Frecuencias (SHF siglas en ingles) que abarca los 3 GHz a 30GHz. Específicamente se utiliza el rango de 5,25 GHz a 35GHz. con 12 canales con un ancho de banda individual de 20 MHz. Velocidad de transmisión máxima de 54 Mbps. Utiliza una modulación OFDM. 802.11b opera en frecuencias de 2,4GHz y utiliza modulación DSSS, con un ancho de banda de 25MHz y se usan solo 3 canales simultáneamente. Ancho de banda máximo de 11 Mbps. 802.11g opera en la banda situada de 2,4GHz con 3 canales, pero a diferencia de 802.11b puede utilizar dos modulaciones DSSS y OFDM con un ancho de banda de 11Mbps y 54Mbps respectivamente. 802.11n puede trabajar en frecuencias de 2,4GHz y 5GHz, con una velocidad teórica máxima de 600 Mbps, con modulación MIMO-OFDM. Compatible con todas las versiones anteriores.

B. Bluetooth Tecnología utilizada para redes inalámbricas de área personal (WPAN) mediante enlace de radio frecuencia en banda mundial sin licencia ISM de 2.4 GHz, perteneciente a la banda de Ultra Altas Frecuencias (UHF) que abarca los 300 MHz y 3 GHz, especificado en el estándar IEEE 802.15.3 con un ancho de banda de 24 Mbps en la versión 3, en intervalos de cortocircuito, aplicaciones del tipo par a par o dispositivo a dispositivo. Con un alcance máximo de 100 metros en la clase 1 con 100 mW de potencia. C. Zigbee Es un conjunto de protocolo WPAN estándar IEEE Fig. 4 Transmisión inalámbrica entre dispositivos. 802.15.4, con el principal objetivo de ser usado para bajas transmisiones de datos, es decir en aquellas E. WiMax aplicaciones en las que solo se necesiten transmisión Tecnología de última milla, utiliza modulación de datos. Es ideal como bus de campo para optimizar adaptiva, dependiendo del alcance de la transmisión, el envío exclusivo de datos en la industria, comprende siendo una combinación de M-aria PSK y QAM. velocidades entre 20 kB/s y 250 kB/s, alcance de 10m Opera en el espectro de frecuencias de 10 a 66 GHz, a 75m. Usa banda ISM de 2,4GHz a nivel en sus primeras versiones necesita línea de vista (LOS mundial868 MHz (Europa) y 915 MHz (EEUU). Acceso de canal mediante CSMA. Por ser de uso para

11


Revista Conceptual UCB

-

-

siglas en ingles), cuenta con un ancho de banda límite de 75Mbps. Dentro del estándar existen dos variantes.

suficientemente para distancias mayhores. Este proyecto es denominado WiTricity.

WiMax de Acceso fijo, se refiere a la distribución de la señal para ambientes no móviles, un radioenlace desde la estación base hasta un equipo en el domicilio de un usuario, se establecen radios de células de hasta 6 kilómetros, con velocidades teóricas de hasta 70Mbps, el estándar que lo norma es el 802.16d.

VI. CONCLUSIONES

WiMax de Acceso Móvil, permite el desplazamiento del usuario dentro del rango de cobertura total de Wi Max, es una tecnología en desarrollo que se halla en el estándar 802.16e.

Las tecnologías inalámbricas han cambiado de manera significativa nuestro entorno, el cual requiere de mucho movimiento, para poder estar conectados en cualquier momento y en cualquier lugar. Hoy en día podemos tener acceso a la información desde casi cualquier lugar sin necesidad de tener la incomodidad de realizar extensas conexiones físicas palpables, lo que permite un desenvolvimiento eficaz de nuestras actividades, sin embargo el uso excesivo de las conexiones que utilizan las OEM pueden mostrar posteriormente dificultades, como ser el uso limitado del espectro electromagnético requiera de más normas para su uso eficaz y la constante migración de nuevas tecnologías, y quizá investigaciones futuras nos muestren si es que existe algún efecto significativo a la salud. Lo único cierto es que el desarrollo seguirá y cada día la vida se simplifica gracias a la movilidad de conexión. REFERENCIAS [1] [5] [6]

Fig. 5 Redes de acceso inalámbrico. V. ENERGÍA ELÉCTRICA SIN CABLES

[7]

La transmisión de energía electrica se basa en fundamentos conocidos por la física de electricidad y magnetismo. La idea basica es crear un campo magnético entre dos antenas, a partir de la oscilación de una bobina transmisora. La antena receptora tiene las misma caractrísticas que la antena receptora, misma frecuencia de resonancia, misma dimensiones. La energía eléctrica se genera al captar el campo magnetico de la bobina transmisora por un proceso de inducción magnetica.

[8] [9] [10] [11]

[12]

[13] [14] [15] [16]

Fig. 6 Transmisión sin cables de energía eléctrica. Aunque todavía se halla en desarrollo es un hecho que fue probado por investigadores del Instituo de Tecnología de Masachusetts (MIT), al encender una bombilla a distancia aunque la distancia no supera los dos metros debido a que la potencia no es lo

12

Alacoma, A. A. (2010). Wireless. La Paz, Bolivia. Canavire, F. (2007). Sistemas de Conmutación. La Paz. CISCO . (s.f.). CCNA Exploration v4. Conceptos y configuración de la conexión inalámbrica . II, L. W. (1998). Sistemas de Comunicación Digitales y Analógicos. Prentice Hall. IrDA. (2012). Infra Red Data Association. Recuperado el 21 de agosto de 2012, de www.irda.org Quiroga, W. (2007). Modulación Digital. La Paz, Bolivia. Raymond A. Serway, Robert J.Beichner. (2002). Física para Ciencias e Ingeniería. México: McGraw-Hill. Stufano, C. (s.f.). Instituto de Cálculo Aplicado. Recuperado el 21 de agosto de 2012, de http://www.ica.luz.ve/cstufano/CursoDeRedes/Wireless doc.pdf Tomasi, W. (1996). Sistemas de Comunicaciones Eléctricas. Naucalpan de Juaréz: Prentice Hall Hispanoamericana S.A. Vela, R. N. (1999). Líneas de Transmición. México D.F.: McGraw Hill/Interamericana Editores S.A. Wi-Fi Alliance. (2012). Wi-Fi Alliance. Recuperado el 21 de agosto de 2012, de http://www.wi-fi.org/ WiMax Forum . (s.f.). WiMax Forum . Recuperado el 20 de agosto de 2012, de www.wimaxforum.org/ WiTricity. (2012). WiTricity. Recuperado el 23 de agosto de 2012, de http://www.witricity.com


Revista Conceptual UCB

ROBOTS EN LA INGENIERIA CIVIL JORGE JOEL QUISPE ROCABADO Departamento de sistemas, Universidad Católica Boliviana “San Pablo” Zona Irpavi C.15 #36 La Paz-Bolivia joel.quispe@hotmail.com Resumen— La industria de la construcción ha experimentado en los últimos cincuenta años avances importantes, sobre todo en los países desarrollados, donde el trabajo en obra se ha visto acelerado por la mecanización. A su vez, la aparición de numerosos materiales y nuevos sistemas han permitido reducir el tiempo invertido en la prefabricación de componentes de viviendas o han sustituido procesos tradicionales en obra por ensamblaje. Palabras clave — Ensamblaje, automático, practico, seguridad y edificaciones.

I. INTRODUCCIÓN Científicos del Roboticslab de la Universidad Carlos III de Madrid (UC3M) han desarrollado un sistema capaz de automatizar y robotizar ciertos procesos en la construcción que en la actualidad se realizan manualmente. Santiago Martínez de la Casa, investigador del Departamento de Ingeniería de Sistemas y Automática, dice que el estudio se centra en la introducción de robots industriales comerciales en el entorno de la construcción. De esta manera, se garantiza un trabajo seguro, así como un incremento de la calidad y las prestaciones de las edificaciones acorde con las necesidades de la sociedad actual. Añade, que ―el diseño de un sistema con estas características no abarca la solución específica para un problema, sino por el contrario, es un sistema genérico, flexible, capaz de adaptarse a diferentes tareas, favoreciendo el ensamblaje de múltiples productos y que pueden ser transportado de obra en obra.

II.

Para identificar qué nivel de automatización es el adecuado en una construcción, ―hay que diferenciar entre la edificación de viviendas, con un bajo nivel de automatización, y las grandes obras -túneles, carreteras- con un nivel medio-alto‖, explica el investigador. En términos económicos, la inversión que se puede realizar en tecnología para la construcción en un proyecto de viviendas es muchísimo menor que en una gran obra, dada la relación coste del producto final/coste de la maquinaria. Un sistema automatizado también modifica el entorno y el rol que desempeñan los trabajadores. El papel de la robótica en la construcción será por un lado sustituir al operador humano en la realización de tareas peligrosas, y complementar el trabajo de este mediante la automatización de diferentes procesos, aportando capacidades aumentadas más fuerza, resitencia y precisión- bajo el control y planificación del operario. De esta forma se consigue un trabajo seguro y se mejora la productividad y la calidad de los procesos.

POTENCIALES APLICACIONES

La aplicación de un sistema automatizado en la construcción incrementa la productividad y la calidad de una obra. En la actualidad por ejemplo, la puesta en funcionamientos de edificios puede tardar hasta dos años y se pretende reducirlo un 70% con la ayuda de robots constructores. Si se tiene en cuenta las tareas a realizar, explica el profesor, se pueden identificar dos tipos: ―El primero no es exactamente un robot sino que son grandes complejos que integran múltiples sistemas y que se encargan de la construcción completa de un edificio de forma automatizada. Son sistemas que van ensamblando los componentes de un edificio planta por planta y suben de nivel según va ganando altura la estructura. El segundo tipo son robots de pequeño tamaño encargados de realizar una tarea concreta, como por ejemplo, acabado de superficies de cemento o inspección de estructuras‖.

III.

El estudio ―Building Industrialization. Robotized Assembly of Modular Products‖ ha sido publicado en la revista Assembly Automation por el grupo de investigación RoboticsLab del Departamento de Ingeniería de Sistemas y Automática de la Universidad Carlos III de Madrid.

ROBOTS QUE CONSTRUYEN CASAS

13


Revista Conceptual UCB IV. CONCLUSIONES Tras el repaso dado al estado del arte de los robots en la ingeniería civil queda patente en que la mayoría de los esfuerzos se han centrado en desarrollar robots con fines de facilitar el desarrollo de una construcción. Las empresas presentan más interés en financiar un desarrollo que suponga una ventaja, en desarrollar equipo que pueda servir de ayuda en construcciones, demoliciones y también seguridad. Como ha quedado demostrado, se han conseguido grandes mejoras en el movimiento de robots en todo tipo de superficies gracias a proyectos industriales. Este robot puede construir una casa completa de dos niveles sin un solo humano en la obra y lo mas increíble es que hace este trabajo en tan solo 24 horas. El robot de $1.5 millones de dólares construirá la casa completa utilizando solo dos ingredientes: Concreto y Yeso. El robot básicamente estará colocado en un marco de acero en forma de cubo alrededor de la casa, lo que le permitirá moverse en 3 dimensiones, construyendo la casa de abajo hacia arriba, ―imprimiendo‖ una capa de ingredientes a la vez, como si de una impresora imprimiendo varias hojas se tratara. Puede que parezca poco atractivo para los indices de desempleo pero en la página del proyecto nos informa que las aplicaciones de esta tecnología son constyruir casas de emergencias, colonias espaciales, aplicaciones comerciales, reconstrucciones por desastres, etc.

Según el Dr. Behrokh Khoshnevis, de la Universidad de California del Sur, no tiene sentido que los zapatos, la ropa y los coches se fabriquen automáticamente pero una casa se construya a mano. Así que se le ocurrió invertir 1.5 millones de dólares en una especie de impresora 3D capaz de levantar una casa de dos pisos en 24 horas, colocando los materiales, capa sobre capa, de abajo a arriba. El Dr. Rupert Soar, jefe de un proyecto similar de la Universidad de Loughborough (con un robot capaz de construir una casa en una semana con tuberías de agua, electricidad y ventilación) ha trabajado en Namibia inspirándose en la termitas que construyen montañas gigantes con diseños fabulosos. A pesar de todo, las pruebas del robot-constructor estadounidense terminarán en el mes de abril, mientras que el prototipo de Loughborough no empezaría su trabajo hasta dentro de cinco años.

De acuerdo con lo expuesto, los centros de investigación deberían hacer un esfuerzo por contribuir a mejorar la robótica de forma que esta pueda estar más en manos de la población y como ayuda a la vida cotidiana; más que a desarrollar seguridad el cual ya está suficientemente logrado por los distintos robots. RECONOCIMIENTOS Este artículo se ha escrito como parte de la asignatura ―ingeniería en sistemas‖ de la Universidad Católica Boliviana . A los autores les gustaría agradecer la ayuda del docente ELIZABETH PATRICIA POMMIER GALLO, por aportar algunas ideas y facilitar algunas referencias empleadas para elaborar el artículo

REFERENCIAS [1] White Paper Core Group Congreso de la OTAN Bonn Septienbre de 2004. www.european-robotics.org [2] Ronald C. Arkin and Lilia Moshkina, ―Lethality and Autonomous Robots: An Ethical Stance‖ [3] Leo Lewis, ―Military‘s killer robots must learn warrior code‖, February 16, 2009. The Times [4] Mr. Henry L Jones, Lt. Dennis Burns and Dr. Steve Morris ―Autonomous Robots in SWAT Applications: Research, Design, and Operations Challenges‖ [5] Patrick Lin, George Bekey ―Autonomous Robots: Risk, Ethics and Design‖, December 20, 2008. California State Polythechic University, San Luis Obispo. [6] ―The Navy Unmanned Surface Vehicle (USV) Master Plan‖. July 23, 2007. [7] ―The Navy Unmanned Undersea Vehicle (UUV) Master Plan‖. November 9, 2004 [8] ―Unmanned Aircraft Systems (UAS) Roadmap ‖. August 4, 2005. [9] Leo Lewis, ―Robots in the house‖, February 16, 2009. The Times. [10] JR Minkel. ―Robotics Prof sees threat in civil robots‖, February 28, 2008. Scientific American. [11] Danna Voth. ―A new generation of civilrobots‖. 1541-1672/04 © 2004 IEE [12] Ronald C. Arkin. ―robots in the ing. civil‖.

14


Revista Conceptual UCB

Software aplicado en la ingeniería civil Ana Abigail Gutiérrez Flores Ingeniería civil, Universidad Católica Boliviana San Pablo Obrajes calle 2 A.v 14 de septiembre skaterpunkanita@hotmail.com

La Paz -Bolivia

Resumen— En este documento presente, se podrá apreciar los tipos de software para los ingenieros civiles, estos software ayudan al Ingeniero Civil, es una herramienta confiable, donde facilita, ayuda, pero no significa que estos software te dan todas las soluciones, tienes la herramienta que es el software pero tienes que implementar el criterio para que este software sea de gran ayuda, es decir al conocer el potencial de este podrás solucionar algunas dificultades que se presenta para un Ingeniero Civil.

Existe una variedad de software, dependiendo a que están especializadas, utilizara el Ingeniero Civil según lo que sea de su necesidad y a lo él mismo Ingeniero Civil este especializados.

Palabras clave — Ingeniero Civil, software, construcciones, herramienta, obras civiles, proyecto.

I. INTRODUCCIÓN Los software son una tecnología reciente, con el fin de planificar y ayudar en proyectos de obras civiles, es decir en la construcción de carreteras, edificios, sistema de tratamiento de aguas servidas y otras obras estructurales.

Fig. 2 En esta grafica se aprecia cómo se estar armando para vaciar una cimentación.

Teniendo en cuenta la situación en la que se requiera aplicar determinado software.

Fig. 3 En esta se pude observar a un ingeniero civil con todo lo necesario.

Algunos Ingenieros Civiles calculan los costos de construcción y especificación de materiales que se utilizaran en un proyecto con ayuda de estos software hacen los cálculos relativamente fácil, siempre teniendo en cuenta el criterio del Ingeniero Civil, los software son una herramienta de trabajo teniendo muy en cuenta las propiedades de cada uno de estos software. II.

ÁMBITOS DE APLICACIÓN

A. Ramas de la Ingeniería Civil Estos profesionales son los que se ocupan de la organización: obras civiles, de los procedimientos, y la implementación de la maquinaria de construcción, necesarias para ejecutar el proyecto propuesto y su requerimiento en materiales. Las actividades profesionales de un Ingeniero Civil pueden extenderse a la construcción de infraestructuras de los aeropuertos, transportes, caminos, ferrocarriles, y obras civiles, como edificios. Aplicando en cada paso la tecnología y estructuras convenientes.      

Por lo general se dividen en: Ingeniería Estructural. Ingeniería Geotecnia. Ingeniería Hidráulica. Ingeniería de Trasporte e infraestructuras Vial. Conceptos de Ingeniería de Transportes y Vías. Gerencia e ingeniería de construcciones.

15


Revista Conceptual UCB Todas las ramas mencionadas anteriormente cuentan con un software especializado en su pertinente especialidad, logrando este cometido con una diversidad de herramientas que pueden llegar a simplificar el trabajo. III. TIPOS DE SOFTWARE Como ya se menciono anteriormente existe una variedad de software según la necesidad del ingeniero civil, ya que puede acudir a estos como una gran herramienta de ayuda.

calidad. Trazado y replanteo de una carretera, como también poder apreciar su topografía. Se puede apreciar secciones transversales de la carrera a construir. Ingeniería de PRESCOM Calcula el presupuesto de construcciones un proyecto, mano de obra, ítems, IVA, precio unitario.

Ingeniería de Trasporte e infraestructuras Vial

Auto cad Auto cad Civil

En la tabla expuesta anteriormente se puede algunos de los software. Uno de los más nuevos software está relacionado con el estudio de mecánica de suelos que es una ciencia prácticamente nueva y de la que se desconoce muchos parámetros.

Fig. 3 En esta grafica se aprecia planos en el software AutoCAD.

B. Tipo de software para estructuras Estos tipos de software son especiales para Ingeniería Estructural ya que dependiendo al tipo de software se puede determinar esfuerzos en armaduras metálicas, cálculo del centro de gravedad, determinación del momento de inercia, para cálculos de hormigón armado y hay una serie de programas para poder determinar las solicitaciones que desee el Ingeniero Civil. Los diferentes tipos de software se mostrara en la tabla 1. C. Información de los software A continuación se mostrara una tabla la cual mostrara una serie de programas que se utilizan mayormente en las diferentes especialidades de la Ingeniería Civil. TABLA I SOFTWARE MAS UTILIZADOS Rama nombre Ingeniería Estructural Ingeniería Geotecnia.

Método de CROSS Auto cad Civil

Tipos de software Función o especialidad Calculo de solicitaciones para el diseño de vigas continuas.

Trazado y replanteo de los diferentes tipos de suelos que existe, donde se diseñaran las fundaciones Ingeniería AEDRACPD Sistema de monitorización Hidráulica 1 Estudio. de procesos y señales para el control de

Fig. 4 En esta imagen se puede ver el diseño y análisis estructural del hormigón mediante el software RAM comcret .

Todos los factores de seguridad que empleamos en una cimentación se podría decir que se obtuvieron de manera empírica, que se llevaron años de estudio, pero no hay una forma en la que puedes predecir con mucha exactitud cómo se comportara un suelo, dado que no es un cuerpo rígido por lo que tiene muchos grados de hiperestaticidad, es por eso que los factores de seguridad que se utilizan son excesivamente altos. Se realizo un software mediante el método de elementos finitos, que discretisa al suelo, con este se puede simular como actuaria el suelo con la construcción a diseñar o ayudar al suelo para que soporte la solicitación que se desea, este software ayuda al Ingeniero Civil a predecir asentamientos e incluso te puede dar los factores de seguridad más razonables para ese tipo de suelo en que se va a construir. D. ISPOL Permite diseñar desde las carreteras más sencillas hasta la autopista más compleja, solucionando de

16


Revista Conceptual UCB manera automática las relaciones entre los ejes, como es habitual cuando se diseña un nudo. La potencia de cálculo, el control sobre el proyecto y la filosofía de diseño basada en superficies y códigos permite enfrentarse a cualquier tipo de singularidad constructiva. Destaca la facilidad y versatilidad con que es posible definir secciones en túnel. Las figuras que se apreciaran a continuación son imágenes sacadas del software mencionado anteriormente.

1) Proyectos de ferrocarril: Sencillez en la definición de trazado aparatos de vía, definición del balasto, capa de forma traviesa y carril. 2) Saneamiento y distribución de tubería: Soporta todo tipo de zanjas, tubos y accesorios, contando con funciones especificas para este tipo de diseño. 3) Seguimiento y control del proyecto: gestiona el proceso constructivo, los datos de medición son integrados en el diseño para obtener los informes necesarios. E. Cualidades del software Una de las utilidades más eficaces es definida por el motor de cálculo de todo el tipo de mediciones volumétricas, posibilitando la valoración económica de todas las unidades constructivas del proyecto a realizar. Tiene una estructura modular que permite elegir desde una configuración sencilla que permite proyectar carreteras y autovías, hasta otras más complejas que contemplan proyectos ferroviarios, de distribución y abastecimiento mediante redes de tuberías, de renovación y mejora de calzadas existentes, de proyectos de urbanizaciones.

Fig. 5 En esta grafica se aprecia una autopista diseñada mediante el software.

La aplicación proporciona asistencia para cumplir y comprobar las normativas de diseño habituales en un trazado diario, realizando análisis de visibilidad, diagramas de velocidades y trayectorias de vehículos.

F. Características técnicas Diseño de obras lineales: diseño del eje en planta, diseño del eje en alzado, diseño de rasantes, mediana y excentricidad, anchos de calzadas, diseño del eje de giro, diseño de peraltes, definición de calzadas laterales, suelos, diseño y aplicación de secciones de firmes, utilidades, secciones tipo y geometría de la subrasante, zonas de cálculo, desmontes y terraplenes, plataformas fija, bermas, perfil longitudinal, modelado sólido, listado y ferrocarriles.

Fig. 6 En esta grafica se aprecia una autopista diseñada mediante el software.

La posibilidad de personalizar las salidas graficas y las utilidades y complementos que se desarrollan permiten al ingeniero disponer de complementos planos e informes.

Fig. 4 Imágenes de cartografías de una carretera

17


Revista Conceptual UCB Cartografía digital: edición de ficheras, edición de líneas, cotas y etiquetado de líneas de nivel, calificación de líneas, edición de rótulos, capas y modelos, formatos y encuadre de mapas, edición de paginado, salidas al trazador, superficies vistas tridimensionales, útiles, creación de objetos, digitalización, topografía, variables, editor de perfiles, dibujo bloques, enganches, estado del programa, menús de usuario, librería de símbolos, visibilidad, gestión de imágenes raster, base de datos cartográfica, formato de perfiles transversales. IV. CONCLUSIONES Como se pudo apreciar, los software en la ingeniería civil son una herramienta muy practicas y de gran importancia, estos diferentes tipos de software ayudan al ingeniero en el cálculo para la construcción. Existe una variedad de versiones pero cada vez son más completas donde ayudan cada vez más al ingeniero. RECONOCIMIENTOS Es necesario saber manejar los software ya que si no se los utiliza bien son obsoletos, los software pueden calcular todo lo que el ingeniero desee pero el ingeniero civil tiene la responsabilidad de que el diseño sea correcto debido a su experiencia, su criterio, su ingenio, ya que los software solucionan muchos problemas para el ingeniero civil pero hay que tener en cuenta que son una herramienta más. REFERENCIAS [1] [2] [3] [4] [5] [6] [7]

http://www.aptop.com/protopo_actualizaciones.html www.istram.net/index.php?opcion= . www.prescom-bo.com/ hidraulicos.blogspot.com/ - Perú. www.construaprende.com/Ingsoftware/ www.portalplanetasedna.com.ar/ingenieria_civil.htm www.itmatamoros.edu.mx/.../FG%20O%20ICIV-2010-

18


Revista Conceptual UCB

Nanotecnología Cristian Orozco Ingeniería industrial Universidad Católica Boliviana Av.14 de Septiembre- Obrejas C_cristian_a@estudiantes.ucb.edu.bo G. criso_1234@hotmail.com La Paz Bolivia Resumen— Este Este documento da algunas instrucciones relacionadas al formato para los artículos que serán enviados al congreso internacional de Desarrollo Comunitario. El autor debe seguir las instrucciones dadas en el documento para que el artículo sea publicado. Puede utilizar el mismo documento para escribir tu propio artículo. documento da algunas instrucciones relacionadas al formato para los artículos que serán enviados al congreso internacional de Desarrollo Comunitario. El autor debe seguir las instrucciones dadas en el documento para que el artículo sea publicado. Puede utilizar el mismo documento para escribir tu propio artículo.

Fig 1. Nanocelula

Palabras clave — Incluye por lo menos 5 palabras clave de tu trabajo.

-1820 - Faraday y su descubrimiento de la ley de inducción magnética. -Los años 40: Von Neuman estudia la posibilidad de crear sistemas que se auto-reproducen como una forma de reducir costes. -1947: John Bardeen, Walter Brattain y William Shockley inventaron el transistor, recibiendo el Premio Nobel de Física por ello en 1956. -1959: Richard Feynmann hizo por primera vez pública la visión de intervenir a nivel atómico. Sus reflexiones no generaron gran impacto en la época. -1966: Se realiza la película "Viaje alucinante" que cuenta la travesía de unos científicos a través del cuerpo humano. Los científicos reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que le está matando. Por primera ve en la historia, se considera esto como una verdadera posibilidad científica. La película es un gran éxito. -1982: Descubrimiento del microscopio de barrido efecto túnel' (STM), por Gerd Binning y Heinrich Rohrer. Fueron galardonados con el Premio Nobel de Física en 1986 por su invención. Ha permitido obtener mapas muy precisos de superficies en las que cada átomo puede distinguirse. Ha proporcionado también imágenes atómicas de moléculas de ADN, de extrema importancia en genética.

I. INTRODUCCIÓN La palabra "nanotecnología" es usada extensivamente para definir las ciencias y técnicas que se aplican a un nivel de nanoescala, esto es unas medidas extremadamente pequeñas "nanos" que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. Para preguntas sobre las especificaciones del artículo, por favor contacta al comité técnico del congreso tal como se indica en el sitio Web de la conferencia. La información acerca del envío del documento final la podrás encontrar en el sitio Web del congreso. V.

FUNDAMENTO TEÓRICO

La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala. Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas. es utilizar este documento para redactar tu propio texto aquí mismo.

-1985: Se descubren los buckminsterfullerenes -1986: K. Erik Drexler, Insinuó la posibilidad de crear sistemas de ingeniería a nivel molecular en su libro "Los motores de la creación".

HISTORIA DE LA NANOTECNOLOGÍA

19


Revista Conceptual UCB -1989: Se realiza la película "Cariño he encogido a los niños", una película que cuenta la historia de un científico que inventa una máquina que puede reducir el tamaño de las cosas utilizando láser. -1996: Sir Harry Kroto gana el Premio Nobel por haber descubierto fullerenes -1997: Se fabrica la guitarra más pequeña el mundo. Tiene el tamaño aproximadamente de una célula roja de sangre. -1998: Se logra convertir a un nanotubo de carbón en un nanolapiz que se puede utilizar para escribir -2001: James Gimzewski entra en el libro de récords Guinness por haber inventado la calculadora más pequeña del mundo. VI.

genético, membranas, encimas y otros componentes celulares. También se basan en organismos vivientes cuyas formas, funciones y evolución, son gobernados por las interacciones de estructuras de escalas nanométricas. Nanotecnología Seca Es la tecnología que se dedica a la fabricación de estructuras en carbón, Silicio, materiales inorgánicos, metales y semiconductores. También está presente en la electrónica, magnetismo y dispositivos ópticos. Es también confundida con la microminiaturización. Nanotecnología Seca y Húmeda Las ultimas propuestas tienden a usar una combinación de la nanotecnología húmeda y la nanotecnología seca Una cadena de ADN se programa para forzar moléculas en áreas muy específicas dejando que uniones covalentes se formen sólo en áreas muy específicas. Las formas resultantes se pueden manipulas para permitir el control posicional y la fabricación de nanoestructuras. Nanotecnología computacional Con esta rama se puede trabajar en el modelado y simulación de estructuras complejas de escala nanométrica. Se puede manipular átomos utilizando los nanomanipuladores controlados por computadoras.

TIPOS DE NANOTECNOLOGÍA

Según la forma de trabajo la nanotecnología se divide en: Top-down: Reducción de tamaño. Literalmente desde arriba (mayor) hasta abajo (menor). Los mecanismos y las estructuras se miniaturizan a escala nanométrica. Este tipo de Nanotecnología ha sido el más frecuente hasta la fecha, más concretamente en el ámbito de la electrónica donde predomina la miniaturización. Bottom-Up: Auto ensamblado. Literalmente desde abajo (menor) hasta arriba (mayor). Se comienza con una estructura nanométrica como una molécula y mediante un proceso de montaje o auto ensamblado, se crea un mecanismo mayor que el mecanismo con el que comenzamos.

BENEFICIOS DE LA NANOTECNOLOGÍA La nanotecnología puede resolver muchos problemas humanos: Con esto nos referimos a que la nanotecnología permitiría a las personas pudiesen vivir en alojamientos más dignos con sistemas mejores de alcantarillados para una mejor salud. Nanotecnología puede resolver muchos problemas relacionados con el agua: Estas tecnologías solo requieren fabricación inicial además de una fuente modesta de energía. Filtros físicos con poros de una escala nanométrica pueden eliminar el 100% de bacterías, virus. Una tecnología de separación eléctrica que atrae a los inoes a láminas supercapacitor pueden eliminar sales y metales pesados. Nanotecnología y el sector agrícola: Con la nanotecnología se podrían construir invernaderos, con o sin aislamiento termal, a un coste muy bajo Nanotecnología y la energía solar: Alternativas como la generación de la electricidad solar dependería de la conversión fotovoltaica o de la concentración de luz solar directa. Nanotecnología para mejorar el entorno de las personas:

Este enfoque, que algunos consideran como el único y "verdadero" enfoque nanotecnológico, ha de permitir que la materia pueda controlarse de manera extremadamente precisa. De esta manera podremos liberarnos de las limitaciones de la miniaturización, muy presentes en el campo de la electrónica. Según el campo en el que se trabaja la nanotecnología se divide en:

Fig. 2 Ciencia a nivel de atomo Nanotecnología Húmeda Esta tecnología se basa en sistemas biológicos que existen en un entorno acuoso incluyendo material

20


Revista Conceptual UCB La capacidad de eliminar ciertos insectos tendría un impacto favorable sobre ciertas enfermedades. Aislamiento termal en edificios resulta en ambientes más cómodos y reduce el consumo de energía. Sistemas de tuberías para agua y para el tratamiento de residuos incrementan el nivel de higiene y reduce enfermedades.

experimentado por tantas personas en el mundo actual. H. RIESGOS DE LA NANOTECNOLOGÍA Desequilibrio económico debido a una proliferación de productos baratos: Uno de los riesgos de la fabricación molecular es el posible desequilibrio de la estructura económica actual, con una posible reducción masiva en el valor de muchos recursos materiales y humanos, incluyendo una gran parte de nuestra infraestructura actual. Riesgo personal por uso de la nanotecnología molecular por parte de criminales o terroristas: Si ciertos aparatos, con mucho mayor fuerza y potencia y mucho menos tamaño, llegan a las manos de criminales y terroristas, éstos podrían hacer mucho daño a la sociedad. Hay el riesgo de que nuevos sistemas de seguridad y defensa contra este tipo de aparatos no se desarrollen a tiempo para ser instalados de forma inmediata o comprensiva.

Fig. 3 amivital.ugr.es

Riesgos para las libertades personales o sociales por restricciones excesivas: La fabricación molecular permitirá la creación de super-ordenadores muy pequeños y económicos, que en teoría podrían lanzar un programa de vigilancia permanente sobre todo el mundo. Sería fácil la fabricación masiva y barata de este tipo de aparatos de vigilancia Al tener la capacidad de fabricar billones de aparatos, cada uno con millones de partes, por un coste de unos pocos dólares, se podría aplicar a todo el mundo cualquier tecnología automatizada aplicable a una persona.

Nanotecnología como una solución para la brecha digital: Ordenadores y teléfonos celulares y móviles podrían ser accesibles económicamente para la gente más pobre en el mundo y podrían incorporar interfaces de voz para usuarios analfabetos. Nanotecnología y medicina: Las herramientas de la investigación y la práctica de la medicina serán menos costosos y más potentes. Numerosos pequeños sensores, ordenadores y diversos aparatos implantables de bajo coste permitirán un control continuo sobre la salud de pacientes así como tratamiento automático.

Desequilibrio social por nuevos productos o formas de vida: La mayoría de las sociedades prefieren prohibir ciertos productos: se prohíben los fusiles en el Reino Unido, la sandía sin pepitas en Irán, los objetos sexuales en Téjas, ciertas drogas como la marihuana en los EE.UU., y el alcohol en las sociedades islámicas. Aunque muchas de estas restricciones se basan en principios morales no compartidos por la mayoría de la población mundial, el hecho de que existan indica la sensibilidad de las sociedades - o al menos sus gobernantes - hacia productos no deseados.

Nanotecnología y los beneficios para el medioambiente: Una de las grandes causas del deterioro del medioambiente es la agricultura. Pero el uso de los invernaderos para la producción agrícola reduciría a su vez el consumo de agua, tierras y daño causado a la tierra. Energía solar almacenable reducirá emisiones de ceniza, hollín, hidrocarbono, NO, CO2 y petróleo.

La capacidad de fabricar productos ilegales utilizando fábricas personales podría desequilibrar la sociedad y dar entrada a una normativa excesivamente rígida sobre la tecnología. Nuevas estilos de vida hechos posibles por las nanotecnología también podrían causar desequilibrios sociales.

Nanotecnología para eliminar las causas de muchos problemas sociales: Gran parte de los problemas y conflictos sociales en la actualidad tienen su raíz en la pobreza, problemas de salud y en la ignorancia. La fabricación molecular podría eliminar la pobreza material, o al menos el grado de pobreza

21


Revista Conceptual UCB partículas. Las nanopartículas tienen un diámetro de 150 nanómetros, que según el equipo de Nanoespectra, es el tamaño ideal para que puedan atravesar los vasos sanguíneos agujereados de un tumor. Esto podría permitir que las partículas se acumulasen en el tumor más que en otros tejidos. Cuando se dirigen rayos de luz infrarrojos a la localización del tumor, bien desde el exterior, o bien a través de una sonda, las partículas absorben la luz y se calientan. El resultado es que los tumores se calientan más que los otros tejidos alrededor, y se mueren. En el primer estudio realizado por la empresa, los tumores en ratones injertados con las nanopartículas desaparecieron a los seis días después de aplicarles el tratamiento de los rayos infrarrojos. Aunque la aplicación de rayos infrarrojos de luz ha sido utilizada en el campo de la medicina como una herramienta para mostrar imágenes, este nuevo avance científico supone la primera vez que se aplican rayos infrarrojos para calentar a los tejidos. En teoría, este nuevo avance tecnológico podría ayudar a eliminar aquellos tumores que caracterizan el cáncer de pecho, próstata y pulmón. La nanotecnología se sumaría así a otros tratamientos contra los cánceres más convencionales como la quimioterapia y la radioterapia. Y, según el presidente de Nanospectra Donald Payne, este nuevo método sería una "herramienta mucho menos tóxica para la caja de herramientas de los cirujanos"

Carrera inestable de armas fabricadas con la nanotecnología: Al permitir que muchos países tuviesen capacidad de destrucción global, también podría eliminar la capacidad de los países más poderosos de controlar el escenario internacional. Y al hacer pequeños grupos auto-suficientes, podría fomentar la fragmentación de naciones. Daños medioambientales colectivos derivados de productos no regulados: La naturaleza compacta de maquinaria fabricada por la nanotecnología podría fomentar el uso de productos muy pequeños, que podrían a su vez convertirse con el tiempo en un tipo de nano-basura que sería difícil de limpiar y podría causar problemas de salud. Un mercado negro de la nanotecnología (aumenta la posibilidad y el peligro de otros riesgos): La disponibilidad no controlada de nanotecnología molecular podría derivar de una regulación excesiva o deficiente. La regulación deficiente haría que fuese fácil el acceso a y el uso de una nano fábrica. La regulación excesiva crearía una demanda frustrada por productos desarrollados a través de la nanotecnología; una demanda que, si se hiciese lo suficientemente fuerte, financiaría el espionaje, el desarrollo independiente y, al final, el desarrollo de un mercado negro más allá de los controles de las autoridades centralizadas. El título y los detalles de los autores deben ir en una columna simple y además centrados. En un título cada palabra debe de ir con letra mayúscula, a excepción de palabras cortas como ―en‖, ‖y‖, ‖por‖, ‖con‖, entre otras. La información de los autores no debe mostrar ningún título profesional o académico. Para evitar confusión, el apellido debe escribirse como la última parte del nombre del autor (Pedro A. Guzmán). Cada filiación debe ser incluida, al final, el nombre de la institución y del país donde se encuentra (ejemplo: Instituto Tecnológico Superior de Pátzcuaro, México). La dirección de correo es obligatoria. I.

APLICACIONES DE LA NANOTECNOLOGIA TRATAMIENTO CONTRA EL CÁNCER textiles.jpg

No se recomienda utilizar más de tres niveles de encabezados. Todos los encabezados deben ser de tamaño 10 pt. Todas El equipo de Nanospectra ha logrado desarrollar nanopartículas de cristal bañadas en oro capaces de invadir un tumor y, cuando se calientan a través de un sistema remoto, capaces de destruirlo. La clave del alto grado de efectividad de este nuevo avance se deriva de las dimensiones de las

J. NANOTECNOLOGIA EN LA INDUSTRIA TEXTIL La moda en las prendas de vestir, además de tener fines estéticos, también empieza a incluir la nanotecnología para brindar otras opciones para vivir mejor como calmar el estrés, levantar el ánimo, repeler mosquitos, entre otros.

22


Revista Conceptual UCB Teniendo en cuenta la aromaterapia, que mediante el sentido del olfato que llega directo al cerebro, se crean prendas en las que se incluyen microcápsulas con esencias naturales que, en el momento de vestirlas, despliegan todos sus beneficios.Utilizando la tecnología del plasma y mediante un proceso absolutamente ecológico, se han creado prendas antimanchas que repelen la lluvia y cualquier líquido, bien sea vino, cava o sopa. Se encuentran las novedosas prendas antiestrés. No se trata de diseños con masajes incorporados, sino de prendas con microcápsulas de antiestáticos que evitan que las mujeres se carguen de la energía electroestática que desprende el teléfono móvil o el ordenador, que, además de facilitar la vida, consiguen llevar los nervios a flor de piel. Las prendas antimosquitos, que a través de un producto repelente encapsulado en las tramas del

tejido consigue desviar los picotazos de este impertinente insecto. Prendas de vestir en materiales que mantienen la presión arterial, hasta calcetines que ayudan con los hongos. K. NANOTECNOLOGIA EN LOS ALIMENTOS Los investigadores están utilizando nanopartículas de silicato para proporcionar una barrera a los gases (por ejemplo, oxígeno), o la humedad en una película de plástico utilizado para el embalaje. Esto podría reducir la posibilidad de echar a perder la comida o la desecación.Nanopartículas de óxido de zinc se pueden incorporar en los envases de plástico para bloquear los rayos UV y proporcionar protección contra las bacterias, al tiempo que mejora la fuerza y ??la estabilidad de la película de plástico.Se están desarrollando nanosensores que pueden detectar las bacterias y otros contaminantes, como la salmonela, en una planta de envasado problemas y los mas importante que se pueden combatir puede ser el tratamiento contra las enfermedades como el cáncer y la purificación del agua que es un elemento vital para la sobrevivencia de la humanidad. Así como hay beneficios también hay riesgos como por ejemplo para el uso de la delincuencia en construcción de armas y de elementos baratos lo cual puede afectar en la economía de la sociedad. REFERENCIAS

pruebas frecuentes, a un costo mucho más bajo que el envío de muestras a un laboratorio para su análisis. Esta prueba de punto de embalaje, si se realiza correctamente, tiene el potencial de reducir drásticamente la posibilidad de alimentos contaminados con llegar a los estantes de supermercados.La investigación también se están llevando a cabo el desarrollo de nanocápsulas que contienen los nutrientes que se liberan cuando nanosensores detectar una deficiencia de vitaminas en su cuerpo. Básicamente, esta investigación podría dar lugar a un sistema de almacenamiento súper vitamina en el organismo que proporciona los nutrientes que necesita, cuando usted los necesita."Interactivo" los alimentos se están desarrollando que le permiten elegir el sabor y color deseados. Nanocápsulas que contienen sabor o potenciadores de color están incluidos en el alimento; inerte hasta que un consumidor hambriento las desencadena. El método no ha sido publicado, por lo que será interesante ver cómo este truco en particular se lleva a cabo.Los investigadores también están trabajando sobre los plaguicidas encapsulados en nanopartículas, que la liberación de pesticidas sólo en el estómago de un insecto, reduciendo al mínimo la contaminación de las mismas plantas. Otro desarrollo que se persued es una red de nanosensores y dispensadores utilizados en un campo agrícola. Los sensores reconocen cuando una planta necesita nutrientes o agua, antes de que haya algún indicio de que la planta es deficiente. Los dispensadores a continuación, suelte los fertilizantes, nutrientes o agua si es necesario, optimizar el crecimiento de cada planta en el campo por uno. VII. CONCLUSIONES En este ensayo nos enfocamos en el concepto de la nanotecnología, nos pudimos dar en cuenta que la utilización de la nanotecnología es muy beneficioso para la humanidad ya que se puede resolver varios

[1] [2] [3] [4]

.

23

http://www.euroresidentes.com/futuro/nanotecnologia/ nanotecnologia_que_es.htm. http://www.euroresidentes.com/futuro/nanotecnologia/nanot ecnologia_responsable/nanotecnologia_beneficios.htm http://www.euroresidentes.com/futuro/nanotecnologia/nanot ecnologia_responsable/riesgos_nanotecnologia.htm http://www.euroresidentes.com/futuro/nanotecnologia/aplic aciones_nanotecnologia/nanotecnologia_aplicaciones


Revista Conceptual UCB

Plantas de Amoniaco - Urea Walter Miguel Pacheco Cortez , Universidad Católica Boliviana “San Pablo” Av. 14 de septiembre - Obrajes waytapachecortex@hotmail.com

La Paz - Bolivia Resumen— • Bolivia apuesta por las políticas de industrialización del gas con las plantas de separación de líquidos y las de fertilizantes como amoniaco y urea en Cochabamba.

fertilizantes nitrogenados para atender la demanda del mercado interno y externo, razón por la que se pretende producir aproximadamente 650.000 toneladas anuales de urea a partir de 2015.

• Las plantas de fertilizantes tendrán una capacidad de producir 650 mil toneladas métricas (tm/año) de urea y 400 mil tm/año de amoniaco.

"Tenemos tres mercados para el destino de los fertilizantes o de la urea: el mercado interno que prácticamente va sustituir el 100% de la importación, luego tenemos una demanda en el norte argentino, es decir, en todas las provincias limítrofes o cercanas a territorio boliviano y demanda de Brasil", indicó Villegas.

• La urea y amoniaco son un fertilizante para subir la producción de alimentos en los terrenos con bajo rendimiento por el desgaste de suelos. • La empresa coreana Samsung construirá las plantas por 843 millones de dólares, cuyo contrato será firmando el 12 de septiembre en la ciudad de Cochabamba

Por su parte, el Gerente Nacional de Plantas de Separación de Líquidos, Gerson Rojas, sostuvo que el modelo del contrato propuesto al Directorio de la estatal petrolera implica la gran inversión que se destinará a la construcción de la Planta de Urea y Amoniaco.

Palabras clave — YPFB, Samsung, Cochabamba, Fertilizantes, alimentación.

I. INTRODUCCIÓN Los pueblos de América Latina discutieron la problemática de la Seguridad Alimentaria en el mundo durante la 42 Asamblea General de la Organización de Estados Americanos (OEA) que se realizó en Cochabamba, Bolivia. La producción de urea ayudará a mejorar la productividad del sector agrícola en Bolivia, pues incrementará el desarrollo de las regiones y contribuirá a la seguridad alimentaria. Esta planta implica un gran consumo de gas natural de nuestro país.El consumo aproximado de gas natural de esta planta será de 0,34 trillones de pies cúbicos (TCF por sus siglas en inglés). A partir del amoniaco, además de la urea, es posible producir una gama de fertilizantes y productos como el nitrato de amonio, bifostato diamónico, sulfato de amonio y otros que requieren fosfatos y sales de azufre.

Fig. 1 resumen de la parte laboral después de la construcción de la planta

Justamente por este motivo, la YPFB lanzó la convocatoria pública del proceso de contratación de una empresa internacional especializada en petroquímica que se encargue de realizar el PDP (paquete de diseño de proceso), FEED (Front end Engineering Design), ingeniería de detalle, procura, construcción, puesta en marcha, operación y mantenimiento asistido de las plantas de Amoniaco y Urea.

Un estudio advierte un déficit en la producción de fertilizantes en algunos países de la región. En esa línea, compañías internacionales como Ferrostaal, Saipem, KBR, Tecnimont, Technip y UDE expresaron su interés, hasta el momento, en desarrollar el proyecto de agrofertilizantes Amoniaco Urea que elevará la productividad del sector agrícola en Bolivia.

"Se ha terminado la ingeniería conceptual y está en proceso de licitación la ingeniería y diseño final. Las interesadas deben presentar sus propuestas el 20 de junio y el 23 de agosto se suscribirá el contrato de tal manera que el inicio de operaciones de esta planta sea el segundo semestre de 2015", indicó Rojas.

La estrategia de producción de fertilizantes nitrogenados tiene por objetivo producir

24


Revista Conceptual UCB [4]

Finalmente la YPFB, encargada de financiar el proyecto con un crédito del Banco Central de Bolivia, señaló que Samsung ganó la licitación al grupo español Duro Felguera que era el único que acepto la licitación de la YPFB.

[5]

[6]

Además indico que Samsung ejecutará desde el diseño hasta la puesta en marcha de las plantas que estarán ubicada en el departamento central de Cochabamba, cerca de la región productora de coca de Chapare y de varios campos de gas de donde obtendrá la materia prima. El Gobierno de Bolivia anunció que la empresa surcoreana Samsung invertirá 843 millones de dólares en la construcción de una fábrica estatal de úrea y amoniaco en su territorio, convirtiéndose así en el mayor proyecto de industrialización de gas natural en la historia del país sudamericano. La planta responde al protocolo de industrialización de gas natural y a la segunda etapa de la nacionalización de hidrocarburos decretada en 2006, en el que la administración del izquierdista Evo Morales invierte alrededor de dos mil millones de dólares. Con la inversión se terminará la construcción de dos complejos de extracción de líquidos del torrente de gas y una fábrica de polietileno, misma que actualmente se encuentra en licitación. De manera oficial será hasta septiembre cuando se firme el contrato entre YPFB y Samsung.

Fig. 2 fotografía de la maqueta de la planta de Amoniaco - Urea

L. Referencias  Periódico ―Jornada‖ Cochabamba miércoles 6 de Junio,2012  Periódico ―La Razón‖ La Paz Martes 25 de Octubre, 2011.

[1] [2] [3]

REFERENCIAS http://www.jornadanet.com/n.php?a=77847-1 http://www.jornadanet.com/n.php?a=69376-1 http://www.sexenio.com.mx/articulo.php?id=18265

25

http://www.opinion.com.bo/opinion/articulos/2012/0818 /noticias.php?id=68192 http://www.hidrocarburosbolivia.com/boliviamainmenu-117/downstream/55751-bolivia-se-perfilacomo-polo-petroquimico-del-continente.html http://eju.tv/2012/08/surcoreana-samsung-har-la-plantade-urea-y-amoniaco-en-bolivia/


Revista Conceptual UCB

Microriego Liliana Roca Villarroel Ingeniería Ambiental Universidad Católica Boliviana Av. 14 de Septiembre No. 4807 esq. Calle 2 (Obrajes) lilicaroca24@hotmail.com La Paz - Bolivia Resumen— Desde muchos años atrás el riego ha sido utilizado por las civilizaciones para ofrecer productos a sus pueblos. En la actualidad se ha creado un nuevo sistema de riego que utiliza la tecnología para poder hacer más eficiente ésta práctica. Este es denominado microriego o microirrigación. El microriego ayuda a maximizar la productividad de los cultivos agrícolas, minimizando costos y recursos como mano de obra. Este sistema es una tecnología amigable con el medio ambiente ya que economiza el uso del agua y ayuda a reducir otros problemas ambientales que genera la agricultura. Este puede ser de muchas maneras y los sistemas más conocidos son por aspersión y por goteo. Para que el riego sea verdaderamente efectivo se utilizan diferentes tipos de programas que ayudan a predecir resultados a futuro tomando en cuenta diferentes variables como ser el clima.

II. MICRORIEGO O MICROIRRIGACIÓN El microriego es un riego que se basa en el uso de tecnología e instrumentos, que permiten hacer de ésta práctica algo sostenible y que beneficie tanto al agricultor como a las personas que recibirán los productos. Por el contrario si no se tiene una práctica adecuada del riego las tierras se vuelven improductivas y estériles, perjudicando a la productividad de la zona. Éste avance tecnológico tiene tres objetivos fundamentales. 1.

Suministrar la humedad necesario que debe tener la planta o cultivo para su óptimo crecimiento.

2.

Lavar o diluir las sales presentes en el suelo, e indirectamente con el agua que se proporciona se da un enfriamiento del suelo y atmósfera dando un mejor ambiente a la planta.

3.

Economizar el gasto de agua, que es un problema creciente en la actualidad.

Palabras clave — Microirrigación; tecnología; eficiencia; aspersión; goteo

I. INTRODUCCIÓN En la actualidad se vive un momento en el que cuidar el medio ambiente y al mismo tiempo poder aprovechar los recursos que éste nos ofrece se ha convertido en un gran reto. Es por esto que es necesario poder optimizar procesos y hacerlos más eficientes, siendo amigables con nuestro entorno y satisfaciendo nuestras necesidades. Esto es posible gracias a los grandes avances tecnológicos que día a día se van desarrollando, proporcionándonos herramientas para mejorar nuestra calidad de vida.

Por tanto la importancia del sistema de microirrigación está en realizar una buena práctica agrícola, mejorando las condiciones de crecimiento del cultivo y siendo amigables con el medio ambiente, ya que además de economizar agua se evitan otros problemas ambientales como ser la erosión de los suelos. También ayuda a minimizar los requerimientos de mano de obra y capital.

Los sistemas de Microirrigación son una nueva tecnología que surge para optimizar y mejorar los procesos agrícolas y los recursos que se emplean, especialmente para ahorrar el uso de agua. Este sistema es muy útil en zonas con estaciones secas y que no poseen grandes cantidades de recursos económicos, ya que es de fácil manejo y tiene un precio moderado. El microriego ha sido es una tecnología que cada vez toma más fuerza y se lo utiliza con más frecuencia en el ámbito agrícola. Esto se debe a que la microirrigación trae diversos beneficios tanto económicos como productivos. Además que su fácil manejo permite que toda clase de personas pueda tener control sobre el sistema.

Fig. 1 Sistema de microriego

26


Revista Conceptual UCB III.

Este sistema se usa frecuentemente en incorporación de tierras al cultivo, áreas de recreación irrigadas con aguas residuales de drenaje, fábricas, etc. Control de polvo y temperatura, limpieza de estiércol, conservación de suelos, enfriar el ambiente cuando existe calor excesivo, etc. son otros usos que se pueden realizar con este sistema.

CRITERIOS PARA EL MANEJO DE RIEGO

Son bastantes las consideraciones que se deben tomar en cuenta cuando se habla del manejo de riego como ser el tipo de sistema, la frecuencia de riego, profundidad de agua que debe aplicarse, etc. Para escoger el tipo de sistema se debe tomar aspectos como: compatibilidad, economía, topografía, suelo, suministro de agua, factores que dependen del cultivo, etc. Que permite tener un sistema de riego aún más eficiente y adecuado para el cultivo.

3) Ventajas y Desventajas:   

IV. PROGRAMACIÓN DE RIEGO La programación juega un papel importante en los sistemas de microriego, debido a que se utiliza esta para predecir la cantidad de agua que necesita el cultivo, basándose en parámetros como la humedad actual del suelo y datos climatológicos, permitiendo realizar extrapolaciones hacia futuro. El objetivo de programar es utilizar de manera eficiente el agua, aplicándola solamente en el tiempo y cantidad necesaria. Además el drenaje de agua que se debe tener y todos los parámetros que deban incluirse para tener un sistema de microirrigación integral. Existen diversos paquetes de programas que ayudan con esta tarea como ser: Programador de riego RBR-8000, XCORE, C 1060 plus, etc.

    

    

Algunas ventajas son: Se adapta a suelos de textura variable Suelos con bajas capacidades de retención de agua Terrenos con topografía ondulada pueden utilizarse La tierra es prontamente puesta para la producción Buena eficiencia de riego Menor mano de obra Ágiles operaciones de labranza Decrece el riesgo de erosión  No se necesita grandes conocimientos para operar el sistema  Se puede obviar la nivelación de superficie Algunas desventajas son: La inversión inicial es grande Puede haber un daño en la floración El agua con alta salinidad causa problemas El viento afecta el esparcimiento del agua Se necesita continuo suministro de agua

V. SISTEMAS DE MICRORIEGO Existen diferentes tipos de microriego, sin embargo los más conocidos son dos. M. Sistema de Riego por Aspersión Este sistema convierte la energía de presión en energía de velocidad a la salida de la boquilla en forma de chorro, que se esparce sobre el terreno de cultivo como gotas de agua. Este cuenta con un sistema de tuberías que permiten la distribución uniforme del agua. 1) Componentes del Sistema de Aspersión: El riego por aspersión tiene muchos componentes que permiten tener un sistema realmente efectivo. Las partes son: aspersores, boquillas, elevadores, tuberías, acoplamientos, codos, reducciones, válvulas, etc.

Fig. 2 Microriego por aspersión

N. Sistema de Riego por Goteo En este sistema se aplica agua filtrada, ya sea dentro o sobre el suelo directamente a cada planta de manera individual.

2) Usos del Sistema por Aspersión:

27


Revista Conceptual UCB  Se requieren especialistas para su instalación y mantenimiento.

El agua se suministra con base en una baja tensión y una alta frecuencia, creando un óptimo medio ambiente de humedad para el suelo, dando como resultado una gran eficiencia en el uso del agua. 1) Componentes del Sistema por Goteo Las partes de que consta este sistema son: Emisores, filtros, programa para controlar el riego, separadores. 2) Usos del Sistema por Goteo Este es muy utilizado en cultivos como:  Árboles frutales y viñedos  Vegetales  Cultivos sembrados en surcos

Fig. 3 Microriego por goteo

VI. CONCLUSIONES El microriego es un sistema que beneficia a los agricultores, ya que gracias a su tecnología permite mejorar las condiciones de crecimiento de la planta y mantiene la productividad de las tierras estable gracias a los programas de predicción de riego que se utilizan. Además es un sistema que ayuda a reducir problemas ambientales que en la actualidad se viven y cada vez se hacen más grandes.

3) Ventajas y Desventajas

           

Algunas ventajas son:  Se pierde muy poca agua por percolación o evaporación Ahorro de agua Alta respuesta del cultivo Ahorro de mano de obra Ahorro y buen uso de fertilizantes Menor crecimiento de hierba Ahorro de pesticidas Mayor control de enfermedades en la planta Uso de agua salina Rápida maduración Menor formación de costras en el suelo Mejor penetración de raíces Se puede operar en suelos de baja infiltración

REFERENCIAS [1]

[2] [3]

[4]

Algunas desventajas son:    

Sensibilidad a que los goteros se tapen Peligro de salinidad Problemas con distribución de humedad Alto costo de inversión inicial

[5]

28

G.C. Ignacio y B.S. Gregorio, Sistemas de Riego por Aspersión y Goteo, 1era ed., trillas Ed. México DF, México, 1997. http://www.rainbird.es/19-6211-Mantenimiento-delsistema-de-riego-automatico.php, 22/08/2012 h. 22:32 http://www.gardena.com/es/water-management/watercontrols/programador-de-riego-c-1060-plus/, 22/08/2012 h. 23:04 http://agrosintesis.com/component/content/article/49front-page/274-como-programar-los-riegos-en-elcultivo-de-maiz, 23/08/2012 h. 20:23 http://www.catie.ac.cr/BancoMedios/Documentos%20P DF/HOJASmicroriego.pdf, 23/08/2012 h. 21:07


Revista Conceptual UCB

LA TECNOLOGIA EN LA INGENIERIA CIVIL Sebastián Ulloa Gutiérrez Ingeniería Civil Universidad Católica San Pablo Av. 14 de septiembre Obrajes sebastian_sug12@hotmail.com La Paz, Bolivia Resumen— la actualidad profesión de ingeniería civil se ve complementado por tecnología al alcance de todo ingeniero que lo ayudara a efectuar los proyectos que desea desarrollar. En las variedades de especialización que tenga el ingeniero, observara tecnología constantemente siendo desarrollada, actualizada e siendo creada como ser Auto CAD, ISTRAM/ISPOL entre muchos. La complementación de estas tecnologías nos da las herramientas necesarias para poder cimentar proyectos que den seguridad y sea constructivamente económico.

Los tecnólogos en ingeniería civil suelen trabajar apoyando actividades de ingeniería civil tales como diseño de puentes, carreteras o grandes complejos urbanísticos. Pueden colaborar en la gestión o supervisión de proyectos de construcción, evaluación de la calidad de los materiales, revisión de planos de agrimensura o cartografía, o realización de estimaciones de costos y presupuestos.

Palabras clave — INSTRAM, Auto CAD, Optimización, facilidad, velocidad, calidad.

I. INTRODUCCIÓN Los tecnólogos en ingeniería civil ayudan a los ingenieros civiles a planificar y construir carreteras, edificios, puentes, embalses, sistemas para el tratamiento de aguas servidas y otras estructuras, y realizan investigación en su campo. Algunos de estos profesionales calculan los costos de construcción y especifican los materiales que se utilizarán en un proyecto, mientras que otros pueden incluso preparar esquemas o realizar tareas de agrimensura. Otros pueden configurar y supervisar instrumentos utilizados para estudiar condiciones del tránsito.

Fig. 2 AutoCAD 2011 con soporte de la tecnología iPad Tecnologías de la Información en la ingeniería se define como arte-ciencia de crear aparatos útiles que permiten controlar el medio ambiente, mejorar la calidad de vida; por ejemplo experimentos realizados por la NASA, el Ski Dubai, Etc. O simplemente para disfrutar la vida como son los automóviles o parque de diversiones. Como futuros ingenieros debemos imaginarnos las soluciones a los problemas que se nos presenten, debemos tener capacidad de predicción del comportamiento y también diseñamos aparatos, no se debe olvidar que la capacidad de predicción se base en el manejo de la ciencia y la capacidad de hacer caculos.

Fig. 1 Ingeniería civil

La compañía colombiana de software para Ingeniería Civil ISTRAM es uno de los mejores ejemplos de cómo la tecnología ha evolucionado la carrera de

29


Revista Conceptual UCB todos estudiantes estudiando ingeniería civil. ISTRAM/ISPOL es la aplicación para el diseño de proyectos de ingeniería civil más completa y eficaz del mercado. Su potencia de cálculo y la concepción global del proyecto son dos de las características más valoradas. A diferencia de otros programas, el entorno de trabajo está específicamente diseñado para permitir al ingeniero mecanizar los datos geométricos de los diferentes elementos del proyecto, obteniendo resultados gráficos e información de manera inmediata, sin necesidad de acudir a cuadros de diálogo complejos. Su estructura modular permite escoger desde una configuración sencilla, que permite proyectar carreteras y autopistas, hasta otras más complejas que contemplan proyectos de ferrocarriles, de distribución y abastecimiento mediante redes de tubos, de refuerzo y mejoría de las vías existentes, de proyectos de urbanización o extracción de minerales, entre otros. II. CARTOGAFIA DIFITAL El entorno de trabajo permite la edición de la cartografía digital, proporcionando al usuario las herramientas típicas de un editor CAD y otras específicamente diseñadas para proyectos de ingeniería civil. A diferencia de otras aplicaciones, ISPOL trabaja con entidades 3D. La aplicación contempla la importación y exportación de datos de diversa procedencia, incluyendo estaciones de topografía, dispositivos GPS y formatos digitales de las aplicaciones más extendidas.

V.

Fig. 3 Cartografía Digital

El sistema queda completado con un potente generador de modelos digitales y curvados, un gestor de imágenes raster y un completo sistema de impresión. III.

PROYECTOS DE OBRAS LINEAL

Diseñar desde la carretera más sencilla hasta la autopista más compleja, solucionando de manera automática las relaciones entre los ejes, como es habitual cuando se diseña un nudo. La potencia de cálculo, el control sobre el proyecto y la filosofía de diseño basada en superficies y códigos permiten enfrentarse a cualquier tipo de singularidad constructiva. Destaca la facilidad y versatilidad con que es posible definir secciones en túnel. La aplicación proporciona asistencia para cumplir y comprobar las normativas de diseño habituales en un trazado viario, realizando análisis de visibilidad, diagramas de velocidades y trayectorias de vehículos. La posibilidad de personalizar las salidas gráficas y las utilidades y complementos que se desarrollan permiten al ingeniero disponer de completos planos e informes. Una de las utilidades más eficaces es definida por el motor de cálculo que permite la obtención de todo el tipo de mediciones volumétricas, posibilitando la valoración económica de todas las unidades constructivas de su proyecto. IV. PROYECTOS FERROCARRILES 1.Sencillez en la definición de trazado, aparatos de vía, definición del balasto, capa de forma, traviesa y carril. 2.Saneamiento y distribución. Tuberías 3.Soporta todo tipo de zanjas, tubos y accesorios, contando con funciones específicas para este tipo de diseños. 4.Mejora, ensanche y renovación 5.Resuelve todas las complejas relaciones y parámetros en proyectos viarios y de ferrocarril. 6.Seguimiento y control de proyectos 7.Gestiona el proceso constructivo, los datos de medición son integrados en el diseño para obtener los informes necesarios. 8.Control de túneles Control y análisis de datos medidos y proyectados. Las desviaciones detectadas pueden ser así corregidas MODELADO DE SUPERFICIES La aplicación ofrece una variada lista de herramientas 3D que son aplicables al diseño de obra superficial y extracción de minerales. Nuestros clientes diseñan y controlan canteras, escombreras y vertederos, y embalses de cualquier tamaño.

30


Revista Conceptual UCB Permite trabajar con cartografía basada en curvas de nivel, rejillas 3D o con modelos digitales del terreno, los cuales pueden ser generados de manera automática. Algunas de éstas permiten además realizar tareas de análisis espacial, detectando y calculando intersecciones entre superficies, generando llanuras de inundación o calculando cuencas visuales. V.

VIRTUAL 3D

La presentación de un terreno, un proyecto de obra lineal o cualquier tipo de infraestructura civil que modifique el paisaje es mucho más comprensible si se puede contemplar en tres dimensiones, tal y como se vería a ‗vista de pájaro‘.

El módulo ISTRAM ISPOL VIRTUAL 3D es el responsable de permitir la representación virtual de cualquier geometría generada en cualquiera de sus módulos. De manera particular, las funcionalidades más potentes están hechas para trabajar con proyectos de obra lineal (carreteras, autovías, ferrocarriles, y tuberías). En este aspecto, se han desarrollado funciones que automatizan la generación de geometría 3D, ofreciendo al usuario, casi al instante, un escenario con su proyecto ya preparado para obtener resultados. En este punto, la novedad más importante que aporta el programa, es la posibilidad de actualizar continuamente el escenario con nuevos cálculos, ofreciendo así al usuario la posibilidad de valorar en 3D el diseño efectuado.

permite realizar análisis espaciales de todo tipo, incluyendo redes. La generación de informes y gráficos habituales es cubierta de manera sencilla. Por último, un módulo específico para conservación y mantenimiento de infraestructuras lineales permite una gestión óptima de los datos inventariados y de las correspondientes tareas de mantenimiento. VII. CONCLUSIÓNN En este siglo XXI cada año significa un gran desarrollo tecnológico para todo ser humano. Cada carrera o profesión, sea ingeniería civil, medicina, buceo comercial, economista, cada uno de prepararse para cada nuevo paso en el desarrollo tecnológico de su propio rubro. Actualmente estamos en constante aprendizaje de la evolución tecnológica que nos ayuda a producir con calidad, rapidez y satisfacción las visiones o proyectos que deseemos construir, creaciones que beneficien la comunidad, traiga productividad y desarrollo económico, empleos y un futuro para las siguientes generaciones más emocionantes que las previas. La tarea permanente que todos debemos cumplir es evolucionar junto con la tecnología y aprovecharla. VIII. BIBLIOGRAFIA 1. Software for Engineers. http://www.istram.net/en/index.php 2. Programas y Aplicaciones. http://www.angelfire.com/pe/pcec/index9. html 3. Autodesk software para arquitectos e ingenieros. http://www.autodesk.es/adsk/servlet/pc/index? siteID=455755&id=14596947 4. 10 aplicaciones para arquitectos e ingenieros. http://www.obrasweb.mx/construccion/20 11/10/12/las-apps-de-los-constructores 5. Algunos programas para ingenieros civiles. http://civilgeeks.com/2011/07/08/algunosprogramas-para-ingenieria-civil/

VI. SISTEMA DE FORMACIÓN GEOGRÁFICA SIG está especialmente desarrollado y adaptado para trabajar con cartografía vectorial, contando con un potente y sencillo sistema que controla la topología. Los proyectos de obra lineal calculados son cargados automáticamente. La gestión de los procesos de expropiación, como primera aplicación, es muy fácil y sencilla. Un completo conjunto de herramientas

31


Revista Conceptual UCB

Planificación de procesos y operaciones

industriales‖ Gallardo Chungara Daniel Augusto Ingeniería Industrial, Universidad Católica Boliviana San Pablo Av. 14 de septiembre - Obraje

Daniel_aga93@hotmail.com La Paz Bolivia Resumen— Conocido ya que productos o servicios se van a elaborar y mediante que procesos, hemos decidido la capacidad a largo plazo, los equipos necesarios y la localización de la actividad productiva y distribución en planta, del equipo y del factor humano. Hecho esto, el marco de referencia que nos indica donde queremos llegar, cómo y con qué medios, se determina una ESTRATEGIA DE OPERACIONES Palabras clave — Estrategia de operaciones, planificación, procesos

I. INTRODUCCIÓN A partir de la estrategia de operaciones, se hace necesario para medio y corto plazo:   

 

Concretar objetivos Decidir, (planificación) respecto a que productos o servicios a elaborar Determinar que articulo o ítem hay que producir y en qué momento (programación) Ver que actividades deberán desarrollarse en las distintas unidades productivas, y en qué momento, con el objeto de cumplir los requerimientos de componentes (programación a muy corto plazo) Tener en cuenta los recursos disponibles, es decir considerar la problemática de la capacidad, de forma que se elaboren planes y programas factibles. Considerar las necesidades de materiales, tanto de productos terminados como de materia prima y componentes intermedios para la fabricación de acuerdo con la planificación y programación elaborada (planificación, gestión y control inventario).

 II. PLANIFICACIÓN ¿Qué es? Es proyectar el futuro deseado, medios necesarios y actividades a desarrollar para conseguirlo. Hecho hasta aquí, podemos pasar a la fase de ejecución y hacer los controles necesarios, que permitirán detectar y corregir las posibles desviaciones entre resultados obtenidos y los distintos objetivos marcados. III.

PLANIFICACIÓN EMPRESARIAL DE OPERACIONES

Fig.1 los sistemas que se utilizan la planificación empresarial Proceso de planificación y control en la empresa Para ver el gráfico seleccione la opción "Descargar" del menú superior La planificación estratégica, en la que se establecen los objetivos, las estrategias y los planes globales a largo plazo, normalmente son entre 3 y 5 años. Esta actividad es desarrollada por la alta Dirección, que se ocupa de problemas de gran amplitud, tanto en términos de actividad organizativa como de tiempo. La planificación operativa, donde se concretan los planes estratégicos y objetivos a un elevado grado de detalles. Así se establecen las tareas a desarrollar paras que se cumplan los objetivos y planes a largo plazo. En esa etapa las actividades son un poco más limitadas y van de 18 meses o un año varias semanas. La planificación adaptativa, pretende eliminar las posibles divergencias entre los resultados y los objetivos relacionados con ellos. Hay quienes consideran un nivel intermedio entra la planificación estratégica y la operativa, y que denominamos planificación táctica o de medio plazo. Esta comparte algunas características de cada una de ellas y su misión es conectarlas (Fig. 1.3). En dicha figura se observa la lógica correspondencia entre las fases desarrolladas en el área productiva y los que representan a la planificación en ámbito del conjunto empresarial. Se observa, con trazo discontinuo, una intersección entre planificación

32


Revista Conceptual UCB operativa y lo que en las empresas de fabricación se denomina gestión de talleres. Esto se debe a que hay que elaborar un programa detallado de operaciones de lo que debe realizarse en cada unidad productiva en el muy corto plazo, lo que hace que se desarrolle una actividad de planificación a muy corto plazo (semanas e incluso días). IV. ENFOQUE JERARQUICO PARA EL PROCESO DE PLANIFICACION Y CONTROL DE PRODUCCION

    

Las actividades productivas, la planificación y control deben seguir un enfoque jerárquico que permita la coordinación entre objetivos – planes – actividades, de los niveles estratégicos, tácticos y operativos. O sea, cada uno va a proseguir su perseguir su propia meta, pero siempre teniendo en cuenta los del nivel superior, de los cuales depende, y los de nivel inferior que restringen. En la figura 1.4 pueden observarse 5 fases claramente definidas: Planificación estratégica o a largo plazo Planificación táctica o a medio plazo Programación maestra Programación de componentes Ejecución

la capacidad disponible e intentando que permita cumplirse el Plan a Largo Plazo al menor costo posible. Esta etapa finaliza con el establecimiento de dos planes agregados: el de producción y el de capacidad. El Programa Maestro de Producción (PMP) se obtiene como el grado de detalles del Plan Agregado, que permite la coordinación de la Planificación estratégica y de la Operativa, dado que no es suficiente para llevar a cabo esta última, por lo que las distintas familias se descompondrán en productos concretos y los periodos pasaran de meses a semanas. En la cuarta etapa se llevara a cabo la Programación Detallada de los Componentes que integran los distintos productos y la Planificación Detallada de la Capacidad requerida por los mismos. Deberá conseguirse que se cumpla el PMF (fabricación), el cual si existen problemas irresolubles de disponibilidad respecto a la capacidad existente deberá ser reajustado. El resultado de este proceso, por lo que respecta a producción, es la obtención del denominado Plan de materiales. Aquí entramos en la última fase, que implicara la Ejecución y Control del Plan de materiales. Tendremos por un lado, Programa de Operaciones en los centros de trabajo (CT) que tengan en cuenta las prioridades de fabricación, y por otro lado, las Acciones de Compras de materia prima, y componentes que se adquieren en el exterior. También será necesario realizar un control de la capacidad, de tipo detallado (control I/O), que proporcionara retroalimentación a este nivel y a los niveles superiores. No debemos dudar que la aproximación jerárquica es condición necesaria, pero no suficiente para lograr la integración, la cual contempla, en sentido vertical, de lo global a lo concreto.

Fig.2 Tabla de procesos de planificación y control de una producción

V.

INTRODUCCIÓN A LA PLANIFICACIÓN Y CONTROL DE INVENTARIO

Los objetivos estratégicos de la empresa tiene en cuenta otros factores, las previsiones de demanda a largo plazo, marcaran el Plan de Ventas, donde se indicaran las cifras de demanda que la empresa debería alcanzar para cumplir las metas de la firma. Este plan, más los objetivos citados van a establecer el Plan de Producción a Largo Plazo, surge a partir de las necesidades de recursos más lo ingresos previstos por ventas. Este conjunto de 1. planes conforma la base del Plan Estratégico o Plan de Empresas, que deberá tener en cuenta la situación del sector, la competitividad y previsiones sobre las 2. condiciones económicas en general. Luego caemos en los que se denomina Planificación 3. Agregada, esta fase trata de establecer, todavía en unidades agregadas para periodos normalmente mensuales, los valores de las principales variables productivas, teniendo en cuenta

Los inventarios o stocks, son considerados como una inversión, es cualquier recurso ocioso almacenado en espera de ser utilizado. ¿Cuáles son las razones por los que las empresas provocan mantenimiento de stocks? ¿Por qué las empresas inmovilizan con frecuencia enormes cantidades de dinero en recursos ociosos? Razones que justifican la existencia de inventarios Si la demanda de los clientes fuese conocida con certeza y la producción coincidiese exactamente en fecha y cantidad no sería necesario almacenar productos finales. Hacer frente a la demanda de productos finales Evitar interrupciones en el proceso productivo.

33


Revista Conceptual UCB

Fig3. Esquema de cómo evitar los errores en la produccion

 

 

  

 

Las empresas se protegen de eventuales paradas no deseadas, acumulando una cierta cantidad de inventarios. Estas son: Falta de suministro externo, se pueden dar por retrasos en las entregas y o recepción de pedidos. Falta de suministro interno, por averías de equipos, mala calidad de componentes elaborados, etc. Cuando en un determinado momento existe la necesidad de un artículo concreto, y este no se encuentra disponible, se dice que se producido una ruptura de stock, esto puede darse tanto en productos finales como en suministros externos e internos. El inventario que se mantiene para hacer frente a dicha eventualidad se denomina stock de seguridad (SS). Dado que cualquier etapa del proceso productivo requiere un determinado tiempo para su realización, existirá en permanencia una cierta cantidad de productos en curso. Si todas las fases estuviesen perfectamente sincronizadas, es decir, todos los componentes que salen de una etapa entrasen en la siguiente sin esperas intermedias, el stock se reduciría al mínimo. La naturaleza del proceso de producción Cuando nos encontramos con una demanda variable, una posible solución es fabricar por encima de la demanda en épocas bajas y almacenar el exceso de producción para emplearlo en aquellos momento en los que la demanda supera la capacidad de la firma. Nivelar el flujo de producción Obtener ventajas económicas Es la causa típica de las empresas agrícolas, en las que la producción se obtiene en un periodo determinado, y su consumo se realiza a lo largo del año. Falta de acoplamiento entre producción Ahorro y especulación 1. Cuando se prevé una alza en los precios, puede ser interesante adquirirlos antes de que este se produzca y almacenarlos hasta el momento de su consumo 2. (ahorro) o venta (especulación), en un momento posterior a la subida. 3.

Fig.4 Planificacion del uso de un inventario VI. SISTEMAS MRP I: EL MRP ORIGINARIO La meta fundamental a alcanzar por la empresa, es decir disponer del stock necesario justo en el momento en que va a ser utilizado. El énfasis debe ponerse más en él cuando pedir que en el cuanto, lo cual hace que sea más necesario una técnica de programación de inventarios que de gestión de los mismos, el objetivo básico, pues, no es vigilar los niveles de stocks como se hace en la gestión clásica, sino asegurar su disponibilidad en la cantidad deseada, en el momento y lugar adecuados. Más adelante sé vera que el MRP (planificación de las necesidades de materiales) es más que una simple técnica de gestión de inventarios. Este tipo de sistema sigue un enfoque jerárquico y nacen como una técnica informatizada de gestión de stocks de fabricación y de programación de la producción, capaz de generar el Plan de materiales a partir de un PMP. Esquema básico del MRP originario MRP, es un sistema de planificación de componentes de fabricación que, mediante un conjunto de procedimientos lógicamente relacionados, traduce un Programa Maestro de Producción, PMP, en necesidades reales de componentes, con fechas y cantidades. A su vez no permite conocer que actividad ha de desarrollar cada unidad productiva en cada momento de tiempo para fabricar los pedidos planificados en el orden establecido, ni tampoco si se cuenta o no con la capacidad suficiente de hacerlo. En cuanto a las características del sistema, se podría resumir en: Está orientado a los productos, a partir de las necesidades de estos, planifica las de componentes necesarios. Es prospectivos, pues la planificación se basa en las necesidades futuras de los productores. Realiza un de calaje de tiempo de las necesidades de ítems en función de los tiempos de suministro, estableciendo las fechas de emisión y entrega de los pedidos. Con respecto a este tema, hay que recordar

34


Revista Conceptual UCB

4. 5.

 

  

que el sistema MRP toma al TS como un dato fijo, por lo que importante que este sea reducido al mínimo antes de aceptarlo. No tiene en cuenta las restricciones de capacidad, por lo que no asegura que el plan de pedidos sea viable. Es una base de datos integrada que debe ser empleada por las diferentes áreas de la empresa. D. LOS SISTEMAS MRP II El MRP de Bucle Cerrado ( MRP Closed Loop).Este  sistema parte de un Plan Agregado de Producción elaborado fuera del Sistema, el cual será convertido en un PMP por él módulo de Programación Maestra.  Este último será el punto de partida para la planificación de la capacidad a medio plazo mediante  una técnica aproximada. Si el plan resultante es viable, el Programa Maestro pasara a servir de input al módulo MRP. Los Planes de Pedidos a proveedores de MRP irán destinados a la gestión de compras, mientras que los de pedidos a taller servirán para la Planificación de Capacidad (CRP). Si el plan a corto plazo deducido de CRP es viable, los pedidos pasaran a formar parte de la Gestión de Talleres, en la que el sistema controlara las prioridades y programara las operaciones (normalmente con Listas de Expedición). La situación en los talleres y los planes de capacidad a corto plazo servirán al sistema para controlar la capacidad, normalmente usando el Análisis Input/Output. El término de bucle cerrado implica que no solo se incluye cada uno de esos elementos en el Sistema Global, sino que también hay retroalimentación para mantener planes validos en todo momento. Características del MRP de bucle cerrado Es prospectivo, ya que la planificación está basada en el Plan Agregado de Producción Incluye la PMP, la Planificación de necesidades de materiales, la Planificación de capacidad a corto y medio plazo, Control de la Capacidad y la Gestión de talleres. Trata de forma integrada todos los aspectos que contempla, dado que la base de datos y el sistema son únicos para todas las áreas de la empresa. Actúa en tiempo real, usando terminales on-line, aunque algunos de los procesos se producirían en batch (ejemplo, la explosión de materiales) Tiene capacidad de simulación, de forma que permite determinar qué ocurriría si se produjeran determinados cambios en las circunstancias de partida. Actúan de la cúspide hacia abajo, pues el proceso ha de comenzar en el Plan Agregado de Producción. Lo definiremos como una ampliación del MRP de bucle cerrado que, de forma integrada y mediante un proceso informatizado on-line, con una base de datos única para toda la empresa, participa en la planificación estratégica, programa la producción, planifica los pedidos de los diferentes ítem

componentes, programa las prioridades y las actividades a desarrollar por los diferentes talleres, planifica y controla la capacidad disponibles y necesaria y gestiona los inventarios. Además, partiendo de los outputs obtenidos, realiza cálculos de costes y desarrolla estados financieros en unidades monetarias. Sus características son similares al anterior y además: Participa en la planificación estratégica, en el cálculo de costes y en el desarrollo de estados financieros. Permite planificar, programar, gestionar y controlar todos los recursos de la empresa manufacturera. Debe ser capaz de convertir en unidades monetarias las cifras derivadas de la explotación en unidades físicas.

Fig.5 Mapa mental de lo usos del MRP VII.

EJECUCION Y CONTROL DEL SISTEMA KABAN a norma de fabricar los componentes y enviarlos a donde se necesitan, empujando así el material a lo largo de las líneas de producción de acuerdo con el plan de materiales, caracteriza al MRP como un sistema de empuje, es mejor anticipar las necesidades antes de que estas se produzcan. En estos sistemas cualquier desviación con respecto a la programación da lugar a problemas. Por actuar de forma centralizada y por trabajar con tamaños de lotes y tiempos TS supuestamente constantes y predeterminados, cualquier cambio en la programación inicial puede dar lugar a una serie de dificultades. Por esto se emplea la reprogramación y en su caso el mantenimiento de cierto nivel de inventarios de seguridad. Estos sistemas de empuje la labor de control de la producción se concreta en intentar mantenerla dentro del programa. En el sistema de arrastre utilizada por JIT ya no es el proceso anterior el que decide suministrar los componentes al proceso siguiente, sino que será el proceso siguiente el que le retira al anterior las piezas necesarias en la cantidad justa y en el preciso momento en que las necesite. Esto hace que el programa de producción solo sea comunicado como orden de fabricación al puesto de montaje final, desencadenando este todo el proceso de producción a

35


Revista Conceptual UCB medida que retira los componentes necesarios para montar los productos finales. El sistema KANBAN es un sistema de arrastre basado en la utilización de una serie de tarjetas, que dirigen y controlan la producción entre los distintos CT. Tipos de KANBAN.KANBAN de transporte o de movimiento que se mueven entre dos puestos de trabajo e indican las  cantidades de producto a retirar del proceso anterior. KANBAN de producción, se mueven dentro del puesto de trabajo y funcionan como orden de  fabricación. 

Fig.6 Tipos de kaban existentes El número de KANBANS debe disminuirse, dado que cuando un contenedor está lleno de piezas debe tener adherido un KANBAN, la cantidad máxima de inventario entre dos puestos de trabajo coincidirá con la siguiente formulación: INVENTARIO MÁXIMO = capacidad del contenedor x número de KANBAN puestos en circulación Filosofía JIT: adecuación del subsistema de operaciones y otros aspectos de interés Reducción de los tiempos de preparación y de fabricación (sist.) SMED) SMED (single minute Exchange of die), nace como un conjunto de conceptos y técnicas que pretenden reducir los tiempos de preparación hasta poderlos expresar en minutos utilizando solo un dígito, es decir, realizar cualquier preparación de máquinas en tiempo inferior a los 10 minutos. El final de estos procesos de mejora debería consistir en la eliminación misma de la necesidad de preparación, que puede implicar dos aspectos: estandarizar los componentes para que puedan ser utilizados en distintos productos o bien fabricar las piezas necesarias al mismo tiempo, ya sea en la misma maquina o en máquinas diferentes. El tiempo de espera puede tener dos orígenes. En primer lugar desequilibrios en el tiempo de producción, y por otro lado el tamaño de los lotes a procesar. El tiempo de transporte ocurre cuando se utilizan grandes lotes, estos tiempos se convierten en un componente importante del tiempo total de fabricación. Lo que el JIT propone en el caso de transporte es la conexión directa con una línea de montaje, no diseña las secciones por funciones, sino

en líneas multiprocesos. Para el tiempo de espera, una de las propuestas del JIT es reducir estos tiempos por estandarización de la ruta de operaciones, entrenando a los trabajadores. VIII. ESTANDARIACION DE LAS OPERACIONES Los objetivos se detallan a continuación: Alta productividad por utilizar el mínimo de trabajadores posibles y eliminar todas las tareas o movimientos inútiles Equilibrar todos los procesos en términos de tiempo de producción. Para ello se basa en la utilización del concepto de ciclo de fabricación. Utilizar la mínima cantidad posible de trabajo en curso, a la cual denomina cantidad estándar e trabajo en curso. Puede ocurrir que la ruta estándar de cada trabajador no siga la secuencia lógica de operaciones a realizar al producto, será entonces necesario mantener cierta cantidad de trabajo en curso entre máquinas para que éstas y los distintos trabajadores puedan operar de forma simultánea. A esta cantidad, que debe ser calculada para que sea la mínima, se la denomina cantidad estándar de trabajo en curso, que no incluye la existencia en los almacenes de productos terminados. IX. REFERENCIAS [1]Dirección De Operación- Aspectos Estratégicos En La Producción Y Los Servicios. (JOSE ANTONIO DOMINGUEZ MACHUCA). [2]http://www.monografias.com/trabajos18/direccionoperaciones/direccion-operaciones.shtml [3]http://www.slideshare.net/albertojeca/mrp-ii-y-erp [4]www.dspace.espol.edu.ec/bitstream/.../1/tessis%20 cap%201234.doc [5]http://webdelprofesor.ula.ve/economia/oliverosm/ materiasdictadas/produccion2/clases/planificacion_de _la_produccion.pdf

36


Revista Conceptual UCB

Avances Médicos en el mundo Boris Aruni Illanes Ingeniería Biomédica Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre La paz-Bolivia

brother_el_menor@hotmail.com La paz-Bolivia a la salud, de manera que ésta tenga los mayores niveles de eficiencia, calidad y equidad, garantizándose el acceso universal a los servicios, de acuerdo a las necesidades, en el nivel de atención pertinente y con el apoyo tecnológico que cada caso requiera. Generalmente se considera que la tecnología en salud se reduce a equipos o aparatos. No obstante, esta conceptualización puede ser analizada desde una perspectiva más amplia, incluyendo en ella la aplicación de conocimientos a través de técnicas o procedimientos, los productos tales como los medicamentos, los dispositivos médicos o quirúrgicos de índole diversa y el material de curación, entre otros.

Resumen . This paper discusses the results of the research work on medical technology in several countries by research teams whose goals are to prompt the exchange of information and support practical cooperation. Emphasis is placed on the work developed by the Pan American Health Organization, which has supported 45 research proposals on medical technology and stimulated the association of academic groups, national institutions and international agencies. The author also describe the research activities of the team devoted to medical technology research at the National Institute of Public Health in Mexico and the world. Palabras clave — Medicina-Tecnología-Salud.

I.

INTRODUCCIÓN

Sin embargo, la adquisición indiscriminada de tecnología puede ocasionar alteraciones en el modelo de atención a la salud, debido a la incorporación desordenada de equipos, prácticas o dispositivos. Aunado a esto se favorece la dependencia tecnológica por ser en su mayoría productos importados, con costos elevados, lo que genera problemas y dificulta el acceso, situación que puede poner en entredicho la prestación adecuada de servicios. Asimismo, las diversas tecnologías médicas tienen un ciclo de vida. En él se pueden identificar las siguientes etapas: a) la inicial o de innovación, que se da cuando en el proceso de investigación científica se obtiene un producto nuevo y se le da una utilidad práctica; b) la difusión. c) el uso general. d) el abandono. Al concluir este ciclo se cuenta ya con un nuevo producto desarrollado en el ámbito científico, que sustituye al anterior. En el desarrollo de este proceso es importante realizar investigaciones que propongan soluciones a los graves problemas que pueden ser detectados, pero sería muy ambicioso tratar de plantearlos en este documento.

Fig.1 Aparatos e insumos médicos

Una de las prioridades que ha orientado las acciones de los niveles centrales de los ministerios y secretarías de salud en América Latina y el Caribe, es la de contar con servicios de salud con un adecuado nivel tecnológico. Por otro lado, uno de los retos a resolver, es el de mejorar la atención

Otra manera de abordar el tema es la de tomar como referencia aspectos de la producción social de la tecnología, dentro de los que destacan la producción, distribución, comercialización, inversiones, uso y evaluación.

37


Revista Conceptual UCB laboratorios farmacéuticos y empresas industriales o comerciales pueden considerarse ejemplos de ello.

Tomando en consideración la amplitud de aspectos que se pueden identificar y la importante cantidad de recursos humanos y económicos involucrados en el proceso es que se puede afirmar que la tecnología en salud, o tecnología médica, es uno de los campos más fértiles de la salud internacional, ya que puede decirse que ésta es el conjunto de conocimientos acerca del proceso salud/ enfermedad y acciones de salud (nacionales, bilaterales o multilaterales) que trascienden las fronteras de un país.

En general, se puede observar que este tipo de acciones, como becas e intercambios académicos, se realizan cotidianamente. Así se han logrado avances y el desarrollo de grupos de investigación en diversos países. Además se han canalizado conocimientos, prácticas médicas o quirúrgicas, que conllevan la incorporación de otro tipo de tecnologías que van sustituyendo a las previamente existentes, no siempre con causa justificada. Otra forma en la que se incorpora tecnología a los servicios de salud es a través de donaciones o acuerdos bilaterales o multilaterales, ocurriendo más frecuentemente en lo que respecta a aparatos y equipos médicos. No obstante las bondades innegables de este tipo de actividades, debe señalarse que favorecen la aparición de otras problemas, como los desfases tecnológicos, la diversidad de marcas, la falta de personal capacitado para el manejo o mantenimiento de algunos equipos o procedimientos, la dependencia tecnológica y la elevación de los costos.

Cuando se trabaja sobre aspectos sociales en los que se estudia tanto el desarrollo científico como en la tecnología médica, se evidencia que sus resultados se difunden rápidamente fuera de las fronteras donde se producen, por lo que resulta lógico pensar que se puede favorecer con ellos la cooperación técnica entre países, agencias internacionales y grupos académicos. La gran complejidad de conocimientos que serían necesarios para cubrir todos los aspectos que involucra el desarrollo tecnológico y el intercambio de la información requerido para hacer un proceso eficiente es tal, que se deben establecer las prioridades y puntos comunes que faciliten los contactos. Por otro lado, se requiere plantear una política de cooperación en los términos más amplios que incluyan tanto aspectos de intercambio de los resultados de la investigación científica como los relacionados con la comercialización y producción de los productos de la misma.

Unido a lo anterior, se encuentran la necesidad real de aprovechar al máximo los recursos disponibles y dar solución a los problemas de salud planteados por las poblaciones. Esto ha puesto de relieve el hecho de que no pueden tomarse más acciones unilaterales o aisladas para enfrentar la creciente demanda de atención y contar al mismo tiempo con los adelantos técnicos, reduciendo la problemática y los costos. Ante esta situación algunas agencias internacionales y países de la Región han realizado esfuerzos que han ido generando puntos de contacto e intercambio de información sobre tecnologías de salud. Esto ha sido resultado sobre todo del reconocimiento de que se han financiado proyectos que favorecieron la incorporación de tecnologías muy diversas e incluso modificaron los patrones de organización, creando modelos de atención e infraestructura básica de servicios de salud cuyos resultados no han sido del todo satisfactorias.

La importancia de ello no se centra únicamente en aspectos de orden médico sino en la imperiosa necesidad de proveer de servicios de calidad a las poblaciones a un costo económico menor y con mejores resultados. En este trabajo se dan a conocer las acciones emprendidas por diferentes grupos de investigadores y agencias internacionales encaminados a promover y sustentar con información confiable y reciente, las posibilidades de cooperación en el área de tecnología médica, haciendo referencia especial a las actividades llevadas a cabo por el grupo mexicano de investigación en tecnología para la salud del Instituto Nacional de Salud Pública. II.

En 1978, la Organización Mundial de la Salud, convocó a una reunión en Alma Ata en la que se evaluó la situación de la salud de la población mundial. En ella se establecieron políticas y estrategias con miras a lograr la "Salud para todos en el año 2000". La estrategia planteada para reorganizar los servicios de salud fue la Atención Primaria de Salud. Respecto a la tecnología se propuso como

ANTECEDENTES

Los trabajos encaminados a promover el desarrollo e intercambio de conocimientos en el área de tecnología médica no son recientes, de hecho los acuerdos entre universidades, gobiernos,

38


Revista Conceptual UCB alternativa la denominada "tecnología apropiada". Esta propuesta hacía referencia a la necesidad de reducir costos, racionalizar las adquisiciones intensificando el uso de tecnologías menos complejas, adaptadas a la creatividad nacional y orientadas a fortalecer la estructura tecnológica propia. La instrumentación de esta estrategia tuvo resultados desalentadores pues creó la falsa imagen de que los países con menores recursos económicos sólo requerirían de aparatoso equipamientos sencillos para enfrentar sus problemas de salud.

2. Una forma de enfrentar esta carencia la ofrece el desarrollo de investigaciones sobre tecnología médica. 3. Hay grupos de investigación interesados en tecnología médica que no cuentan con apoyo institucional. 4. Las áreas prioritarias de investigación incluyen la producción, comercialización, distribución, importación, inversiones y redes de información, entre otros. 5. La estrategia para garantizar resultados comparables consiste en la confección de protocolos guías, en los que se señalen los puntos centrales a desarrollar, así como una propuesta de las variables más significativas. Con base en estos resultados se llegó establecer como línea de acción para el trabajo concreto el dar a conocer las directrices en los países de la Región, localizando grupos tanto en las instituciones del Sector Salud como dentro del Sector Educativo.

La experiencia demostró que fuera de favorecer mejoras sustanciales en los servicios de atención primaria, se generó un abandono de los servicios de segundo y tercer nivel, sobre todo los hospitalarios, por considerárseles superfluos, con una priorización de la ampliación de la cobertura de los servicios de primer nivel, sin apoyo financiero real. Esta situación paradójica propició la aparición de una problemática especial en la atención, con un antagonismo artificial y competencia por los recursos entre los diferentes niveles, disminuyendo la calidad de la atención y aumentando la brecha entre las necesidades y los recursos.

III. SITUACION ACTUAL  Hasta hace pocos años no se contaba con una propuesta de trabajo regional en ninguna institución cuyo fin fuera el apoyar la investigación sobre la producción de tecnología médica en los diferentes países y que diera a los resultados una perspectiva de intercambio.  Esta visión ha favorecido la ejecución de protocolos de investigación, reuniones y encuentros entre grupos de diversos países de América Latina y el Caribe, y se espera que a mediano plazo pueda generar un sistema de información que facilite el proceso de toma de decisiones en la adquisición de productos tecnológicos.

Al mismo tiempo, la situación económica mundial favoreció una crisis generalizada en las economías de América Latina y el Caribe, con enormes deudas y problemas monetarios internos. Ante esta situation, se tuvieron que plantear soluciones acordes a las nuevas circunstancias. Según informes recientes, el mercado regional para insumos médicos tiene una magnitud de 10 000 millones de dólares, por lo que constituye un importante rubro de uso de divisas, de por sí escasas.

ORGANIZACIÓN PANAMERICANA DE SALUD

La Organización Panamericana de la Salud (OPS), a partir de 1982, propuso acciones concretas para favorecer alternativas conjuntas de cooperación entre países de la Región en materia de tecnología. En los años siguientes hubo una reestructuración de la propia oficina central, lo que favoreció que se iniciaran los trabajos en el área de tecnología para la salud con una perspectiva de análisis de política. En el lapso de 1984-1985 se llevaron a cabo reuniones y consultas que dieron por resultado las siguientes conclusiones: 1. Existe la necesidad de contar con información sobre la industria relacionada con dispositivos médicos en la Región.

Fig.2 En la imagen el simbolo de la OPS

39


Revista Conceptual UCB La evaluación, planeación y seguridad tecnológicas han sido tratadas tanto en publicaciones como en reuniones especiales convocadas para este propósito.

Esta organización ha apoyado el trabajo de grupos de investigación en Argentina, Brasil, Costa Rica, Colombia, Cuba, Chile, Ecuador, México, Uruguay, Caribe inglés, entre otros. Hasta la fecha se han realizado 29 investigaciones cuyos aportes se han difundido entre los grupos interesados a través de la publicación de informes, y se encuentran en diferentes fases de ejecución 16 protocolos más, que involucran a 13 países. Además, se cuenta ya con datos sobre la producción de dispositivos médicos en Argentina, Brasil y México.

Se integraron asimismo dos actualizaciones bibliográficas sobre tecnología médica, rescatando cerca de 300 títulos. Por las características del objetivo de la línea de trabajo se ha promovido la colaboración de otras agencias tanto del sistema de las Naciones Unidades como ajenas a ella, y se han logrado acciones conjuntas con ALADI, ONUDI, PNUD y UNICEF.

En cuanto a comercialización, que ha incluido situaciones tan relevantes como importaciones y situación de mercado, se cuenta con siete investigaciones en Argentina, Costa Rica, Uruguay y México.

De los protocolos que ya han sido concluidos se han podido ubicar una serie de problemas que afectan a los países en vías de desarrollo, a sus empresas y centros de investigación cuya trascendencia estriba en la producción documentada de situaciones que, en ocasiones, podían considerarse como "normales" para este tipo de economías: alta dependencia tecnológica, pagos excesivos por usó de patentes o marca, escaso desarrollo de empresas productoras, sistemas anticuados de control o registro, problemas administrativos, y falta de vinculación entre el sector educativo y el empresarial. Se ha comprobado además la existencia de graves problemas para la toma de decisiones en la adquisición de los insumos de uso cotidiano del Sector Salud, con pobres sistemas de mantenimiento o seguridad. Por otro lado, se han ubicado posibilidades concretas de intercambios comerciales y conocimiento de lo que es factible esperar de las propias empresas, las aspiraciones de los industriales y los problemas a los que se enfrentan.

Para el Caribe inglés, se han realizado reuniones pertinentes que pueden derivar en la creación de un sistema de información sobre dispositivos médicos en la Región. Se trabaja al mismo tiempo en la ejecución de cuatro protocolos sobre administración tecnológica. Sobre evaluación del uso de diferentes equipos, aparatos o procedimientos se cuenta con 15 investigaciones realizadas en Brasil, Costa Rica, Colombia, Uruguay, Cuba, Chile y México. En cuanto a la distribución de tecnologías, se están llevando a cabo cuatro protocolos en Argentina, Ecuador y Uruguay. Entre los resultados más relevantes se pueden señalar la ubicación de problemas administrativos, legales e institucionales que han obstaculizado el buen desarrollo de la planta industrial nacional y la falta de canales que faciliten la incorporación de los conocimientos producidos en los ámbitos académicos a las industrias nacionales.

Ante esta situación, urge cada vez más el establecimiento de vías conjuntas de cooperación que favorezcan el desarrollo de proyectos conjuntos de intercambio.

Se inició también el trabajo de generación de directorios de empresas e industrias, catálogos de productos, sistemas de apoyo a la compra y mantenimiento de insumos utilizados por los servicios de salud y otro temas tan importantes como el estudio de la legislación tecnológica y su impacto en las industrias nacionales y en la formación de recursos humanos.

III.

APORTACION DE INTERNACIONAL DEL GRUPO

COPERACION

El desarrollo de las investigaciones citadas no son los únicos aportes que este grupo ha realizado a lo largo de tres años de trabajo. Una de las tareas consideradas como centrales ha sido la de favorecer las intercambios entre grupos de investigación tanto dentro del país como fuera de él. Además, se han realizado visitas de investigación por parte del personal a los proyectos de inversión de los Bancos Interamericano de Desarrollo y Banco Mundial en Argentina, Brasil,

Se trabaja además con líneas de investigación en las que se indaga sobre el papel de la tecnología y la salud del niño, adolescente, adulto y la mujer como campos específicos.

40


Revista Conceptual UCB México y Uruguay, con miras a obtener información sobre la incorporación de tecnología médica por esta vía. De estas visitas se generaron dos productos importantes, un informe sobre la, recopilación histórica de los proyectos de inversión de los bancos multilaterales y el protocolo común para el tema de inversiones internacionales y movimiento de capitales en tecnología médica. IV.

bancos regionales de información sobre diferentes aspectos fundamentales para iniciar el intercambio Existen todavía muchas otras actividades posibles en el área de tecnología que podrían ser puestas en marcha a fin de consolidar un sistema permanente de intercambio y ayuda entre países, instituciones, empresarias y gobiernos que sería importante apoyar. La difusión de resultados es una de las tareas prioritarias a las que debe dedicarse una buena parte del tiempo de los investigadores por la gran trascendencia de las acciones que pueden ser coadyuvadas.

CONCLUSIONES

Como se ha observado en el presente trabajo, los resultados de la investigación sobre tecnología en salud son un instrumento que puede ser puesto al servicio de la implementación de acciones de cooperación técnica y por ende de actividades de salud internacional.

Con todo lo anterior podemos afirmar que la investigación por misión en el área de tecnología médica puede aportar elementos básicos al buen desarrollo de acciones de cooperación internacional.

Tanto los antecedentes presentados como la situación actual, permiten visualizar que existen grandes avances en el área pero al mismo tiempo grandes retos a enfrentar.

Finalmente, es necesario señalar que la utilización de los resultados de la investigación sobre tecnología en salud constituye un área en la cual puede apoyarse la cooperación internacional y que con ello aumenta la posibilidad de mejorar los servicios de salud prestadas a la población.

En investigación, los esfuerzos hechos hasta hoy han rendido algunos frutos con vistas hacia la integración de elementos comunes para proponer acciones concretas de intercambio y de apoyo al desarrollo en los países donde este tipo de actividades no se han llevado a cabo.

REFERENCIAS [1] Banta HD. The uses of modern technologies: Problems and perspectives for industrialized and developing countries. Proceedings of a meeting on Assessment of Modern Technologies in the Americas. Brasilia, Brasil: CNP, 1983. [2] Coe GA. Introducción a la selección de tecnologías de salud. Washington, D.C.: Organización Panamericana de la Salud, 1988. [3] Soberon G, de Caso O. La salud sin fronteras y las fronteras en la salud. Salud Publica Mex 1989;31: 813-822. [4] Sánchez E, Peña J. Análisis de políticas de inversión internacional en tecnología en salud. Informe técnico. Washington, D.C.: Organización Panamericana de la Salud, 1987. [5] OMS, UNICEF. International Conference on Primary Health Care. Alma Ata, URSS: OMS, UNICEF, 1978. [6] OPS, OMS. Tecnología apropiada para la salud. Washington, D.C.: Organización Panamericana de la Salud 1981 [7] OPS. Optimización del empleo de recursos en apoyo económico a las estrategias nacionales de salud para todos. Washington, D.C.: Organización Panamericana de la Salud, 1989. [8] Panerai R, Peña J. Evaluación de tecnologías en salud. Metodologías para países en

Los resultados obtenidos han mostrado que es factible la coordinación del trabajo mediante una dirección común, que corresponda a las necesidades propias de cada nación y que contemple dentro de sus perspectivas el hecho de ampliar la posibilidad de aplicación de los resultados en la organización de los servicios de salud. Con los hallazgos obtenidos se puede suponer que pueden establecerse intercambios no sólo entre grupos académicos sino con instituciones, empresarios o gobiernos interesados en mejorar o promover sus relaciones comerciales en el área de tecnología para la salud que permitan avanzar hacia la solución de los problemas Es probable que a corto o mediano plazo no se pueda dar en la Región un desarrollo científico técnico capaz de apoyar la producción de tecnologías médica de punta, pero en otras áreas, como equipamientos sencillos, medicamentos, biotecnología o ingeniería genética, la dependencia tecnológica no es de la misma magnitud y hacia esta áreas podrían asignarse un mayor número de recursos En México se han realizado y apoyado diferentes propuestas que pueden favorecer la creación de

41


Revista Conceptual UCB desarrollo. Washington, D.C.: Organización Panamericana de la Salud, 1990. [9] Peña J. Proceso de desarrollo tecnológico. Análisis de las políticas de tecnología en salud. Protocolos de investigación. Washington, D.C.: Organización Panamericana de la Salud, 1985. [10] OPS. Programa de análisis de políticas de salud en tecnología. Investigaciones financiadas sobre tecnología en salud 19851990. Washington, D.C.: Organización Panamericana de la Salud, 1991. [11] OPS. Programa de análisis de políticas de salud en tecnología. Selección bibliográfica de tecnología en salud. Bibliografía anotada. Washington, D.C.: Organización Panamericana de la Salud, 1985: Vol. I, número 1. [12] OPS. Programa de análisis de políticas de salud en tecnología. Selección bibliográfica de tecnología en salud. Bibliografía anotada. Washington, D.C.: Organización Panamericana de la Salud, 1986: Vol I, número 2.

42


Revista Conceptual UCB

DOMOTICA ―EDIFICIOS INTELIGENTES‖ Johon Jose Gutierrez Cabezas Ingeniería de Sistemas Universidad Católica Boliviana Av. 14 de Septiembre 4807, Obrajes-Zona Sur. LP 4805 o_gutierrez_b @estudiantes.ucb.edu.bo La Paz – Bolivia Resumen-- En el nacimiento de cualquier nueva tecnología o servicio el grado de implicación de la parte técnica es alto y se tiende a complicar su uso por la incorporación de cientos de funciones, programaciones, etc. En el caso de servicios o sistemas orientados a usuarios finales, esta tendencia agrava la situación porque el usuario se encuentra ante un sistema que técnicamente puede ser muy aceptable pero que en la práctica, ante cualquier evento, le producirá confusión, desconcierto y finalmente rechazo. En realidad, con los nuevos sistemas que se están comercializando, el control y su programación son muy intuitivos, por lo que los usuarios han de perder todo miedo a utilizarlos. También, las posibilidades que dan la conexión a Internet, con redes de banda ancha, o la conexión a través de redes móviles GSM o de otro tipo, para el control remoto y la vigilancia, hace que se extienda 1. muchísimo el campo de aplicación de la domótica. 2. Palabras clave — Domótica, arquitectónicos, 3. ambientales, tecnológicos. 4. 5. I. INTRODUCCIÓN

Fig. 1 futuro de lso edificios

Satisfacer las necesidades presentes y futuras de los ocupantes, propietarios y operadores del edificio. La flexibilidad, tanto en la estructura como en los sistemas y servicios. El diseño arquitectónico adecuado y correcto. La funcionalidad del edificio. La modularidad de la estructura e instalaciones del edificio. Domótica término "científico" que se utiliza para 6. Mayor confort para el usuario. denominar la parte de 7. La no interrupción del trabajo de terceros en los cambios o modificaciones. la tecnología (electrónica e informática), que integra 8. El incremento de la seguridad. el control y supervisión de los elementos existentes en un edificio de oficinas o en uno de viviendas o 9. El incremento de la estimulación en el trabajo. simplemente en cualquier hogar. También, un término 10. La humanización de la oficina. Tecnológicos muy familiar para todos es el de "edificio inteligente" que aunque viene a referirse a la misma cosa, 1. La disponibilidad de medios técnicos avanzados de telecomunicaciones. normalmente tendemos a aplicarlo más al ámbito de los grandes bloques de oficinas, bancos, 2. La automatización de las instalaciones. 3. La integración de servicios universidades y edificios industriales. II. OBJETIVOS Los objetivos o finalidad de un edificio inteligente, 1. 2. son los siguientes: 3. Arquitectónicos

Ambientales La creación de un edificio saludable. El ahorro energético. El cuidado del medio ambiente.

43


Revista Conceptual UCB

1. 2. 3. 4. 5.

Económicos La reducción de los altos costos de operación y mantenimiento. Beneficios económicos para la cartera del cliente. Incremento de la vida útil del edificio. La posibilidad de cobrar precios más altos por la renta o venta de espacios. La relación costo-beneficio. El incremento del prestigio de la compañía.

programar las unidades, y como cada una estas posee un microprocesador son completamente autónomas. En caso de querer un constante monitoreo de la edificación y tener una interface usuario-sistema o realizar instrucciones verdaderamente complejas, la mejor opción sí es una central inteligente como una PC donde, por ejemplo, puede estar cargado el plano de la edificación con la distribución de las unidades en forma de iconos que cambian según sus estados. Medición del nivel de inteligencia de un edificio 1. Mecanismo de evaluación que considere todos los aspectos y posibilidades necesarios. 2. Hecho en México, tomando en consideración las características del mercado mexicano. IV Servicios Iluminación El aprovechamiento de la luz natural fue una de las condicionantes de la propuesta, que conjuga el diseño arquitectónico y la ingeniería bioclimática. El 60% del edificio goza de luz y ventilación naturales. El muro de la fachada oriente, en zona de urgencias, es de vitroblock, que no solamente permite el paso de la luz y una adecuada ventilación, sino que además sirve como colchón acústico. Debido a la función social de esta obra, se seleccionó cuidadosamente el uso de fuentes de luz eficientes, con horas de vida prolongada.

Fig. 2

Edificios domoticos

DESCRIPCIÓN DE LOS SISTEMAS

Los sistemas inteligentes pueden ser centralizados o descentralizado: Centralizados Tienen una unidad central inteligente encargada de administrar la edificación, a la que enviarán información distintos elementos de campo sensores, detectores-; la central se encargará de procesar los datos del entorno y, en función de la información y de la programación que se haya hecho sobre ella, actuará sobre determinados circuitos encargados de cumplir funciones, desde la seguridad hasta el manejo de la energía eléctrica y otras rutinas de mantenimiento. Los elementos a controlar y supervisar (sensores, luces, válvulas, etc) han de cablearse hasta la central inteligente (PC o similar). Esta central es el ‗corazón‘ de la vivienda, en cuya falta todo deja de funcionar, en esta topología de cableado no es posible su ampliación. Descentralizado No es necesario tener una central inteligente conectada para funcionar y tomar decisiones sobre las acciones a desarrollar. Solo hace falta una PC para

Climatización La forma más básica de controlar la climatización de una vivienda es la conexión o desconexión de todo el sistema de climatización. Se puede realizar esto según una programación horaria, según presencia de personas en el hogar o de forma manual. Con estos modos de funcionamiento el sistema sólo garantiza el establecimiento de una temperatura de consigna única para toda la vivienda, de forma parecida a la existencia de un termostato de ambiente convencional. Sin embargo se puede hacer muchísimo más para alanzar un alto nivel de confort y ahorrar energía. · Incremento del grado de confort al asegurar la temperatura deseada por el usuario en cada una de las zonas disponibles. · Nivel de temperatura de economía. Estado de funcionamiento que se da cuando, o bien los usuarios salen de casa por un corto período de tiempo, o bien durante aquellos períodos en los cuales no se requiere un nivel de temperatura tan Puertas y ventanas Un área de aplicación principal es para gente con discapacidades físicas. La automatización puede ayudar al usuario tanto abrir como cerrar las puertas y

44


Revista Conceptual UCB ventanas a través del sistema de domótica. Cada puerta o ventana puede ser controlado de forma individual y por zonas. Las puertas y ventanas pueden ser controladas para temas climatológicos. Es decir se pueden abrir y cerrar para crear corrientes de aire para la ventilación natural.

encuentran en la parte exterior del edificio. Una gran área verde, ubicada en la parte superior del edificio sirve para disipar el calor. El edificio aprovechará las ventajas de la energía solar y energía eólica.

Persianas y toldos Las persianas y toldos pueden ser controlados según la temperatura interior o la situación climatológica del exterior. Es decir si queremos que entre el sol y la luz para calentar el interior de la vivienda a través de las ventanas las persianas pueden de forma automática abrirse según una programación horaria o según los datos de sensores de luz. En la misma manera podemos asegurarnos que están bajadas para que la luz solar no dañe el interior. También sensores de lluvia y viento pueden obligar a los toldos a recogerse para que no sean dañados. Aparatos Hay muchos sistemas y aparatos dentro y en el exterior de la vivienda que pueden ser controlados por el sistema de domótica. Cafeteras, radios, y otros aparatos que se encienden simplemente activando la alimentación sueles ser integrados con facilidad y pueden para muchos usuarios ser prácticos y curiosos. Esto se puede realizar según una programación horaria, para simular presencia, para escenarios o según que se disparan otros eventos. Sistemas más complejos tipo controladores de piscinas, suelos radiantes, etc. suelen ser mejor dejar con sus controladores originales y limitarse de interactuar con algunas entradas / salidas para captar valores (tipo temperaturas) y como mucho enviar información para actuar temporalmente sobre el sistema.

Fig. 5

Fig. 4

Burj Khalifa es sin duda actualmente el edificio más alto del mundo, pero ¿hasta cuando?, no lo sabemos pues parece ser que hemos empezado una carrera para tener y construir el edificio más alto del mundo. Dubai, donde se sitúa este rascacielos, puede permitirse estos lujos ya que viven de los petrodólares, ya sabemos que este recurso natural está bastante limitado y que se presupone que en los próximos 50 a 100 años se habrán acabado todas las reservas del planeta, así que ¿de qué van a vivir estos Kalifas modernos?, supongo que de los negocios que están montando con los petrodólares. Este llamativo edificio con 828 metros de altura según sus constructores dispone de un hotel de lujo, apartamentos de lujo, oficinas de lujo y una altura de vértigo. Por supuesto también incluye un restaurante de lujo con las vistas más espectaculares. Este edificio pretende albergar a una población de 12.000 personas aproximadamente, todo un municipio.

Cybertecture Egg,

La totalidad de sus 13 pisos son mucho más ligeros, y esto debido a que las columnas que los soportan se

Burj Khalifa

Fig. 5

super rascacielos

Desde este super rascacielos, podemos tener las vistas más claras del desierto que lo rodea, del mar o de los

45


Revista Conceptual UCB cielos de la ciudad, los cuales casi se pueden tocar con los dedos de la mano. Burj Khalifa estará rodeado de grandes torres y seguramente no sea por mucho tiempo el más alto, pero desde luego ahora está en su momento dorado. Yo si me preguntan, prefiero vivir no tan arriba, que me den un pisito normalito, ya sufrimos para subir las escaleras cuando se estropea el ascensor como para quedarte atascado en la planta 160. No gracias, donde este la tierra firme que se quiten las alturas. Intelligent Building Institute (IBI), Washington, D.C., E.U. Un edificio inteligente que proporciona un ambiente de trabajo productivo y eficiente a través de la optimización de sus cuatro elementos básicos: estructura, sistemas, servicios y administración, con las interrelaciones entre ellos. Se considera como edificio inteligente aquél que posee un diseño adecuado que maximiza la funcionalidad y eficiencia en favor de los ocupantes.[Edificios Inteligentes] Desde el punto de vista computacional, el término Edificio Inteligente sugiere la presencia de sistemas basados en técnicas de inteligencia artificial, programados.

Fig. 6 Ejemplo de una imagen de resolución aceptable

En el nacimiento de cualquier nueva tecnología o servicio el grado de implicación de la parte técnica es alto y se tiende a complicar su uso por la incorporación de cientos de funciones, programaciones, etc. En el caso de servicios o sistemas orientados a usuarios finales, esta tendencia agrava la situación porque el usuario se encuentra ante un sistema que técnicamente puede ser muy aceptable pero que en la práctica, ante cualquier evento, le producirá confusión, desconcierto y finalmente rechazo.

 CONCLUSIONES Al realizar el anterior trabajo de investigación, se puede uno dar cuenta de la dirección o las tendencias futuras de la arquitectura, con todos estos nuevos avances de la tecnología aplicados a la arquitectura. Actualmente no sólo se hace arquitectura para el usuario, sino también para el mismo edificio, queriendo decir con esto que con este tipo de edificaciones se busca confort para los ocupantes y durabilidad para el edificio. Teniendo en cuenta todos estos avances, el arquitecto de hoy en día no se puede quedar atrás con los métodos tradicionales de construcción o diseño. Hay que estar a la vanguardia de la tecnología y sacarle el máximo provecho, aplicándola en nuestro campo. Los arquitectos de hoy no sólo deben quedarse en el campo del diseño. Tenemos que ser pioneros de la arquitectura del futuro y no dejar que los demás hagan nuestro trabajo. Para lograr esto es necesario obtener una mayor información de todos esos avances, a través de revistas, videos, televisión, etcétera.

 [1] [2] [3] [4] [5] [6] [7] [8]

46

REFERENCIAS

www.domodesk.com www.monografias.com www.imei.com www.arquired.com www.soloarquitectura.com http://www.monografias.com/trabajos15/edificinteligentes/edific-inteligentes.shtml http://www.monografias.com/trabajos14/domotica/domot ica.shtml http://www.google.com


Revista Conceptual UCB

PROGRAMMABLE LOGIC CONTROLER Gabriel Horacio Vega Simons Ingeniería Industrial, Universidad Católica Boliviana “San Pablo” 14 de septiembre, La Paz - Bolivia gabriel_vega014@hotmail.com

La Paz, Bolivia Resumen— Este documento nos va a demostrar las funciones del PLC en el trabajo de un ingeniero industrial de igual manera observaremos la definición de este instrumento tecnológico y su función, Este instrumento nos permite controlar y generar procesos mediante la informática y tecnología, para esto es necesario cierta programarlo con cierta información acerca del proceso que se quiera llevar a cabo. Palabras clave — programar, procesos, generar, controlar, crea.

I. INTRODUCCIÓN El Programmable Logic Controler (PLC) español llamado programa lógico Programable, trata de un programa electrónico que como nombre lo indica funciona para programar controlar procesos secuenciales en tiempo real, general estos programas los encontramos máquinas o ambientes industriales II.

en Se su y en en Fig 1 PLC en una maquina industrial.

MARCO TEORICO.

Se puede pensar en un PLC como un pequeño computador industrial que ha sido altamente especializado para prestar la máxima confianza y máximo rendimiento en un ambiente industrial. En su esencia, un PLC mira sensores digitales y analógicos y switches (entradas), lee su programa de control, hace cálculos matemáticos y como resultado controla diferentes tipos de hardware (salidas) tales como válvulas, luces, relés, servomotores, etc. en un marco de tiempo de milisegundos.

A.) DEFINICIÓN DEL PLC Una forma fácil de definir al PLC es decir que viene del término inglés Programmable Logic Center, en español traducido como Programa Lógico Programable, este programa sirve para programar y controlar de forma lógica ciertos procesos esenciales en un tiempo real. También lo podemos describir como un programa manejado por un usuario utilizado para resolver problemas industriales, ahorrando costos mantenimiento y generando mayor confianza en las maquinas industriales, así este microprocesador, también llamado computadora industrial, posee un CPU como una central de procesamiento. ) continúan evolucionando a medida que las nuevas tecnologías se añaden a sus capacidades.

Mientras los PLCs son muy buenos con el control rápido de información, no comparten los datos y las señales con facilidad. Comúnmente los PLCs intercambian información con paquetes de software en el nivel de planta como interfaces maquina operador (HMI) o Control de Supervisión y Adquisición de Datos (SCADA). Todo intercambio de datos con el nivel de negocios de la empresa (servicios de información, programación, sistemas de contabilidad y análisis) tiene que ser recogido, convertido y transmitido a través de un paquete SCADA.

El PLC se inició como un reemplazo para los bancos de relevos. Poco a poco, las matemáticas y la manipulación de funciones lógicas se añadieron. Hoy en día son los cerebros de la inmensa mayoría de la automatización, procesos y máquinas especiales en la industria. Los PLCs incorporan ahora más pequeños tamaños, más velocidad de las CPU y redes y tecnologías de comunicación diferentes.

Típicamente en la mayoría de PLCs, las redes de comunicación son exclusivas de la marca y con velocidad limitada. Con la aceptación de Ethernet, las velocidades de comunicación de la red han

47


Revista Conceptual UCB aumentado, pero todavía a veces usan se usan protocolos de propiedad de cada marca.

Los autómatas nos ofrecen muchas posibilidades de configuración. Así, como decíamos anteriormente, dependiendo de la magnitud de la instalación, es posible que el que lo solicite encuentre desde el autómata compacto más básico al más complejo equipo de control con multitud de módulos de entradas y salidas, sin que ello repercuta en las posibles ampliaciones futuras del sistema. Como ejemplo, si nuestra instalación va a dedicarse simplemente a llenar sacos desde una tolva hasta llegar a un peso determinado, solamente vamos a necesitar un visualizador de peso y un pequeño autómata que nos permita controlar la descarga. Si por el contrario, disponemos de varios silos, con una o más básculas, con transporte neumático a diferentes destinos, con cintas transportadoras, etc., el sistema puede constar de varios autómatas comunicados entre sí a través de una red, cada uno de ellos controlando una parte de la planta, sin perder por ello el concepto de conjunto, lo que nos permite tener un control total sobre el sistema.

Fig. 2 imágenes donde nos muestra un PLC en un manejo industrial. B.) INTRODUCCIÓN AL PLC Hasta hace poco tiempo el control de procesos industriales se hacía de forma cableado por medio de contactores y relés. Al operario que se encontraba a cargo de este tipo de instalaciones, se le exigía tener altos conocimientos técnicos para poder realizarlas y mantenerlas. Por otra parte, cualquier variación en el proceso suponía modificar físicamente gran parte de las conexiones de los montajes, siendo necesario para ello un gran esfuerzo técnico y un mayor desembolso económico. Los PLC's o Autómatas Programables, son dispositivos electrónicos creados específicamente para el control de procesos secuenciales, es decir procesos compuestos de varias etapas consecutivas, con el fin de lograr que una máquina o cualquier otro dispositivo funcione de forma automática. Puesto que están pensados para aplicaciones de control industrial, su diseño les confiere una especial robustez.

En definitiva, al utilizar los PLC ó autómatas y software se puede realizar un control total sobre la instalación, desde la carga de material hasta el destino, pasando por cada uno de los subprocesos intermedios de la producción. Todo esto se realiza de una forma totalmente automatizada, minimizando en lo posible la intervención del operario, aunque siempre ofreciendo la posibilidad de ajustar el funcionamiento de la instalación mediante los numerosos parámetros de los que se dispone, debidamente detallados y proporcionando toda la información necesaria para el seguimiento del proceso. C.) PRESENTACIÓN HISTÓRICA DEL PLC Los PLC's se introdujeron por primera vez en la industria en 1960 aproximadamente por la necesidad de eliminar el gran costo que se producía al reemplazar el complejo sistema de control basado en relés y contactores. El problema de los relés era que cuando los requerimientos de producción cambiaban también lo hacía el sistema de control. Dado que los relés son dispositivos mecánicos y poseen una vida limitada se requería una estricta mantención planificada. Por otra parte, a veces se debían realizar conexiones entre cientos o miles de relés, lo que implicaba un enorme esfuerzo de diseño y mantenimiento. Estos nuevos controladores debían ser fácilmente programables por ingenieros de planta o personal de mantenimiento. El tiempo de vida debía ser largo y los cambios en el programa tenían que realizarse de forma sencilla. La solución fue el empleo de una técnica de programación familiar y reemplazar los relés mecánicos por relés de estado sólido.

Fig.3 un ejemplo de la estructura de un PLC

48


Revista Conceptual UCB En 1969 la División Hydramatic de la General Motors instaló el primer PLC para reemplazar los sistemas inflexibles alambrados usados entonces en sus líneas de producción.

grandes posibilidades que éstos pueden proporcionar, aunque los PLC con su reducido tamaño y su gran versatilidad aun controlan el escenario industrial.

El primer sistema fue el bus Modicon (Modbus). El PLC podía ahora dialogar con otros PLC's y en conjunto podían estar aislados de las máquinas que controlaban. También podían enviar y recibir señales de tensión variables, entrando en el mundo analógico. Desafortunadamente, la falta de un estándar acompañado con un continuo cambio tecnológico ha hecho que la comunicación de PLC's sea un gran océano de sistemas físicos y protocolos incompatibles entre sí. En el año ochenta, ya los componentes electrónicos permitieron un conjunto de operaciones en 16 bits,- comparados con los 4 de los 70s -, en un pequeño volumen, lo que los popularizó en todo el mundo. En los 80 se produjo un intento de estandarización de las comunicaciones con el protocolo MAP (Manufacturing Automation Protocol) de General Motors. También fue un tiempo en el que se redujeron las dimensiones del PLC y se pasó a programar con programación simbólica a través de ordenadores personales en vez de los clásicos terminales de programación. Hoy día el PLC más pequeño es del tamaño de un simple relé.

D.) FUNCIÓN DEL PLC La función de este programa es controlar y generar Procesos en un ambiente industrial lo cual fue Implementado estratégicamente para obtener mayor confianza en las maquinas existentes en las distintas industrias, este permite hacer monitoreo, estadística y reportes del proceso ya que genera una conexión con una PC y otros dispositivos al mismo tiempo.

Fig. 5 demuestra el ciclo del PlC E.) LENGUAJE DE UN PLC Los creadores del PLC emplearon un lenguaje basado en las normas internacionales, con el fin de suplir las necesidades y expectativas de los programadores. A.) EJEMPLOS DE APLICACIONES DEL PLC A).-MANIOBRAS DE MAQUINAS. Maquinaria industrial del mueble y la madera. Maquinaria en proceso de grava, arena y cemento. Maquinaria en la industria del plástico. Maquinas-herramientas complejas. Maquinaria de ensamblaje. Máquinas de transferencia. Fig. 4 esta imagen nos muestra diferentes tipos de PLC‘S existentes. A comienzo de los noventa, aparecieron los microprocesadores de 32 bits con posibilidad de operaciones matemáticas complejas, y de comunicaciones entre PLCs de diferentes marcas y PCs, los que abrieron la posibilidad de fábricas completamente automatizadas y con comunicación a la Gerencia en "tiempo real". Los 90 han mostrado una gradual reducción en el número de nuevos protocolos. Hoy en día, los grandes competidores de los PLC son los ordenadores personales o PC, debido a las

Fig.6 podemos observar el manejo de un PLC en una industria.

49


Revista Conceptual UCB

B).-MANIOBRA DE INSTALACIONES. Instalaciones de aire acondicionado y calefacción. Instalaciones de seguridad. Instalaciones de almacenamiento y transporte. Instalaciones de plantas embotelladoras. Instalaciones en la industria automotriz Instalación de tratamientos térmicos. Instalaciones de la industria azucarera. F.) VENTAJAS DEL PLC 1. Menor tiempo empleado en la elaboración de proyectos debido a que: a) No es necesario dibujar el esquema de contactos. b) No es necesario simplificar las ecuaciones lógicas, ya que, por lo general, la capacidad de almacenamiento del módulo de memoria es lo suficientemente grande c) La lista de materiales queda sensiblemente reducida, al elaborar el presupuesto correspondiente eliminaremos parte del problema que supone al contactar con diferentes proveedores, distintos plazos de entrega, etc. 2. Una vez programado el dispositivo y habiendo probado su operación, esquema puede imprimirse en alguno de los lenguajes en que fue programado, dependiendo del tipo del PLC seleccionado. 3. Existen módulos de comunicación para el PLC. 4. En base al PLC puede construirse esquemas de control tanto superviso rió como distribuido.

sistema electrónico, mediante un programa que corre en un PLC. Tiempo: Ahorro de tiempo de trabajo en las conexiones a realizar, en la puesta en marcha y en el ajuste del sistema. Cambios: Facilidad para realizar cambios durante la operación del sistema. Confiabilidad Espacio Modularidad Estandarización

     

Fig.7 Esta imagen demuestra un arreglo en la programacion del dispositivo. H.) NUEVAS TENDENCIAS DEL PLC En general, los PLC son cada vez más rápidos y más pequeños y como resultado de esto, están ganando capacidades que solían ser dominio exclusivo de la computadora personal (PC) y de las estaciones de trabajo. Esto se traduce en manejo datos críticos de manera rápida que se comparte entre el PLC en el piso de la fábrica y el nivel de negocios de la empresa. Ya no se trata de los PLCs antiguos que únicamente controlaban salidas a partir de una lógica y de unas entradas. Algunas de las características que un PLC puede aportar a sus proyectos de automatización son los servidores web, servidores FTP, envío de e-mail y Bases de Datos Relacionales Interna

E. Campos de aplicación del PLC EL PLC por sus especiales características de diseño tiene un campo de aplicación muy extenso. La constante evolución del Hardware y Software amplia continuamente este campo para poder satisfacer las necesidades que se detectan en el aspecto de sus posibilidades reales. Su utilización se da fundamentalmente en aquellas instalaciones en donde es necesario realizar procesos de maniobra, control, señalización, etc,.. por tanto, su aplicación abarca desde procesos de fabricación industrial de cualquier tipo al de transformaciones industriales, control de instalaciones, etc. G.) DISPOSITIVOS DE PROGRAMACIÓN El usuario ingresa el programa a través del dispositivo adecuado (un cargador de programa o PC) y éste es almacenado en la memoria de la CPU. La CPU, que es el "cerebro" del PLC, procesa la información que recibe del exterior a través de la interfaz de entrada y de acuerdo con el programa, activa una salida a través de la correspondiente interfaz de salida. Actualizar salidas Diagnósticos-Comunicación Las ventajas en el uso del PLC comparado con sistemas basados en relé o sistemas electromecánicos son: Flexibilidad: Posibilidad de reemplazar la lógica cableada de un tablero o de un circuito impreso de un

Fig.8 un ejemplo de la estructura de un PLC

50


Revista Conceptual UCB I.) PRESENTACIÓN DEL PLC Se puede pensar en un PLC como un pequeño computador industrial que ha sido altamente especializado para prestar la máxima confianza y máximo rendimiento en un ambiente industrial. En su esencia, un PLC mira sensores digitales y analógicos y switches (entradas), lee su programa de control, hace cálculos matemáticos y como resultado controla diferentes tipos de hardware (salidas) tales como válvulas, luces, relés, servomotores, etc. en un marco de tiempo de milisegundos. Mientras los PLCs son muy buenos con el control rápido de información, no comparten los datos y las señales con facilidad. Comúnmente los PLCs intercambian información con paquetes de software en el nivel de planta como interfaces maquina operador (HMI) o Control de Supervisión y Adquisición de Datos (SCADA). Todo intercambio de datos con el nivel de negocios de la empresa (servicios de información, programación, sistemas de contabilidad y análisis) tiene que ser recogido, convertido y transmitido a través de un paquete SCADA.

cierta combinación de entradas sin importar la historia de éstas. Los PLC's resultaron muy atractivos ya que, a diferencia de los antiguos circuitos permiten reprogramación, ocupan comparativamente muy poco espacio, consumen poca potencia, poseen autodiagnóstico y tienen un costo competitivo. Sin embargo, fueron las innovaciones tecnológicas en microprocesadores y memorias lo que a hecho tan versátiles y populares a los PLC's. Así, los PLC's pueden realizar operaciones aritméticas, manipulaciones complejas de datos, tienen mayores capacidades de almacenamiento y pueden comunicarse más eficientemente con el programador y con otros controladores y computadoras en redes de área local. Además, ahora muchos PLC's incorporan instrucciones y módulos para manejar señales análogas y para realizar estrategias de control, más sofisticados que el simple ON-OFF, tales como el control PID, inclusive con múltiples procesadores. Este trabajo de investigación fue muy útil para aprender muchas cosas como el tema, además del método de elaboración de un trabajo, también pudimos averiguar sobre en los campos en los que podemos aplicar la tecnología en nuestras carreras. V.- REFERENCIAS [1] www.wikipedia.comS [2] J. Bernadas Ed., PLC, Buenos Aires, Argentina: Springer, 2007, vol. 1. www.plc.c

Fig.9 Un PLC con sus partes.

III.- Análisis de resultados Llegamos a obtener los resultados esperados ya que demostramos como son utilizados los PLC‘S en las industrias, además de demostrar su definición, funciones, partes y su sistema, así podemos observar los conocimientos básicos de este programa. IV.-Conclusiones.Los controladores lógicos programables (PLC, por sus siglas en inglés), son dispositivos electrónicos digitales usados para reemplazar a los circuitos de relevadores (relés) electromecánicos, interruptores y otros componentes comúnmente utilizados para el control de los sistemas. En los sistemas el estado de una salida queda determinado por el estado de una

51


Revista Conceptual UCB

Industria de la madera Nashelly Cybill Mendez Rodriguez Ingeniería industrial, Universidad Católica Bolivia San Pablo Obrajes calle 2 Av 14 de septiembre Dnashelly_mendezhotmail.com La Paz - Bolivia Resumen— En este documento presente, se podrá apreciar los tipos de maderas para los ingenieros industriales, estos tipos de madera nos ayudara con la industrialización a los ingenieros industriales, es una industrialización confiable, donde facilita, ayuda, pero no significa que este proceso te da todas las soluciones para la industria, tienes la madera que implementar el criterio para que esta industria sea de gran ayuda, es decir al conocer el potencial de este podrás solucionar algunas dificultades que se presenta para un Ingeniero industrial.

II. ÁMBITOS DE APLICACIÓN Estructura de madera de una casa, estos carpinteros están levantando la estructura de madera de una casa. Con la generalización del uso del acero y el hormigón en la construcción de edificios, el trabajo de los carpinteros de obra se limita a algunas casas unifamiliares.

Palabras clave — Ingeniería industrial, madera, exportar, explotar, crezca tu industria.

I. INTRODUCCIÓN La madera es una materia prima, sustancia dura y resistente que constituye el tronco de los árboles y se ha utilizado durante miles de años como combustible y como material de construcción. Aunque el término madera se aplica a materias similares de otras partes de las plantas, incluso a las llamadas venas de las hojas, en este artículo sólo se va a hablar de las maderas de importancia comercial. Madera, sustancia dura y resistente que constituye el tronco de los árboles y se ha utilizado durante miles de años como combustible y como material de construcción. Aunque el término madera se aplica a materias similares de otras partes de las plantas, incluso a las llamadas venas de las hojas, en este artículo sólo se va a hablar de las maderas de importancia comercial.

Fig. 2 Construyendo una casa de madera.

A. Vetas y estructura El dibujo que presentan todas las variedades de madera se llama veta, y se debe a su propia estructura. La madera consiste en pequeños tubos que transportan agua, y los minerales disueltos en ella, desde las raíces a las hojas. Estos vasos conductores están dispuestos verticalmente en el tronco. Cuando cortamos el tronco en paralelo a su eje, la madera tiene vetas rectas. En algunos árboles, sin embargo,los conductos están dispuestos de forma helicoidal, es decir, enrollados alrededor del eje del tronco. Un corte de este tronco producirá madera con vetas cruzadas, lo que suele ocurrir al cortar cualquier árbol por un plano no paralelo a su eje. El tronco de un árbol no crece a lo alto, excepto en su parte superior, sino a lo ancho. La única parte del tronco encargada del crecimiento es una fina capa que lo rodea llamada cambium. En los árboles de las zonas de clima templado, el crecimiento no es constante. La madera que produce el cambium en primavera y en verano es más porosa y de color más claro que la producida en invierno. De esta manera, el tronco del árbol está compuesto por un par de anillos concéntricos nuevos cada año, uno más claro que el otro. Por eso se llaman anillos anuales.

Fig. 6 En esta imagen aprecias la industria de aserrío y Re manufacturas.

52


Revista Conceptual UCB Aunque la fina capa de cambium es la única parte del tronco que está viva, en el sentido de que es la parte que crece, también hay células vivas esparcidas por el xilema de la albura. Según envejecen los árboles, el centro del tronco muere; los vasos se atascan y se llenan de goma o resina, o se quedan huecos. Esta parte central del tronco se llama duramen. Los cambios internos de los árboles van acompañados de cambios de color, diferentes según cada especie, por lo que el duramen suele ser más oscuro que la albura.

dirección de la veta; por eso las tablas y otros objetos como postes y mangos se cortan así. La madera tiene una alta resistencia a la compresión, en algunos casos superior, con relación a su peso a la del acero. Tiene baja resistencia a la tracción y moderada resistencia a la cizalladura. La alta resistencia a la compresión es necesaria para cimientos y soportes en construcción. La resistencia a la flexión es fundamental en la utilización de madera en estructuras, como viguetas, travesaños y vigas de todo tipo. Muchos tipos de madera que se emplean por su alta resistencia a la flexión presentan alta resistencia a la compresión y viceversa; pero la madera de roble, por ejemplo, es muy resistente a la flexión pero más bien débil a la compresión, mientras que la de secuoya es resistente a la compresión y débil a la flexión. Otra propiedad es la resistencia a impactos y a tensiones repetidas. El nogal americano y el fresno son muy duros y se utilizan para hacer bates de béisbol y mangos de hacha. Como el nogal americano es más rígido que el fresno, se suele utilizar para mangos finos, como los de los palos de golf. Otras propiedades mecánicas menos importantes pueden resultar críticas en casos particulares; por ejemplo, la elasticidad y la resonancia de la picea la convierten en el material más apropiado para construir pianos de calidad.

Fig. 3 Extracción de madera.

III. TIPOS DE MADERA La madera es un recurso muy versátil, porque los distintos tipos difieren considerablemente en cuanto a su color, densidad y dureza. Cada una de las maderas aquí mostradas tiene características particulares. La caoba es un árbol tropical apreciado por su madera densa, resistente y fácil de trabajar. El nogal americano tiene una madera dura de gran resistencia empleada para mangos de herramientas y muebles, y también para el ahumado de alimentos. Los fabricantes de instrumentos musicales aprecian mucho la madera de cerezo. El tejo es resistente, de veta fina, y se emplea en ebanistería y para la fabricación de arcos. El iroko, como la caoba, resiste a la podredumbre y los insectos, y tiene la veta `entrelazada' de muchos árboles tropicales. El roble es una de las maderas más duraderas: se emplea en tonelería, chapado y revestimiento de suelos. El alerce es una madera resistente relativamente barata empleada en la construcción y en la fabricación de papel. Las propiedades principales de la madera son resistencia, dureza, rigidez y densidad. Ésta última suele indicar propiedades mecánicas puesto que cuanto más densa es la madera, más fuerte y dura es. La resistencia engloba varias propiedades diferentes; una madera muy resistente en un aspecto no tiene por qué serlo en otros. Además la resistencia depende de lo seca que esté la madera y de la dirección en la que esté cortada con respecto a la veta. La madera siempre es mucho más fuerte cuando se corta en la

TABLA II TIPOS DE MADERAS

Norma

Tipos de madera Especie Clases resistente UNE 56.544 Pino silvestre ME-2 (España) Pino pintaste ME -2 (España) Pino insignis ME-3 (España) NFB52.001-4 Abeto (Francia) ME-2 Falso abeto (Francia) ME -2 Pino Oregón (Francia) ME-3 DIN 4074 Abeto( Europa:Cent ME-2 ral,NyE) FaLso ME -2 abeto(Europa:Centr al,NyE) ME-3 INSTA 142

Abeto (Reino Unido) Pino silvestre (Europa:Central,Ny E) BS 4978 Pino silvestre ( Reino Unido) Iroko (Africa)

53

ME-2

ME-1 ME-1 ME1 ME-1 ME-1 ME1 ME-1 ME-1 ME1 ME-1

ME -2 ME-1

ME-2

ME-1

ME -2 ME-1


Revista Conceptual UCB 3) B. Duración de la madera. La madera es, por naturaleza, una sustancia muy duradera. Si no la atacan organismos vivos puede conservarse cientos e incluso miles de años. Se han encontrado restos de maderas utilizadas por los romanos casi intactas gracias a una combinación de circunstancias que las han protegido de ataques externos. De los organismos que atacan a la madera, el más importante es un hongo que causa el llamado desecamiento de la raíz, que ocurre sólo cuando la madera está húmeda. La albura de todos los árboles es sensible a su ataque; sólo el duramen de algunas especies resiste a este hongo. El nogal, la secuoya, el cedro, la caoba y la teca son algunas de las maderas duraderas más conocidas. Otras variedades son resistentes al ataque de otros organismos. Algunas maderas, como la teca, son resistentes a los organismos perforadores marinos, por eso se utilizan para construir embarcaderos. Muchas maderas resisten el ataque de los termes, como la secuoya, el nogal negro, la caoba y muchas variedades de cedro. En la mayoría de estos casos, las maderas son aromáticas, por lo que es probable que su resistencia se deba a las resinas y a los elementos químicos que contienen. Para conservar la madera hay que protegerla químicamente. El método más importante es impregnarla con creosota o cloruro de cinc. Este tratamiento sigue siendo uno de los mejores, a pesar del desarrollo de nuevos compuestos químicos, sobre todo de compuestos de cobre. También se puede proteger la madera de la intemperie recubriendo su superficie con barnices y otras sustancias que se aplican con brocha, pistola o baño. Pero estas sustancias no penetran en la madera, por lo que no previenen el deterioro que producen hongos, insectos y otros organismos. C. Secado. La madera recién cortada contiene gran cantidad de agua, de un tercio a la mitad de su peso total. El proceso para eliminar esta agua antes de procesar la madera se llama secado, y se realiza por muchos motivos. La madera seca es mucho más duradera que la madera fresca; es mucho más ligera y por lo tanto más fácil de transportar; tiene mayor poder calorífico, lo que es importante si va a emplearse como combustible; además, la madera cambia de forma durante el secado y este cambio tiene que haberse realizado antes de serrarla. La madera puede secarse con aire o en hornos; con aire varios meses, con hornos días. La madera ha de estar apilada para evitar que se deforme, y controlar el ritmo de secado. 1) Proyecto de madera. Los muebles de oficina. 2) Secado de madera

La madera recién cortada contiene gran cantidad de agua, de un tercio a la mitad de su peso total. El proceso para eliminar esta agua antes de procesar la madera se llama secado, y se realiza por muchos motivos. La madera seca es mucho más duradera que la madera fresca; es mucho más ligera y por lo tanto más fácil de transportar; tiene mayor poder calorífico, lo que es importante si va a emplearse como combustible; además, la madera cambia de forma durante el secado y este cambio tiene que haberse realizado antes de serrarla.

Fig. 4 Secando la madera.

IV. CONCLUSIONES La industrialización de la madera como los árboles son un recurso renovable, después de la tala se procede a una reforestación en la que se plantan nuevos árboles y se ayuda a que el terreno se regenere de forma natural. En los países desarrollados los árboles cultivados en los bosques de explotación comercial superan a los que se talan o mueren por el ataque de insectos y enfermedades. RECONOCIMIENTOS La madera es utilizada para hacer diversos productos manufacturados útiles en el vivir cotidiano de las familias, también nos da pales, muebles, estructuras para construcciones civiles. Sin embargo la madera tiene una importancia relevante en todos los campos industriales. REFERENCIAS [1] www.deforsa.com/produccion-forestal 07/11/12 [2] www.cfired.org.ar/Default.aspx?cId=107. 07/11/12 [3] www.la-razon.com/.../Produccion-forestalprecisa-. 07/11/12 [4] www.cfb.org.bo/.../SituacionPotencialForest al 07/11/12 [5] www.wikipedia.com07/11/12

54


Revista Conceptual UCB

La importancia de la tecnología en las industrias y empresas Jorge Paredes Estevez #

Ingeniería Industrial , Universidad Católica Boliviana “San Pablo” Obrajes,calle-2 jorgeparedesestevez@hotmail.com

La Paz - Bolivia Resumen— Este documento redacta la importancia q tiene la tecnología en las industrias. Hoy en día las industrias no tendrían un avance tecnológico ni un avance económico de no ser por los grandes descubrimientos y tecnología empleada en diferentes niveles. La tecnología sirve a las industrias para el desarrollo de sus productos, también para las diferentes estrategias de marketing, la planificación de nuevas ideas y la reducción de costos.

II. DESARROLLO El desarrollo tecnológico –Internet, comunicaciones móviles, banda ancha, satélites, microondas, etc.– está produciendo cambios significativos en la estructura económica y social, y en el conjunto de las relaciones sociales. La información se ha convertido en el eje promotor de cambios sociales, económicos y culturales. El auge de las telecomunicaciones ha producido una transformación de las tecnologías de la información y de la comunicación, cuyo impacto ha afectado a todos los sectores de la economía industrial y de la sociedad.

Palabras clave — Tecnología, industrias, desarrollo, ventajas, alta tecnología.

I. INTRODUCCIÓN La historia de la humanidad va ligada al empleo de útiles, herramientas y máquinas, desde una sencilla punta de flecha hasta el más moderno acelerador de partículas. Multitud de los aparatos de los que hoy disfrutamos, hunden sus raíces en ingenios que vieron la luz hace más de un siglo. Todos éstos han cumplido, y cumplen, su propósito. Todos ellos llevan impresa la huella del ingenio y de la habilidad de una enorme cantidad de personas que hicieron posible un crecimiento, impensable hace sólo unos años, de la técnica en nuestros días. Hablar de industrias y tecnología es hacer referencia a un tipo de industrias muy nuevas en su incorporación al sector industrial, son industrias como la informática, la de telecomunicaciones y las catalogadas como industria biotecnológicas. Este tipo de industrias se caracterizan por ser recientes en el tiempo, y además por conseguir grandes cifras a nivel de expansión, crecimiento y productividad de las mismas.

Imagen 1. Ayuda que recibe el hombre por la tecnología esta v es mediante computadoras. La expansión de redes informáticas ha hecho posible la universalización de los intercambios y relaciones, al poner en comunicación a amplios sectores de ciudadanos residentes en espacios geográficos muy distantes entre sí. Cualquier acontecimiento industrial empresarial, político o económico ocurrido en un país puede tener una repercusión importante en la actividad económica de otras naciones. La subida de los tipos de interés en Estados Unidos, por ejemplo, afecta al precio del dinero en Europa y, consiguientemente, a la liquidez monetaria de los ciudadanos, y por tanto, a sus posibilidades de consumo y bienestar.

Las industrias de alta tecnología son industrias que ejercen su actividad en países de gran desarrollo social y económico, pues necesitan un buen sistema de infraestructuras y tecnología punta para su funcionamiento. Muchas de las industrias tradicionales, se están uniendo gracias a la incorporación de nueva tecnología en sus procesos de producción al grupo de industrias de alta tecnología para evitar quedar descolgadas y actualizarse así con las corrientes tecnológicas que rigen el mercado.

55


Revista Conceptual UCB La información ha contribuido a que los acontecimientos que se suceden a escala mundial, continental o nacional nos resulten más cercanos, y que la idea de la "aldea global" de MacLuhan se vaya haciendo realidad. Nuestra visión del mundo está adquiriendo una nueva dimensión por encima de países, comunidades y localidades, lo mismo que le sucede a las empresas. Estamos ante un nuevo modelo social, la "sociedad globalizada", en el que las fronteras desaparecen en beneficio de los intercambios de ideas, mensajes, productos, servicios, personas.

saber qué quieren los clientes, qué hacen los competidores, dónde y a quién se puede comprar y vender en mejores condiciones, qué cambios legislativos pueden afectar a la empresa o a un sector, etcétera. En definitiva, resulta fundamental contar con la información oportuna para tomar las mejores decisiones en el momento adecuado. En esta situación las nuevas tecnologías de la información son muy relevantes. Permiten obtener y procesar mucha más información que los medios manuales. Así que las empresas invierten en ellas.

La evolución histórica de las Tecnologías de la Información y las Comunicaciones TIC), en su corta andadura de menos de 40 años, vive un camino paralelo al de las corrientes organizativas que han sido implantadas en las empresas. La coincidencia de este hecho obedece a una condición de reciprocidad entre los cambios organizativos y los tecnológicos que los posibilitan. En esta evolución histórica, podemos determinar cuatro etapas que resumen el cambio producido en relación a la aplicación de las tecnologías de la información: Una forma fácil de cumplir con los requerimientos del formato del artículo es utilizar este documento para redactar tu propio texto aquí mismo.

Tabla-1 materiales y uso de la tecnología en diferentes áreas industriales y empresariales.

Hoy en día, los progresos en las denominadas tecnologías de la información, que abarcan los equipos y aplicaciones informáticas y las telecomunicaciones, están teniendo un gran efecto. De hecho, se dice que estamos en un nuevo tipo de sociedad llamada Sociedad de la información o Sociedad de Conocimiento, que viene a reemplazar a los dos modelos socioeconómicos precedentes, la sociedad agraria y la sociedad industrial.

Imagen 2. Tecnológica que el hombre recibe en las industrias facilitándoles el trabajo, además que es una maquinaria pesada, descrita anteriormente.

En el modelo agrario, la explotación de la tierra era la manera de generar riqueza. En el modelo industrial, las nuevas tecnologías y los nuevos sistemas productivos, posibilitaron la fabricación masiva de productos de consumo. Sin embargo, la generación de la riqueza en la industria metalurgia química equipo pesada productos inversiones materia prima procesos brutos tecnológicas ayudada industriales por la tecnología productos material Maquinaria. semi_ tecnológico Telecomu_ elaborado nicacion actualidad tiene que ver con otras maneras de proceder. Además de la importancia de la acumulación de capital y de la tecnología productiva, lo que en verdad se convierte en algo decisivo es

56

Imagen 3. los materiales empleados en industrias.


Revista Conceptual UCB En los aspectos negativos tenemos la contaminación, uso incontrolado de recursos naturales y el remplazo hombre- maquina.

La industria es el conjunto de procesos y actividades que tienen como finalidad transformar las materias primas en productos elaborados, de forma masiva. Desde el origen del hombre, este ha tenido la necesidad de transformar los elementos de la naturaleza para poder aprovecharse de ellos, en sentido estricto ya existía la industria, pero es hacia finales del siglo XVIII, y durante el siglo XIX cuando el proceso de transformación de los Recursos de la naturaleza sufre un cambio radical, que se conoce como revolución industrial. Citaremos algunos tipos de industrias. En la industria pesada distinguiremos, como industrias principales, la metalurgia y la química. La industria pesada es aquella que trata grandes cantidades de productos brutos, pesados, para transformarlos en productos semielaborados. Las industrias de metalurgia son las que exigen inversiones muy elevadas, y ocupan mucho suelo industrial. La industria metalúrgica proporciona: lingotes, forjados, tubos, planchas de acero, hierro, aluminio u otro metal con vistas a utilizarlos en otras fábricas, como la construcción o las vías del ferrocarril. La industria química utiliza una gama mayor de materias primas: combustibles sólidos, líquidos y gaseosos, pirita, cal, sales, productos vegetales y animales, etc. Los productos más comunes son: fertilizantes, colorantes, explosivos, plásticos, gomas, caucho, detergentes, aislantes, fibras artificiales, productos fotográficos, productos farmacéuticos, etc. Su dependencia de la tecnología implica que se localicen principalmente en los grandes países industriales. La industria de equipo genera bienes que serán utilizados en otros procesos, bien como producto que se ha de elaborar, bien como maquinaria necesaria para la producción. Las industrias de equipo emplean productos semielaborados. Se dividen en dos grandes grupos: las industrias de construcción y las metalúrgicas de transformación. La industria ligera es la que fabrica bienes de uso y consumo particular. Para ello utiliza materias primas y productos semielaborados. Entre ellas destacan: la alimentación, el textil, el mueble, la química ligera, los electrodomésticos, etc., pero su variedad es tan grande como los artículos que encontramos en el mercado. Las industrias químicas dedicadas a la elaboración de productos químicos, como detergentes, productos fotográficos, productos farmacéuticos, etc., de uso y consumo particular.

III. CONCLUSIÓN La conclusión de este trabajo es que sin la tecnología las industrias, químicas, petroleras empresariales y otros, no lograrían el progreso ni el avance, ya que el futuro pide tecnología cada día más. Las comunicaciones y la computación requieren de un manejo más avanzado por la gente, y la gente requiere más conocimiento acerca de la tecnología. La clasificación de diferentes medios de tecnología es muy importante. REFERENCIAS [1] [2]

[3]

Algunos aspectos positivos son el aumento en la producción tecnológica. Permite el desarrollo del país, genera mano de obra cualificada y disminuye costos

57

www.envapack.com http://www.google.com.bo/imgres?q=industrias+tecnol ogia&um=1&hl=es&sa=N&biw=1280&bih=880&tbm =isch&tbnid=3Mh_DFwewRowM:&imgrefurl=http://r oboticrobotique.blogspot.com/2010_08_01_archive.ht ml&docid=es5SQxMtNSkPiM&imgurl=http://html.rinc ondelvago.com/000306705.png&w=504&h=336&ei=y oE1ULGYEofW6wGvhIHACw&zoom=1&iact=hc&v px=410&vpy=184&dur=502&hovh=183&hovw=275& tx=152&ty=62&sig=100345477557703489577&page= 1&tbnh=163&tbnw=228&start=0&ndsp=20&ved=1t:4 29,r:16,s:0,i: www.monografias.com.


Revista Conceptual UCB

Satélite Boliviano será lanzado el 2014 Hernan Ballesteros Campos Ingeniería Industrial Universidad Católica Boliviana “San Pablo” Av. 14 de septiembre - Obrajes h.ballesteros_c@universidad.edu

La Paz - Bolivia Resumen— ―En general les podemos informar que estamos en cronograma, el lanzamiento del satélite está previsto para el 20 de diciembre de 2013 y habríamos avanzado en alrededor de 33 por ciento‖, manifestó Zambrana. De manera paralela a la construcción de la tecnología Palabras clave — Tupac Katari , Ingenieros espacial, dijo que se construye el cohete que pondrá en Mecatrónicos –Industriales, Satelite, Convenio. órbita el aparato

I.

INTRODUCCIÓN

Desarrollo de China se ha confirmado que en enero se iniciará la construcción del satélite boliviano Tupac Katari que se estima que entrará en órbita en un plazo de tres años.

El director de la Agencia Boliviana Espacial (ABE), Iván Zambrana, informó que la construcción del satélite boliviano Túpac Katari tiene un avance de construcción de 33 por ciento en el primer año, con una inversión aproximada de 100 millones de dólares. La planificación para la construcción del satélite es de tres años, de los cuales ya se venció un año y todo avanza conforme con lo programado sin registrarse mayores contratiempos hasta la fecha. ―En general les podemos informar que estamos en cronograma, el lanzamiento del satélite está previsto para el 20 de diciembre de 2013 y habríamos avanzado en alrededor de 33 por ciento‖, manifestó Zambrana. De manera paralela a la construcción de la tecnología espacial, dijo que se construye el cohete que pondrá en órbita el aparato. Detalló que los trabajos de construcción son muy complejos y requiere de mucho cuidado, tomando en cuenta que las piezas que forman parte de la estructura tienen que ser ordenadas a empresas especializadas. Otra de las actividades que se ejecuta con el Gobierno es la construcción de las estaciones terrenas. La principal estará ubicada en El Alto y otra en el departamento de Santa Cruz, para tal efecto se destinará una inversión de $us 2 millones en obras civiles. Entre los beneficios, el Gobierno destaca la universalización de las comunicaciones como la telefonía móvil, Internet, el monitoreo geográfico nacional de áreas pobladas y producción, entre otros.(Cambio).

Fig. 2. Esquema del satélite Tupac Katari

El contrato fue suscrito en un acto celebrado en el palacio de Gobierno entre los ministros de Planificación para el Desarrollo y de Obras Públicas, Viviana Caro y Walter Delgadillo, respectivamente, con representantes de la entidad financiera china con la asistencia de miembros de la misión diplomática del país asiático en La Paz. Caro confirmó que el proyecto demandará una inversión de aproximadamente 295 millones de dólares de los que gran parte serán desembolsados mediante un rédito por el Banco de Desarrollo de China. Bolivia asumirá una contraparte nacional de 45 millones de dólares. Se trata de un contrato crediticio comercial "ventajoso para Bolivia en lo que se refiere a los plazos de pago e intereses", dijo Caro.

II.

CONSTRUCCIÓN DEL SATÉLITE TUPAC KATARI Con la suscripción el jueves de un contrato crediticio entre el gobierno de Bolivia y el Banco de

58


Revista Conceptual UCB Destacó que, además, está enmarcado en los manda tos establecidos por la Constitución Política del Estado promulgada en febrero de 2009. "Es la primera operación de magnitud que ponen en marcha Bolivia y China con acuerdos por encima de los 100 millones de dólares y se constituye en un buen cierre del año en el marco de las relaciones de confianza mutua reactivada entre las dos naciones los últimos cinco años", anotó.

accesos a la tele educación y telemedicina por Internet, además de la ampliación de la telefonía celular

Señaló que el proyecto satelital boliviano es estratégico para Bolivia porque permitirá acelerar los procesos de desarrollo y cerrar las brechas existentes en diversos ámbitos de la actividad. Indicó que, por ejemplo, en el sector de las telecomunicaciones, la cobertura actual de Bolivia en las áreas urbanas alcanza al 80 por ciento, mientras en el campo solamente llegas al 10 por ciento.

Fig. 2. Total cobertura del satélite Tupac Katari para Bolivia

El viceministro de Telecomunicaciones y recientemente elegido presidente del directorio de la Agencia Boliviana Espacial (ABE), Roque Roy Méndez, señaló que sólo resta establecer algunos detalles en el contrato para la firma del acuerdo. La parte boliviana estará representada por el directorio de la ABE, que está compuesto además por representantes de los ministerios de Defensa Nacional, Planificación del Desarrollo, Relaciones Exteriores, y Economía y Finanzas Públicas.

"Con la utilización del satélite vamos a cerrar esa brecha en su totalidad en unos 10 años y en los próximos cinco años se espera que las telecomunicaciones cubran por lo menos al 60 por ciento de los habitantes de las áreas rurales", anotó. El satélite será construido y puesto en órbita por la empresa china Great Wall o Gran Muralla en un acuerdo con la Agencia Boliviana Espacial (ABE) para definir los aspectos técnicos y comerciales. Según las especificaciones, el satélite boliviano, que tendrá una vida útil mínima de 15 años, será de tercera tecnología aeroespacial y será puesto en órbita a 36.000 kilómetros sobre la superficie de la Tierra y tendrá un peso de 5.000 kilogramos. Tendrá 32 canales de comunicación o Transponders. Bolivia ocupa en la actualidad ocho y podrá alquilar los demás a otras naciones. El satélite prestará sus servicios para Bolivia y Latinoamérica mediante dos estaciones terrenas ubicadas en las zonas de Pampahasi, La Paz, y La Guardia, Santa Cruz. El proceso de adquisición y construcción del satélite se inició con una Minuta de Entendimiento entre los gobiernos de Bolivia y China, el 23 de octubre de 2009.

Reunion de Morales con miembros del Gobierno de China

La tarea de la Agencia Espacial, que tiene un presupuesto de un millón de dólares, es ejecutar el proyecto en contraparte con China para construir, lanzar y poner en órbita el satélite de comunicación Túpac Katari en un plazo de 36 meses. La entidad tendrá 17 funcionarios. En la primera etapa abrirá un centro de operaciones en la ciudad de La Paz.(cambio)

Bolivia será el sexto país con satélite en Latinoamérica, luego de México, Venezuela, Brasil y Argentina, Chile pretende contar colocar en órbita un satélite a fines de año, aunque con diversas características, ya que funcionará desde la plataforma del cohee ruso Soyuz, ubicado en la Guayana francesa. En Bolivia, el satélite Tupac Katari impulsará el desarrollo de las telecomunicaciones de alta tecnología para cubrir todo el territorio nacional con

59


Revista Conceptual UCB Está previsto que 70 ingenieros sean capacitados, por lo que la selección va a empezar los primeros días del próximo año", dijo a los periodistas. Según la Agencia Boliviana Espacial (ABE), serán capacitados especialmente profesionales en ingeniería, telecomunicaciones y electrónica. Flores informó que ese medio tecnológico es necesario para ampliar la cobertura de comunicación en el país, aún se encuentra proceso de construcción y su conclusión y puesta en órbita está prevista entre finales de 2013 y comienzos de 2014. Según la información oficial, el satélite Tupac Katari tendrá una vida útil de 15 años y su capacidad será usada para proyectos de salud, educación, de la Policía, Fuerzas Armadas y proyectos de inclusión social con los que se pretende llegar a 22.000 poblados que tienen menos de 3.000 habitantes. (ABI) III.

cuestión de algunos días para conocer con más precisión‖, complementó Zambrana. Estos profesionales serán capacitados en ingeniería, electrónica y telecomunicaciones. Meta. El Gobierno decidió adquirir un satélite de telecomunicaciones ―para garantizar a los ciudadanos residentes en áreas remotas del territorio, el pleno ejercicio de su derecho al acceso a los servicios de telecomunicaciones‖, explicó el experto. Con ese fin, suscribió un contrato comercial con la empresa China Great Wall Industry Corporation (CGWIC) para la puesta en marcha de este proyecto. El precio total del contrato del satélite Túpac Katari asciende a $us 295,44 millones. De esa cifra, $us 44,32 millones corresponden al aporte nacional, financiado por el Tesoro General de la Nación (TGN). Los $us 251,12 millones restantes los financia, através de un crédito, el Banco de Desarrollo de China (BDC), publica el portal electrónico de la ABE, www.abe.bo ―Esta construcción tiene que pasar necesariamente por todos los procesos rigurosos de calidad porque nada puede fallar; todo detalle debe estar controlado: desde el momento de su lanzamiento hasta el último día de su vida útil, que lo hemos calculado para los próximos 15 años‖, comentó. El satélite será lanzado al espacio desde China, a finales de 2013. Dependiendo de la prueba de 11 de sus 110 baterías de níquel, podría aplazarse para comienzos de 2014. Una vez disparado al espacio, el ―Túpac Katari‖ se posicionará a 36 mil kilómetros de la Tierra. ―Eso quiere decir, a un décimo de distancia a la Luna y seis veces el diámetro terrestre; es una distancia enorme‖, expresó Zambrana. Allá no hay atmósfera, no hay aire. Es un ambiente hostil. Además, el satélite estará al alcance de la radiación cósmica y expuesto a los extremos de las altas y bajas temperaturas. ―El satélite está diseñado para ese tipo de encuentros‖, comentó. Por ejemplo, las 110 baterías que lleva a bordo tienen esa función, pues se encuentran concentradas en una especie de garrafas porque ahí hay gas a presión, dijo. Zambrana explicó también que la construcción del satélite cuenta con un seguro de $us 40 millones. ―En el costo total está todo incluido, no va haber sorpresas, no va a subir el precio. Además, si por algún caso, nuestro lanzamiento falla, hemos pagado $us 40 millones en seguro y éste nos va a reponer el 100% del gasto, de modo que lo único que vamos a perder es tiempo‖, aclaró Zambrana. Lo único que el Estado necesitará es otro tiempo para fabricar un nuevo satélite. ―El seguro está pensado para eso. Y el segundo lanzamiento tendrá a la vez su propio seguro‖, señaló.

EL SATÉLITE TUPAC KATARI SE CONSTRUYE EN TRES CONTINENTES

La Agencia Boliviana Espacial (ABE) informó que la construcción del primer satélite boliviano se la hace en tres continentes. Su lanzamiento fue confirmado para el año 2013 y cuenta con un seguro de $us 40 millones ante cualquier eventualidad.

Prototipo La última maqueta del satélite Túpac Katari con los dos paneles solares en la oficina de la ABE.

El satélite de Comunicaciones Túpac Katari se encuentra en plena elaboración en laboratorios de China, Francia, Alemania y Estados Unidos, informó a La Razón el director ejecutivo de la ABE, Iván Zambrana. El experto añadió que a partir de noviembre 74 profesionales, especializados en el área, irán a China (divididos en tres grupos) para participar y sobre todo aprender detalles de cómo se construye un satélite. ―Estamos negociando con China, las fechas en que nuestros profesionales en ingeniería y física, de las más amplias y variadas ramas, estarán allá. Es sólo

60


Revista Conceptual UCB IV.

SU FIN ES CONTRIBUIR AL DESARROLLO Y REFERENCIAS [1] S. M. Metev and V. P. Veiko, Laser Assisted Microtechnology, 2nd ed., R. M. Osgood, Jr., Ed. Berlin, Germany: Springer-Verlag, 1998. [2] Korda, L. (2001, Julio). La fabricación de un satelite 5(3). Consultada el 21 de agosto de 2011, http://accurapid.com/journal/17prof.htm

ELIMINAR LA EXCLUSIÓN SOCIAL

El satélite pesa 5.200 kg, tiene 110 baterías, dos paneles solares, guías de onda, cohetes, tanques de combustible y repetidores de microondas llamados transpondedores, que cuentan con varios elementos. La vida del satélite Túpac Katari (15 años) la determina su combustible El portal de la Administración Nacional de Aeronáutica y del Espacio (NASA) de EEUU dice que un satélite es un objeto natural o artificial que se mueve alrededor de otro similar o diferente, pero de tamaño más considerable.

El viceministro de Telecomunicaciones, Wilber Flores, prevé que la selección de ingenieros bolivianos para el manejo del satélite denominado Tupac Katari se realice en los primeros días del próximo año.

Por lo general, por la palabra ―satélite‖, se entiende que se trata de aquella máquina construida por científicos cuya misión proporciona a la Tierra información de los lugares a los que es enviado o facilita la comunicación entre diferentes puntos del planeta. Así, el satélite Túpac Katari fue concebido para que los ―bolivianos que habitan en el área rural‖ tengan acceso a los servicios de telecomunicaciones, explica el sitio de la Agencia Boliviana Espacial (ABE). V. CONCLUSIONES El satelite Tupac Katari: a) Prestar servicios de telecomunicaciones a 3.3 millones de bolivianos que viven en el área rural. b) Eliminar el estado de exclusión y desventaja de los bolivianos que viven en áreas rurales en relación con las nuevas tecnologías de la información y la comunicación, garantizándoles el ejercicio de un derecho consagrado en la Constitución. c) Permitir que los beneficios de las nuevas tecnologías de la información y la comunicación para la economía lleguen a las áreas rurales.

61


Revista Conceptual UCB

Tablet de Google: Nexus 7 Cecilia Andrea Callejas Pastor Ingeniería Biomédica Universidad Católica Boliviana “San Pablo” 14 de septiembre - Obrajes c_callejas_p@universidad.edu

La Paz - Bolivia estético. Por otro lado, permite agarrar el Tablet sin problemas y no taparemos la pantalla. Los bordes exteriores son grises, finos y redondeados, de aspecto metálico. La Tablet pesa exactamente 340 gramos, tiene 10,45 mm de grosor, y mide 198,5 x 120 mm. Como se muestra en la Figura 1.

Resumen— En el presente documento se hablará de la más reciente tecnología de Google: Nexus 7, una Tablet que ha sobre pasado las expectativas de aquellas personas que se interesan por estos gadgets. La empresa Google, trabajo por mucho tiempo en este primer proyecto, para que las características de esta Tablet causen un gran impacto en el mercado. Palabras clave — Tablet, Asus, Android, Google.

I. INTRODUCCIÓN Nexus 7 tuvo una gran repercusión en el mercado, ya que esta Tablet posee grandes características; esta Tablet ha sido fabricada por Asus, una empresa famosa por las computadoras que tiene. Esta Tablet es de un tamaño pequeño lo cual facilita su transporte; sin embargo su sistema operativo Android les permite a los usuarios poder adquirir todo tipo de aplicaciones y actualizaciones. II. CARACTERÍSTICAS Las corrientes de esta década ya las tenemos bastante por la mano. Líneas finas, productos delgados, pantallas negras y mínimo de botones. La Nexus 7 viene fabricado por Asus, y no se separa de estos estándares de diseño.

En la figura 1. Se muestra a la Tablet de Google: Nexus 7.

LaNexus 7 es portátil ya que con una pantalla de 7´´ se puede manipular fácilmente. Parece que el ancho de las 7″ este pensado para caber fácilmente en una mano sin esfuerzo. La parte posterior está cubierta por uno de estos plásticos blandos tan agradables al tacto, que a la vez proporcionan adherencia. Al cogerlo no taparemos ningún altavoz ni micrófono.

Conectividad. Los conectores físicos son más bien escasos. Un puerto micro-USB y una entrada de auriculares de 3,5mm serán las únicas opciones que nos encontraremos, por lo que aquellos que busquen un mini/micro HDMI o un lector de tarjetas no están de suerte. Curiosamente, se pueden observar cuatro llamativos conectores de contacto en el borde inferior izquierdo del tablet, que son parecidos a los tres conectores que se pueden encontrar en el borde izquierdo de los teléfonos GalaxyNexus. Suponemos que habrá accesorios y bases de carga en el futuro que aprovecharán estos conectores, pero hasta entonces estos conetores propietarios no tienen utilidad alguna.

La parte de delante no tiene mucho misterio. La pantalla es toda negra y se distinguen los bordes y la cámara. El primer punto negativo que destacaré es que tiene unos bordes excesivamente anchos. Los bordes laterales miden 1 cm cada uno y el superior e inferior 2 cm cada uno. En el superior está la cámara y el sensor de luminosidad, pero no necesitan ni de lejos tanto espacio.

En cuanto al soporte MHL y OTG, el Nexus 7 carece desgraciadamente del primero, según nos informan los usuarios, al menos si no contamos con acceso root. El OTG por USB funciona solo con

Las 7″ de pantalla podrían haber entrado en una Tablet aún más pequeña y habría quedado más

62


Revista Conceptual UCB algunos teclados y ratones, pero tuvimos la suerte de que reconociera los pendrives correctamente.

seremos libres de cargar todas las aplicaciones, películas y música sin tener que recurrir a ningún truco.

2. COMUNICACIONES Debido a que el interfaz del KindleFire ha sido muy modificado y rediseñado, pasar de un teléfono Android o iOS a un Nexus 7 es muchísimo más fácil.

Sus características inalámbricas incluyen wirelessn, GPS, Bluetooth y NFC, que es bastante variedad teniendo en cuenta el precio. La fijación del GPS (sin ayuda de wi-fi) fue bastante rápida, entre 1 y 2 minutos, y el rando del wi-fi es comparable al del KindleFire. No pudimos probar el NFC, pero el tablet viene con Google Wallet preinstalado (de Android 4.1.1) y debería ser compatible con todas sus características. Por el momento no hay modelos con soporte para GSM o EVDO, lo que hará que el Nexus 7 sea más adecuado para un uso en interiores o como reproductor multimedia, algo parecido a lo que pasa con el KindleFire o el tablet de Vizio. Otra ausencia notable es la del indicador LED; cuando le conectemos un cable micro-USB, ninguna luz nos informará de si aún está cargando o si está completamente cargado. III. SOFTWARE Todos los dispositivos importantes que ha lanzado Google hasta el momento llevaban la última versión de Android, sin modificar con interfaces propietarios. Aunque la mayoría de tablets siguen con Ice CreamSandwich o versiones anteriores, el tablet de Google tiene el privilegio de contar con la última versión, JelllyBean, que incluye nuevas características como Google Now y otras mejoras del 1. sistema. Al igual que el GalaxyNexus, una pequeña porción de la pantalla de 7 pulgadas quedará casi siempre reservada para las teclas Home, Atrás y Menú. De entrada, parece evidente que el Nexus 7 está pensado para un uso multimedia (Figura 2). Igual que el KindleFire, que siempre nos intenta redirigir a la Amazon Store, el Nexus 7 incluye por defecto atajos y widgets en su pantalla principal que enlazan directamente con Google Play. De hecho, Transformers: El Lado Oscuro de la Luna se puede reproducir gratis en el aparato, al igual que algunos eBooks, sin mencionar los 25$ de crédito que obtendremos si compramos el tablet directamente en Google Play.

En la Figura 3 se muestra, algunas de las pantallas de la Nexus 7, en la primera se observa la pantalla de inicio por defecto y en la segunda, el navegador de Google Chrome.

CAMARA MULTIMEDIA En duro contraste con el KindleFire, el Nexus 7 incluye una cámara frontal de 1,2MP para vídeoconferencia. Por raro que parezca, no lleva preinstalada ninguna aplicación para la cámara, así que deberemos descargar la aplicación de la cámara de Google Play. Las fotos son bastante malas y poco recomendables, especialmente si las comparamos con las cámaras de 5 y 8MP habituales en los tablets de 10,1 pulgadas. Dado que la cámara parece diseñada principalmente para la definición estándar de captura de vídeo, características como tocar para enfocar, flash y reconocimiento facial no entran siquiera en consideración. La calidad de los vídeos va de mediocre a intermedia, y depende mucho de las condiciones de luz ambiental. La tasa de frames y el color son mucho mejores cuado se utiliza en exteriores, comparada con el uso en interiores, siempre y cuando sea de día, por lo que nos obligará a situarnos en lugares bien iluminados si queremos mejorar la calidad. Afortunadamente, Skype, tras bajárnoslo del

No es ningún secreto que Google espera sacar la mayoría de sus beneficioes de las descargas que los usuarios del Tablet hagan, más que del propio Tablet. Por fortuna, el software funciona de manera más eficaz y sin esfuerzo que con el KindleFire, y

63


Revista Conceptual UCB Google Play, no tuvo problema en reconocer tanto la cámara frontal como el micrófono.

diferencia en el brillo entre el tablet de Google y el de Amazon.

El sencillo reproductor de vídeo que viene preinstalado funciona bien, aunque le faltan características como el soporte nativo completo para formatos comunes como AVI y MKV. Más allá de los subtítulos y opciones de pantalla completa, no tiene mucho más aparte de los botones estándar de Reproducir, Pausar y la barra de progreso. 2.

JUEGOS Como era previsible con el mayor fabricante mundial de chips gráficos, el SoCTegra 3 muestra todo su potencial en los juegos. Comparado con Tegra 2, la GPU integrada de Tegra 3 nos ofrece el doble de unidades de píxel shader, así como más velocidad de reloj en el núcleo, por lo que debería poder con cualquier juego actual de Google Play sin problemas.

En la Figura 2. Se muestra el brillo de la pantalla, además del punto mas brillante.

Por supuesto, la verdadera prueba del brillo de la pantalla la tendremos cuando comprobemos si se puede utilizar el Nexus 7 en exteriores de manera efectiva. En general, los textos pequeños se pueden volver algo difíciles de leer si lo utilizamos bajo luz solar directa, incluso al máximo de brillo. Sin embargo, no notamos que la legibilidad fuera realmente mejor o peor que la del kindleFire. Un uso prolongado en exteriores siempre será más recomendable bajo la sombra o en días nublados. En cuanto a los reflejos, la pantalla brillante del Nexus 7 es menos refractiva que la del KindleFire, lo que nos ayudará durante el uso diario y hasta cierto punto compensa el menor brillo de la pantalla. Los reflejos seguirán ahí, aunque en menor medida. La estabilidad de los ángulos es constante, independientemente de desde dónde lo miremos, ya que cuenta con un panel IPS. No se producen cambios en los colores, aunque pierde algo de brillo si lo miramos desde ángulos extremos. Una línea directa de visión siempre será mejor, aunque no encontraremos grandes problemas si debemos compartir la pantalla con uno o dos espectadores.

NeedforSpeed Hot Pursuit, forexample, funciona perfectamente en el Nexus 7, con tasas de frames suaves y sin saltos. También provamos N.O.V.A. 3, que es uno de los títulos más impresionantes ahora mismo en el mercado en términos de calidad de producción y detalle de texturas. La tasa de frames fue mucho más errática con este título de Gameloft, en comparación con otros juegos 3D, pero nunca llegó a bajar tanto como para ser injugable, y siguió siendo jugable 3.

DISPLAY La pantalla es quizá la característica de un tablet en la que más fácilmente se puede recortar para reducir el precio. Por fortuna en el caso del Nexus 7, la pantalla de 7 pulgadas es probablemente la mejor de sus partes. La pantalla de retroiluminación LED y 1280x800 píxeles de resolución ofrece 216 PPP, y utiliza un panel IPS, lo que se ha convertido en una práctica estándar dentro del rango de la gama media y alta de los tablets. Comparándolos directamente, el tablet de Google produce blancos más blancos y colores más profundos que la pantalla del KindleFire. Además, la mayor resolución del Nexus 7 ofrece una reproducción de vídeos y una navegación por internet más ágiles. El brillo de la pantalla se queda en una media de 280cd/m2, y el punto más brillante queda justo en el centro. Esto representa un brillo mayor que la mayoría de portátiles, y es comparable al del Samsung GalaxyTab 7.0 Plus, pero también es notablemente menor que el de la mayoría de tablets, como el iPad de tercera generación, el AsusTransformerInfinity y el KindleFire. Subjetivamente, se puede observar una pequeña

IV. RENDIMIENTO El Tegra 3 T30L de cuatro núcleos y 1,2GHz en 40nm es un absoluto portento para un tablet de este tamaño y precio. Solamente medio año atrás, los fabricantes comenzaban a lanzar tablets equipados con procesadores Tegra 2 de doble núcleo a más del doble o incluso el triple de precio que el actual Nexus 7. Subjetivamente, tanto la navegación en los menús como en internet están varias ligas por encima del KindleFire, tanto en tasa de frames como en velocidad y usabilidad. Los más quisquillosos quizás noten un pequeño efecto de imagen fantasma durante el uso rutinario, pero a nosotros no nos molestó en absoluto.

64


Revista Conceptual UCB En nuestro análisis del iPad de tercera generación, mencionamos que el procesador nos había decepcionado un poco, ya que es la misma CPU de doble núcleo a 1GHz que podemos encontrar en el iPad 2 pero con la potencia gráfica aumentada. El Tegra 3 de cuatro núcleos y 1,2GHz no debería tener problemas para superar ampliamente al iPad en términos de rendimiento bruto, y los resultados en Geekbench, aquí abajo, lo confirman. Los cálculos de integrales y coma flotante son hasta el doble que los de la última tablet de Apple, y también similares al AsusTransformer Prime, que viene equipado de manera similar pero cuesta el doble. V. CONCLUSIONES Se llega a la conclusión de que la Nexus 7 es una Tablet que revoluciono las expectativas de la gente sobre una Tablet, ya que siendo un Gadget pequeño, este supera a muchas Tablets en rendimiento. REFERENCIAS [1] Batarya, A.(2012, Agosto). Consultada el 14 de octubre de 2012, http://www.notebookcheck.org/Analisis-del-tablet-Google-Nexus7-8GB.80157.0.html [2] © Google (2012, Julio). Consultada el 14 de octubre de 2012, http://www.google.es/nexus/#/7/features [3] Prieto, J. (2012, Septiembre). Consultada el 14 de octubre de 2012, http://www.xataka.com/analisis/nexus-7-analisis [4] Lobhotni, A.(2012, Septiembre). Consultada el 14 de octubre de 2012, http://www.elandroidelibre.com/2012/09/nexus7-analisis-a-fondo-y-experiencia-de-uso.html

65


Revista Conceptual UCB

Televisor 3D sin Lentes Adrián Mauricio Rodríguez Andrade # Ingeniería de Telecomunicaciones Universidad Católica Boliviana “San Pablo” Av. 14 de septiembre - Obrajes La Paz - Bolivia Resumen— Este documento explica la evolución que tuvo el televisor el momento en que llegó a presentar imágenes en 3D (tres dimensiones) enfocándonos en una tecnología actual la cual nos permite ver este tipo de imágenes sin ningún tipo de instrumento o artefacto externo, como ser los lentes.

muy lejanos, los ejes ópticos de los ojos son paralelos. Cuando observamos un objeto cercano, los ojos giran para que los ejes ópticos estén alineados sobre el mismo, es decir, convergen. Asimismo, se produce el acomodo o enfoque para ver nítidamente el objeto. Al conjunto de este proceso se le llama fusión. Un factor que interviene directamente en esta capacidad es la separación interocular. A mayor separación entre los ojos, mayor es la distancia a la que apreciamos el efecto de relieve.

Palabras clave — Televisor, 3D, Pantalla, Ojos, Estereoscopía

I.

INTRODUCCIÓN

El efecto 3D logrado en las TV actuales por medio de anteojos especiales que realizan la ―sensación de inmersión tridimensional‖ pronto se verá reemplazado por técnicas que ofrecen la imagen en forma directa con el efecto 3D. En el presente documento se hablará sobre este cambio que hubo en la tecnología de las pantallas en 3 dimensiones, asimismo ventajas, desventajas y tecnologías a futuro que son prometedoras para el mercado de los Televisores.

Este efecto también puede ser visto mediante el entrelazado de franjas en una imagen estereoscópica. Para llegar a esto se deben entrecruzar los ojos hasta superponer dos de estas franjas, una vez hecho esto se podrá ver una imagen en tres dimensiones la cual está basada en el anterior explicado efecto de estereoscopía. Un ejemplo de una imagen estereoscópica:

II. PANTALLA 3D Una forma fácil de cumplir con los requerimientos del formato del artículo es utilizar este documento para redactar tu propio texto aquí mismo. Una pantalla 3D o pantalla tridimensional es una pantalla de video que reproduce escenas tridimensionales y poder mostrarlas como imágenes 3D por ejemplo, en la televisión 3D. Hay dos sistemas destacados para visualizar contenidos 3D: estereoscópicos y autoestereoscópicos. Los primeros necesitan unas gafas especiales, mientras que los otros permiten disfrutar de la sensación 3D sin ningún tipo de complementos. O. Principio de Estereoscopía El sistema visual humano es un sistema binocular, es decir, disponemos de dos sensores (ojos) que, debido a su separación horizontal, reciben dos imágenes de una misma escena con puntos de vista diferentes. Mediante estas dos vistas el cerebro crea una sensación espacial. A este tipo de visión se le llama visión estereoscópica, en la que intervienen diversos fenómenos. Cuando observamos objetos

Fig. 7 Imagen estereoscópica (Espiral)

P. El principio de Estereoscopía aplicado a una Pantalla Este tipo de sistemas necesitan el uso de gafas para una correcta visualización. Su funcionamiento se basa en que se emiten dos imágenes diferentes (captadas con una cámara esteroscópica), y cada ojo capta una mediante las gafas, para así tener una sensación de profundidad. A continuación veremos los diferentes tipos de gafas: 

Anaglifos: los anaglifos son las gafas con un cristal

66


Revista Conceptual UCB de cada color que todo el mundo asocia al cine en 3D. Es el método más conocido, y también el primero en ser utilizado no sólo de forma anecdótica.

Gracias a este método, el observador puede apreciar profundidad aunque la imagen está producida por un dispositivo plano. La visión estereoscópica consiste en la observación, por parte de ambos ojos de dos imágenes que difieren levemente y que representan una misma realidad. Esa pequeña diferencia, similar a la que perciben los ojos humanos cuando miran el mundo que les rodea, es la que permite al cerebro calcular la profundidad. La aplicación de este principio consiste en poder dotar al soporte que emita las imágenes, la capacidad de enviar cada una de estas imágenes a un ojo distinto. De esta manera el cerebro construirá la imagen 3D del objeto o de la escena que estamos representando.

Fig. 2 Lentes 3D anaglifos

Gafas polarizadas: son gafas con un cristal polarizado horizontalmente y otro verticalmente, mientras que en la pantalla se proyectan las dos imágenes, una polarizada de cada manera.

Fig. 3 Lentes 3D Polarizados

Shutter Glasses: lo que permite que se pueda utilizar en casa es que en lugar de proyectarse imágenes con luz polarizada, se exponen alternativamente las dos imágenes. Para poder enviar una diferente a cada ojo del espectador lleva unas gafas con un obturador de cristal líquido (LCS), de forma sincronizada con la pantalla, las gafas hacen que las lentes sean transparentes u opacas, en función de la imagen que está proyectando.

Podemos entonces decir que la televisión autoestereoscópica se considera una mejora respecto al sistema anterior y permite ver la TV en 3D sin necesidad de gafas. Además de representar la información de profundidad permite la selección arbitraria del punto de vista y dirección dentro de la escena. De esta manera, un cambio de posición del espectador afecta a la imagen que este observa. Q. Free Viewpoint: Es la sensación es que la escena gira con el movimiento del observador. Este fenómeno se conoce como Free viewpoint (punto de vista libre) y estos están limitados actualmente a 8 por cuestiones tecnológicas. Cada Free Viewpoint requiere dos imágenes (una por cada ojo para permitir una imagen en 3 dimensiones) lo que hace que para los 8 puntos de vista se necesiten mostrar 9 imágenes a la vez, diferentes en el plano horizontal, lo que quiere decir que la pantalla tendrá que tener una resolución mucho mayor que la HDTV. De este modo se resuelve también el problema de la cantidad de espectadores porque puede haber más de uno y ya que no es necesario localizarlos en posiciones preestablecidas.

Fig. 4 Lentes 3D ―Shutter‖

III.

AUTOESTEREOSCOPÍA

La Autoestereoscopía es el método para reproducir imágenes tridimensionales que puedan ser visualizadas sin que el usuario tenga que utilizar ningún dispositivo especial (como gafas o cascos especiales) ni necesite condiciones especiales de luz.

Fig. 5 Posición recomendable para televisores 3D convencionales.

A diferencia de los televisores 3D convencionales, un televisor 3D con tecnología Free Viewpoint permite ver imágenes de tres dimensiones

67


Revista Conceptual UCB desde cualquiera de los espacios opacos mostrados en la figura 4, y no sólo en el resaltado, como lo hacen los televisores 3D convencionales.

un substrato plástico. Se diseña la imagen trasera para enfocar la línea de la vista de cada ojo sobre diversas tiras y se forma esencialmente de la misma manera que para un estereograma de paralaje.

Esta tecnología de Free Viewpoint no es muy usada actualmente debido a su alto costo de fabricación y debido a las limitaciones tecnológicas antes mencionadas, aún así es un gran avance tecnológico para las pantallas en tres dimensiones, siendo su principal uso en el futuro, el mundo de los videojuegos. Volviendo a la autoestereoscopía como el fenómeno óptico capaz de permitirnos ver imágenes en tres dimensiones desde una pantalla plana, existe un método simple, eficaz e interesante que permite conseguir este fenómeno. Existen varios métodos para llegar a conseguir el fenómeno de 3 dimensiones sin lentes: 1) Estereograma de Paralaje: Consiste en una rejilla vertical fina puesta delante de una imagen especialmente diseñada. La rejilla se hace normalmente de un material opaco con fracturas verticales transparentes y finas con un espaciamiento regular. Cada raja transparente actúa como ventana a un trozo vertical de la imagen puesta detrás de ella. El trozo que vemos depende de la posición del ojo.

Fig. 7 Imagen autoestereoscópica mediante hoja lenticular

La clave para la creación acertada de las imágenes autoestereoscópicas basadas sobre estas lentes es la calidad y la uniformidad de la lente. A diferencia que con el método de barrera, la superficie entera de la lente irradia luz, por lo que no hay zonas opacas. IV.

MERCADO DE TELEVISORES AUTOESTEREOSCÓPICOS

La imagen del estereograma de paralaje está hecha interpolando las columnas a partir de dos imágenes. Esta imagen y la rejilla vertical están alineadas de modo que el ojo izquierdo pueda ver solamente las tiras de la imagen para el ojo izquierdo y el ojo derecho pueda ver solamente las tiras de la imagen para el ojo derecho.

Tanto empresas como Toshiba, Panasonic, LG, Sony y Samsung, principales productores de Televisores en el mundo, están trabajando en el desarrollo de televisores 3D autoestereoscópicos, siendo los primeros modelos lanzados prototipos de lo que se viene en adelante para la tecnología de los televisores. Varias empresas se suman así al futuro de la televisión, entre ellas Samsung, que acaba de presentar la última generación de sus televisores y monitores. La firma surcoreana Samsung últimamente mostró un prototipo de televisión 3D de 55″ con la que no será necesario utilizar gafas, y un modelo de monitor que se conecta de forma inalámbrica al ordenador. En el caso del prototipo, se trata de un televisor capaz de mostrar imágenes en tercera dimensión desde nueve ángulos distintos con resolución 1920 x 1080p de alta definición (HD). La distancia adecuada para percibir la imagen con nitidez es de 2,5 metros hasta seis. Además, el televisor incluye la posibilidad de funcionar en formato 2D. Samsung anunció que es sólo un prototipo, pero puede sustituirlo por una unidad de retroiluminación

Fig. 6 Imagen autoestereoscópica mediante barrera o rejilla

2) Hoja Lenticular: En vez de utilizar una barrera, puede utilizarse una hoja lenticular, la cual es una hoja de lentes finas y largas. Esta hoja lenticular contiene una serie de lentes cilíndricas moldeadas en

68


Revista Conceptual UCB LED. En cuanto a la fecha de comercialización, la compañía señaló en un comunicado que aun no está pautada y le llevará unos tres años para comercializarla. De momento habrá que usar gafas para ver contenidos 3D. V. CONCLUSIONES El lanzamiento comercial de estas televisiones es un primer paso de lo que será el futuro del mercado del cine en casa en 3D. Aunque todavía nos quedan varios años para desarrollar televisiones con esta tecnología de gran formato, de 40‖ o más a un precio razonable. Aquellos que quieren ver hoy contenidos tridimensionales en estas pantallas, tendrán satisfechas sus necesidades con televisores con tecnología de imagen estereoscópica, televisores en 3D basados en el sistema de lentes ―Shutter‖. REFERENCIAS [1] Samsung presenta televisión 3D de 55″ sin gafas. Consultada el 13 de Octubre de 2012, revistamercado.do/2011/03/samsung-presenta-television-3d-de-55sin-gafas/ [2] Toshiba desarrolla la primera TV 3D sin gafas. Consultada el 13 de Octubre de 2012, eleconomista.es/CanalPDA/2010/11196/ [3] Televisión del Futuro Cercano, 3D sin Anteojos. Consultada el 14 de Octubre de 2012, lamordida.net/television-del-futurocercano-3d-sin-anteojos/ [4] Pantalla 3D. Consultada el 14 de Octubre de 2012, es.wikipedia.org/wiki/Pantalla_3D [5] Autoestereoscopía. Consultada el 14 de Octubre de 2012, es.wikipedia.org/wiki/Autoestereoscopia [6] Televisión 3D, Consultada el 14 de Octubre de 2012, es.wikipedia.org/wiki/Televisión_3D

69


Revista Conceptual UCB

Robots futbolistas Emilio Misael Ariñez Merlo Ing. telecomunicaciones Universidad Católica Boliviana “San Pablo” Av. 14 de septiembre, calle 2 de Obrajes. e_arinez_m@estudiantes.edu.bo

misael.arinez@gmail.com La Paz – Bolivia Resumen— En este artículo se muestra el avance de la tecnología en el ámbito de la robótica. En varios países ya se implementaron robots en fábricas y algunos ya están en el mercado. Pero por ahora los robots que se mostraran en este artículo serán los robots que practican el deporte más popular del mundo, el futbol.

objetivo fue el de crear para el año 2050 un equipo de robots capaz de ganarle a un equipo de humanos.

Palabras clave — -Robótica. -Futbol. -Tecnología. - Humanos. - Ingeniería

I.

INTRODUCCION

Es normal ver cómo la gente usa robots para facilitar la mano de obra, procesos complicados, e incluso labores desagradables, sin embargo en este tema hablaremos del uso combinado de la mecánica, ingenio y la programación para la creación de ―robots futbolistas‖, el objetivo es simple, demostrar que la ingeniería ha alcanzado un nivel impresionante de avance y evolución, a tal punto de crear una base de ser humano capaz de desempeñarse en el deporte más popular del mundo.

II.

Fig1: un robot en plena actividad futbolística.

Esta iniciativa también se pudo ver en Chile, España y muchos otros países, al parecer con la velocidad que crece la riqueza tecnológica este ―sueño‖ se llevara a cabo mas rápido de lo estimado puesto que la tecnología ya está a punto de culminar la creación de androides inteligentes con funciones bastante complejas comparables con la actividad realizada durante un partido de futbol. Si queremos ver este acontecimiento tendríamos que crear una base robótica parecida físicamente al ser humano (androides). KITECH realizó investigaciones y desarrolló el EveR-1, un modelo de androide para las comunicaciones interpersonales capaz de imitar la expresión emotiva humana por medio de la musculatura facial, y también es capaz de conversar, para lo cual posee un vocabulario de alrededor de 400 palabras. Tiene 160 cm. de alto y pesa 50 kg, lo cual imita la figura promedio de una mujer coreana de veinte años. El nombre del robot deriva de la Eva bíblica, a lo cual se le sumó la letra 'r' para indicar que es un robot. El poder de procesamiento computacional avanzado EveR-1 le permite reconocer un discurso y la síntesis vocal, al mismo tiempo que procesa la sincronización de los labios con el reconocimiento visual por medio de cámaras micro-CCD con tecnología de

DESARROLLO

Un robot es un agente artificial virtual o mecánico. En la práctica, suele ser un sistema electromecánico el cual, por si apariencia y movimiento d la sensación de tener voluntad propia.la palabra ―robot‖ se refiere tanto al robot físico como a los agentes de software virtuales, pero estos últimos suelen ser llamados ―bots‖ generalmente. No hay un consenso sobre las maquinas que califican como robots, pero hay un acuerdo general entre los expertos y el público en que los robots tienden a hacer algunas o todas las operaciones que siguen: moverse, operar un miembro mecánico, sentir y manipular su medio ambiente, exhibir algún tipo de comportamiento inteligente, sobretodo el relat5ivo a los animales o seres humanos. Hace un tiempo atrás en Alemania se celebró el mundial de futbol entre robots, con 35 equipos de 12 países. Las competiciones se repartieron en cuatro ligas. La idea del torneo vino de Japón y el principal

70


Revista Conceptual UCB reconocimiento de rostros. Un microchip independiente en el interior de su cerebro artificial se encarga de la expresión gestual, la coordinación motora y la expresión. Todo su cuerpo está hecho de una silicona sintética de gelatina altamente avanzada y de 60 articulaciones artificiales en su rostro, cuello y cuerpo inferior; puede demostrar expresiones faciales realistas y cantar al mismo tiempo que baila. En Corea del Sur, el Ministro de información y Comunicación espera que haya un robot en cada casa para el 2013, y que sea utilizado estrictamente para fines de limpieza, decoración y entretenimiento.

presión aérea a través de un sistema servo, el movimiento es muy fluido y no hace mucho ruido. DER2 tiene un cuerpo más delgado que el de su versión anterior gracias al uso de un cilindro más pequeño. Además, tiene una proporción más perfecta. En comparación con el modelo anterior, DER2 tiene brazos más finos y un repertorio de expresiones más amplio. La suavidad de su movimiento también mejoró, lo cual hace que la confundan con un ser humano de verdad. Una vez programada, es capaz de retratar sus movimientos y gestos con su voz. El Laboratorio de Inteligencia Mechatronics, dirigido por Hiroshi Kobayashi en la Universidad de Ciencia de Tokio, ha desarrollado un androide llamado Saya, que fue exhibido en Robodex 2002 en Yokohama, Japón. Existen muchas otras iniciativas alrededor del mundo que involucran investigaciones sobre máquinas humanoides y su desarrollo, que introducirán un espectro más amplio de tecnología en el futuro cercano. En la actualidad, Saya ‗trabaja‘ en la Universidad de Ciencia de Tokio como guía. Boston Globe publico una extensa colección de 36 diseños con los últimos avances en robótica, que se llevaron a exposiciones y convenciones alrededor del mundo, robots humanoides con movimientos y gestos perfeccionados, entre estos se encuentran los robots que juegan al futbol.

Un androide es un robot organismo sintético diseñado para parecerse a un ser humano y actuar como tal. La palabra deriva de ανδρός, el genitivo de la palabra griega ανήρ, que significa ‗hombre‘, y del sufijo –eides, usado para significar ‗de la especie; parecido‘ (de eidos, ‗especie'). Aunque la palabra deriva de una raíz genérica específica, su uso en el inglés suele ser neutral. El término fue mencionado por primera vez por San Alberto Magno en 1270 y fue popularizado por el escritor francés Villiers en su novela de 1886 ‗L‘Éve future‘, aunque el término ‗androide‘ aparece en las patentes americanas desde 1863 en referencia a un juguete miniatura de forma humanas. Los androides permanecieron largo tiempo dentro de los dominios de la ciencia ficción, y son frecuentemente vistos en el cine y la televisión. Sin embargo, algunos robots humanoides existen en la realidad. El término ‗droid‘ –inventado por George Lucas en ‗La guerra de las galaxias‘ (1977)-, aunque originalmente era una abreviación de ‗androide‘, luego pasó a ser usado para nombrar a cualquier robot. Los androides han sido un elemento de la ciencia ficción más que nada; sin embargo, se están convirtiendo en una realidad en Japón y Corea del Sur. Los dos países están en una competencia reñida para lograr un éxito comercial en el mercado global, para lo cual han desarrollado androides muy útiles. III.

ANTECEDENTES.

Los proyectos japoneses en el Laboratorio de Inteligencia de Robótica, dirigido por Hiroshi Ishiguro en la Universidad Osaka, y Kokoro Co., mostró al ‗Actroid‘ en la Expo 2005 de la Prefectura de Aichi, Japón. En el 2006, Kokoro Co. desarrolló un nuevo androide DER 2. La altura de la parte humana del DER2 es de 165 cm. Tiene 47 puntos de movilidad. DER2 no sólo puede cambiar su expresión, también puede mover sus manos y pies. El ‗sistema aéreo‘ que Kokoro Co. Desarrolló originalmente es utilizado por el actuador. Como consecuencia de tener al actuador controlado con la

Fig2: Robots en una convención Los investigadores son los que están detrás de los robots en competición por el título de la RoboCup , que se juega durante una semana en Osaka. "De aquí a 2050, un equipo de robots humanoides autónomo estará listo para ganar un partido de fútbol, respondiendo a las normas de la FIFA, contra los más recientes campeones del mundo de fútbol", afirmaron en un comunicado los organizadores del evento.

71


Revista Conceptual UCB La competición de fútbol se divide en cinco ligas, entre las que destaca la "humanoide", donde hay robots bípedos que chutan el balón como una persona. Aibos, un robot-perro creado por el gigante japonés de la electrónica Sony, inició la competición de la liga 'a cuatro patas'. Los robots se enfrentan también en otras disciplinas, entre las que están los ejercicios de salvamento, donde son juzgados por su rapidez y estabilidad. Los 333 equipos del mundo entero se enfrentan en esta competición anual, que ya se ha organizado en Europa y Estados Unidos en otras ediciones. IV.

CONCLUSIONES.

Si vemos este proyecto como un reto contra la habilidad y el superación humano (que una maquina programada es mejor que toda una vida de entrenamiento) entonces no se entienden los objetivos, básicamente es un parámetro para potenciar la evolución humana teniendo a los robots como principal competidor, vale decir, superar a las maquinas. REFERENCIAS [1] LINKMESH ROBOTS, consultada el 16 de octubre http://www.linkmesh.com/robots/articulos/androides.php. [2]

BLIGOO, consultada el 16 de octubre http://chilepd.bligoo.com/content/view/720273/Estudianteschilenos-construyen-robot-futbolista.html#.UIDFMG-PPYo

[3]

AGENCIA DE NOTICIAS, consultada el 18 de octubre http://www.agenciadenoticias.unal.edu.co/detalle/article/robot s-que-juegan-futbol-un-proceso-de-aprendizaje/index.html

72


Revista Conceptual UCB

Resonancia Magnética Manahore Luis Baldivia Chavez #

Ingenieria en Telecomunicaciones Universidad Católica Boliviana “San Pablo” Obrajes Avenida 14 de Septiembre m_baldivia_cstudiantes.ucb.edu.bo

La Paz - Bolivia 

que se tuviera que estudiar. Estos dispositivos ayudan a enviar y recibir las ondas de radio y mejoran la calidad de las imágenes. Durante la resonancia magnética las personas que opera la máquina vigilan a la personas que están dentro de la maquina pero estas personas que lo controla desde otro cuarto. El examen casi siempre dura de 30 a 60 minutos, pero puede demorar más tiempo.

Resumen.-

La resognancia magntica tiene distintas lugares para realizarce como ser el abdomen, torax, cráneo y corazón. La resognancia magnética tiene un tiempo de duración de 30 a 60 minutos en un tubo. Las personas que se someten a esta tienen que estar preparadas puesto que algunas sufren de calaustrofobia. Esta prueba tiene distintas razones de realizarse puesto que muestra una mejor diagnostico por las señales aunque esta sea efectiva tiene una gran suma de riesgos como ser la radiación.

III. Preparación para el examen Antes de aplicar el examen se pide no comer ni beber nada durante un período de 4 a 6 horas antes. Si una persona sufre de claustrofobia se le da un medicamento para esto. Le pueden dar un medicamento para ayudarlo a que le dé sueño y que esté menos ansioso, o el médico puede recomendar una resonancia magnética ―abierta‖, en la cual la máquina no está tan cerca del cuerpo. Antes del examen se debe decir al médico lo siguiente: Clips para aneurisma cerebral. Ciertos tipos de válvulas cardíacas artificiales. Desfibrilador o marcapasos cardíaco. Implantes en el oído interno (cocleares). Nefropatía o diálisis (posiblemente no pueda recibir el medio de contraste). Articulaciones artificiales recientemente puestas. Ciertos tipos viejos de stents (endoprótesis vasculares). Ha trabajado con láminas de metal en el pasado (puede necesitar exámenes para verificar si tiene partículas de metal en los ojos). Para el examen de la resonancia magnética no tiene que haber los siguientes metales: Lapiceros, navajas y anteojos pueden salir volando a través del cuarto. Artículos como joyas, relojes, tarjetas de crédito y audífonos pueden dañarse. Los prendedores, los ganchos para el cabello, las cremalleras metálicas u otros artículos metálicos similares pueden distorsionar las imágenes. Las prótesis dentales removibles se deben retirar justo antes del examen.

Palabras clave: Resonancia, magnetica, ondas, personas, iman.

I.

   

Introducción

La resonancia magnética es un examen imagen lógico que utiliza imanes y ondas de radio potentes para crear imágenes del cuerpo. Las imágenes por resonancia magnética solas se denominan cortes y se pueden almacenar en una computadora o imprimir en una película. Un examen produce docenas o algunas veces cientos de imágenes. La resonancia magnética se hace en las siguientes partes del cuerpo: Resonancia magnética del abdomen Resonancia magnética del tórax Resonancia magnética del cráneo Resonancia magnética del corazón Forma en que se realiza la resonancia magnética En la resonancia magnética no se puede usar ciertos tipos de metal por que estos pueden causar imágenes borrosas. Las personas que se someten a la resonancia magnética se acuestan sobre una mesa angosta, la cual se desliza dentro de un tubo grande similar a un túnel. Algunos exámenes requieren de un tinte especial. El tinte por lo regular se administra antes del examen a través de una vena en la mano o en el antebrazo. Este medio de contraste ayuda al radiólogo a observar ciertas áreas más claramente. Se pueden colocar pequeños dispositivos llamados espirales, en la cabeza, el brazo o la pierna o las áreas

       

II.

   

IV. Lo que se siente durante el examen Una resonancia magnética no causa dolor. Si una persona tiene dificultad para permanecer quieto o es

73


Revista Conceptual UCB muy nervioso, se le puede dar un medicamento para relajarlo. El movimiento excesivo puede ocasionar errores e imágenes borrosas en la resonancia. La mesa puede estar dura o fría, pero la persona puede solicitar una frazada o una almohada. Dado que la máquina emite ruidos sordos o zumbidos fuertes al encenderse, se pueden usar tapones para los oídos con el fin de reducir el ruido. Un intercomunicador en el cuarto permite a la persona hablar con alguien en cualquier momento. Asimismo, algunos equipos para resonancia magnética tienen televisores y audífonos especiales que usted puede utilizar para ayudar a pasar el  tiempo. No hay un período de recuperación, a menos que se haya dado un medicamento para relajarlo. Después de una resonancia magnética, las personas pueden reanudar la dieta, las actividades y los medicamentos  normales. V. Razones por las que se realiza el examen La combinación de resonancia magnética con otros métodos imagen lógicos con frecuencia puede ayudar  al médico a elaborar un diagnóstico más definitivo. Las imágenes por resonancia magnética tomadas después de haber administrado un colorante especial (medio de contraste) dentro del cuerpo pueden brindar información adicional acerca de los vasos sanguíneos. Una ARM, o angiografía por resonancia magnética, es una forma de imagen por resonancia magnética que crea imágenes tridimensionales de los vasos sanguíneos y, a menudo, se utiliza cuando no se puede realizar la angiografía tradicional.

Los fuertes campos magnéticos que se crean durante una resonancia magnética pueden provocar que los marcapasos cardíacos y otros implantes no funcionen igual de bien. También pueden provocar que otros pedazos de metal dentro del cuerpo se desplacen o cambien de posición. VII. Nombres alternativos Imágenes por resonancia magnética (IRM); Imágenes por resonancia magnética nuclear (RMN) VIII. Conclusión La resonancia magnética es un aparato muy sofisticado e interesante puesto que esta lleva mucha electrónica puesta que con la ayuda de los imanes y las ondas de radio se puede y se pudo detectar muchas enfermedades. Al hacerse este examen se necesita mucho valor puesto que este al poder aguantar de 4 a 6 horas, al poner un tinte este hace que la prueba sea más eficiente pero como siempre hay personas que tienen miedo a las agujas. Sin embargo esta resonancia magnética no es tan confiable puesto que esta si no sabes correctamente de que sufres puede causar mucho daño como por ejemplo si no sabes si eres claustrofóbico. La resonancia magnética fue un gran invento aunque este todavía tiene muchos errores este es muy útil y si se corrigieran estos errores esta sería una maquina fenomenal pero igual que siempre quedaría obsoleta ya que la electrónica mejora y haría otra máquina mejor antes que la máquina de resonancia magnética sea totalmente arreglada.  Referencias [1] Wilkinson ID, Paley MNJ. Magnetic resonance imaging: basic principles. In: Adam A, Dixon AK, eds. [2] Grainger & Allison's Diagnostic Radiology: A Textbook of Medical Imaging. 5th ed. New York, NY: Churchill Livingstone; 2008:chap 5.

VI. Riesgos La resonancia magnética no contiene ninguna radiación y, hasta la fecha, no se ha informado de efectos secundarios a causa de los campos magnéticos y las ondas de radio. El tipo de tinte utilizado más común es el gadolinio, el cual es muy seguro. Las reacciones alérgicas a esta sustancia rara vez ocurren. Sin embargo, el gadolinio puede ser dañino para pacientes con problemas renales que requieran diálisis. Si usted tiene problemas en el riñón, por favor coméntele al médico antes del examen.

74


Revista Conceptual UCB

La Domotica Graciela M. De Grandchant Riveros Ingeniería mecatronica Universidad Católica Boliviana “San Pablo” Av. 14 de septiembre - Obrajes g_de_grandchant_r@estudiantes.ucb.edu.bo

La Paz - Bolivia Resumen—La domótica es un tema de gran importancia y de gran peso a nivel mundial, el objetivo fundamental R. de la domótica es la comodidad del usuario y para esto utiliza varios sistemas que facilitan todo tipo de acciones dentro de una casa; esto genera mas comodidad, acorta el tiempo de las acciones realizadoas por el usuario y tiene una interfaz que puede ser facilmente comprendida por el o los usuarios. la domotica es una ciencia que tiene de mision mejorar la calidad de vida de las personas. Palabras clave — Hogar, facilidad, automatización, comodidad, calidad, tiempo, espacio, seguridad. -

Las aplicaciones de la domótica Las aplicaciones son cinco principales o funcionales específicas: Ahorro Energetico: la domotica no pide un cambio total de aparatos que ya se tienen por aparatos autómatas, sino mas bien pide una gestión eficiente de estos que pueden relacionarse con la climatización, gestión eléctrica y uso de energias renovables. Confort: como el nombre lo indica son sistemas que hacen que la vivienda del usuario sea confortable y puede ser de carácter pasivo, activo o mixto. Se pueden controlar sistemas de: Iluminación, Automatización de todos los distintos sistemas o instalaciones dotándolos de control eficiente y de fácil manejo, Integración del portero al teléfono, o del videoportero al televisor, Control vía Internet, Generación de macros y programas de forma sencilla para el usuario.

I. INTRODUCCIÓN Se llama domotica al conjunto de sistemas capaces de automatizar una vivienda, esta palabra viene de domo que en latin significa casa y de la palabra tica que en griego significa automática o automata, al saber este significado y la definición podemos entender mejor lo que es la domotica. Y saber que su función principal es la automatización de componentes eléctricos. II. LA DOMOTICA Como ya sabemos la función principal también es necesario saber la misión y la productividad de este conjunto de sistemas; la misión de la domotica es la comodidad del usuario y para esto se emplean diversas funcionalidades especificas, la domotica se define también de acuerdo a estas funcionalidades como:‖ la integración de la tecnología en el diseño inteligente de un resinto cerrado”.

Seguridad: los sistemas de la domotica utilizados para generar seguridad son aquellos que protegen bienes patrimoniales y seguridad personal, son: alarmas anti intrusos, alarmas de detección de incendios, fugas de gas, escapes de agua, teleasistencia y cámaras IP.

-

Accesibilidad: con accesibilidad se refiere a que son sistemas accesibles para todo tipo de hogares, con factibilidad especialmente y de tipo muy funcional para personas con discapacidades y personas con limitaciones funcionales, adultos mayores y personas con malestares en la salud. Estos sistemas son exclusivamente tecnología para favorecer al usuario usando un diseño propuesto por el mismo.

Comunicaciones: son los sistemas de infraestructuras para correlacionarse, estos son: Ubicuidad en el control tanto externo como interno, control remoto desde Internet, PC, mandos inalámbricos eléctrico, Tele asistencia, tele mantenimiento, informe de consumo y costos, transmisión de alarmas e intercomunicaciones.

Figura 1. Se muestra las facetas de la domotica.

75


Revista Conceptual UCB 

IEEE: The Institute of Electrical and Electronics Engineers, el Instituto de Ingenieros Eléctricos y Electrónicos, una asociación técnico-profesional mundial dedicada a la estandarización, entre otras cosas. Es la mayor asociación internacional sin fines de lucro formada por profesionales de las nuevas tecnologías, como ingenieros eléctricos, ingenieros en electrónica, ingenieros mecatronicos. A través de sus miembros, más de 360.000 voluntarios en 175 países, el IEEE es una autoridad líder y de máximo prestigio en las áreas técnicas derivadas de la eléctrica original: desde ingeniería computacional, tecnologías biomédica y aeroespacial, hasta las áreas de energía eléctrica, control, telecomunicaciones y electrónica de consumo, entre otras.  LonUsers España:Asociación de usuarios de la tecnología LonWorks, siendo creada por la iniciativa de empresas líderes en los diferentes sectores de aplicación de la tecnología LonWorks (domótica, inmótica, control industrial y de transporte)

Figura 2. Ejemplo de las utilidades de la domotica.

S. Avances de la domótica Las ingenierías: en telecomuniciones, biomédica, en sistemas informaticos y mecatronica principalmenteIII. son las ciencias puras y ramas especializadas en la creación de muchos sistemas de la domotica, ya que tienen bastante conocimiento de los factores necesarios que son: -

CONCLUSIONES DOMOTICA: UTIL PARA TODOS Podemos concluir diciendo que la domotica es un gran avance para el mundo entero y su importancia y utilidad hacen que sea un conjunto de sistemas codiciado por todo el mundo, al facilitar la funcionalidad de toda la familia en especial de las personas que tienen discapacidades, niños, adultos mayores, personas con enfermedades , etc. , se puede decir que la domotica esta pensada para todos y como antes se menciono, cada usuario puede dar su diseño de acuerdo a su factibilidad de espacio y sus necesidades personales y familiares, la domotica no solo brinda seguridad y fácil manejo de aparatos automatizados, sino también mejora la calidad de vida, y por tener una relación muy profunda con la tecnología en un conjunto de sistemas que cada vez va mejorando, va innovando y sobretodo busca la comodidad, el buen manejo y entendimiento del usuario.

Sensores Controladores Actuadores La domotica siempre se esta innovando de acuerdo a las nuevas necesidades humanas y se habitua a todo tipo de cambio ya que se van presentando nuevos sistemas que favorecen a todo tipo de personas y en todo tipo de lugares. Son sistemas utiles y serviciales que facilitan y aumentan la calidad de vida de la persona.

RECONOCIMIENTOS La inspiracion para llevar a cabo este articulo esta basada en la carrera de Ingenieria Mecatronica ya que es una carrera integra que nos permite realizar avances con vista al futuro. De la misma manera, las personas que insentivan a hablar de Domotica, son Isaac Asimov, el creador de las leyes mecatronicas y Carlos Riveros Mendez quien dijo alguna vez ―Toda persona necesita calidad de vida desde el momento

Figura 3. la tecnologia en nuestras manos dia a dia.

T. Asociaciones y Convenios

76


Revista Conceptual UCB de su nacimiento hasta el momento de su partida‖. Estas palabras son una inspiracion ya que el cumplio con lo dicho, tuvo calidad de vida desde su nacimiento hasta el momento de su partida logrando esto por meritos propios, y la calidad de vida es el objetivo y mision principal de la domotica. REFERENCIAS [1] [2]

[3]

Jose Manuel Huidobro Moya “Domotica universal”. 1999 Ramon J. Millan Tejedor ―Domotica :Edificios Inteligentes‖ 2007. http://www.raco.cat/index.php/scriptanova/article/view Article/63942/0

77


Revista Conceptual UCB

DIGITS Oscar Mauricio Del Carpio Aranibar Ingeniería Mecatrónica Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre No. 4807esq. Calle 2, Obrajes o_del_carpio_a@ucb.edu.bo

La Paz - Bolivia Resumen— Digits, presentado por Microsoft, un innovador sistema que permite reconocer con gran fidelidad los movimientos de las manos. Se trata de una pulsera equipada con un sistema de infrarrojos que ofrece la posibilidad de captar con gran detalle los movimientos de la mano y los dedos. Esta tecnología se podría utilizar para controlar dispositivos móviles, videojuegos o equipos del hogar.

produce distracciones, ya que la luz es invisible para el ojo humano. Su funcionamiento es muy sencillo desde el punto de vista del usuario, puesto que a través de luces infrarrojas, invisibles para el ojo humano, consigue replicar lo que la mano del usuario hace, en el caso de los videojuegos dentro de la pantalla. Esta característica es similar en esencia a la videoconsola Wii, aunque mucho más perfeccionada. El prototipo supone en realidad una suma de elementos ya existentes, ya que todos los componentes que se han utilizado en el proceso estaban ya comercializados. También puede recordarse el uso de Kinect en XBOX 360, que detecta el movimiento a través de una cámara instalada junto al televisor.

Palabras clave — Sistema, tecnología, sensor, infrarrojo, interactuar, innovador, Kinect, control.

I. INTRODUCCIÓN Las investigaciones de Microsoft han permitido presentar grandes avances tecnológicos en los últimos años. En especial, en el campo de la detección y procesamiento de movimientos, reconocimiento de voz e inteligencia artificial. Sus adelantos a ya se evidencian en los diferentes usos que se le dan al Kinect, sistema de sensores para la consola de videojuegos Xbox 360. Microsoft presentó Digits, un sistema novedoso que reconoce con fidelidad los movimientos de las manos. Esta tecnología se podrá utilizar para controlar dispositivos móviles, videojuegos o equipos del hogar. Microsoft ha presentado Digits, un innovador sistema que permite reconocer con gran fidelidad los movimientos de las manos. Se trata de una pulsera equipada con un sistema de infrarrojos que ofrece la posibilidad de captar con gran detalle los movimientos de la mano y los dedos. Esta tecnología se podría utilizar para controlar dispositivos móviles, videojuegos o equipos del hogar.

Fig. 8 Digits, una tecnología con forma de pulsera, que integra un sistema de captación de movimientos basado en los infrarrojos.

III. SISTEMA INNOVADOR Según David Kim, este nuevo proyecto es innovador porque permite que los usuarios no permanezcan en un lugar fijo o frente a una cámara, sino que puedan desplazarse libremente donde quieran. Se puede interactuar incluso cuando se va por la calle. Aunque aun quedan cosas que mejorar de este prototipo. Los investigadores consideran que puede suponer un avance para la interacción con dispositivos móviles. Ya se han realizado demostraciones de cómo se integra en el uso de tabletas y en videojuegos, reconociendo los movimientos de los dedos tales como zoom, desplazarse y dar ordenes dentro de un juego.

II. SENSOR TIPO KINECT El sensor, que esta siendo desarrollado en la Universidad de Cambridge, fue presentado en una conferencia en Massachussetts dónde se mostró a través de un video su funcionamiento, el prototipo Digits integra la tecnología en las tareas habituales. Mediante simples gestos de la mano permite controlar los dispositivos de la casa David Kim, líder de desarrollo de Digits, ha dicho que "Queremos que los usuarios sean capaces de interactuar desde Digits con sus aparatos electrónicos de forma espontánea utilizando gestos sencillos y sin tener que tocar los dispositivos‖. El sensor se basa en una cámara que detecta la luz infrarroja y que no

78


Revista Conceptual UCB Más allá de la tecnología móvil, Digits también puede ser una evolución de los sistemas de control por gesto vistos hasta el momento. Su relación con el mundo actual también ha quedado demostrada. Quizá combinándolo con el Kinect que ya está en los hogares podría ser un sistema de control realmente completo. El gran valor de esta tecnología parece ser la precisión con la que capta los movimientos de la mano y los dedos, haciendo que no sean necesarios grandes gestos como en los sistemas actuales. Por ahora Digits es un concepto y un prototipo, pero lo visto hasta el momento es alentador y podría ser un primer paso hacia una nueva forma de interactuar con la tecnología.

en llegar. El doctor Richard Picking, estudioso de interacciones entre humanos y computadoras en Glyndwr University, dijo a la BBC: "Esta solución móvil y portátil es un desarrollo interesante con el potencial de ser una novedad. Sin embargo, innovaciones similares como los guantes de datos tecnológicos no han sido capaces de encontrar usos convencionales fuera de la industria de los videojuegos, y esto también puede ser el caso con Digits‖. V. CONCLUSIONES La tecnología fruto del trabajo del equipo de Microsoft Research en Cambridge, resulta a mi parecer en una espectacular recreación de los movimientos de las manos, donde se representan con gran fidelidad estas y los dedos como se puede comprobar en un vídeo de presentación de esta tecnología donde se permite observar sus posibles aplicaciones, que podrían revolucionar la interacción de los usuarios con algunos de los equipos más comunes en la actualidad. Por ejemplo, los investigadores consideran que puede suponer todo un avance para la interacción con dispositivos móviles. En el vídeo se aprecia como se controla un 'tablet', reconociendo los movimientos de los dedos tales como zoom o desplazar. Personalmente este dispositivo me gusta porque no solo sirve para entretener a la gente sino que también nos beneficia grandemente, por ejemplo si alguna persona llega a tener un accidente y no se puede valer por si sola, este le serviría mucho y además podría controlar los equipos del hogar y demás cosas que de seguro pensó que no podía volver a realizarlas.

IV. APLICACIONES Las aplicaciones para este nuevo sensor podría ser muy amplía. Entre las múltiples opciones de uso, la compañía se centrará en tres: buscar su utilidad como control remoto virtual, conseguir que interactúe con un teléfono que se lleve en el bolsillo y por último, tal vez la más encauzada, la opción de mejorar la experiencia en los videojuegos. Entre los usos prácticos que se le puede dar al digits esta: 1) Subir o bajar el volumen de la radio o la televisión: Esta característica puede ser muy útil para personas de movilidad reducida, aunque probablemente necesitaría algún dispositivo extra que se interactúe entre el sensor y el aparato. 2) Marcar un número de teléfono en el aire a través de un teclado imaginario: Siempre que tengamos activado el manos libres, claro.

RECONOCIMIENTOS En esta sección quiero expresar mi gratitud al ing. Orlando Rivera y a la lic. Elizabeth Pommier por su constante esfuerzo y dedicación para con sus alumnos, y a mis padres que hacen posible mi educación en esta prestigiosa Universidad.

3) Jugar a videojuegos sin un mando físico: Aquí veríamos un desarrollo más avanzado de las características que permiten Kinect o Wii, y además en este ámbito puede mejorar mucho la experiencia del usuario que siente cada vez más que se integra dentro de la realidad virtual.

REFERENCIAS

4) Control tridimensional del ordenador o tablet. Fig. 9 Jugar videojuegos sin un mundo físico.

Las voces en contra de los supuestos usos y maravillas de este nuevo dispositivo no han tardado

79

[1]

(2012, Octubre). Digits, dispositivo que virtualiza los movimientos de la mano. Consultada el 13 de Octubre de 2012, http://www.eltiempo.com/tecnologia/actualidad/ARTIC ULO-WEB-NEW_NOTA_INTERIOR-12293681.html

[2]

(2012, Octubre). Microsoft desarrolla un nuevo Kinect en forma de reloj. Consultada el 13 de Octubre de 2012, http://www.latercera.com/noticia/tendencias/2012/10/6 59-487420-9-microsoft-desarrolla-un-nuevo-kinect-enforma-de-reloj.shtml

[3]

(2012, Octubre). Microsoft replica los movimientos de la mano a través de Digits. Consultada el 13 de Octubre de 2012, http://www.baquia.com/posts/2012-10-10microsoft-consigue-replicar-los-movimientos-de-lamano-a-traves-de-un-sensor


Revista Conceptual UCB

Econografía Niklaus Geisser Ingeniería de Sistemas Universidad Católica Boliviana “San Pablo” Av.14 de septiembre #4807,obrajes n_geisser_a@estudiantesucb.com

La Paz - Bolivia Resumen— El estudio de los diagnósticos con relación al ultrasonido puede ser muy útil si se le da las aplicaciones adecuadas o se lo estudia a profundidad ya que abarca muchos campos con relación a la medicina.

II. ULTRASONIDO El ultrasonido es una onda acústica o sonora cuya frecuencia está por encima del espectro auditivo del oído humano (aproximadamente 20.000 Hz). Algunos animales como los delfines y los murciélagos lo utilizan de forma parecida al radar en su orientación. A este fenómeno se lo conoce como ecolocalización. Se trata de que las ondas emitidas por estos animales son tan altas que ―rebotan‖ fácilmente en todos los objetos alrededor de ellos, esto hace que creen una ―imagen‖ y se orienten en donde se encuentran.

Palabras clave — Econografía, Ultrasonido, Ecografía, Fusión Fría.

I. INTRODUCCIÓN Esta técnica se ha sido popularizando y es también conocida como Diagnóstico por Ultrasonidos. Los ultrasonidos son vibraciones acústicas emitidas por un cristal piezoeléctrico que es capaz de transformar vibraciones en impulsos eléctricos y viceversa. Así, al estimularse eléctricamente al sensor, éste emite vibraciones que viajan hasta el órgano bajo estudio y rebotan del cuerpo hacia el sensor. Una computadora colecta estos ecos transformándolos en imágenes. Se utiliza un gel especial para asegurar un mejor contacto con la piel del paciente y así obtener imágenes más nítidas.

III.

USOS DEL ULTRASONIDO

El siglo XVII supone el inicio del conocimiento de los ultrasonidos a partir del silbato de Galton y del diapasón, que eran capaces de producirlo; aunque muy bajas las frecuencias producidas, eran suficientes para comprobar las distintas barreras existentes en el oído entre el hombre y los animales. Los ultrasonidos son utilizados habitualmente en aplicaciones industriales (medición de distancias, caracterización interna de materiales, ensayos no destructivos y otros). También se emplean equipos de ultrasonidos en ingeniería civil, para detectar posibles anomalías y en medicina (ver ecografía, fisioterapia, ultrasonoterapia). Un ejemplo del uso del ultrasonido en el campo médico son los dispositivos tales como el doppler fetal, el cual utiliza ondas de ultrasonido de entre 2 a 3 MHz para detectar la frecuencia cardíaca fetal dentro del vientre materno. Otro ejemplo de su uso en medicina es la Litotricia extracorpórea por ondas de choque, una técnica terapéutica para el tratamiento de la litiasis renal. También son utilizados como repelente para insectos. Hay varias aplicaciones para computadoras y celulares, las cuales reproducen una onda acústica como fue explicado anteriormente, la cual molesta a los insectos, en especial a los mosquitos. La máquina de ultrasonido crea imágenes que permiten examinar varios órganos en el cuerpo. Esta máquina envía ondas sonoras de alta frecuencia que hacen eco en las estructuras corporales y un computador recibe dichas ondas reflejadas y las utiliza para crear una imagen. A diferencia de los

La econografía permite apreciar diferencias en la densidad de un órgano, a diferencia de los rayos X que sólo aportan datos sobre el contorno y forma del mismo. Una de las limitaciones de éste tipo de diagnóstico es que no puede ser utilizada en el diagnóstico pulmonar. En la forma tradicional de diagnóstico Econográfico las imágenes son estáticas. Sin embargo, gracias al fenómeno Doppler, es posible obtener imágenes con movimiento. Este fenómeno es utilizado para detectar movimiento y es el mismo que utilizan muchos equipos de medición en la industria. Consiste en enviar una señal acústica sobre una partícula en movimiento y medir el tiempo del rebote de dicha señal para calcular la velocidad de dichos objetos. Esta técnica sirve incluso para crear imágenes vasculares completas. Un aspecto negativo de la econografía es que su interpretación es muy ardua, lo que a veces lleva a los médicos a cometer errores fatales, que luego conduce a funestas consecuencias. En la Obstetricia es donde más impacto ha tenido ésta tecnología ya que el líquido amniótico es un medio perfecto para la propagación de sonidos de altas frecuencias.

80


Revista Conceptual UCB Rayos X, en este examen no se presenta ninguna exposición a la radiación ionizante. Al igual que cualquier onda, el ultrasonido sufre el fenómeno de atenuación dentro de las diferentes estructuras del cuerpo, como regla general a mayor frecuencia se logra menor penetración y a la inversa, a menor frecuencia podemos lograr mayor penetración. Las frecuencias típicas utilizadas para aplicaciones en abdomen pueden ir desde 2,0 MHz a 5,0 MHz mientras que para regiones como mama, músculoesqueléticas, tiroides, etc., las frecuencias pueden oscilar entre 8,0 MHz a 16,0 MHz

electrolíticas en los que se sugería que se podía producir la fusión de deuterio en átomos de helio produciendo grandes cantidades de energía. Estos experimentos fueron publicados en la revista científica Nature pero la fusión fría como tal fue descartada al poco tiempo por otros equipos constituyendo el artículo de Nature uno de los fraudes más escandalosos de la ciencia en los tiempos actuales III. FISIOTERAPIA En líquidos sometidos a ultrasonidos se forman cavidades que al colapsar producen temperaturas de hasta 30.000 °C. Se ha discutido la posibilidad que en estas cavidades se podría producir la fusión fría. En el colapso también se emite luz, fenómeno conocido como sonoluminiscencia. La fusión fría es el nombre genérico dado a cualquier reacción nuclear de fusión producida a temperaturas muy inferiores a las necesarias para la producción de reacciones termonucleares (millones de grados Celsius). De manera común, el nombre se asocia a experimentos realizados a finales de los 80 en células electrolíticas en los que se sugería que se podía producir la fusión de deuterio en átomos de helio produciendo grandes cantidades de energía. Estos experimentos fueron publicados en la revista científica Nature pero la fusión fría como tal fue descartada al poco tiempo por otros equipos constituyendo el artículo de Nature uno de los fraudes más escandalosos de la ciencia en los tiempos actuales

Fig. 1 En la figura 1 podemos ver la recepción de una imagen mediante el ultrasonido

IV. ECOGRAFÍA La ecografía, ultrasonografía o ecosonografía es un procedimiento deimagenología que emplea los ecos de una emisión de ultrasonidos dirigida sobre un cuerpo u objeto como fuente de datos para formar una imagen de los órganos o masas internas con fines de diagnóstico. Un pequeño instrumento "similar a un micrófono" llamado transductor emite ondas de ultrasonidos. Estas ondas sonoras de alta frecuencia se transmiten hacia el área del cuerpo bajo estudio, y se recibe su eco. El transductor recoge el eco de las ondas sonoras y una computadora convierte este eco en una imagen que aparece en la pantalla. La ecografía es un procedimiento sencillo, no invasivo, en el que no se emplea radiación, a pesar de que se suela realizar en el servicio de radiodiagnóstico, y por eso se usa con frecuencia para visualizar fetos que se están formando. Al someterse a un examen de ecografía, el paciente sencillamente se acuesta sobre una mesa y el médico mueve el transductor sobre la piel que se encuentra sobre la parte del cuerpo a examinar. Antes es preciso colocar un gel sobre la piel para la correcta transmisión de los ultrasonidos.

Fig. 2 En la figura 2 podemos ver la recepción de una imagen mediante el uso de la econografía

II. FUSIÓN FRÍA En líquidos sometidos a ultrasonidos se forman cavidades que al colapsar producen temperaturas de hasta 30.000 °C. Se ha discutido la posibilidad que en estas cavidades se podría producir la fusión fría. En el colapso también se emite luz, fenómeno conocido como sonoluminiscencia. La fusión fría es el nombre genérico dado a cualquier reacción nuclear de fusión producida a temperaturas muy inferiores a las necesarias para la producción de reacciones termonucleares (millones de grados Celsius). De manera común, el nombre se asocia a experimentos realizados a finales de los 80 en células

81


Revista Conceptual UCB Actualmente se pueden utilizar contrastes en ecografía. Consisten en micro burbujas de gas estabilizadas que presentan un fenómeno de resonancia al ser insonadas, e incrementan la señal que recibe el transductor. Así, por ejemplo, es posible ver cuál es el patrón de vascularización de un tumor, el cual da pistas sobre su naturaleza. En el futuro quizá sea posible administrar fármacos como los quimioterápicos, ligados a burbujas semejantes, para que éstas liberen el fármaco únicamente en el órgano que se está insonando, para así conseguir una dosis máxima en el lugar que interesa, disminuyendo la toxicidad general. V. CONCLUSIONES En conclusión, podemos decir que la econografía tiene muchas aplicaciones que podrían ser aprovechadas de muchas maneras, especialmente en el ámbito de la programación ya que es increíblemente útil en áreas como la medicina o la biomédica. VI. RECONOCIMIENTOS Quisiera agradecer a Elizabeth Pommier por incentivarnos a hacer esta clase de trabajos y por poner tanto interés en nosotros. REFERENCIAS [1] [2]

http://es.wikipedia.org/wiki/Ecograf%C3%ADaJ. Consultada el 8 de ocubre 2012 Econografy I.- Jhon Mcperson.

Autor

Niklaus Geisser es un estudiante de ingeniería de sistemas en la Universidad Católica Boliviana ―San Pablo‖, tiene como intereses la tecnología y la música.

82


Revista Conceptual UCB

SERPIENTE ROBOTICA EXTIRPA TUMORES José Manuel Ibieta Martínez Ingeniería en Telecomunicaciones Universidad Católica Boliviana “San Pablo” Avenida 14 de septiembre j_ibieta_m@estudiantes.ucb.edu.bo

La Paz - Bolivia Resumen— Según la Organización mundial de la Salud, el cáncer es la causa del 13% de muertes anuales en el mundo por lo tanto la creación este proyecto es innovador y II. EL FUTURO EN LOS QUIRÓFANOS será un gran paso para la tecnología en la medicina, se trata de una serpiente robótica que extirpa tumores El proyecto que está en desarrollo es una un proyecto diseñado por OC Robotics del Reino promesa para el futuro y será muy útil en salas de Unido. quirófano, si es que se necesita extirpar un tumor Palabras clave — Serpiente, cáncer, tumores, robot, que se encuentra detrás de las costillas, solo se prototipo, extirpar.

necesitaría hacer una pequeña incisión y el robot que estará guiado por el cirujano entrara sin problemas hasta el sector y extirpara el tumor, más fácil que las cirugías tradicionales en la cuales se tienen que hacer cortes bastante grandes. Safia Danovi, de la organización Cancer Research está muy de acuerdo con la idea, además dijo que ―la innovación y la investigación son extremadamente importantes para atacar esta enfermedad del cáncer‖ además explico que las tecnologías están cambiando la tendencia de cómo tratar estas enfermedades y esto debe continuar, por eso mismo la creación de distinto tipos de robots no termina cada vez más empresas son las que se introducen a este campo de la robótica para poder implementar e innovar con nuevos proyectos los cuales serán para luchar contra este tipo de enfermedades y así de una vez por todas llegar a vencerlas.

I.

INTRODUCCIÓN Es una tecnología innovadora la serpiente robótica que extirpa tumores es un prototipo que será usado para extirpar tumores, diseñado por OC Robotics fue presentado en la Conferencia Internacional de Ingeniería Oncológica de la Universidad de Leeds. Este prototipo será utilizado contra el cáncer y está diseñado para poder trabajar dentro de quirófanos con otros aparatos y ser conducido por algún cirujano experto, este robot hará a las cirugías menos complicadas ya que puede penetrarse por pequeños orificios del cuerpo o por pequeñas incisiones.

U. Cámaras y Sensores Estas enfermedades requieren métodos no invasivos y este proyecto de la serpiente según OC Robotics es uno de ellos, ya que como se explicó anteriormente solo necesita pequeños orificios para introducirse dentro del cuerpo y un cirujano que las dirija que podrá ver y sentir por medio de cámaras y sensores que el robot tendrá integrado, además que a este robot se le pueden añadir distintas herramientas para que pueda cumplir con su trabajo y así garantizar el éxito por ejemplo en una cirugía.

Fig. 1 Serpiente robótica en desarrollo

83


Revista Conceptual UCB W. Características del Robot El brazo tiene un diseño largo, delgado y flexible, encaja perfectamente a través de pequeñas aberturas y alrededor de obstáculos. No necesita apoyo del entorno, así que puede navegar a través de un espacio abierto, evitando los obstáculos, llevando distintas herramientas y logrando completar el trabajo. El manejo del robot es lo más importante del proyecto y fue lo que más desarrollo OC Robotics. Utiliza una tecla de navegación simple y el software que utiliza se asegura que el resto de la serpiente siga el curso de la cabeza, es decir, si el que lo maneja evita un obstáculo el resto de la serpiente lo hará. Existen otros modos de control disponible, que también incluiría la automatizada o por modos de repetición para permitir al que lo maneja posicionar con precisión la punta del robot serpiente en el lugar de trabajo.

Fig. 2 Brazos robóticos con cámaras y sensores

V. Usos y novedades del Proyecto El robot fue hecho con la más alta tecnología y puede ser manejado con otros proyectos como el Da vinci que es muy utilizado en los quirófanos, con todas las tecnologías, que se están desarrollando en los distintos laboratorios del mundo, serán unas armas para la lucha contra el cáncer y otras enfermedades que en estos tiempos no tienen cura y son mortales como es el caso de esta enfermedad. Este prototipo tiene sensores que captan la presencia de los órganos para así evitarlos al momento de penetrar el cuerpo, así también con unas cámaras para que el cirujano que lo maneja pueda ver los tumores, para esto se usa una luz que tendrá el robot y también será utilizado una droga para que estos tumores sean brillantes y así se pueda verificar y confirmar que el tumor sea extirpado totalmente del organismo. Asimismo al asegurarse que los tumores ya estén fuera del cuerpo, los doctores tendrán una gran eficacia al momento de realizar operaciones de este tipo y las llevaran, en su mayoría, con éxito.

Fig. 4 Muestra completa de la serpiente robótica

El robot serpiente también puede ser utilizado en muchos lugares de trabajo, en todo lugar que sea complicado o imposible para un humano, en los cuales se tenga que entrar o penetrar lugares diminutos con poco espacio como para que entren nuestra mano, por ejemplo como en un centro nuclear para limpiar reactores o lugares pequeños que necesiten limpieza pero sean sumamente peligrosos o radiactivos y que tengan que involucrar la salud de la persona, también está pensado para ser usado en el espacio para usarlo como una herramienta múltiple que ayudaría bastante a los astronautas al explorar diversas partes del espacio o para algunas reparaciones de la nave espacial.

Fig. 3 Diseño de la serpiente robótica

84


Revista Conceptual UCB simulador del brazo serpiente con el cual usted puede ver el funcionamiento y el manejo de esta serpiente robótica así poder ver lo sencillo que es y la calidad de precisión con la que trabaja este robot. REFERENCIAS [1]

[2]

Fig. 4 Serpiente robótica vista de cerca(los codos)

III.

CONCLUSIONES

El robot serpiente es un gran proyecto que tiene múltiples usos y gracias a esto será un gran avance en diversos ámbitos laborales en especial para la medicina que será su aplicación mas importante, será una herramienta usada para combatir el cáncer en conjunto con otras tecnologías que ya usadas en laboratorio, su fácil uso hace que este robot sea requerido por todos y muy necesitado en todo tipo de trabajos especialmente por su gran versatilidad. Aunque no esté comprobado fuera de laboratorios los de la empresa de OC Robotics están muy seguros de que este proyecto será un gran éxito y que revolucionara al mundo en especial de la medicina. Con este proyecto nos damos cuenta que la tecnología y la ciencia no tienen límites y día tras día con los millones de científicos e ingenieros estas tecnologías avanzan demasiado rápido con cosas muy novedosas y lo más importante que son útiles para la sociedad RECONOCIMIENTOS La empresa de OC Robotics sigue trabajando y desarrollando nuevos y mejores proyectos como esta serpiente robótica lo cual hace a esta empresa una de las mejores en el mundo por la importancia que esta tiene por los avances que genera y generara a la humanidad. Dando distintas soluciones para todo ámbito laboral, que hacen el trabajo mucho mas sencillo, esta empresa tecnológica de OC Robotics desarrolla este proyecto junto a AREVA y SALVAREM. Otras empresas con las cuales la tecnología avanza constantemente según las necesidades que cada día requiere el hombre. Para más información sobre la serpiente robótica y novedades del proyecto consulte la página de OC Robotics [2] también puede entrar en la pestaña de

85

La pagina NeoTeo Consultada el 8 de octubre de 2012, http://www.neoteo.com/serpiente-roboticaque-extirpa-tumores publicado el 26 de septiembre del 2012. Pagina de OC ROBOTICs consultada el 15 de octubre de 2012, http://www.ocrobotics.com


Revista Conceptual UCB

Realidad Aumentada Manuel Alejandro Rodríguez Osuna Ingeniería de Sistemas Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre , Obrajes La Paz - Bolivia Resumen— La realidad aumentada (RA) es el término que se usa para definir una visión directa o indirecta de un entorno físico del mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta en tiempo real. Consiste en un conjunto de dispositivos que añaden información virtual a la información física ya existente, es decir, añadir una parte sintética virtual a lo real.

En esto se especializa Wikitude, una aplicación para el móvil con la que los usuarios pueden explorar lo que les rodea y enfocar lugares de interés para poder ver en la pantalla la información de ese sitio en Wikipedia, los consejos y opiniones de Foursquare y mucho más. La realidad aumentada ha dado lugar a aplicaciones móviles muy curiosas, por ejemplo, Car Finder. Esta aplicación es muy útil para los conductores más despistados ya que registra el lugar exacto en el que aparcas el coche y te ayuda a encontrarlo si no lo recuerda.

Esta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprime los datos informáticos al mundo real.

I. INTRODUCCIÓN La realidad aumentada es una tecnología que consiste en sobreponer imágenes virtuales sobre la realidad que vemos a través de una pantalla, de esta manera, y gracias a que sus aplicaciones son infinitas, difumina la frontera entre el mundo real y el mundo virtual abriendo una nueva dimensión en la manera en la que interactuamos con lo que nos rodea.

Cualquier explicación que realicemos en clase se puede enriquecer con numerosos recursos: vídeos, imágenes, documentación, etc. Actualmente, cuando realizamos una visita a un museo, preparamos la salida, buscamos información, seleccionamos una serie de actividades, relacionamos todo con los contenidos, creamos una guía, etc. Posteriormente, en el museo, con la ayuda de un guía, una audio guía, el cuaderno de trabajo etc. recibimos información, realizamos actividades, etc. La realidad aumentada nos va a permitir disponer de toda la información en un móvil con cámara, mostramos el cuadro, la escultura, el edificio, etc. y obtendremos información en pantalla o mediante audio en tiempo real, además, podremos descargar esa información en nuestro dispositivo para poderla utilizar o, si lo deseamos, ser capaces, nosotros mismos, de integrar todo el contenido.

El termino realidad aumentada fue acuñado por Tom Caudell en los años 90 cuando desarrollo un visor para guiar a los trabajadores en las instalaciones eléctricas de los aviones. Durante años, la realidad aumentada ha sido utilizada en el mundo de los videojuegos y recientemente se encuentra en pleno auge debido a las posibilidades que ofrece esta tecnología en los dispositivos móviles. La realidad aumentada en móviles utiliza como escenario lo que nos rodea y gracias a los gps incorporados puede determinar nuestra posición exacta y mostrarnos con exactitud todo lo que nos rodea para mostrarnos información útil en el momento y en el lugar requerido.

En este contexto es donde realmente podemos sacar más partido a este tipo de presentación de la información, integrándola con contextos reales. Paseamos, nos movemos y simplemente, presentamos la imagen al móvil y obtenemos la información.

Esta tecnología viene asistida por el acelerometro o sensor de movimiento, los Smartphones pueden saber hacia donde apunta el teléfono y así determinan que imagen mostrar en el momento adecuado.

Una de las aplicaciones más conocidas para dispositivos móviles es Layar. Este software nos permite agregar un gran número de capas de realidad aumentada a nuestro móvil, de manera que, en función de nuestras necesidades, podemos recibir un tipo de información u otra.

La realidad aumentada puede aplicarse a distintos campos. Uno de sus principales usos consiste en identificar y localizar todo aquello que nos rodea: monumentos, tiendas, restaurantes, hoteles, etc. Por ejemplo, si uno hace turismo y mira a su alrededor a través de la pantalla de un smartphone podra ver el nombre de los monumentos que lo rodean e información sobre estos.

I. REALIDAD AUMENTADA Los dispositivos de Realidad aumentada normalmente constan de un "headset" y un sistema de display para mostrar al usuario la información

86


Revista Conceptual UCB virtual que se añade a la real. El "headset" lleva incorporado sistemas de GPS, necesarios para poder localizar con precisión la situación del usuario.

B) Tecnicas de visualización Una pantalla instalada en la cabeza (HMD HeadMounted Display) muestra tanto las imágenes de los lugares del mundo físico y social donde nos encontremos, como objetos virtuales sobre la vista actual del usuario. Los HMD son dispositivos ópticos que permiten al usuario poder ver el mundo físico a través de la lente y superponer información gráfica que se refleja en los ojos del usuario. El HMD debe ser rastreado con un sensor. Este seguimiento permite al sistema informático añadir la información virtual al mundo físico. La principal ventaja de la HMD de Realidad Aumentada es la integración de la información virtual dentro del mundo físico para el usuario. La información gráfica esta condicionada a la vista de los usuarios.

Los dos principales sistemas de dislpays empleados son la pantalla óptica transparente (Optical Seethrough Display) y la pantalla de mezcla de imágenes (Video-mixed Display). Tanto uno como el otro usan imágenes virtuales que muestran al usuario mezclas de la realidad o bien proyectadas directamente en la pantalla. Los Sistemas de realidad aumentada modernos utilizan una o más de las siguientes tecnologías: cámaras digitales, sensores ópticos, acelerómetros, GPS, giroscopios, brújulas de estado sólido, RFID, etc. El hardware de procesamiento de sonido podría ser incluido en los sistemas de realidad aumentada. Los sistemas de cámaras basadas en realidad aumentada requieren de una unidad CPU potente y gran cantidad de memoria RAM para procesar imágenes de dichas cámaras. La combinación de todos estos elementos se da a menudo en los smartphones modernos, que los convierten en una posible plataforma de realidad aumentada.

C) Display de mano El dispositivo manual con realidad aumentada cuenta con un dispositivo informático que incorpora una pantalla pequeña que cabe en la mano de un usuario. Todas las soluciones utilizadas hasta la fecha por los diferentes dispositivos de mano han empleado técnicas de superposición sobre el video con la información gráfica. Inicialmente los dispositivos de mano empleaban sensores de seguimiento tales como brújulas digitales y GPS que añadían marcadores al video. Más tarde el uso de sistemas, como ARToolKit, nos permitiría añadir información digital a las secuencias de video en tiempo real. Hoy en día los sistemas de visión como SLAM o PTAM son empleados para el seguimiento. El display de mano promete ser el primer éxito comercial de las tecnologías de Realidad Aumentada. Sus dos principales ventajas son el carácter portátil de los dispositivos de mano y la posibilidad de ser aplicada en los teléfonos con cámara.

A) Software Para fusiones coherentes de imágenes del mundo real, obtenidas con cámara, e imágenes virtuales en 3D, las imágenes virtuales deben atribuirse a lugares del mundo real. Ese mundo real debe ser situado, a partir de imágenes de la cámara, en un sistema de coordenadas. Dicho proceso se denomina registro de imágenes. Este proceso usa diferentes métodos de visión por ordenador, en su mayoría relacionados con el seguimiento de vídeo. Muchos métodos de visión por ordenador de realidad aumentada se heredan de forma similar de los métodos de odometría visual. Por lo general los métodos constan de dos partes. En la primera etapa se puede utilizar la detección de esquinas, la detección de Blob, la detección de bordes, de umbral y los métodos de procesado de imágenes. En la segunda etapa el sistema de coordenadas del mundo real es restaurado a partir de los datos obtenidos en la primera etapa. Algunos métodos asumen los objetos conocidos con la geometría 3D (o marcadores fiduciarios) presentes en la escena y hacen uso de esos datos. En algunos de esos casos, toda la estructura de la escena 3D debe ser calculada de antemano. Si no hay ningún supuesto acerca de la geometría 3D se estructura a partir de los métodos de movimiento. Los métodos utilizados en la segunda etapa incluyen geometría proyectiva (epipolar), paquetes de ajuste, la representación de la rotación con el mapa exponencial, filtro de Kalman y filtros de partículas.

D) Display espacial La Realidad Aumentada espacial (SAR) hace uso de proyectores digitales para mostrar información gráfica sobre los objetos físicos. La diferencia clave es que la pantalla está separada de los usuarios del sistema. Debido a que el display no está asociado a cada usuario, permite a los grupos de usuarios, utilizarlo a la vez y coordinar el trabajo entre ellos. SAR tiene varias ventajas sobre el tradicional display colocado en la cabeza y sobre dispositivos de mano. El usuario no está obligado a llevar el equipo encima ni a someterse al desgaste de la pantalla sobre los ojos. Esto hace del display espacial un buen candidato para el trabajo colaborativo, ya que los usuarios pueden verse las caras. El display espacial no está limitado por la resolución de la pantalla, que sí que afecta a los dispositivos anteriores. Un sistema de proyección permite incorporar más proyectores

87


Revista Conceptual UCB para ampliar el área de visualización. Los dispositivos portátiles tienen una pequeña ventana al mundo para representar la información virtual, en cambio en un sistema SAR puedes mostrar un mayor número de superficies virtuales a la vez en un entorno interior. Es una herramienta útil para el diseño, ya que permite visualizar una realidad que es tangible de forma pasiva. II. CONCLUSIONES Este trabajo me llevo a la conclusión de que este tipo de tecnología nos abre la puerta al futuro, ya que nos brinda una infinidad de posibilidades de ayuda tanto en temas como el entretenimiento, en la mejora de la efectividad en las tareas diarias y especialmente en el campo de la enseñanza.

RECONOCIMIENTOS Solo puedo agradecer la Lic. Elizabeth Pommier Gallo por darme la oportunidad de aprender sobre este grandioso tema, asi despertando una sed de conocimiento hacia el maravilloso mundo virtual. REFERENCIAS [1] [2] [3]

[4]

http://blog.viadeo.com/es/2011/11/17/realidadaumentada-ejemplos-que-e/ http://www.realidadaumentada.info/ http://lukor.com/blogs/revistadetecnologia/2012/10/18/ metaio-lanzara-nueva-plataforma-de-produccion-deaplicaciones-de-realidadaumentada/?utm_source=rss&utm_medium=rss&utm_ campaign=metaio-lanzara-nueva-plataforma-deproduccion-de-aplicaciones-de-realidad-aumentada http://recursostic.educacion.es/observatorio/web/cajonde-sastre/38-cajon-de-sastre/922-realidad-aumentada

http://www.ticbolivia.net/index.php?option= com_content&view=article&id=2223:larealidad-aumentada-como-herramienta-deapoyo-a-la-educacion

88


Revista Conceptual UCB

Microchips Implantados Heimer Arias Endara Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre- Obrajes 1

hariase@ucb.edu.bo.

La Paz – Bolivia Resumen— Cada vez es un riesgo mayor tener una tarjeta de crédito, debito documentos importantes en la billetera, seria mucho mas simple que todos los datos personales (tipo de sangre, dinero en cuentas, historial medico, numero de identidad ,etc) estuvieran comprimidos en un solo artefacto o historial, como una tarjeta o mejor aun algún artefacto el cual no pueda perderse ni extraviarse pues porque estará dentro de nosotros, un microchip implantado. Palabras clave — Microchips, implantados.

de presión e incluso microchips con un uso de rastreo (utilizado en el área de zootecnia). Hace poco mirando la televisión escuche que para hacer seguimiento a animales en peligro de extinción y no perderles el rastro se implantaban una especie de manilla rastreadora con detector de temperatura y de presión lo cual facilitaba detectar la posición y condiciones en las que el individuo se encontraba, no se puede evitar pensar ¿Qué pasaría si utilizamos esta tecnología en seres humanos?, seria un notable avance en la lucha contra secuestradores, trafico de personas, trafico de órganos y demás, sin embargo lo que mas llama mi atención es el uso y aplicaciones en el campo de la salud y medicina, ya existen reguladores de presión sanguínea, marcapasos y demás implantes médicos que ayudan a controlar la salud de las personas, seria fantástico que con solo un artefacto implantado al nacer se simplificaría el control de salud.

I. INTRODUCCIÓN Este Este proyecto seria muy útil y prácticamente simplificaría la vida en el campo medico principalmente puesto que en este dispositivo se encontrarían todo el historial de la persona, así seria mucho mas sencillo un diagnostico en caso de un accidente o de que la persona viviera sola y no tuviese referencia alguna. Antes de comenzar este artículo cabe mencionar que no se tocara en lo mas mínimo el punto de vista religioso puesto que este tema abarco un serio debate debido a su mención como profecía bíblica.

II. COMPACTO CHIP Todo en un compacto microchip indetectable a la vista humana, por ejemplo, imagínese una persona de tercera edad con problemas de salud, que tiene la mala suerte de vivir sola, en caso de sufrir un accidente casero o un fallo en su organismo, el sistema interno del chip integrado a su cuerpo mandaría una señal a un centro hospitalario apenas detecte una caída brusca de presión o un fallo cualquiera, obviamente simplificaría la detección de la enfermedad y o el problema, logrando una mayor efectividad en médicos. Puede suceder lo mismo en el caso de un bebe, se necesitaría menos personal de enfermería, incluso económicamente se necesitarían menos ingresos o gastos en salud, identificación, el poderío e influencia de los bancos quedaría nula y el control de antecedentes penales serian de por vida. El artefacto técnicamente tendría que constar desde mi punto de vista con las siguientes fuentes de datos: -Un controlador de presión. -Medidor de temperatura. -Control de signos vitales en general -Numero de cuenta (imaginaria) -Documento y datos de identidad -Historial medico -Antecedentes penales

Fig 1 Un microchip utilizado para rastrear animales, usado por zoólogos en el campo, se observa el tamaño diminuto del artefacto. Con el avance de la tecnología hoy se puede ver el gran uso que se hace de esta para el bien de la humanidad y para simplificar esfuerzos u optimizar el desarrollo, un claro ejemplo es la utilización de marcadores de signos vitales, maquinas reguladoras

89


Revista Conceptual UCB -Datos generales (numero de hijos, estado civil, domicilio, etc) De seguro uno piensa que todas estos datos no pueden ingresar en un artefacto muy compacto, error, existen medidores de presión y de temperatura diminutos (como en los celulares), la nanotecnología puede ser un poderoso aliado al igual que la microbiología ocuparía un importante lugar, incluso no estaría mal soñar un poco fuera de los limites y pensar en que se pueda integrar un artefacto que regule toxinas o aplique medicamentos o químicos automáticamente al organismo bueno ese ya es otro tema pero puede estar bastante relacionado. Ya existen proyectos e incluso prototipos de este microchip en varios lugares del mundo (verificar en internet) incluso escuche rumores de que en ciertos países ya se analiza un proyecto de ley para el implante y uso obligatorio de este artefacto tecnológico, empleando conocimiento de telemedicina y programación.

FIG 2 Fuente: internet. Articulo relacionado con las aplicaciones referentes al tema III. DESVENTAJAS cabe mencionar que siempre existen desventajas u oposiciones en cuanto a cualquier tipo de avance revolucionario, sin embargo la humilde opinión de este escritor es que la consolidación de dicho aparato tecnológico seria un gran apoyo en el campo de la medicina y un gran avance y logro de la ingeniería electrónica, biomédica y programación. Estamos en un mundo que avanza a un paso demasiado acelerado y cada vez se tienen mas problemas de salud, de población y bienestar en general, un avance de este tipo ayudaría a tener un mejor orden y control sobre la situación de las personas, en el campo de la salud, educación, trabajo y bienestar. Espero que esto se lleve a cabo con prontitud y su aplicación sea beneficiosa para la humanidad.

El único problema radicaría no tanto en el algoritmo para ordenar el sistema interno, sino la posible aparición de una falla o virus que afecte al sistema lo cual produzca un bloqueo o ―reset‖ de los datos, la computadora base que se encargaría de guardar los datos tendría que estar muy bien protegida y tener varios respaldos en caso de una falla. Desde el punto de vista físico, el chip tendría que estar compuesto por materiales inofensivos e indestructibles, que no reaccionen con el ambiente (agua, presión externa, alta temperatura ,etc).

IV. BIOMEDICINA La biomedicina es un término que engloba el conocimiento y la investigación que es común a los campos de la medicina y la|odontología y a las biociencias como bioquímica, Inmunología, química, biología, histología, genética, embriología, anatomía,fisiología, patología, ingeniería biomédica, zoología, botánica y microbiología. La biomedicina no se relaciona con la práctica de la medicina, sino aplica todos los principios de las ciencias naturales en la práctica clínica mediante el estudio e investigación de los procesos fisiopatologicos considerando desde las interacciones moleculares hasta el funcionamiento dinámico del organismo a través de las metodologías aplicadas en la biología, química y física. De esta manera permite la creación de nuevos fármacos, perfecciona el diagnostico precoz de enfermedades y el tratamiento de éstas.1

A lo largo de este informe se me ocurren nuevas formas de aplicación de este artefacto, estoy seguro de que al lector de este articulo también se le pueden ocurrir muchas otras formas de empleo buenas y malas, sin embargo cada nuevo invento tienes sus pros y contras. Si tiene la curiosidad de investigar un poco mas sobre el tema se encontrara con noticias como:

V.

MICROCHIP

Circuito integrado como circuito integrado o componente electrónico. Nanotecnología: La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel deátomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Se tiene una idea de lo pequeño que puede ser un nanobot sabiendo que un nanobot de unos 50 nm tiene el tamaño de 5 capas de moléculas o átomos -depende de qué esté hecho el nanobot-.

90


Revista Conceptual UCB [19] Evite citar una dirección electrónica en dos líneas y cuide que el enlace (URL) no se corte después de un guión o antes de un punto. No inserte guiones en el enlace cuando esto ocurra.

Nano es un prefijo griego que indica una medida (109 = 0,000 000 001), no un objeto; de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja. VI. TELEMEDICINA Se define como telemedicina la prestación de servicios de medicina a distancia. Para su implementación se emplean usualmente tecnologías de la información y las comunicaciones. La palabra procede del Griego τελε (tele) que significa 'distancia' y medicina. La telemedicina puede ser tan simple como dos profesionales de la salud discutiendo un caso por teléfono hasta la utilización de avanzada tecnología en comunicaciones e informática para realizar consultas, diagnósticos y hasta cirugías a distancia y en tiempo real. Existe últimamente una revisión conceptual del término "telemedicina". Se entiende que el término "eSalud" es mucho más apropiado, en tanto que abarca un campo de actuación más amplio. CONCLUSIÓN La microbiología es la rama de la biología encargada del estudio de los microorganismos, seres vivos pequeños (del griego «μικρος» mikros "pequeño", «βιος» bios, "vida" y «-λογία»-logía, tratado, estudio, ciencia), también conocidos como microbios. Es la ciencia de labiología dedicada a estudiar los organismos que son sólo visibles a través del microscopio: organismos procariotas y eucariotas simples. Son considerados microbios todos los seres vivos microscópicos, estos pueden estar constituidos por una sola célula (unicelulares), así como pequeños agregados celulares formados por células equivalentes (sin diferenciación celular); estos pueden ser eucariotas (células con núcleo) tales como hongos y protistas,procariotas (células sin núcleo definido) como las bacterias]. Sin embargo la microbiología tradicional se ha ocupado especialmente de los microorganismos patógenos entre bacterias, virus y hongos, dejando a otros microorganismos en manos de la parasitología y otras categorías de la biología. REFERENCIAS [1]

[1]

Korda, L. (2001, Julio). La fabricación de un traductor. Translation Journal, 5(3). Consultada el 21 de agosto de 2001, http://accurapid.com/journal/17prof.htm Utilice la fecha completa de publicación que figura en el artículo. [17] Cerciórese de que no tenga paginación. [18] Siempre que sea posible, procure que la dirección electrónica que cite (URL) remita directamente al artículo.

91


Revista Conceptual UCB

Cyborg, un paso hacia el futuro Mariela Nieves Tintaya Yatias Ingeniera de sistemas Universidad Católica Boliviana “San Pablo” Av.14 de septiembre Nº 4807 Obrajes m_tintaya_y@estudiantes.ucb.edu.bo

La Paz – Bolivia Resumen— Lox cyborg, a medida que pasa el tiempo van aumentando y con ella las posibilidades de un nuevo mundo que nosotros mismos creamos, además de aquello la tecnología se halla involucrada en esto, como una evolución que posiblemente salve al hombre en un futuro lejano. Palabras clave — Cyborg, tecnología, evolución, futuro, hombre.

Un Cyborg es una persona la cual a mezclado su parte orgánica con estructuras cibernéticas, las cuales pueden ser físicas, mentales y cognitas. Dichas personas en su mayoría son aquellas que por azares de la vida perdieron alguna parte fundamental de su cuerpo o de sus mentes, es por esto que el hecho de recuperar algo perdido en un trauma de por vida, es una esperanza para todas las personas de que aun pueden tener una ―vida normal‖. Ademas, la estructura cibernética que se le pone a una persona es capaz de alcanzar limites que no podemos imaginarnos, es decir, que dicha estructura cibernética puede tener o ser como una arma de guerra. Con todas estas cosas se puede ver que el hombre aun quiere vivir como inquilino de la Tierra y la única forma es adaptandose a los cambios que existen actualmente, y si esto significa perder la verdadera esencia del hombre, entonces asi se lo hara.

I. INTRODUCCIÓN La tecnología va evolucionando día a día, y con ella muchas puertas hacia un futuro mejor, donde todos podamos tener una mejor vida. No se puede decir que sin tecnología somos mejores ante nada y ante nadie, porque para aquello tendríamos que demostrarlo, cosa que sería demasiado difícil pero no imposible. La tecnología se de entro tanto en nuestras vidas que seria casi imposible dejarlos, seria como estar en un bosque tratando de sobrevivir, un ejemplo claro solo en nuestras casas es de que tenemos licuadoras, lavadoras, planchas, etc, en otras palabras nos hemos vuelto dependientes de ellas.

Los cyborg también tienen sus subgrupos, los cuales serán mencionados posteriormente.

Sin embargo, en los distintos ámbitos laborales también la tecnología se puso de frente, como por ejemplo en la medicina, el ámbito donde mas se dentro la tecnología, traendo distintas posibilidades de sobrevivir, como es el caso de personas con distintas discapacidades posibles, para ellos están los brazos, piernas, ojos, corazones, etc, ortopédicos.

III. SUBGRUPOS Los half-meat o semi-cyborgs.- Estos cyborgs incorporan uno o varios elementos cibernéticos en su cuerpo pero aún conservan gran parte de su estructura orgánica original, al menos en un 50%, y dicha estructura es reconocible a simple vista. Incluso algunos tratan de disimular sus partes biónicas para seguir teniedo apariencia humana por razones estéticas y por sobre que dira la sociedad en algunos casos.

El mundo va cambiando y con ella, las personas, sin embargo la pregunta que nos hacemos cada día es: ¿aun existen humanos?, en todas las partes del mundo podemos ver aunque sea una persona o más, que ya son cyborg, se puede decir que el hombre va perdiendo su existencia como tal en este mundo. La población de los cyborgs van creciendo en un número impresionante, y se diría que pronto ellos serán los nuevos reyes del mundo y ya no el hombre como tal. Una nueva especie, es aquello que ahora se avecina, el ser humano desea evolucionar junto con el tiempo para que al final el ―hombre‖ no desaparezca, sin embargo para ese entonces habremos desaparecido y perdido el verdadero significado de os que es una persona. II.

Los Iron-meat o cyborgs integrales.- Este tipo de cyborgs está compuesto en su mayor parte por elementos biónicos. Los más radicales han reducido su parte humana a la mínima expresión. Algunos, sobretodo entre las clases altas, intentan que sus cuerpos artificiales sigan teniendo apariencia humana, pero este tipo de estructuras biónicas son costosísimas, especialmente los elementos que han de sustituir a los músculos responsables de las expresiones faciales y la piel de imitación. A otros sin embargo no les importa en absoluto perder para siempre su apariencia humana o incluso

¿QUÉ ES UN CYBORG?

92


Revista Conceptual UCB cubrirse con pesadas y antiestéticas armaduras si a cambio obtienen más poder y habilidades.

órganos de su cuerpo con injertos y estructuras orgánicas creadas sintéticamente en laboratorio. Aunque en algunos sentidos podríamos decir que son más avanzados que los cyborgs , lo cierto es que los injertos orgánicos no son tan versátiles y eficientes como sus homólogos basados en la electrónica.

Fig. 10 Ejemplo de un cyborg half-meat o semicyborgs, a la cual se le pueden ver las partes biónicas y las estructuras organicas de su cuerpo que aun sigue conservando Muchos de estos cyborgs extremos son inmensamente poderosos y eso hace que sean temidos y respetados por el resto de la población. La mayoría de los señores de la guerra se rodean de numerosas unidades de este tipo para garantizar su seguridad. Actualmente, no se conoce a nadie que pertenesca a este tipo de cybor, sin embargo viendo como va nuestro mundo es posible que el hombre vaya a llegar hasta este punto por conseguir el poder, sobre todo esto pasara en la guerras que vayan a existir.

Fig. 3 Ejemplo de un cyborg bioborg, posiblemente estemos viendo el futuro del hombre actual. Poliborgs.-Los poliborgs son entidades cyborg formadas por más de un individuo humano. Varias estructuras orgánicas se integran bajo una misma armadura cibernética. El ser resultante puede aprovechar el potencial de varias consciencias trabajando al unísono, lo que convierte al poliborg en una identidad extremadamente poderosa pero a la vez extremadamente inestable ya que si una de las consciencias entra en conflicto con el resto del equipo el poliborg puede llegar a colapsar. La apariencia de los poliborgs no suele recordar a una forma humana, más bien parecen crustaceos gigantes o vehiculos todoterreno.

Fig. 2 Ejemplo de un cyborg Iron-meat o cyborgs integrales, que esta compuesto en su mayor parte por elementos bionicos. Bioborgs.- A diferencia de los vistos hasta ahora, los bioborgs son cyborgs que, en lugar de utilizar dispositivos biónicos, sustituyen o amplifican

93


Revista Conceptual UCB mientras que los "outsiders" viven (o más bien malviven) al margen del sistema.

Fig. 4 Ejemplo de un cyborg poliborgs.

Subhumanos o infrahumanos.- Los subhumanos son diseñados genéticamente sobre una base de ADN humano pero variando su estructura para acabar construyendo seres dóciles, de inteligencia limitada y preparados físicamente para realizar los trabajos más penosos.

El colectivo de outsiders está compuesto por parias, fugitivos de la ley y especialmente por mutantes.

Este nuevo tipo de esclavos son incubados en laboratorios y nacen en factorías de producción en masa. No tienen padres. Hay multitud de ―modelos‖ distintos dependiendo de la tarea para la que han sido diseñados; obreros de la construcción, agentes de servicio doméstico, esclavos sexuales, cobayas de laboratorio, astronautas, soldados, trabajadores de factoría, trabajadores del campo, agentes de seguridad etc.

Fig. 3 Ejemplo de un cyborg mutantes y outsiders.

Los mutantes son seres en la frontera de lo humano. Su procedencia es diversa. Los hay que son o descienden de fallidos experimentos de ingeniería genética que lograron escapar de los diferentes laboratorios. Otros fueron originariamente seres humanos normales que abusaron de las potentes drogas que manipulan la estructura del ADN y acabaron sufriendo terribles mutaciones. Y muchos, en definitiva, son el resultado del cruce de diferentes seres de desecho. Por lo general viven marginados y temidos por la población oficial. Las gran parte de los mutantes son criaturas miserables aunque hay algunos que son muy poderosos e incluso unos pocos han llegado a obtener el status de ciudadano muchas veces camuflados bajo sus armaduras cyborg que impide diferenciarlos de ciudadanos normales.

Normalmente los individuos pertenecientes a un mismo modelo son clónicos entre sí. La práctica totalidad es estéril y salvo algunos pocos románticos nadie los considera verdaderos seres humanos, son algo así como seres a medio camino entre los animales y las máquinas. De hecho no poseen ningún derecho legal ni son considerados ciudadanos. Cuando acaban su función útil la mayoría muere siguiendo su programa genético, aunque algunos afortunados son adoptados como mascotas por sus dueños que se encariñan y conviven con ellos hasta el fin de sus días. La capacidad de trabajo de estos subhumanos ha supuesto un gran aporte a la economía mundial y un tremendo ahorro de energía. De hechos los subhumanos son considerados por algunos ―expertos‖ como una fuente de energía renovable. Corren rumores de que algún subhumano consiguió el status de ciudadano pero son leyendas urbanas, lo cierto es que prácticamente el 100% son esclavos.

IV. CONCLUSIONES Como pudimos ver anteriormente, existen subgrupos de cyborgs los cuales tienen distintas cualidades. En este planeta podemos ver sobre todo cyborgs de la primera clase que son los half-meat o semi-cyborgs, en aquí podemos mencionar Neil Harbison que fue el primer cyborg reconocido en Inglaterra, pero al igual que el existen muchos otros mas. Si en caso existiera algúna persona con características de los cyborgs que vienen después, dudo mucho que los humanos los usen para bien sino para la guerra. Laguerra y el dominio del hombre sobre la Tierra es lo que mas se van a tener en el futuro aun se siguen haciendo tales cosas. No somos dioses, ni diosas para estar crendo y alterando aquello que Dios creo y con fines buenos, y es asi como debemos seguir. Estas cosas traen beneficios a personas con discapacidad, brindando asi una nueva vida para dichas personas, sin embargo siempre y cuando tenga limites.

Por supuestos muchos de estos subhumanos son integrados con organos y estructuras biónicas que les ayudan a realizar mejor su trabajo, así que podríamos llamarlos ―sub-cyborgs‖ o ―infracyborgs‖. Cómo se puede imaginar, todas las trabas éticas que hay hoy día frente a la manipulación genética se han evaporado completamente en esta epoca. Se diseñan todo tipo de seres sintéticos y se considera a la ingeniería genética una noble disciplina con el mismo prestigio que la nanotecnología o la fusión nuclear. Mutantes y outsiders.- Los ciudadanos con chip de identificación y reconocidos como ciudadanos depositarios de derechos son los llamados "insiders"

REFERENCIAS

94


Revista Conceptual UCB

REFERENCIAS [1]ttps://docs.google.com/document/d/1_HjrZIokUSyXJGmuqN9s jXN9oK4ycMIO9WqpzmM6l7A/edit?pli=1 [2]http://www.jgcinema.com/single.php?sl=Cyborg-

sexo-g%E9nero-monstruosidad-%E9tica-pop [3] http://identidadgeek.com/cyborgs-los-nuevoshumanos/2011/07

/

95


Revista Conceptual UCB

EXOESQUELETOS Olivera Paravicini Alvaro Alejandro #

Ing. Mecatrónica Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre No.4807 esq. Calle 2 (Obrajes) 1

a_olivera_p@estudiantes.ucb.edu.bo La Paz - Bolivia

Resumen— En este artículo se hablara sobre los exoesqueletos mecánicos, su definición, funcionamiento y sus distintas aplicaciones en los ámbitos de la medicina, el uso militar y el uso civil en general.

HAL es un mecanismo cibernético que incorpora elementos tecnológicos y mecánicos de la biónica, la electrónica y la robótica. Emplea un sistema "biocibernético" (por eso es híbrido) ya que incorpora sensores bioeléctricos que conectan la prótesis con el cerebro y los músculos, lo que permite que las señales lleguen al motor del sistema y que se mueva sólo con unas fracciones de segundo de retraso. Este sistema capta las señales nerviosas que el cerebro envía a las extremidades, de forma que es capaz de copiar los movimientos que hacen los brazos y las piernas en tiempo real. Tú piensas lo que vas a hacer y HAL reconoce tu pensamiento, enviando órdenes al exoesqueleto para que camine, flexione, levante, baje o se mueva como tú harías.‖ [1].

Palabras clave — Exoesqueleto, Mecánico, Músculos, Biónicos, Artificiales.

I. INTRODUCCIÓN Un Exoesqueleto mecánico es una máquina que el usuario ―viste‖ alrededor suyo. Los exoesqueletos pueden funcionar de manera manual, pero también de manera automática al recibir señales nerviosas de los músculos del portador. Los exoesqueletos mecánicos tienen muchas aplicaciones prácticas. En el ámbito de la medicina pueden ayudar a la gente con discapacidad en las piernas o brazos. Para el uso civil se puede utilizar para levantar cargas muy pesadas para el hombre promedio. Y en el uso militar los exoesqueletos pueden ayudar a desempeñar mejor las tareas que involucren fuerza o resistencia, también pueden servir para proteger a los militares, como una armadura.

Fig. 2 Exoesqueleto HAL (Prótesis Asistida Híbrida, por sus siglas en inglés).

Fig. 1 Ejemplo Exoesqueleto mecánico.

II. FUNCIONAMIENTO El mejor ejemplo de cómo funciona un Exoesqueleto mecánico es el Exoesqueleto HAL (Prótesis Asistida Híbrida, por sus siglas en inglés), desarrollado por el inventor, Yoshiyuki Sankay, fundador de la empresa japonesa Cyberdyne. ―El

III. APLICACIONES Los Exoesqueletos mecánicos tienen diversas aplicaciones prácticas para el hombre. X. Uso Médico En el campo de la medicina el uso de los Exoesqueletos está orientado a ayudar a los pacientes

96


Revista Conceptual UCB que sufren dificultad motriz en las piernas brazos, ya sea por causa de discapacidad o por la edad.

piernas del operario. El peso máximo para el equipo es de 220 libras, algo así como cien kilogramos, y con un ritmo relativamente normal (unos cuatro kilómetros por hora), una persona podrá obtener del Hercule un rango máximo que supera los veinte kilómetros. Otro punto a favor del Hercule es que prácticamente no demanda entrenamiento del usuario, y cualquiera con un mínimo de práctica podrá dominarlo rápidamente.‖ [4].

El ya antes mencionado Exoesqueleto HAL, fue diseñado con propósitos médicos: ―El inventor, Yoshiyuki Sankay, fundador de la empresa japonesa Cyberdyne, llevaba algún tiempo maquinando con el diseño de un exoesqueleto cibernético que permitiría a los ancianos o personas discapacitadas o enfermos con limitación de sus movimientos, caminar, desplazarse, levantar objetos y hacer casi cualquier cosa que una persona normal.‖ [2]. Otro diseño de Exoesqueleto es el desarrollado por Ekso Bionics: ―Este exoesqueleto deriva de un diseño militar, cuyos conceptos originales nacieron en la Universidad de California Berkeley. El objetivo del exoesqueleto es poner de pie a una persona, y permitirle caminar por el mayor tiempo posible. El desarrollo de Ekso cuenta con cuatro motores, quince sensores y dos baterías de larga duración, junto a un ordenador que se lleva en la espalda.‖ [3].

Fig.4 Exoesqueleto Hercule (Diseño de RB3D).

Uno de los problemas que deben afrontar los ingenieros es el desarrollo de Exoesqueletos con una batería de larga duración, esto se debe a que en el campo de batalla, lo soldados requieren de un equipo confiable que sea capaz de durar lo suficiente para desempeñar extensas tareas y que sean útiles en una situación de emergencia.

Fig.3 Diseño de Exoesqueleto de Ekso Bionics.

Y. Uso militar Dados los avances tecnológicos en los últimos años, el ámbito militar se ha vuelto más sofisticado. Ya se puede observar el uso de robots de reconocimiento de terreno en el campo de combate, entre otros. Los Exoesqueletos son una gran herramienta para el uso militar, dado a que le provee al portador la capacidad de levantar pesos con mayor facilidad y durante más tiempo, y además, la capacidad de recorrer mayores distancias sin cansarse. Un ejemplo de diseño reciente es el Hercule: ―Un desarrollo de la empresa francesa RB3D, la “Direction générale de l’armement”, CES LIST y ESME Sudria. A simple vista se podría considerar al Hercule como “medio” exoesqueleto, ya que la asistencia robótica sólo está disponible para las

Fig.5 Prueba militar de Exoesqueleto.

97


Revista Conceptual UCB Z. Uso civil Para el uso civil, los Exoesqueletos mecánicos o los músculos neumáticos pueden aplicarse en el desarrollo de trabajos pesados que impliquen el levantamiento de grandes pesos.

Con respecto al uso civil, el exoesqueleto permitirá a la gente desarrollar tareas más pesadas, reduciendo las lesiones en las articulaciones, músculos y la columnas vertebral al mínimo.

Mucha gente sufre de lesiones en los músculos, articulaciones y en la columna vertebral al esforzarse de más intentando levantar grandes pesos; los exoesqueletos le brindarían a la gente fuerza adicional y soporte en la columna, evitando así las lesiones.

El mayor problema de los exoesqueletos es el elevado costo de producción. Si bien algunos gobiernos y empresas privadas pueden financiar la investigación, la producción en masa todavía necesita tiempo. Por lo tanto las aplicaciones se limitan al uso médico en terapia de pacientes con dispacidad en algunos centros especializados.

Hace poco se presentó un diseño de músculos neumáticos por la Universidad de la Ciencia de Tokio:

REFERENCIAS [1]

―Los músculos neumáticos están instalados en la parte trasera, y una vez que reciben aire comprimido se contraen, entregando soporte adicional a la espalda. El diseño actual habilita al usuario a sostener una carga de unos cincuenta kilogramos, que durante la prueba estuvo basada en cinco bolsas grandes de arroz. Cada uno de los que probó el traje comenzó sosteniendo unos treinta kilogramos por su cuenta, para luego recibir veinte kilogramos extra con el traje activado.‖ [5].

[2]

[3]

[4]

[5]

Fig.6 Músculos neumáticos diseñados por la Universidad de la ciencia de Tokio.

IV. CONCLUSIONES Los exoesqueletos tienen muchas aplicaciones prácticas para el hombre. Los Exoesqueletos tienen un gran potencial para solucionar problemas que la medicina tradicional no ha podido solucionar. La gente que sufre de discapacidad en las piernas o brazos tiene la posibilidad de un movimiento más libre. Para el uso militar los Exoesqueletos proveen a los soldados la capacidad de realizar tareas más pesadas en un menor tiempo, aumentando la eficiencia del ejército.

98

Gamasoft. (2009, Septiembre). Consultada el 15 de Octubre de 2012, http://ve.globedia.com/exoesqueletohal-extraordinario-avance-personas-discapacitadas. Gamasoft. (2009, Septiembre). Consultada el 15 de Octubre de 2012, http://ve.globedia.com/exoesqueletohal-extraordinario-avance-personas-discapacitadas. Pardo, L. (2011, Diciembre). Consultado el 15 de Octubre de 2012, http://www.neoteo.com/unexoesqueleto-para-abandonar-la-silla-de-ruedas Pardo, L. (2012, Febrero). Consultado el 15 de Octubre de 2012, http://www.neoteo.com/hercule-exoesqueletode-uso-civil Pardo, L. (2012, Octubre). Consultado el 15 de Octubre de 2012, http://www.neoteo.com/traje-con-musculosneumaticos-artificiales


Revista Conceptual UCB

Material Autorreparable Iris Aylin Miranda Calle Ingenieria de Sistemas Universidad Católica Boliviana “San Pablo” av. 4 de septiembre i_miranda_c@estudiantes.ucb.bo

La Paz - Bolivia Resumen— Científicos suizos han desarrollado polímeros que tienen la capacidad íntima de poderce modificar asi mismo mediante la exposición a la luz ultravioleta y que podrían ser de enorme utilidad en áreas como el empaquetado, la construcción, los transportes. Ya que prolongan la vida de materiales que se emplean en numerosas aplicaciones. La mayoría de los materiales a base de polímeros se reparan mediante el calentamiento directo de la zona afectada, sin embargo, aquí han desarrollado un material gomoso que contiene compuestos metálicos que absorben la luz ultravioleta y la convierten en calor localizado, lo que permite la autorreparación. Al exponer el polímero metal o supramolecular a la luz ultravioleta, se produce una estimulación del ligante metálico y la energía así absorbida se transforma en calor. Este método tiene ventajas sobre el calentamiento directo como el hecho de poder acotar la zona dañada e incluso proceder a la autorreparacion mientras esta sometida a alguna carga.

1- La mayoría de los materiales a base de polímeros se reparan mediante el calentamiento directo de la zona afectada, este nuevo material es gomoso y contiene compuestos metálicos que absorben la luz ultravioleta y la convierten en calor localizado, lo que permite la autorreparación.

Palabras clave — ligante metalico, polímero, calor, termoplástico, micro vascular.

I.

INTRODUCCIÓN 2- Tiene la ventaja de poder realizar reparaciones justo en el lugar que en el que esté la pieza dañada.

La revista Nature publicó recientemente un artículo en el que asegura que, un grupo de investigadores suizos (Universidad de Friburgo) y norteamericanos, ha desarrollado un material que tiene la capacidad de autorrepararse en menos de un minuto mediante la exposición a la luz ultravioleta. II.

3- El proceso físico químico se produce con la luz ultravioleta que estimula al polímero y transforma en calor la energía absorbida. Según el autor principal del estudio, Stuart Rowan, profesor de ingeniería macromolecular en la Case Western Reserve University (EE.UU.), estos polímeros tienen ―el complejo de Napoleón‖ : «En realidad, son bastante pequeños, pero están diseñados para comportarse como si fueran grandes».

DESARROLLO

Se trata de un nuevo polímero (los polímeros se producen por la unión de cientos de miles de moléculas pequeñas denominadas monómeros, que constituyen grandes cadenas de formas diversas) capaz de prolongar la vida útil de numerosos materiales que sufren desgaste por el uso o por roturas accidentales, reparando dichas roturas y arañazos sobre su superficie, simplemente exponiéndolos a la luz ultravioleta.

El nuevo material ha sido creado con un proceso conocido como montaje supramolecular. Los polímeros convencionales se forman con una larga cadena de moléculas con miles de átomos, pero en cambio estos nuevos materiales están compuestos de moléculas pequeñas, reunidas en una cadena de polímeros utilizando iones metálicos como «pegamento molecular». Cuando incide sobre ellos la luz ultravioleta, el material, en principio sólido, se

Algunas de las características de este nuevo material son:

99


Revista Conceptual UCB transforma en un líquido que fluye con facilidad. Cuando la luz se apaga, el material se reúne y se solidifica de nuevo, restaurando sus propiedades (el pegamento se deshace, y permite que el material fluya como un líquido y repare las fallas; una vez que se retira la luz, el pegamento vuelve a ubicarse en la cadena y el material se vuelve duro otra vez).

Durante la investigación, se dañaron varias muestras de este material y al aplicar la luz sobre ellos los arañazos se ―rellenaron‖ y desaparecieron en pocos segundos. Además las pruebas demostraron que se puede dañar y reparar la misma zona del material varias veces sin problemas.

tiene bastante resistencia a arañazos y roturas. Por otro lado, para repararlo se usan otros dos componentes, OXE (oxetano) y CHI (chitosan).

El funcionamiento sería el siguiente, cuando el poliuretano se daña, la estructura en forma de anillo del oxetano se abrirá, para crear dos terminales reactivas. Cuando le alcance la luz ultravioleta, esta funcionará como activador para el chitosan, que formará nuevos enlaces con las terminaciones del oxetano y de esta forma reparar las roturas en el polímero. El funcionamiento de este sistema es similar al que tiene el cuerpo humano. Además, debido a que la mezcla del poliuretano no es sensible a la humedad, las condiciones climáticas secas o húmedas no afectaran al proceso de reparación.

Ejemplo de reparación de arañazos en un vehículo: III. CONCLUSIONES Por ahora, el material puede reparar las fisuras en el recubrimiento epoxidico, equivalentes a pequeños cortes en el material, lo cual da un resultado bueno ya que se puede observar anteriotemente como el material se auto repara. RECONOCIMIENTOS Este trabajo lo dedico se lo debo a la señorita lic Elizabeth Pomier por el empeño que pone a sus labores en tanto a sus estudiantes. REFERENCIAS Este descubrimiento abre un gran abanico de posibilidades para sectores como la Automoción, la Industria y la Construcción.

[1] [2] [3] [4]

La Universidad de Mississippi también ha conseguido crear un polímero que podría usar la luz ultravioleta para activar su propiedad de autoreparación.

[5]

Está basado en 3 materiales, el principal es el poliuretano, que es un polímero elástico que a su vez

100

http://www.elotromate.com/ciencia/materialesautorreparables/ hrramientas web orientadas a la orientacion http://www.tendencias21.net/Tres-proyectos-adelantanla-creacion-de-materiales-autorreparables_a2213.html http://www.imechanica.org/files/Selfhealing%20materials%20with%20microvascular%20ne tworks.pdf unizar.es/sg/doc/Leccion2010.pdf


Revista Conceptual UCB

CLOUD COMPUTING Marco Antonio Acebey Castillo #

Ingeniería de Sistemas Universidad Católica Boliviana “San Pablo” Av. 14 de septiembre - Obrajes m_acebey_c@estudiantes.ucb.edu.bo

La Paz - Bolivia Resumen— ―Cloud Computing‖, es el término usado que define a una tecnología que ofrece sus servicios a través de la plataforma de internet. Los usuarios de este servicio tienen acceso de forma gratuita o de pago todo depende del servicio que se necesite usar.

factores, por un alto grado de automatización, una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una demanda variable, así como virtualización avanzada y un precio flexible en función del consumo realizado evitando además el uso fraudulento del software y la piratería.

Palabras clave — Iaas, Saas, Paas, Nubes públicas, Nubes privadas, Nubes Híbridas

I.

INTRODUCCIÓN II.

El Cloud Computing, conocido comunmente como ―Nube‖, según el NIST (National Institute of Standards and Technology) ha sido definido como un modelo de servicios escalables bajo demanda para la asignación y el consumo de recursos de cómputo. Describe el uso de infraestructura, aplicaciones, información y una serie de servicios compuestos por reservas de recursos de computación, redes, información y almacenamiento. Estos componentes pueden orquestarse, abastecerse, implementarse y liberarse rápidamente, con un mínimo esfuerzo de gestión e interacción por parte del proveedor de Cloud Computing y de acuerdo a las necesidades  actuales del cliente. "Cloud computing" es el nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario poder acceder a un catálogo de servicios y  responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado.[3]  El cambio paradigmático que ofrece computación en nube es que permite aumentar el número de servicios basados en la red. Esto genera beneficios tanto para los proveedores, que pueden ofrecer, de forma más rápida y eficiente, un mayor número de servicios, como para los usuarios que tienen la posibilidad de  acceder a ellos, disfrutando de la ‗transparencia‘ e inmediatez del sistema y de un modelo de pago por consumo. Computación en nube consigue aportar estas  ventajas, apoyándose sobre una infraestructura tecnológica dinámica que se caracteriza, entre otros

CARACTERÍSTICAS

Una de las principales diferencias del Cloud Computing es que no hay necesidad de conocer la infraestructura detrás de esta, pasa a ser ―una nube‖ donde las aplicaciones y servicios pueden fácilmente crecer (escalar), funcionar rápido y casi nunca fallan, sin conocer los detalles del funcionamiento de esta ―nube‖. [1],[2]. Este tipo de servicio se paga según alguna métrica de consumo, no por el equipo usado en sí, sino por ejemplo en el consumo de electricidad o por uso de CPU/hora como en el caso de Amazon EC2. Entre otras características podemos mencionar: Auto Reparable: En caso de fallo, el último backup de la aplicación pasa a ser automáticamente la copia primaria y se genera uno nuevo. Escalable: Todo el sistema/arquitectura es predecible y eficiente. Si un servidor maneja 1000 transacciones, 2 servidores manejaran 2000 transacciones. Regidos por un Acuerdo de Nivel de Servicio (SLA) que define varias políticas como cuáles son los tiempos esperados de rendimiento y en caso de pico, debe crear más instancias. En el caso de AWS aún se pregunta si su SLA es adecuado. Virtualizado: las aplicaciones son independientes del hardware en el que corran, incluso varias aplicaciones pueden corren en una misma maquina o una aplicación puede usar varias máquinas a la vez. Multipropósito: El sistema está creado de tal forma que permite a diferentes clientes compartir la infraestructura sin preocuparse de ello y sin comprometer su seguridad y privacidad.

101


Revista Conceptual UCB III.

MODELOS DE PROVISIÓN DE CLOUD COMPUTING

Es aquel modelo en el cual la infraestructura se gestiona únicamente por una organización. La administración de aplicaciones y servicios puede estar a cargo de la misma organización o de un tercero. La infraestructura asociada puede estar dentro de la organización o fuera de ella. Ejemplo: Cualquier servicio de nube propio de la organización o contratado a un proveedor pero cuyos recursos sean exclusivos para dicha organización.

La prestación de servicios de cloud computing puede asociarse a tres modelos específicos: A. Infrastructure as a service (IaaS) Ofrece al usuario la provisión de procesamiento, almacenamiento, redes y cualquier otro recurso de cómputo necesario para poder instalar software, incluyendo el sistema operativo y otras aplicaciones. El usuario no tiene control sobre el sistema de nube subyacente pero si del Sistema operativo y aplicaciones. Ejemplo: Amazon Web Services EC2.

C. Nube Comunitaria Es aquel modelo donde la infraestructura es compartida por diversas organizaciones y su principal objetivo es soportar a una comunidad específica que posea un conjunto de preocupaciones similares (misión, requisitos de seguridad o de cumplimiento normativo, etc.). Al igual que la Nube Privada, puede ser gestionada por las organizaciones o bien por un tercero y la infraestructura puede estar en las instalaciones propias o fuera de ellas. Ejemplo: El servicio app.goc (www.apps.gov) del gobierno de EEUU, el cual provee servicios de cloud computing a las dependencias gubernamentales.

B. Platform as a Service (PaaS) Ofrece al usuario la capacidad de ejecutar aplicaciones por éste desarrolladas o contratadas a terceros, a partir de los lenguajes de programación o interfaces provistas por el proveedor. El usuario no tiene control ni sobre el sistema subyacente ni sobre los recursos de Infraestructura de nube. Ejemplo: Microsoft Azure. C. Software as a Service (SaaS)

D. Nube Híbrida Es aquel modelo donde se combinan dos o más tipos de Nubes (Pública, Privada o Comunitaria) que se mantienen como entidades separadas pero que están unidas por tecnologías estandarizadas o propietarias, que permiten la portabilidad de datos y aplicaciones.

Ofrece al usuario la capacidad de utilizar las aplicaciones del proveedor que se ejecutan sobre la infraestructura en la nube. Las aplicaciones son accedidas desde los dispositivos cliente a través de interfaces, por ejemplo un navegador web. En este caso, el usuario solo tiene acceso a una interfaz de configuración del software provisto. Ejemplo: SalesForce IV.

MODELOS DE IMPLEMENTACIÓN

Dependiendo de cómo se despliegan los servicios en la nube, existen cuatro modelos que caracterizan la implementación de los servicios de Cloud Computing.[5] A. Nube Pública Es aquel modelo de Nube en el cual la infraestructura y los recursos lógicos que forman parte del entorno se encuentran disponibles para el público en general o un amplio grupo de usuarios. Suele ser propiedad de un proveedor que V. gestiona la infraestructura y los servicios ofrecidos. Ejemplo: Servicio de GoogleApps. B. Nube Privada

Fig.1 Representación visual de la definición de la NIST del Cloud Computing CONTROVERSIA ACERCA DE LA SEGURIDAD Dado que la computación en nube no permite a los usuarios poseer físicamente los dispositivos de almacenamiento de sus datos (con la excepción de la

102


Revista Conceptual UCB Consultado 17 de Ocutbre 2012 http://www.lonuevodehoy.com/2011/06/08/que-es-lanube-y-que-significa- mantener-los-archivos-en-la-nubeinformatica

posibilidad de copiar los datos a un dispositivo de almacenamiento externo, como una unidad flash USB o un disco duro), deja la responsabilidad del almacenamiento de datos y su control en manos del proveedor.

[5]

TABLA I VENTAJAS Y DESVENTAJAS DE ―LA NUBE‖ [4]

Ventajas de la Nube

Desventajas

Disponibilidad

Percepción de pérdida de privacidad de datos sensibles.

Escalabilidad

Dependencia de la infraestructura y plataformas Capacidad de comprar Posible dificultad de recursos por demanda integración. Reducción de Costos

VI.

CONCLUSIONES

Finalmente el Cloud Computing está emergiendo. Se han dado la combinación de factores que ha hecho que empiece a despegar. Aún quedan muchas incógnitas que resolver, especialmente cual será el papel de los medianos y pequeños proveedores de hosting contra los grandes proveedores. En los años venidero se verá un crecimiento rápido de estos servicios, algo muy atractivo para las empresas, que estarán interesadas en seguir de cerca su desarrollo, entender cómo pueden beneficiarse de las alternativas que ofrece y asegurar que utilizan la tecnología de la información de la forma más beneficiosa posible. VII. RECONOCIMIENTOS El especial agradecimiento a Elizabeth Pommier por motivar a la investigación sobre temas muy interesantes. REFERENCIAS [1]

[2]

[3]

[4]

Falla S. (2008, Noviembre). Cloud Computing: nueva era de desarrollo, Consultada el 16 de octubre de 2012, http://www.maestrosdelweb.com/editorial/ Cortés M. (2011, Abril). Cloud computing una realidad? Consultada el 16 de Octubre de 2012, http://www.desarrolloweb.com/articulos/cloudcomputing.html Torres G. (2011, Enero). ¿Qué es el cloud computing? Consultado el 18 de Octubre del 2012 http://www.desarrolloweb.com/articulos/que-es-cloudcomputing.html Bernal C. (2011, Junio). Que es la nube y qué significa mantener los archivos en la nube (informatica).

103

Nubes Públicas, Privadas e Híbridas Consultado 17 de Octubre 2012


Revista Conceptual UCB

Aplicaciones de la Visión Artificial Andrés Heredia Guerra Ingeniería de Sistemas Universidad Católica Boliviana “San Pablo” Av. 14 de septiembre- Obrajes andru_hg@hotmail.com

La Paz - Bolivia ausencia) y dependientes del tiempo (eventos, movimientos, procesos)[1]. La mayoría de las aplicaciones de la visión artificial podemos clasificarlas por el tipo de tarea que cumplen: La medición o calibración se refiere a la correlación cuantitativa con los datos del diseño, asegurando que las mediciones cumplan con lo indicado.  La detección de fallas es un análisis cualitativo que I. INTRODUCCIÓN involucra la detección de defectos o artefactos no deseados, con forma desconocida en alguna posición. La Visión Artificial describe la deducción automática de la estructura y propiedades de un mundo  La verificación es el chequeo cualitativo de que una operación de ensamblaje ha sido llevada a cabo tridimensional a correctamente. Por ejemplo, que no falte ninguna partir de una o varias imágenes bidimensionales del tecla en un teclado, o que no falten componentes en mundo. Las imágenes pueden ser monocromáticas un circuito impreso. (de niveles de gris) o colores, pueden provenir de una o varias cámaras e incluso cada cámara puede estar  El reconocimiento involucra la identificación de un estacionaria o móvil. Gracias a las cuales se puede objeto con base en descriptores asociados con el utilizar propiedades del mundo tridimensional y objeto. deducir en visión artificial incluye no sólo  La identificación es el proceso de identificar un propiedades geométricas, sino también sus objeto por el uso de símbolos en el mismo. Por propiedades de cualquier clase de objeto encontrado ejemplo, el código de barras, o códigos de dentro de una imagen, ya sea para investigación, o la perforaciones empleados para distinguir hule de misma manipulación de dicha imagen. espuma de asientos automotrices.  El análisis de localización es la evaluación de la Ejemplos de propiedades geométricas son la forma, posición de un objeto. tamaño  Guía significa proporcionar adaptativamente y localización de los objetos. Ejemplos de información posicional de retroalimentación para propiedades de los materiales son su color, dirigir una actividad. iluminación, textura y composición. Si el mundo se modifica en el proceso de formación de la imagen, se III. VISIÓN ARTIFICIAL Y SU APLICACIÓN EN SOFTWARE puede inferir también la naturaleza del cambio, e incluso predecir el futuro. Obtenida a partir de la En los últimos tiempos, la tecnología de VA ha imagen. Por un lado, esta descripción debe estar sido muy útil para la vida cotidiana, habiendo relacionada de algún modo con aquella realidad que muchas herramientas que usando esta tecnología de produce la imagen y, por el otro, debe contener toda forma muy eficiente[2], algunas de las aplicaciones la información requerida para cumplir alguna tarea más comunes son: dada.  Google Sky Map: aplicación gratuita ideal para apoyar el estudio de astronomía, principalmente para II. APLICACIONES DE LA VISION ARTIFICIAL quienes suelen interesarse en observar el espacio por El amplio espectro de aplicaciones cubierto por la las noches. Enfocando la cámara del móvil en el VA, se debe a que permite extraer. cielo, el programa puede identificar estrellas, constelaciones, planetas y cuerpos celestes, La información espectral incluye frecuencia (color) e ofreciéndonos en vivo los datos. Tiene opciones de intensidad (tonos de gris). La información espacial se búsqueda. refiere a aspectos como forma y posición (una, dos y tres dimensiones). La información temporal  WordLens: permite traducir las palabras que comprende aspectos estacionarios (presencia y/o aparecen en una imagen. Basta con tomar una Resumen— Este documento da algunas instrucciones relacionadas al formato para los artículos que serán enviados al congreso internacional de Desarrollo Comunitario. El autor debe seguir las instrucciones dadas en el documento para que el artículo sea publicado. Puede utilizar el mismo documento para  escribir tu propio artículo. Palabras clave — Visión Artificial, Imagen, Software, reconocimiento, sistema, Aplicación.

104


Revista Conceptual UCB

fotografía a cualquiera texto desconocido —un anuncio, un menú, un volante, etc. y se obtiene una traducción instantánea sobre el mismo objeto. El proceso es muy sencillo: el software identifica las letras que aparecen en el objeto y busca la palabra en el diccionario. Una vez que encuentra la traducción, la dibuja en lugar de la palabra original. La aplicación es ideal para quienes viajan mucho y necesitan conocer de manera rápida el significado de alguna palabra. Google Goggles: servicios gratuito sólo para móviles con sistema operativo Android, que automatiza la búsqueda en Internet de objetos reales, usando su código de barras (en el caso de los productos) o su ubicación (para los puntos geográficos), También brinda reconocimiento de textos para digitalizar tarjetas de presentación.

TAT Augmented ID: servicio capaz de reconocer la cara de una persona y mostrar los servicios Web en los que está presente (e-mail, Twitter, Facebook), desarrollado por The Astonishing Tribe. Por ejemplo, durante una conferencia, se toma un video del expositor y en pantalla aparece debajo de su rostro, sus tarjetas personales y las redes sociales y otros servicios web a los que está suscripto con un primer nivel de detalle. Es una aplicación que probablemente será tildada de enemiga de la privacidad, ya que no hace foco lugares sino en las personas.

Point & Find: al tomar una imagen de un póster de una película, se obtiene información de ella; o, con el código de barras de una prenda de vestir, se obtienen precios en otros negocios asociados. También permite etiquetar objetos y lugares de una ciudad y compartir esa información con otros usuarios.

ARToolKit NFT: software library o biblioteca de software basada en C/C++ que implementa el seguimiento de vanguardia de las características naturales de las superficies de textura, lo que permite una nueva clase de aplicaciones de Realidad Aumentada. Permite a los desarrolladores construir aplicaciones que no requieren ningún marcador de seguimiento visual.

3D de las caras de los transeúntes del Aeropuerto de Barajas (Madrid) para probar su funcionamiento[3 Esta tecnología permitirá, en un futuro próximo, detectar sujetos sospechosos sin que estos sean conscientes de que se les está localizando. El sistema de reconocimiento facial en 3D que se está probando en colaboración con los cuerpos de seguridad, permite no sólo la localización de un rostro concreto cruzando datos de archivos policiales, por ejemplo, sino también un seguimiento de movimientos en los espacios del aeropuerto con cámaras. Otro ejemplo útil de VA es el proyecto Faros, que incluye entre sus propuestas un sistema de visión artificial que permite optimizar las capturas de los buques pesqueros. El sistema denominado BEOS consiste en una cámara que se coloca encima de la cinta transportadora por la que pasa el pescado dentro de la embarcación. Desde allí, identifica las especies, la cantidad de ejemplares, sus medidas y su peso, informó la agencia Europa Press. Los datos son recogidos en tiempo real por la empresa y en base a ellos, puede planificar su actividad. En el proyecto Faros también se incluye la creación de una serie de mapas donde se especifican las regiones con alta probabilidad de descartes, para que los buques puedan tomar decisiones respecto a dónde dirigirse para obtener una mayor rentabilidad [4]. IV. CONCLUSIONES La Visión Artificial es una herramienta que puede ayudar a facilitar gran variedad de procesos, y se está convirtiendo en una forma muy óptima de investigación rápida, seguridad, y muchas otras RECONOCIMIENTOS Se agradece a la Lic. Elizabeth Patricia Pommier Gallo por su interés en los formatos de artículo IEEE que ayudan a la presentación de sus estudiantes en futuros trabajos o artículos. REFERENCIAS

Cuando no se trata de la vida cotidiana, la visión artificial igual llega a ser muy útil ya sea para el uso industrial, o de gobierno, seguridad. Va puede ayudar a reconocer posibles sospechosos, gracias a la nueva tecnología de reconocimiento facial en 3d con múltiples cámaras.

[1]

[2]

[3]

Sea el del grupo de Reconocimiento Facial & Visión Artificial de la Universidad Rey Juan Carlos ha creado un sistema de reconocimiento facial mediante cámaras que recogen múltiples imágenes en

[4]

105

http://tesis.pucp.edu.pe/repositorio/bitstream/handle/12 3456789/68/SOBRADO_EDDIE_VISION_ARTIFICI AL_BRAZO_ROBOT.pdf?sequence=2 http://www.americalearningmedia.com/component/cont ent/article/69-8tester/264-13-aplicaciones-de-realidadaumentada http://www.tendencias21.net/Prueban-en-Barajas-unnuevo-metodo-de-reconocimiento-facial_a13225.html http://fis.com/fis/worldnews/worldnews.asp?monthyear =&day=8&id=55926&l=s&special=&ndb=1%20target =


Revista Conceptual UCB

NANOTECNOLOGÍA EN LA MEDICINA Viviana Magne Nava Ingeniería de Telecomunicaciones Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre Nº 4807, Obrajes 1

primer.autor@universidad.edu

La Paz - Bolivia Resumen— Este documento hace referencia a los avances más significativos de la nanotecnología en la medicina que fueron dados a conocer recientemente. Palabras clave — Nanotecnología, medicina, molecular, átomo, enfermedades.

I. INTRODUCCIÓN En los últimos años hemos sido testigos de increíbles avances de la ciencia que han facilitado la vida del hombre y resuelto muchos de sus problemas. Uno de los avances más nombrados en nuestros tiempos es la nanotecnología que está revolucionado la vida moderna y causando gran impacto en la sociedad ya que aquello que en un principio solo parecía ciencia ficción hoy se convierte en plena realidad. Esta ciencia pretende resolver los problemas que se presentan en distintos campos de forma más eficiente y a pequeña escala. A continuación nombraremos aquellos avances más significados de la Nanotecnología enfocándonos en el campo de la medicina. II. DESARROLLO La palabra "nanotecnología" es usada extensivamente para definir las ciencias y técnicas que se aplican a un nivel de nano escala, lo que se refiere a medidas extremadamente pequeñas "nanos" que permiten trabajar y manipular las estructuras moleculares y sus átomos. La nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala. Con esta ciencia se está logrando demostrar nuevas propiedades y fenómenos que ayudan a crear materiales, aparatos y sistemas novedosos que a su vez son poco costosos.

Fig. 1. La nanotecnología manipula la materia a escala tan minúscula de átomos y moléculas.

Esta tecnología abarca muchas áreas, pero los progresos más significativos hasta el momento se han dado principalmente en el campo de la medicina. Pretendiendo darle al hombre las armas para combatir las enfermedades más peligrosas a las que se enfrenta. El mundo de la medicina es muy complejo, por lo que todos los beneficios de la nanotecnología tardaran en hacerse evidentes, no obstante en los países en los que se desarrollan las investigaciones de esta ciencia ya se están haciendo presentes los beneficios y novedades. Las herramientas de la investigación y la práctica de la medicina se harán menos costosas y más potentes. El diagnóstico y la investigación de las enfermedades será más eficaz, lo que permitirá una capacidad de respuesta más rápida para tratar nuevas enfermedades que puedan presentarse. Algunas de las investigaciones que ya se dieron a conocer se presentan a continuación. AA.

Nanotecnología y Cáncer. El combate de esta enfermedad a escala molecular permite detectarla precozmente e identificar y atacar de forma más específica a las células cancerígenas. Por eso, el Instituto Nacional del Cáncer de Estados Unidos (NCI) ha puesto en marcha la "Alianza para la nanotecnología en el cáncer", un plan que incluye el desarrollo y creación de instrumentos en miniatura para la detección precoz. Pronto se podrá ofrecer una nueva técnica de análisis de sangre que permitirá diagnosticar un cáncer en la primera fase de la enfermedad. Esto supone todo un avance en el tratamiento de cáncer,

106


Revista Conceptual UCB ya que en la mayoría de casos esta enfermedad resulta mortal porque durante la primera fase el paciente no tiene síntomas y, en muchos casos, cuando estos empiezan a aparecer es debido a que las células cancerígenas se han extendido tanto que resulta demasiado tarde para tratar al paciente con éxito. Si los médicos fueran capaces de detectar los tumores malignos desde su primera fase, se podría operar a los pacientes mucho antes y quitarles los tumores sin dejar rastro de células cancerígenas, por lo tanto tampoco sería necesario recurrir a otros tratamientos como la quimioterapia. Los métodos que actualmente existen para para detectar el cáncer como las mamografía no son del todo confiables, ya que tienen un alto margen de error. Gracias a las últimas investigaciones desarrolladas por el experto en biología celular y cáncer George Wright se está desarrollando un nuevo método que analiza la estructura de las proteínas en la sangre, permitirá en teoría identificar un tumor con la claridad y exactitud con que se identifica una huella dactilar.

intervenciones quirúrgicas con una resolución del orden de algunas centenas de nanómetros. Mediante la ionización de la materia por luz, la nanocirugía láser permite efectuar intervenciones quirúrgicas intracelulares tales como el corte de microtúbulos o de fibras sin dañar las estructuras de alrededor o comprometer la viabilidad celular. Así, el uso de láseres de pulsos ultracortos, más precisos y potentes, ofrece un nuevo acercamiento al estudio de las fuerzas biológicas o de la dinámica cito esquelética. Entonces podemos decir que la nanocirugía será uno de los servicios más requeridos por los pacientes a la hora de enfrentarse a una intervención ya que será mucho más beneficiosa que una cirugía normal.

En el futuro es posible que con una sola gota de sangre se pueda hacer pruebas para detectar cualquier tipo de cáncer y lograr disminuir de manera significativa la cantidad de personas que mueran a causa de esta enfermedad.

Fig 3. Impulso laser para realizar una nanocirugía

Fig.2 Nanotecnología para el tratamiento del detectando células cancerígenas.

cáncer,

B. Nanocirugía. El desarrollo de la nanotecnología también a permitido el desarrollo de herramientas para realizar intervenciones quirúrgicas a nivel celular e incluso molecular, a través de sistemas láser, nanojeringas, nanopinzas, nanoalambres y diversos dispositivos para manipulación electrocinética. La llegada, de los láseres en los años 60, dio lugar al nacimiento de la cirugía láser. Hoy en día, la reducción del impulso láser por debajo del nanosegundo permite comprender mejor su interacción con los tejidos biológicos y controlar las

C. Anticuerpos basados en Nanotecnología. Los Anticuerpos son Proteínas que tienen como función el detectar y neutralizar agentes extraños al organismo, como por ejemplo Bacterias, virus, y otros microorganismos. Esta función la logran uniéndose a determinadas zonas del agente extraño por lo general una proteína, la que recibe el nombre de Antígeno, esta unión se da por una complementariedad espacial de una determinada zona del anticuerpo llamada región variable con el antígeno. Un equipo de Investigadores de Estados Unidos y Japón, han logrado sintetizar una nanopartícula hecha de un polímero sintético, que posee la especificidad y selectividad de un Anticuerpo natural, incluso funciona dentro del torrente sanguíneo en un animal vivo, este avance podría tener aplicaciones en terapias con anticuerpos, antídotos para toxinas, purificación de proteínas, etc. Además es muy interesante el hecho de que una estructura hecha en forma artificial no proteica pueda remplazar en función a una estructura biológica proteica, este es un

107


Revista Conceptual UCB a-riesgos-y-beneficios/nanotecnologia-riesgos-ybeneficios.shtml

ejemplo más de como la Nanotecnología ésta entrando fuerte en al campo de la Biotecnología y Medicina.

Fig,4 Anticuerpos artificiales que reemplazan proteínas

III. CONCLUSIÓNES. Son muchos los beneficios que la nanotecnología está desarrollando para la medicina, que irán solucionando poco a poco los problemas que nos traen muchas enfermedades. Sin embargo pese a que continuamente se van desarrollando nuevos medicamentos y técnicas con capacidad de manipular la materia a nivel molecular, todavía no existen fechas claras para que estos avances se incorporen a la vida cotidiana. Ahora el principal reto es incorporar esta ciencia como un nuevo campo multidisciplinario vinculado estrechamente a la sociedad, ya que sus aplicaciones llegaran a resolver los problemas más urgentes.

REFERENCIAS [1]

[2]

[3]

Página web: http://www.euroresidentes.com/futuro/nanotecnologia/ nanotecnologia_que_es.htm Página web: Recuperado 10, 2011, de http://www.buenastareas.com/ensayos/Ensayo-SobreNanotecnologia/2891546.html Página web: http://www.monografias.com/trabajos87/nanotecnologi a-riesgos-y-beneficios/nanotecnologia-riesgos-ybeneficios.shtml http://www.monografias.com/trabajos87/nanotecnologi

108


Revista Conceptual UCB

3D AQUOS PHONE IS12SH Kelly Allison Meneses Pabón Ingeniería de Telecomunicación Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre Nº 4807, Obrajes k_meneses_a@estudiantes.ucb.edu.bo

La Paz – Bolivia Resumen— La última tecnología sin duda se encuentra en los teléfonos móviles. Tal es el caso de los nuevos teléfonos inteligentes Smarthphone’s, todos equipados con el sistema operativo android de Google. El Aquos Phone IS12SH es uno de ellos con la característica especial de estar equipado con la tecnología 3D sin la necesidad de gafas. Aplicable para todas las imágenes y videos que contiene el equipo. Además de presentar una pantalla LCD con tecnología 3D. Palabras clave: Smartphone, tecnología 3D, SO (sitema operativo) Android, pantalla LCD.

I. INTRODUCCIÓN En este documento haremos referencia a los teléfonos inteligentes fabricados por la empresa de telecomunicaciones japonesa KDDI . El Smarthphone 3D Aquos Phone IS12SH, es una innovación de esta gran compañía, siendo éste un móvil de última generación dedicada especialmente para los jóvenes. Cuenta con el sistema operativo Android además de diversas aplicaciones que son de utilidad para el usuario.

px. Alto visible de una imagen = 400 px. Ancho fisico de la pantalla = 34 mm. Alto fisico de la pantalla = 50 mm. Si el usuario cambia la orientacion del dispositivo, se invierten los valores del alto y ancho del navegador. B. Especificaciones de sonido AAC (Advanced Audio Coding), tiene un rendimiento superior al del MP3, produce una mejor calidad en archivos pequeños y requiere menos recursos del sistema para codificar y descodificar. MP3, le da sonido de calidad de CD a una pista en un formato que no utiliza más de 1MB por cada minuto de sonido. Esto significa que una solo track utiliza alrededor de 3 a 5 MB con transferencia de 128 Kbps.[1] C. Especificaciones de imágenes El dispositivo acepta imágenes de los tipos WBMP, GIF, JPG, PNG, PNG alpha transparente, PNG index transparente.

La tecnología 3D se presenta en las pantallas 3D. Estos son los dispositivos que pretenden simular una imagen estereoscópica, dando la impresión al espectador de estar dentro de la imagen. El principal objetivo de una pantalla 3D es adquirir escenas del mundo real y por tanto tridimensional y poder mostrarlas como imágenes 3D.

D. Características técnicas de audio y video Sharp IS12SH 3D AQUOS PHONE IS12SH for KDDI au : Permite reproducir audio o video progresivamente mientras se está descargando. La descarga progresiva funciona pero el contenido necesita ser obtenido de manera indirecta. [1]

Para la visualización final 3D se utilizan displays llamados autoesteroscópicos, los cuales permiten al usuario disfrutar de la sensación 3D sin ningún tipo de gafas ni complementos. Así pues, este tipo de pantallas ofrecen mayor libertad en el campo de visión que las pantallas convencionales. Un ejemplo de ellas son las pantallas IMAX 3D la cual utiliza dos lentes de la cámara para representar a los ojos derecho e izquierdo.

III. DESARROLLO El 3D Aquos Phone IS12SH es un teléfono inteligente. Con velocidad del procesador a 2 GHz y corriendo Android 2.3.4 Gingerbread. El resto de las características como Wi-Fi, GPS y 3G permanecen intactas. Presenta un Browser (Navegador) Android Webkit. Salió al mercado en noviembre de 2010. Ademas de presentar un teclado QWERTY.

II.

ESPECIFICACIONES TÉCNICAS

Lo que hace especial este teléfono es que cuenta con la tecnología 3D, además de tener una pantalla LCD de High Definition. Con entrada HDMI para conectar el aparato a cualquier pantalla con dicha entrada. Este teléfono inteligente cuenta con el sistema operativo Android Android 2.3.4 Gingerbread.

A. Especificaciones de pantalla Ancho de pantalla = 540 px. Alto de pantalla = 960 px. Numero de columnas = 60 . Numero de lineas = 40 . Ancho visible de una imagen = 320

109


Revista Conceptual UCB

Fig.2 Demostración de las imágenes en 3D Aquos phone Fig. 1 Modelo del Aquos Phone IS12SH

E. Tecnología 3D La tecnología de visualización en tercera dimensión podemos encontrarlas en Pantallas en 3D, juegos en 3D, tecnología de impresión 3D y hasta películas creadas con esta tecnología, el cine 3D es la proyección de películas cinematográficas que puedan ser percibidas con sensación de profundidad gracias a la visión estereoscópica. La tridimensionalidad se debe al ligero distanciamiento entre los dos ojos, de modo que captan las imágenes desde ángulos distintos. La combinación de imágenes individuales vistas por cada ojo consigue una sensación de profundidad y dimensión en la mente. Es lo que se conoce como paralaje y es la base sobre la que se han desarrollado esta tecnología. [3] Hoy en día es ya posible visualizar imágenes y videos en tercera dimensión sin la necesidad de gafas. Por lo cual es necesario tomar ciertas precauciones ya que ver imágenes y videos en tercera dimensión en exceso puede ocasionar daños a la vista. Por lo que para tener un mayor cuidado con ello se debe consultar la guía de usuario del teléfono proporcionada por el fabricante. Como ya se mencionó antes la característica principal del Aquos Phone es la tecnología 3D que presenta. Para aprovechar las capacidades del chip de gráficos y la pantalla, el teléfono tendrá incorporadas varias aplicaciones, como juegos que funcionan exclusivamente con la tecnología 3D.

F. Pantalla LCD La pantalla LCD es una pantalla delgada y plana formada por un número de píxeles en color o monocromos colocados delante de una fuente de luz o reflectora. A menudo se utiliza en dispositivos electrónicos de pilas, ya que utiliza cantidades muy pequeñas de energía eléctrica. [2] El teléfono presenta una pantalla LCD con tecnología 3D la cual trata de la implementación tecnológica que permite que las imágenes no se vean en su totalidad planas, sino que tengan un efecto de profundidad distinta entre el fondo y el frente. Cabe mencionar que las imágenes deben de tener el tratamiento gráfico especial para tal efecto, anulando al uso de dispositivos especiales a nivel usuario para ello (gafas), por lo que es posible ver tales imágenes proyectados no solo con una pantalla LCD sin incluso con una pantalla CRT monocromo. + Hay básicamente 2 métodos para el efecto LCD-3D: a) Efectos 3D estereoscópicos: las imágenes deben de proceder de una cámara de video estereoscópica ó un tratamiento especial, mientras que a nivel usuario, está basado en el uso de lentes físicos ó gafas electrónicas especialmente diseñadas, en las que cada ojo capta imágenes distintas y dan el efecto en tercera dimensión. b) Efectos 3D auto-estereoscópicos: las imágenes deben de proceder de una cámara de video estereoscópica, mientras que a nivel usuario, este solamente se debe de colocar en cierta posición, ya que la pantalla emite imágenes diferentes dirigidas a cada ojo, por medio de barreras de paralelaje.

Pero, probablemente, la más atractiva de sus características es la inclusión de dos cámaras que permitirán tomar fotografías y videos en 3D (como se muestra en la figura 2), los cuales podrán ser exportados a un PC para visualizarse con un software especial. Como se muestra en un ejemplo de video (véase) [5].

110


Revista Conceptual UCB High Definition, y con el potente audio ACC. Pero sin duda su mejor característica es la tecnología 3D sin necesidad de gafas en el teléfono móvil. El producto solo fue lanzado en Japón debido a que la empresa es oriunda de ese país, pero se llegaría a decir que es la primera empresa en haber lanzado al mercado teléfonos móviles con tecnología 3D. REFERENCIAS [1]

http://movilcelular-net.blogspot.com/2012/02/sharpis12sh-3d-aquos-phone-is12sh-for.html [2http://es.wikipedia.org/wiki/Pantalla_de_cristal_l%C3%A Dquido [3] http://www.ecured.cu/index.php/Tecnologia_3D [4] http://www.au.kddi.com/english/torisetsu/list_is.html [5]http://www.youtube.com/watch?feature=player_embedde d&v=WC9DYf-MDto&noredirect=1#!

Fig. 3 Sub-pixel de un LCD de color.

G. Sistema Operativo Android Android es el sistema operativo del teléfono. Como esta desarrollado por Google, el teléfono vine con varios servicios de Google precargados como, por ejemplo: Google Maps, Google Heart, Traductor con reconocimiento del idioma mediante la voz, la búsqueda web de Google. Para utilizar algunos de los servicios que Google proporciona. Para lograr dicho objetivo se debe contar con una cuenta de Google, para poder acceder al Google Market, una tienda que proporciona aplicaciones gratuitas y de pago que se puede descargar fácilmente en el teléfono. H. Información del fabricante KDDI Corporation (KDDI株式会社 KDDI Kabushiki Gaisha?) (TYO: 9433) es una operadora japonesa de telecomunicaciones creada en octubre del 2000 por la fusión de DDI Corp., KDD Corp., e IDO Corp.1 Su sede está en el Garden Air Tower en Iidabashi, Chiyoda, Tokio.2 Au ofrece el servicio de telefonía móvil de KDDI. El 1 de abril de 2002, au de KDDI lanzó el 3G usando la tecnología CDMA2000 1x. En 2010 Ono comenzó a ofrecer 50 megabits en España, y ya que ninguna empresa tenía 50 megabits, en los anuncios se comparaba con KDDI.

Fig. 4 Símbolo de la empresa

IV. CONCLUSIONES El teléfono inteligente Aquos Phone es un móvil de última generación con características de alta tecnología. Comenzando con su pantalla LCD de

111


Revista Conceptual UCB

Circuitos biodegradables Gabriel Valencia Murillo Ingeniería Biomédica Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre Nº 4807, Obrajes g_valencia_m@estudiantes.ucb.edu.bo

La Paz - Bolivia Resumen—El dispositivo sea elaborado de capullos de seda, hojas delgadas de silicio poroso y electrodos de magnesio. ir tu propio artículo. Este nuevo dispositivo electrónico es capaz de desintegrarse en su entorno puede servir para crear implantes biomédicos que se reabsorben por el cuerpo tras un tiempo programado. Por ahora se han probado con éxito en ratones.

característica clave es el hecho de que físicamente desaparecen con el tiempo en un entorno controlado de manera que puede ser activado, y cuya velocidad puede ser programado en materiales y reglas de

Palabras clave — Biomateriales, Circuitos, Biotecnología, Implantes, Biodegradable, Tecnologías, Biomedicina, Salud.

diseño. Y nuestra idea es que este tipo de aparatos electrónicos podrían abrir nuevas oportunidades de aplicaciones que no se pueden abordar con el tipo de circuito integrado tecnología que existe hoy en dia. Aunque la mayoría de los dispositivos electrónicos se construye al último, el último dispositivo está compuesto de silicio y un circuito de óxido de magnesio pequeño encapsulado en una capa protectora de seda que se puede fácilmente y sin causar daño ser absorbida por los fluidos corporales. "Nos referimos a este tipo de tecnología como la electrónica transitorios", dijo Rogers, profesor de ingeniería en la Universidad de Illinois, en un comunicado. "Desde los primeros días de la industria de la electrónica, un objetivo clave de diseño ha sido construir dispositivos que dure para siempre -. Con funcionamiento totalmente estable, pero si se piensa en la posibilidad contraria dispositivos que están diseñados para desaparecer físicamente de una manera controlada y manera programada - entonces otro tipo, completamente diferentes de oportunidades de aplicación se abre ".

I. INTRODUCCIÓN Los investigadores, dirigidos por John Rogers, un científico de materiales en la Universidad de Illinois en Urbana-Champaign, Fiorenzo Omenetto, ingeniero biomédico de la Universidad Tufts en Medford, Massachusetts, y Youggang Huang, de la Northwestern han creado un circuito que puede desaparecer tras un período determinado. El dispositivo, presentado en la revista Science, puede ser utilizado para crear implantes médicos que, tras cumplir su función, sean reabsorbidos por el propio organismo. [Fig. 1] II.

CARACTERÍSTICAS Y ELABORACIÓN

Imagínese que cuando actualizas tu teléfono celular esta semana, su viejo teléfono sin causar daños disuelve. No más basura electrónica sentado en éxtasis en el basurero. John Rogers y colegas probaron la viabilidad de la electrónica transitorios mediante la creación de nanomembrana microchips capaces de disolver en su entorno después de una cantidad programada de tiempo. La mejor forma de verlo es pensar que considerar los tipos de dispositivos electrónicos que están fuera allí hoy. Están todos construidos en el plano rígido o superficies frágiles de semiconductor obleas. Y un sello de su operación es que tienen tiempos de vida extremadamente larga. Operan de forma fiable y robusta para muchos, muchos años. Y esa característica atributo ha sido esencial para todo tipo de dispositivos electrónicos de consumo. Lo que empezamos a pero su

112


Revista Conceptual UCB Fig. 1 Circuito de seda, hojas delgadas de silicio poroso y electrodos de magnesio.

Los investigadores, que ya han desarrollado "tatuajes" sensores electrónicos, que se doblan y estiran la piel, dicen que ahora pueden hacer casi cualquier tipo de disolvente de alto rendimiento de los dispositivos electrónicos u ópticos con electrónica transitorias, según Nature News . En el último experimento, los investigadores han creado pequeños chips informáticos-como los dispositivos que fueron diseñados para generar calor para matar los gérmenes y luchar contra la infección después de la cirugía. Ellos encontraron que los dispositivos trabajó en ratones durante más de una semana hasta que su capa de seda disuelto suficiente para que los líquidos corporales para romper las piezas clave del dispositivo. Encontraron que después de tres semanas, los gadgets pequeños habían desaparecido por completo. [Fig. 2][Fig. 3].

Fig. 2 Exposición del circuito al agua.

El silicio en sí es sólo muy ligeramente reabsorbible en cualquier tipo de sentido práctico. En el cuerpo, el silicio se disolverá - se somete a hidrólisis para formar ácido silícico en biofluidos en ese tipo de pHs - pero sólo unos pocos nanómetros por día. Y así, si se piensa en ese ritmo, lo que realmente se opone a la utilización de la oblea convencional-formato basado en silicio, porque hay material demasiado. Es demasiado espeso. Si calcular el tiempo de un chip de silicio que se reabsorben en el cuerpo, se trata de un millar de años.Y lo que es realmente irrelevante para el tipo de aplicaciones implantables que estamos pensando aproximadamente. Pero lo que encontramos es que hay maneras de recortar el silicio en pedazos increíblemente delgados y geometríos de modo que se reduce en muchos órdenes de magnitud la cantidad total de material que tiene que disolver por medio de hidrólisis con el fin de afectar a la fugacidad, pero en el momento mismo espesor basta con que usted puede construir confiables y de alto rendimiento de transistores. Se presenta un conjunto de materiales, los sistemas de fabricación, los componentes del dispositivo, y herramientas teóricas de diseño para una base de silicio semiconductor complementario de óxido metálico (CMOS) que tiene este tipo de comportamiento transitorio, junto con sensores integrados, actuadores, sistemas de suministro de energía, y estrategias de control inalámbricos. Un dispositivo implantable transitoria que actúa como un bactericida no antibiótica programable proporciona un ejemplo a nivel de sistema. Para elaborarlo, los investigadores han utilizado capullos de seda, hojas delgadas de silicio poroso y electrodos de magnesio –todos ellos materiales degradables– y lo han probado como implante biomédico en ratones. Antes de implantarlo, lo programaron para ser reabsorbido después de una cantidad concreta de exposición a los biofluidos de los animales.[Fig. 4]

Fig. 3 Disolución del circuito al contacto con el agua

Después de tres semanas, en las que el dispositivo cumplió su función administrando un bactericida, los científicos constataron que quedaban tan solo pequeños restos del implante. John Rogers, uno de los investigadores que han participado en el proyecto, explica otra posible

113


Revista Conceptual UCB aplicación médica de estos circuitos, la cura de huesos rotos: ―Se ha demostrado que la estimulación eléctrica acelera el crecimiento y la curación de fracturas óseas, y un dispositivo temporal como este es una interesante oportunidad en ese sentido‖. El científico asegura que en ―un año o dos podrían empezar a hacerse pruebas con seres humanos‖, aunque aclara que su foco en este momento son los modelos animales. III. OTRAS APLICACIONES Pero los posibles usos de estos circuitos van más allá de la medicina. Según Rogers, una posible aplicación sería la monitorización ambiental: ―Imaginemos el despliegue de 100.000 sensores electrónicos con capacidad de comunicación inalámbrica en un vertido químico. Podrían aportar información útil y simplemente desaparecer tras la eliminación del vertido‖. La última tecnología también podría ser utilizado para desarrollar los teléfonos celulares y otros aparatos comunes que se disuelven después de varios años en vez de terminar en rellenos sanitarios, según los investigadores. "Estos productos electrónicos están ahí cuando los necesitas, y después de haber cumplido su propósito de que desaparezcan. Este es un concepto completamente nuevo", dijo Huang. ―Además, podrían simplificar la gestión de los residuos electrónicos de consumo. La tecnología de consumo actual suele quedar obsoleta en dos o tres años y se desecha, así que sería interesante utilizar estos dispositivos degradables para reducir el impacto ambiental‖, concluye el investigador.

oportunidades para sistemas que ofrezcan el comportamiento opuesto, tales como dispositivos implantables que la función de los marcos de tiempo médicamente útiles, pero luego desaparecen por completo a través de la reabsorción por el cuerpo. RECONOCIMIENTOS John Rogers, científico de materiales en la Universidad de Illinois en Urbana-Champaign, Fiorenzo Omenetto, ingeniero biomédico de la Universidad Tufts en Medford, Massachusetts, y Youggang Huang ingeniero biomédico de la Northwestern.

[1] [2] [3]

[4] [5]

Fig. 4 Inserción del dispositivo dentro del cuerpo de la rata

IV. CONCLUSIONES Una característica notable de la moderna electrónica de silicio es su capacidad para seguir siendo físicamente invariante, casi indefinidamente para fines prácticos. Aunque esta característica es una característica de las aplicaciones de los circuitos integrados que existen en la actualidad, puede haber

114

REFERENCIAS Suk-Won Hwang, Hu Tao, Dae-Hyeong Kim, Huanyu Cheng,Jun-Kyul Song,Elliott Rill, Mark A. Brenckle,Bruce Panilaitis,Sang Min Won, YunSoung Kim, Young Min Song, Ki Jun Yu, Abid Ameen, Rui Li, Yewang Su, Miaomiao Yang, David L. Kaplan, Mitchell R. Zakin, Marvin J. Slepian, Yonggang Huang, Fiorenzo G. Omenetto, John A. Rogers. ―A Physically Transient Form of Silicon Electronics‖.


Revista Conceptual UCB

ENFERMERO PERFECTO Patricia Ximena Aparicio Leon Ingeniería Mecatronica Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre, calle 2 N° 4807, Obrajes La Paz - Bolivia Resumen— Hoy en día los humanos buscamos facilitarnos las actividades cotidianas, por lo que buscamos la forma de sustituir nuestro trabajo por un algo mecánico y electrónico. Los robots enfermeros ahora facilitaran el trabajo de enfermeros humanos y también de los médicos, asi como los familiares de enfermos y ancianos.

En Japón, los esfuerzos por crear robots que puedan ayudar a los ancianos o cuidar a los enfermos son intensivos. La gente que puede ayudar y cuidar a la población mayor de este país cada vez es menor, por lo que la ayuda de una maquina posiblemente inteligente se vio como solución.

Palabras clave — Robótica, tecnología, enfermos, medicina, cuidados.

En el año 2006 nació RI-MAN, un robot desarrollado por RIKEN que cogía en brazos a enfermos que estuviesen postrados en una cama y que aliviaba a los enfermeros de la tarea de cargar con los pacientes para moverlos, cambiarles la ropa de las camas o sentarlos en una silla de ruedas. RIMAN, ese mismo año, fue elegido por la revista TIME como uno de los grandes inventos. Después de unos años, RI-MAN evoluciono a RIBA(Robot for Interactive Body Assistance) que también asistía a las personas con movilidad reducida, reconocía voces y rostros. Ahora evoluciono a RIBA II, una nueva versión mucho más grande que las anteriores versiones.

I. INTRODUCCIÓN El siguiente artículo mostrará en su desarrollo los avances tecnológicos de este tiempo relacionado con la medicina. Se desarrollara las ventajas y desventajas de esta nueva era de enfermeros. II. DESARROLLO ―La robótica es una ciencia o rama de la tecnología, que estudia el diseño y construcción de máquinas capaces de desempeñar tareas realizadas por el ser humano o que requieren del uso de inteligencia. Las ciencias y tecnologías de las que deriva podrían ser: el álgebra, los autómatas programables, las máquinas de estados, la mecánica o la informática‖. [1] La robótica es la consecuencia de los deseos del humano de crear seres similares a nosotros para facilitar diversos trabajos y por ende el vivir. Hasta ahora esto no se da con buenos resultados ya que tareas sencillas para los humanos como correr, caminar o bien alzar algún objeto sin romperlo no se logra que estos entes lo hagan. Isaac Asimov acuño la palabra robótica como la ciencia que estudia a los robots, como también, las leyes de ética para estos. Los robots de hoy ni siquiera comprenderían estas normas por que no son suficientemente inteligentes. Las leyes son: 1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.[2]

RIBA II llega con el mismo objetivo que sus antecesores, este enfermero además de coger en brazos a una persona que está en cama y depositarla en una silla de ruedas, tiene ahora un cuerpo más flexible que le permite inclinarse y recoger personas del suelo, muy útil para recoger a un enfermo que haya caído al suelo. Su estructura reforzada le permite levantar personas de hasta 80 kg de peso (casi 20 kg más que su antecesor), gracias a su red de sensores, medir con mucha mayor precisión el peso que se está sujetando, ajustando el agarre y los movimientos haciéndolos menos bruscos. El robot posee en su espalda unos controles que permiten a los enfermeros a programar las tareas que tiene que realizar el robot. RIBA II, para tener seguridad, solo recibe órdenes de los enfermeros o trabajadores del hospital, como el número de habitación a la que debe desplazarse para mover a un enfermo, eso sí, para dotar de mayor seguridad a estos controles, el panel táctil sólo puede ser utilizado por personal autorizado. Además, el robot puede ser guiado gracias a los sensores capacitivos que hay en su brazo (que son los primeros sensores capacitivos hechos con plástico), por tanto, si un enfermero lo toma del brazo, el robot podrá pararse o

115


Revista Conceptual UCB seguirlo por el hospital. Estos mismos sensores están distribuidos por el pecho, brazos, antebrazos y manos del robot, que servirán para detectar la masa y envergadura del paciente y aplicar la fuerza adecuada. Con respecto a sus características, además de tener un cuerpo que es una red de sensores capacitivos, el RIBA-II mide 137cm de altura, 82cm de anchura y pesa 230 kg. Cada brazo tiene 7 grados de libertad de movimiento, su cuello tiene tres, su cintura dos y, gracias a su base omnidireccional, consigue 3 grados más de libertad de movimiento. Según el fabricante, la primera versión comercial del RIBA II estaría lista para el año 2015 y podría tener un precio de venta de unos 54.700 euros, es decir, unos 77.600 dólares, un precio bastante razonable para un ayudante que jamás sufrirá una lumbalgia y que, en un hospital, podría ahorrar a un enfermero el transporte de unos 40 pacientes de media al día, un dato muy importante sobre todo en Japón donde la proporción de personas mayores es bastante alta.

los sensores que lleva incorporados. Si la situación es grave, incluso puede efectuar una llamada al teléfono de emergencias alertando de lo que haya sucedido. También puede limpiar la habitación o hacer la compra, así como recordarle al anciano cuándo debe tomar su medicación. Hasta puede utilizar un estetoscopio y realizar un reconocimiento ordinario del paciente. La combinación del monitor táctil, cámara web, micrófono y conexión a Internet le permiten establecer videoconferencias con su doctor particular sin moverse de casa, o con parientes cercanos a los que no puede visitar.

Fig. 2. uBOT-5 examinando a un paciente.

Fig. 1. RIBA II, alzando un paciente.

También existen varias versiones de estos enfermeros como el uBOT-5, un asistente robótico diseñado para ayudar a las personas de edad avanzada en su rutina diaria. Incluso es capaz de realizar ciertas tareas propias de un enfermero que podrían salvarles la vida en determinadas circunstancias. El robot puede sostener en sus manos objetos de poco peso y tamaño reducido. Si una persona sufre una caída, él puede detectarlo mediante

También existe una enfermera robot, que cumpla algunas funciones básicas como realizar análisis de sangre, recibir a los pacientes, guiarlos por el Hospital, acompañarlos en la sala de espera, entre otras funciones. En Japón, el hospital Aizu Wakamatsu ha comprado tres enfermeras robots. Estas enfermeras dan la bienvenida a las personas, los guían por el hospital, realizan pruebas sencillas y además, que es una de las cualidades que más le gusta a sus pacientes, entretienen con diversos videos que muestran a través de un monitor que tienen en su pecho. La Nursebot, bautizada Florence, en honor a la importantísima enfermera Florence Nightingale, mide más de un metro, su cuerpo es cilíndrico y tiene un monitor incrustado en la pechera metálica. Su misión es la de servir como apoyo y compañía a personas internadas en hospitales y, especialmente, a ancianos que viven en sus casas sin ninguna compañía. Es el resultado de un largo proyecto en el que participaron ingenieros estadounidenses de la Universidad de Pittsburg y de la Universidad Carnegie Mellon, en Pennsylvania. Y a resultado ser muy eficiente ya que hasta la fecha ha cumplido a

116


Revista Conceptual UCB cabalidad con su labor de servir como apoyo y compañía a las personas enfermas.

a desarrollarse por lo que falta mucho para que uno de estos enfermeros pueda parecerse a un enfermero humano. Lo más difícil será desarrollar sentido común. REFERENCIAS [1] Diccionario enciclopédico, Santillana tomo 12. [2] RIBA II, el robot-enfermero que viene de Japón (3 de agosto, 2011). Consultado el 13 de octubre de 2012 http://alt1040.com/ 2011/08/ riba-ii-robot-enfermero-japon [3] Riba II, el robot humanoide sanitario para el traslado de pacientes (8 de noviembre de 2011). Consultado 14 de octubre de 2012 http://www.opinion.com.bo/opinion/articulos/2011/1108/noticias.p hp?id=31103

Fig. 3. Enfermera robot

También existen médicos robot. En Estados Unidos, en el hospital Johns Hopkins de Baltimore, llamado Robodoc, posee una pantalla de computadora en su cabeza, ojos de videocámara y un parlante en el lugar de la boca. Según comentan los creadores y demás doctores del recinto, a pesar de ser algo reciente, ya ha atendido una veintena de pacientes que pidieron consultas con el médico clínico. Estos enfermeros facilitan el trabajo de nosotros los humanos, pero por otra parte la aceptación, uso y comercialización de estos todavía esta por verse, ya que reportes de cadenas televisivas reconocidas indican que los enfermos y ancianos prefieren ser cuidados y atendidos por humanos que por robots. III. CONCLUSIONES Desde que el hombre empezó a razonar y tener actividades cotidianas, siempre pensó en técnicas y maneras de facilitar todo los trabajos, fue así como empezó a inventar toda clase de máquinas y descubriendo la manera de mejorarlas. Es asi como el hombre creo todo lo que conocemos ahora como los automóviles que nos facilita el transporte de un lugar a otro, los celulares, internet y redes sociales que nos ayudan a la comunicación instantánea. Con todas estas creaciones también se fue descubriendo y desarrollando nuevas y mejores. Ahora los nuevos inventos están más relacionado con la robótica y la inteligencia artificial, esto como se señaló anteriormente es para facilitar y sustituir tareas y trabajos humanos. Así es como llegan los enfermeros robots. Estos todavía no son muy accesibles a todos, porque no existen en grandes cantidades y por lo tanto su precio es muy elevado. Uno de los grandes problemas también es que la gente no está acostumbrada a tener relación con robots y menos ser cuidados por estos. A estos robots enfermeros les falta mucho por desarrollar, todavía la inteligencia artificial empieza

117


Revista Conceptual UCB

CIRUGÍA ROBÓTICA Lilian Peñaloza Ochoa #

Ingeniería Mecatrónica Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre N° 4807, Obrajes 1

lilitap93@gmail.com

La Paz - Bolivia Resumen— Este es un documento informativo sobre una de las nuevas aplicaciones tecnológicas en la vida del ser humano, la cirugía robótica. La cirugía robótica es una técnica con la cual se pueden realizar procedimientos quirúrgicos, mediante el uso de robots. A través de estos, se puede intervenir quirúrgicamente a los enfermos con los mínimos riesgos posibles, la mayor exactitud y precisión, también con un mejor cuidado de la higiene y comodidad para el cirujano, entre otras ventajas. Palabras clave — Cirugía, robots, Da Vinci, laparoscopía, tecnología.

I. INTRODUCCIÓN Con el transcurso del tiempo la tecnología ha evolucionado en sus diferentes áreas. Una de las áreas más interesantes e importantes es la de la robótica. Sin embargo, el ser humano está enfocado a diseñar y crear nuevos productos que faciliten la vida de sí mismo y su entorno. Una de sus creaciones en ésta área es la de la cirugía robótica, el cual se está utilizando en diferentes partes del mundo, que permite la intervención quirúrgica de una manera eficiente y segura. II. ORIGEN DE LA CIRUGÍA ROBÓTICA El primer uso documentado de un robot de asistencia en la técnica quirúrgica ocurrio en 1985 cuando el brazo robótico del PUMA 560(ver Fig. 1), fue utilizado en una biopsia delicada neurocirugía, la cirugía non-laparoscópica. El procedimiento de 1985 llevo a cabo el primer procedimiento laparoscópico relacionado con el sistema robótico, un cholescystecotomy, en 1987. Al año siguiente se utilizó el mismo sistema de PUMA para llevar a cabo una resección transuretral. En 1990 el sistema AESOP producido por Computer Motion se convirtió en el primer sistema aprobado por la Administración de Alimentos y Medicamentos (FDA) para su procedimiento quirúrgico endoscópico.

Fig. 1 Brazo robótico PUMA

El sistema de cirugía robótica Da Vinci (Ver Fig. 2) abrió un nuevo camino al convertirse en el primer sistema aprobado por la FDA para la cirugía laparoscópica en general en el año 2000. Esta aprobación hizo da Vinci, el primero sistema quirúrgico robótico aprobado por la FDA. Es decir, que con el sistema da Vinci, para la primera vez que la FDA aprobó un sistema que abarca todo los instrumentos quirúrgicos y la cámara utensilios escópica. Sus predecesores se basaron en el uso de endoscopios y numerosos asistentes de cirugía para realizar la cirugía. La ampliación del sistema da Vinci es realmente de tres tridimensionales que permite al cirujano ver el área de la incisión con claridad de alta resolución. Los brazos quirúrgicos de un centímetro en diámetro representan un avance significativo en la cirugía robótica de los principios de sistemas con brazos de gran tamaño, como el PUMA 560. Con tales brazos diminutos, el sistema da Vinci ha sido capaz de eliminar la necesidad de utilizar las paredes del tejido de la incisión en el paciente para apalancamiento. Este avance permite menos contacto entre el tejido expuesto interior y el equipo quirúrgico, lo cual reduce enormemente el

118


Revista Conceptual UCB riesgo de infección. El sistema da Vinci ha sido aprobado por la FDA para el uso en adultos y pediátricos procedimientos en las siguientes áreas:  Cirugías urológicas.  Cirugías generales laparoscópicas.  Cirugías general toracoscópicas noncardiovasculares.  Procedimientos toracoscópicamente asistidas de cardiotomía.

Fig 3 El robot cámara móvil visto desde (A) mesa de trabajo y (B) laparoscopía durante una colecistectomía porcina. Un robot móvil demostrando (C) biopsia hepática y (D) exploración peritoneal transluminal.

Fig. 2 Robot Da Vinci.

3) Mejor destreza y mayor precisión: Los brazos robóticos (ejemplo Fig. 4), equipados con diminutos instrumentos, pueden girar 360 grados, rotando y curvándose según lo dicte el cirujano. Esta destreza permite a los instrumentos navegar por dentro del cuerpo de formas que le son imposibles a la mano humana. 4) Una articulación especial de la muñeca en la punta de los instrumentos quirúrgicos mejora la habilidad de realizar movimientos sutiles y complejos tales como maniobrar alrededor de áreas delicadas mientras se corta.

III. CIRUGÍA ROBÓTICA A. Ventajas de la cirugía robótica A diferencia de la cirugía laparoscópica, que está generalmente limitada a procedimientos sencillos, la cirugía asistida por robot puede utilizarse para operaciones más complejas, ya que ofrece mejoras adicionales que los cirujanos pueden utilizar para beneficiar al paciente, incluyendo: 1) Una mejor visión a través de una ampliación tridimensional:La cámara de imágenes estéreo de alta definición captura la percepción de profundidad que no está disponible a los cirujanos que utilizan la laparoscopia estándar. La cámara también puede ampliar las imágenes hasta 10 veces más de lo que se puede ver con el ojo humano.(Ejemplo Fig 3)

Fig. 4 Cambio del brazo humano por un brazo robótico

119


Revista Conceptual UCB 3) La habilidad de neutralizar los temblores de las manos: El robot corrige cualquier pequeño movimiento de la mano, como un temblor.

C. Tipos de cirugías. Son diferentes los tipos de cirugía que se pueden aplicar en este caso mediante robots. Es importante mencionar que la cirugía robótica se ha realizado con éxito en los siguientes procedimientos quirúrgicos:         

Cirugía oncológica. Cirugía de próstata. Cirugía ginecológica.(ejemplo Fig.6) Cirugía de estómago. Cirugía de obesidad. Cirugía de colon y recto. Cirugía de corazón. Cirugía de la vesícula biliar. Cirugía para el reflujo gastroesofágico.

Fig. 5 Ejemplo de la utilización del robot mediante manos humanas.

4)Mejor control por parte del cirujano: El cirujano controla la cámara durante todo el caso, permitiendo una mejor visión. Todos estos beneficios se traducen en beneficios adicionales para el paciente, incluyendo:  Menos dolor  Menos pérdida de sangre  Incisiones más pequeñas y cicatrices mínimas  Menor riesgo de infección  Una estadía hospitalaria más corta  Un regreso más rápido a sus actividades diarias B. Desventajas de la cirugía robótica 1) Es muy costoso para países en pleno desarrollo. 2) El tiempo de duración de la programación del mismo es complicado: Debido a que tiene que ser muy preciso en sus funciones. Una cirugía robótica es más lenta que una convencional ya que el robot está limitado a tener solo 6 movimientos a comparación de la mano humana que puede tener entre 20 y 25 movimientos diferentes. 3) El avance de la cirugía robótica ha quedado estancado: En la mayoría de los casos por las limitaciones de la tecnología.

Fig. 6 Ejemplo de un robot en plena reconstrucción de vejiga.

D. Riesgos de la cirugía robótica. Como en gran parte de las cirugías, la aplicación de anestecia puede traer riesgos como por ejemplo; Reacciones a los medicamentos, problemas respiratorios. La persona también corre riesgos quirúrgicos como el sangrado o una infección. La cirugía robótica puede tener menos riesgos que la cirugía laparoscópica y abierta. I. CONCLUSIONES El futuro de la cirugía robótica es tan prometedor como la voluntad humana para inventar mejores formas de llevar a cabo procedimientos médicos delicados. Es razonable suponer que las actuales ventajas proporcionadas por los sistemas quirúrgicos robóticos se ampliarán en la próxima generación de la robótica médica. Separación de los pacientes del contacto humano durante la cirugía, lo cual reduce los riesgos de infección, puede ser llevado a otro

120


Revista Conceptual UCB http://www.southmiamirobotics.com/index.php/losbeneficios-de-la-cirugia-robotica?lang=es

nivel con sistemas capaces de funcionar a mayor distancia entre la consola de control de los cirujanos y las robóticas al lado de la mesa del paciente. (Ver Fig. 7)Esto permitiría a las cirugías que se llevará a cabo con los pacientes cerca en una "sala limpia", que podría eliminar casi totalmente la infección durante la operación. La generación siguiente de robótica médica puede permitir el trabajo de preparación que la cirugía se lleve a cabo a través de control remoto también.

[4] Cirugia robotica: Da Vinci. Consultada el 20 de octubre de 2012. http://www.cun.es/la-clinica/areasmultidisciplinares/departamento/area-enfermedadestiroides/cirugia-robotica-sistema-davinci [5] Cirugia robotica. Consultada el 20 de octubre de 2012. http://www.nlm.nih.gov/medlineplus/spanish/ency/article/007 339.htm [6] Evolución de los robots. Consultada el 20 de octubre de 2012. http://roucab.blogspot.com/2011/06/evolucion-de-los-robotstravez-de-la.html

Fig. 7 robot realizando una cirugía

Otros avances pueden llegar a hacer más sistemas robóticos más capaces de reproducir la sensación táctil y el sentido que ha sido una crítica de la tecnología. Si el control de consolas podría implementar un sistema que recrea la información táctil para el cirujano, lo cual que las manos tradicionales más invasoras en los procedimientos de forma natural ofrecen, daría el cirujano lo mejor de dos mundos. El cirujano se beneficiaría toda la precisión y ventajas del procedimiento mínimamente invasivo, sin perder los datos adquiridos a través de su sentido del tacto en lo que se basa la llamada de juicio. REFERENCIAS [1] LitaHrasa. (2011, noviembre). El uso de la robotica en cirugías de alto riesgo. Consultada el 20 de octubre de 2012. http://www.slideshare.net/LitaHRaSa/el-uso-de-la-robtica-y-latecnologa-en-cirugas-de-alto-riesgo [2] Origenes de la robótica. Consultada el 20 de octubre de 2012. http://www.roboticoncology-es.com/cirugia-robotica-origenes/ [3] Beneficios de la cirugía robótica. Consultada el 20 de octubre de 2012.

121


Revista Conceptual UCB

Inteligencia Artificial Basada en ADN Humano Fabrizio Orlando Ledezma Arana Ingeniería en telecomunicaciones Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre Obrajes fabrizio_lear@hotmail.com

La Paz - Bolivia

Resumen— Este artículo se refiere a las investigaciones y los experimentos realizados para obtener decisiones por parte de un CHIP que reacciones a partir de recuerdos, los mismos sean aplicados a la vida diaria para beneficio del hombre, creando maquinas que ayuden en todos los campos, desde los educativos hasta los industriales, actualmente existen firmas electrónicas reconocidas que ya fabrican algunos robots con decisiones propias.. Palabras clave — Inteligencia Artificial con Moléculas de ADN Humano.

I.

INTRODUCCIÓN

Desde hace décadas que los científicos buscan crear una Inteligencia Artificial (IA) comparable a la humana. En general, la mayor parte de los intentos provienen del ámbito de la informática, implementando algoritmos y ordenadores que puedan reproducir en mayor o menor medida el comportamiento del cerebro humano. Pero un grupo de expertos del Instituto de Tecnología de California ha encarado del problema mediante la bioquímica, utilizando como ―ladrillo básico‖ para su cerebro artificial moléculas de ADN. El prototipo, una red compuesta por el equivalente a cuatro neuronas, fue capaz de reconocer patrones de sucesos, formar recuerdos, tomar decisiones y realizar diferentes acciones. Te contamos los detalles de este increíble experimento. II.

DESARROLLO

Científicos del Instituto de Tecnología de California (Caltech) pusieron a punto un ―cerebro artificial‖ capaz de recuperar recuerdos a partir de patrones parciales, de una manera similar a como lo hace el cerebro humano. Si bien se han hecho y se siguen haciendo experimentos similares casi todos los meses, lo que convierte al trabajo de los expertos del Caltech en algo especial es que su Inteligencia Artificial (IA) no es un programa corriendo en un superordenador. En efecto, se trata de una red neuronal pequeña (compuesta por el equivalente de

cuatro neuronas) construida a partir de moléculas de ADN. El nuevo ―cerebro‖ se encuentra dentro de un tubo de ensayo, y se comunica con el mundo mediante señales químicas y marcadores fluorescentes Para construir la red neuronal bioquímica, los científicos se basaron en un modelo de neurona sencillo denominado ―función de umbral lineal‖. Básicamente, el modelo predice que cuando la neurona recibe determinadas señales químicas en sus entradas, espera a que traspasen un umbral para ―activarse‖ y producir determinadas señales en sus salidas. Los expertos de Caltech son especialistas en ciencias computacionales y bioingeniería, y para probar las habilidades de su IA la sometieron a un ―juego de adivinación‖. Los sorprendentes resultados obtenidos con tan solo cuatro neuronas permite suponer que si se elevase su número lo suficiente, podría ser tan ―inteligente‖ como nosotros. III.

EXPERIMENTOS REALIZADOS

Desde hace décadas que los científicos buscan crear una Inteligencia Artificial (IA) comparable a la humana. En general, la mayor parte de los intentos provienen del ámbito de la informática, implementando algoritmos y ordenadores que puedan reproducir en mayor o menor medida el comportamiento del cerebro humano. Pero un grupo de expertos del Instituto de Tecnología de California ha encarado del problema mediante la bioquímica, utilizando como ―ladrillo básico‖ para su cerebro artificial moléculas de ADN. El prototipo, una red compuesta por el equivalente a cuatro neuronas, fue capaz de reconocer patrones de sucesos, formar recuerdos, tomar decisiones y realizar diferentes acciones. Te contamos los detalles de este increíble experimento. Científicos del Instituto de Tecnología de California (Caltech) pusieron a punto un ―cerebro artificial‖ capaz de recuperar recuerdos a partir de patrones parciales, de una manera similar a como lo

122


Revista Conceptual UCB hace el cerebro humano. Si bien se han hecho y se siguen haciendo experimentos similares casi todos los meses, lo que convierte al trabajo de los expertos del Caltech en algo especial es que su Inteligencia Artificial (IA) no es un programa corriendo en un superordenador. En efecto, se trata de una redneuronal pequeña (compuesta por el equivalente de cuatro neuronas) construida a partir de moléculas de ADN. El nuevo ―cerebro‖ se encuentra dentro de un tubo de ensayo, y se comunica con el mundo mediante señales químicas y marcadores fluorescentes Para construir la red neuronal bioquímica, los científicos se basaron en un modelo de neurona sencillo denominado ―función de umbral lineal‖. Básicamente, el modelo predice que cuando la neurona recibe determinadas señales químicas en sus entradas, espera a que traspasen un umbral para ―activarse‖ y producir determinadas señales en sus salidas. Los expertos de Caltech son especialistas en ciencias computacionales y bioingeniería, y para probar las habilidades de su IA la sometieron a un ―juego de adivinación‖. Los sorprendentes resultados obtenidos con tan solo cuatro neuronas permite suponer que si se elevase su número lo suficiente, podría ser tan ―inteligente‖ como nosotros. IV.

RESULTADOS OBTENIDOS

La pequeña red neuronal fue capaz de ―recuperar recuerdos‖ a partir de patrones incompletos, de la misma forma que lo hace nuestro cerebro. LuluQian, investigadora del Caltech y principal autora del artículo que su equipo publicó en el último número de la revista Nature, dice que ―este cerebro es increíble, capaz de reconocer patrones de sucesos, formar recuerdos, tomar decisiones y realizar acciones diferentes‖. Al comienzo de su trabajo, los investigadores se preguntaron si un grupo de moléculas en interacción podría llegar a exhibir un comportamiento ―ordenado e inteligente‖, similar al de un cerebro. Según Qian, y luego de haber culminado el experimento, la respuesta es un rotundo ―sí‖. Cada una de las ―neuronas‖ era un grupo de 112 hebras distintas de ADN, y la ―red‖ estaba contenida en un tubo de ensayo.

Para probar sus habilidades se la sometió a un juego que consistía en identificar a un científico determinado. Las respuestas posibles eran ―Rosalind Franklin‖, ―Claude Shannon‖, ―Santiago Ramón y Cajal‖ y ―Alan Turing‖, y el cerebro recibía datos del tipo ―Nació en el Siglo XX‖ o ―Era británico‖. Una vez que se introdujeron los datos necesarios en la red, el equipo de científicos elegía un nombre al azar, y proporcionaba a la IA un conjunto incompleto de datos sobre él. Sorprendentemente, a partir de los datos proporcionados, la red neuronal artificial fue capaz de ―adivinar‖ en cuál de los cuatro científicos habían pensado los investigadores utilizando 27 formas distintas de respuesta a las cuestiones. No falló siquiera una vez. Las ―preguntas‖ se introducían en el tubo mediante hebras de ADN y la red proporcionaba sus respuestas a través de señales fluorescentes. Seguimos estando lejos de conseguir una Inteligencia Artificial capaz de competir con la inteligencia natural, pero experimentos como este nos permiten especular con que dentro de no mucho tiempo lograremos una ―entidad artificial‖ capaz de razonar lo suficientemente bien como para ser útil. ¿No te parece? V.

CEREBRO ARTIFICIAL

Una empresa startup intenta crear un cerebro artificial

123


Revista Conceptual UCB próximos años. El cofundador D. Scott Phoenix cree que podría tener muchas aplicaciones: una computadora podría analizar las imágenes de diagnóstico para determinar si un paciente tiene cáncer o mirar a un plato de comida y decir cuántas calorías contiene

FIG. 2 UNA APLICACIÓN EN JUGUETES DIDÁCTICO

Fig. 1 Un cerebro creado artificialmente con CHIP Los ojos trabajan con el cerebro para enseñarle el mundo. Así aprendemos a reconocer objetos, personas y lugares y a imaginar cosas nuevas. Una empresa llamada Vicarious cree que los ordenadores podrían aprender a hacer lo mismo y está desarrollando un software que trata de procesar la información visual del mismo modo que lo hace el cerebro. Vicarious espera combinar la neurociencia y la informática para crear un sistema de percepción visual inspirado en el neocortex, la parte arrugada externa del cerebro que se ocupa del habla, el oído, la vista y el movimiento, entre otras funciones. La idea de una red neuronal un software que pueda simular el modo en el que funciona el cerebro mediante el establecimiento de conexiones entre neuronas artificiales ha existido desde hace décadas, pero Vicarious afirma haber perfeccionado y mejorado las técnicas anteriores.

Phoenix afirma que el software de Vicarious, al igual que el cerebro humano, esencialmente aprende viendo una serie de imágenes y estableciendo conexiones en respuesta a ellas. Esto significa que es lo suficientemente inteligente como para identificar un objeto, incluso si hay falta de información; reconocerá, por ejemplo, un brazo, aunque esté cubierto por pintura o un reloj de pulsera. Vicarious no ha publicado los detalles de su tecnología, pero la compañía, creada en el 2010, ha despertado el interés de algunos inversores. El mes pasado, en una ronda de financiación de serie A recaudó 15 millones de dólares de un grupo de inversores que incluye al cofundador de Facebook DustinMoskovitz. Fuente: TechnologyReview Fig. 3 Una aplicación en el trabajo VI. CONCLUSIONES Por lo que se puede ver anteriormente la

El cofundador de la empresa Dileep George señala que otros han tendido a basar su software de red neuronal en el modelo "neocognitron" propuesto por primera vez en 1980 (que a su vez se basa en un modelo de corteza visual ideado décadas antes). Estos sistemas, por lo general, están entrenados para reconocer la información visual utilizando imágenes estáticas aleatorias, añade. Vicarious, señala George, está utilizando una arquitectura más sofisticada y entrenando su sistema con una secuencia de vídeo que varía con el tiempo.

tecnología ha avanzado considerablemente, ya que en la actualidad se tienen diferentes aplicaciones, logrando que maquinas tomen decisiones que solo podía tomar un humano de acuerdo a necesidades. REFERENCIAS [1] [2] [3]

Vicarious espera tener un sistema de visión desarrollado y posiblemente, comercializado en los

124

Se ingreso a http://es.wikipediaorg/wikicerero el 15 de octubre de 2012. www.tendencias21.net se ingreso el dia 16 de octubre de 2012. www.medbook.es/profiles/blogs/crean-inteligenciaartificialse ingreso el dia 16 de octubre de 2012


Revista Conceptual UCB

NANO-CELULAS SOLARES Pablo Sergio Méndez Herrera Ingeniaría de Telecomunicaciones Universidad Católica Boliviana “San Pablo” Avenida 14 de septiembre Obrajes p_mendez_h@ucb.edu.bo

La Paz - Bolivia

Resumen— A través de la nanotecnología se está desarrollando un material fotovoltaico que se extiende como el plástico o como pintura. No solo se podrá integrar con obtenido por el equipo de MIT -aun en esta etapa otros materiales de la construcción, sino que ofrece la temprana de su desarrollo- ya es tan eficiente como promesa de costes de producción baratos que las mejores células solares disponibles permitirán que la energía solar se convierta en una comercialmente, que tienen sobre su espalda décadas alternativa barata y factible. de investigación. De todos modos, el nuevo Palabras clave — células solares, energía, dispositivo utiliza un enfoque diferente para nanotecnología, fotovoltaico, energía limpia.

I. INTRODUCCIÓN Varios científicos han desarrollado unas células solares 200 veces más pequeñas que el diámetro de un cabello humano, un descubrimiento que podría servir para alimentar los dispositivos electrónicos del futuro. se trata de un descubrimiento que permite generar energía limpia y renovable, un tipo de fuentes de energía que cada vez están teniendo más importancia en un mundo en el que algunas fuentes de energía convencionales tienen los días contados. II.

aprovechar la energía del sol. Aunque son similares en su aspecto a los paneles solares estándar, se compone de diferentes materiales y aprovecha la luz y el calor solar de una forma totalmente diferente.

DESARROLLO

La nanotecnología ha permitido que se tenga en prueba un material fotovoltaico que se aplica como una especie de pintura plástica, aparentemente tendrá el mismo uso que las celdas fotovoltaicas, pero todavía está en pruebas .Si el material funciona, en poco tiempo lo podremos ver integrado a los materiales de construcción ofreciendo una posibilidad de convertir al Sol en una fuente de combustible factible y económica. I. Diferencia con los paneles estándar La principal diferencia entre los nuevos paneles y los tradicionales estriba en que se parte de una diferencia de temperatura entre el interior y exterior del mismo cercana a los 200 grados centígrados. Esta diferencia térmica, aseguran en el MIT, es la base sustancial del nuevo sistema de producción de electricidad. El trabajo ha sido dirigido por Chen Gang, director del laboratorio Pappalardo Micro and Nano Engineering del MIT. El sistema ha sido analizado por el profesor asociado de ingeniería mecánica de la Universidad de Texas en Austin, Li Shi, quien explica que el nivel de eficiencia de conversión

Figura 1: Estructura de una nano célula solar B. Condiciones para el funcionamiento La generación de la electricidad solar depende de la conversión fotovoltaica o de la concentración de luz solar directa. La conversión fotovoltaíca funciona, en días nublados, con una eficacia menor, mientras que el sistema de concentración de luz solar directa se puede lograr sin semiconductores. En ambos casos, no se requiere mucho material, y los diseños mecánicos pueden ser sencillos y relativamente fáciles de mantener.

125


Revista Conceptual UCB C. Proceso de funcionamiento de las nano células solares

Figura2: nanotubo de célula solar.

Cuando la luz llega al nanotubo golpea su capa externa y empuja algunos electrones del silicio, que tienen carga negativa, hacia la capa más interna. Este mismo proceso hace que en la capa externa queden ―hoyos‖ con carga positiva. Otros electrones de las capas más internas llegan a ocupar el espacio de esos ―hoyos‖ cargados positivamente y el proceso comienza de nuevo.Este movimiento de los electrones es lo que genera electricidad. La cantidad generada es de 200 pico vatios

B. Soluciones que plantea La tecnología supera considerablemente el problema de transporte deficiente de las cargas generadas por fotones solares. Estas cargas – electrones negativos y hoyos positivos – normalmente quedan atrapadas por defectos en los materiales y sus interfaces y degradan el rendimiento. La nueva estructura solar se compone de nano conos tipo n rodeados de un semiconductor tipo p. Los nano conos de tipo n son de óxido de zinc y sirven como marco de unión y el conductor de electrones. La matriz de tipo p es de teluro de cadmio poli cristalino y sirve como medio de absorción de fotones primarios y como conductor de hoyo.

Figura 4: Imagen de un nano cable solar para la transformación de energía solar en electricidad. D. diseño de las células El diseño está basado en nanocristales de seleniuro de cadmio y teluro de cadmio, y la idea consiste en combinar varias técnicas de disoluciones, que normalmente se emplean en la fabricación de células solares orgánicas, con la robustez de los materiales empleados en sistemas inorgánicos. Estas células solares son tan baratas y fáciles de fabricar como las hechas de polímeros orgánicos, ofreciendo la ventaja de que son más estables en el aire, responden a un ancho de banda mayor y tienen mejor capacidad de transporte de carga eléctrica. Figura 3:Imagen de estructura solar de nano conos.

126


Revista Conceptual UCB demostrado ser una gran alternativa para encontrar la solución a la búsqueda de una nueva energía renovable que no contamine, pero para poder ver realizado este proyecto de la nano células solares se tendrá que esperar un poco más de tiempo.

Figura 4: imagen de nanocristales E. Inconvenientes de las células Sus mayores inconvenientes son las escasas eficiencias obtenidas las cuales, actualmente se encuentran entre un 5-6%, aunque puede llegar a un 12% si se usan varias células apiladas y el hecho de que la duración de las células solares actuales fabricadas con silicio es muchísimo mayor que la de las fabricadas con semiconductores inorgánicos. Este hecho puede provocar que no sean tan económicas como se espera que sean.

RECONOCIMIENTOS [1] http://www.theinquirer.es/2007/10/18/el _futuro_nanocelulas_solares.html ( Página consultada el 9 de octubre de 2012) [2] http://ticcuctecnologia03.blogspot.com/2 012/06/nano-celulas-solares-nano-solarcells.html ( Página consultada el 10 de octubre de 2012) [3] http://www.euroresidentes.com/futuro/n anotecnologia/nanotecnologia_responsa ble/nanotecnologia_energia_solar.htm ( Página consultada el 10 de octubre de 2012) [4] http://www.nanotecnologica.com/tecnol ogia-de-celulas-solares-de-nanocono-3daumenta-la-eficiencia/( Página consultada el 9 de octubre de 2012)

Figura 5: Detalle de una célula solar fabricada con semiconductores orgánicos III.

CONCLUSIONES

Las nano células solares son un gran proyecto y avance tecnológico, pero como pudimos darnos cuenta este proyecto todavía no está terminado. Para que la realización de esto sea posible todavía faltan realizar varias investigaciones. La nano tecnología a

127


Revista Conceptual UCB

Robots implementados en paneles solares Priscila Raquel Salazar Paredes Ingeniería Mecatrónica Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre - Obrajes p_salazar_p@estudiantes.ucb.edu.bo La Paz – Bolivia Resumen— Este documento muestra el uso de los robots que son implementados para la optimización de paneles solares y a la instalación de los mismos aportando así a la conservación del medio ambiente y dando un aporte a la crisis eléctrica mundial. Palabras clave — Paneles Solares, QBotix, Solbot

I. INTRODUCCIÓN Actualmente, la energía solar es una de las energías alternativas de mayor relevancia junto a la energía eólica. En el caso de la energía solar, aunque seguidores solares puede aumentar significativamente la producción de energía de las células solares, manteniéndolos alineados de forma óptima hacia el sol, la instalación de ellos en todos los paneles en una instalación puede añadir un gasto significativo y proporciona múltiples puntos de fallo.

La idea principal es ahorrar en mano de obra, que representa una porción cada vez mayor del coste de la energía solar ahora que los paneles son más baratos. Según PV Kraftwerker, una empresa de construcción especializada en parques solares, el montaje de las instalaciones para las que antes harían falta 35 trabajadores ahora se puede hacer con tan solo 3 de ellos en una octava parte del tiempo. Según cálculos de la empresa, para una central solar de 14 megavatios, el coste de instalación manual de los paneles estaría en torno a los 2 millones de

La idea es que se puedan utilizar robots para operar plantas completas de energía solar, habla uno de sus fundadores para la revista FastCompany, Wasiq Bokhari. Wasiq quiere reducir a niveles importantes el costo de generar energía solar. Un nuevo sistema de seguimiento de QBotix evita estos problemas al obtener un robot para hacer las pruebas de la instalación solar durante el día y ajustar los paneles a 40 minutos de intervalo para asegurarse de que están perfectamente frente al sol. Además se plantea el uso de robots para la instalación de los paneles solares. II. DESARROLLO A. Instalación de paneles solares En la instalación de paneles solares, empresas como PV Kraftwerker y Gehrlicher en Alemania están desarrollando robots móviles capaces de instalar paneles solares en el suelo automáticamente, día y noche, nieve o truene. El robot de PV Kraftwerker está diseñado para montar paneles solares de escala de central eléctrica, que son cuatro veces más grandes que los que se instalan en las casas.

dólares (unos 1,6 millones de euros). Fig. 1 Imagen de un brazo robótico colocando un gran panel fotovoltaico sobre una estructura en Leipzig, Alemania

Usando el robot esos costes se podrían reducir a la mitad. La empresa afirma que el coste del robot, que se vende por 900.000 dólares (unos 720.000 euros), podría amortizarse en menos de un año de uso constante. La ayuda robótica supondrá un impulso para los ambiciosos planes de Alemania de obtener una tercera parte de su energía eléctrica de fuentes renovables dentro de 8 años, y un 80 por ciento para 2050. En 2011, Alemania se colocó a la cabeza del mundo en instalaciones solares. Colocó paneles

128


Revista Conceptual UCB

El Sistema de Seguimiento de QBotix es de dos robots, que con paneles solares instalados en el equipo, los robots puedan mover en un espacio determinado y ajusten de forma automática el sistema mientras transcurre un día completo de esta manera los paneles siempre estarán dando la cara al sol. Tiene un sistema en el que si ocurren inconvenientes, un segundo robot les suple y hace un ―backup‖ de energía. Este sistema recoge, en esencia los distintos motores y controladores tradicionalmente colocados en cada montaje en panel y los reemplaza con un par de robots móviles autónomos - uno principal y otro de reserva. capaces de generar unos 7,5 giga vatios y cubrió unos 50 kilómetros cuadrados de terreno y tejados. Fig.2 Imagen computarizada de un ―Solbot‖.

Estos "Solbots" contienen los motores y controladores necesarios para realinear físicamente los paneles y viajes de un panel a otro en un carril, ajustando cada panel a medida que avanzan. Las pistas se pueden colocar en el suelo sin una

PV Kraftwerker construyó su robot partiendo de piezas estándar japonesas. La máquina consiste en un brazo robótico montado sobre un vehículo todoterreno con ruedas oruga. Unas ventosas agarran la cara cubierta por cristal de los paneles solares y el brazo los coloca en su sitio, guiado por cámaras que proporcionan al robot una visión en tres dimensiones de la escena. Las limitaciones del robot dan una idea de lo difícil que resultará automatizar completamente el proceso de instalación de paneles solares. Gran parte de la energía solar alemana se genera en instalaciones colocadas en los tejados, pero el tamaño y la orientación de los mismos es demasiado variada como para que los robots puedan hacerse cargo de ella. En las plantas solares pequeñas, y para quienes usan paneles de tamaño normal, la mano de obra humana es más rápida y más barata que el robot, según Markus Gattenlöhner, director de marketing en PV Kraftwerker. Por ahora el robot de PV Kraftwerker solo es capaz de hacer una cosa: colocar paneles sobre una estructura metálica ya instalada por humanos. Dos personas que caminan junto al robot atornillan los paneles a la estructura y hacen las conexiones eléctricas. Robots como estos pueden ser útiles para llevar electricidad a entornos inhóspitos. El gobierno de Japón ha encargado a PV Kraftwerker que desarrolle una versión de su robot capaz de instalar prácticamente solo una planta solar en zonas radioactivas cercanas al área donde estaba situada la planta nuclear de Fukushima.

graduación requerida y el sistema es modular, por lo que las pistas se pueden extender si se añaden más paneles. Fig. 3 Imagen computarizada de un ―Solbot‖ dispuesto en filas sobre un campo.

QBotix dice que sus Solbots son a prueba de polvo y resistente al agua (IP-65 de valoración) y permite supervisar y manejar un arreglo solar de 300 kw. Sin embargo, los paneles necesitan ser montado en un sistema de montaje QBotix que sea compatible con los robots. Pero la compañía dice que sus seguidores son compatibles con todos los módulos estándar solares, inversores y tipos de cimentación usados en instalaciones solares montadas en el suelo. Los rastreadores son también puramente mecánicos sin motores o componentes electrónicos, reduciendo las posibilidades de una avería.

B. Optimización de paneles solares

129


Revista Conceptual UCB El ―Solbot‖ es un sistema de seguimiento de doble eje que sigue el sol vertical y horizontalmente. QBotix afirma que va a generar hasta un 40 por ciento más de energía que los sistemas de soporte fijo, y la energía hasta en un 15 por ciento más que los actuales sistemas de un solo eje - esto es a pesar de tener un costo comparable a los actuales sistemas de un solo eje. Una empresa de Californía QBotix con inversión de la empresa de capital riesgo NEA inversor y Siemens entre otros inversores han conseguido probar durante un año en un huerto solar su creación SolBot.

III. CONCLUSIONES El presente trabajo mostró la eficiencia que un robot puede tener para los paneles solares, disminuyendo el costo y generando más energía. IV.

REFERENCIAS

[1] www.gizmag.com/qbotix-trackingsystem-solar-array/24087/ [2] http://www.thetrendexplorer.com/blog/2 012/09/14/robots-paneles-solares/ [3] http://www.technologyreview.es/read_ar ticle.aspx?id=40890

Fig. 4 Imagen de un ―Solbot‖ usado en el estado de California

Tras ponerse en marcha el uso de ―SolBots‖ se tuvo un buen resultado y fue el costo de mantenimiento y recarga de estos mismos muy bajos. Estas iniciativas pueden dar a una consolidación en el sector de las llamadas energías renovables o alternativas. En un planeta que depende todavía de los recursos fósiles, aplicar nuevas tecnologías para brindar energía limpia es el norte para un futuro. Y más cuando un robot, pueda ser parte de ello. Queda esperar su aplicación y masificación a largo plazo.

130


Revista Conceptual UCB

I´m Watch (Reloj con Bluetooth) Yoseline Ruth Vera Durán #

Ingeniería de Telecomunicaciones Universidad Católica Boliviana “San Pablo” Av, 14 de Septiembre- obrajes y_vera_d@estudiantes.ucb.edu.bo

La Paz - Bolivia Resumen ―I´m Watch‖ trata de un reloj de muñeca con conectividad Bluetooth, el cual cuenta con el famoso sistema operativo de Google, siendo más claro una versión que han creado a partir de Android 1.6. No es un teléfono móvil, pero tiene unas grades similitudes; se puede recibir notificaciones, mensajes y correos. Además viene con un micrófono y altavoz incorporado, para que se pueda usar en función de manos libres, ideal para salir a correr y no llevar el móvil con  nosotros. (1) Este dispositivo es: inalámbrico, sincronizado, con  pantalla táctil, reproductor de música, inteligente.

I. INTRODUCCIÓN La necesidad de empresas de informática y de telecomunicaciones de desarrollar una interface abierta y de bajo coste para facilitar la comunicación entre dispositivos sin la utilización de cables, aprovechando la movilidad de los dispositivos inalámbricos, se dio como resultado una nueva tecnología cuyo nombre clave es ―Bluetooth‖. El Bluetooth está formado por grupo de compañías de diferentes áreas de la industria (telecomunicaciones, redes, computación); entre las que se encuentran Ericsson, Intel, Microsoft, Motorola, Nokia, Toshiba, entre otras empresas promotoras de la tecnología.

Otro punto positivo que presenta esta tecnología es la fácil manipulación y configuración de redes y subredes dentro del mismo espacio con la implementación de diversos Picones entrelazados a través de distintas configuraciones Scatternets. Este dispositivo se compone de dos partes: fundamentales: Un dispositivo de radio, encargado de transmitir y modular la señal. Un controlador digital, compuesto por un procesador de señales digitales. Como ya sabemos el Bluetooth permite comunicaciones entre computadoras portátiles, teléfonos celulares, etc.

Fig. 2 reloj I´m Watch de frente y perfil

Fig.1 Reloj I´m Watch

Uno de los atractivos más grandes de la implementación de esta tecnología para la estructuración de redes, es la de que es posible configurar distintas redes en mismo punto geográfico, con relativamente alta velocidad de transmisión, esto debido a su alcance limitado presenta una gran desventaja a la hora de tratar de implementar una red en una extensa área geográfica.

II. DESARROLLO Im Watch fue lanzada en enero de éste año, como ya habíamos adelantado es un gadget que cuenta con la version de 1.6 de Android y con conectividad Bluetooth 2.1. Cuenta en su interior con un minúsculo chipset Freescale lMX233, con 64 MB de memoria de RAM y 4 GB de memoria flash para guardar archives en nuestro reloj. Tiene una pantalla cursiva de 1.54 pulgadas con una resolución de 240*240 pixeles. Contiene también una batería de 450 mAh es decir: 3 horas en conversación por altavoz, 5 horas de autonomía con usos diversos sin uso y sin conexión a Bluetooth su máxima autonomía será de 48hrs, y con Bluetooth activado de 24 hrs. Esto implica que al menos se deberá recargar una vez al día, si se usa solo en momentos específicos. También contiene altavoces y un micrófono, entrada de auriculares. (2)

131


Revista Conceptual UCB Im Watch tiene las características de un Smartphone, es denominado como el nuevo Smartwatch.

En cuanto si hablamos de modelos existen 3 tipos de modelos: Tenemos el I´m Color: Es el modelo mas informal de aluminio y con correa de silicona de color, existen 7 colores para elegir. También se puede elegir entre 64 MB o 128 MB.

Fig. 5 Reloj ―I´m Jewel‖

Fig. 3 Reloj ―I´m Color‖

Entre sus características tenemos: Cuando nos llega un correo electrónico, la identidad del emisor aparecer en el reloj, en un scroll de una calidad bastante justa.

Otra aplicación que mostraron en su relación con el teléfono es la posibilidad de que el terminal recoja la hora exacta del lugar y la transmita al teléfono, de forma que podamos ponerlo en hora con exactitud.

Otras posibilidades más originales del prototipo las encontramos en el acelerómetro incorporado, con él podemos realizar acciones gestuales que el teléfono reconocerá. Por ejemplo, dando un toque sobre el reloj, la llamada se silenciará.

Tenemos el I´m Tech: Fabricado con fibra de carbono, titanio 0 magnesio. Se presenta como el I´m Watch más duradero con 128 MB y magnetómetro y  acelerómetro.

   

También resulta curiosa la búsqueda del teléfono con sólo dejar pulsado un botón del reloj, el teléfono se dispondrá a sonar hasta que lo encontremos. Uno puede recibir mensajes de Twitter, Facebook, Hotmail, Gmail, entre otros. Tiene Identificador de llamadas. Con Bluetooth que alcanza hasta 10 metros Alarma que detecta si el teléfono está lejos (1)

Fig. 4 Reloj ―I´m Tech‖

Tenemos el I´m Jewel Es el modelo más lujoso como una joya con Android. Fabricado con oro o plata. Con 128 MB, acelerómetro, magnetómetro. (3)

Fig. 6 Identificador de llanmadas

132


Revista Conceptual UCB [3]

[4] [5]

[6]

(3)http://comunidad.movistar.es/t5/BlogAndroid/I-m-watch-el-reloj-inteligente-conAndroid-llega-en-enero/ba-p/316749 http://www.actualidadgadget.com/2011/11/11/sevienen-los-relojes-im-watch/ http://conecti.ca/2011/07/16/im-watch-el-relojque-tambien-esinteligente/http://telekita.wordpress.com/2012/02/1 5/im-watch-un-reloj-de-pulsera-android/ http://www.imwatch.it/cles/smartwatch/features/im_droidRe

Fig. 7 Características del reloj

COMPATIBILIDAD CON: Sony Ericsson Live with Walkman, Xperia active, Xperia arc, Xperia arc S, Xperia mini, Xperia mini pro, Xperia neo, Xperia neo V, Xperia PLAY, Xperia pro, Xperia ray, Xperia S, Xperia X10, Xperia X10 mini, Xperia X10 mini pro, Xperia X8, Xperia P, Xperia Sola, Xperia U, Xperia S y otros Smartphones Android como:: HTC Desire S, HTC Sensation, HTC Wildfire S, Motorola RAZR, Samsung Galaxy Mini, Samsung Galaxy S2 I9100 *** NO compatible por el momento con LG Optimus One, Samsung Galaxy Nexus I9250, partly compatible with Motorola Defy, Samsung Galaxy Ace, Samsung Galaxy Gio*** (1)

Fig 8. Reloj I´m Watch

III. CONCLUSIONES Este Reloj en la actualidad está facilitando la vida de las personas ya no se necesita claves ni sacar el teléfono del bolso, ya que vemos mucho peligro en las calles. Es muy útil para las personas que trabajan en oficinas y que no tienen tiempo para ver las llamadas o mensajes que tenemos en nuestro móvil. También podemos estar al pendiente sobre las actualizaciones en nuestras cuentas tanto de Twitter como de Facebook. Referencias [1] [2]

(1)http://www.blauden.com/sony-smartwatchmn2-reloj-bluetooth-con- android (2)http://www.xataka.com/accesorios/im-watchexiste-y-os-lo-ensenamos-en-video

133


Revista Conceptual UCB

Tecnología holográfica Addis Rengel Sempértegui Ingeniería Biomédica Universidad Católica Boliviana “San Pablo” Av, 14 de Septiembre- obrajes a_rengel_s@universidad.edu

La Paz - Bolivia Resumen— En el presente documento se hablará sobre la tecnología holográfica una de las más impactantes técnicas de producción fotográfica ya que esta es en tres dimensiones. Palabras clave — Holograma, Tres dimensiones, Fotografía.

I.

INTRODUCCIÓN

La holografía es una técnica de producción de fotografías tridimensionales de un objeto para la cual se utiliza un rayo de luz láser. Está técnica surgió en el año 1947 gracias al físico Húngaro Dennis Gabor claro que en esos tiempos la técnica era muy primitiva porque todavía no se había inventado el láser para el día de hoy está tecnología a avanzado a un grado sorprendente un claro ejemplo de esto es Hatsune Miku es la primera cantante virtual en todo el mundo es un holograma de aproximadamente 1,58 metros.

Para la obtención del holograma se pueden seguir estos pasos: -Se ilumina un objeto con una fuente de luz y se hace interferir el haz reflejado con otro colimado y coherente. El frente resultante se hace incidir sobre una placa fotográfica, obteniéndose tras el revelado, una distribución del coeficiente

de transmisión que es función de la intensidad del campo registrado. Una vez obtenido el holograma se coloca bajo el mismo haz de referencia, con lo que se obtiene un campo transmitido. En muchas ocasiones el haz utilizado en la reproducción del holograma no es el mismo que el empleado en su grabación.

En está imagen se puede apreciar un diagrama del funcionamiento de un holograma. II.

FUNCIONAMIENTO

La holografía puede dividirse en dos fases. La primera de ellas tiene por objeto la obtención de un registro del frente de onda, llamado holograma y en la segunda se da la reproducción del frente de onda original en ausencia de los objetos que lo originaron.

III. APLICACIONES No voy a hablar sólo de las aplicaciones que ya se dan actualmente sobre la holografía sino también sobre las que pienso yo en algún momento podrán surgir. En primera tenemos una aplicación que ya se le dio en el mundo del espectáculo con la cantante virtual antes mencionada Hatsune Miku y bueno en si

134


Revista Conceptual UCB todo el grupo que la conforma denominado Vocaloid, también podrían en un futuro aplicarlo a la medicina por ejemplo, los médicos consiguen una ―imagen‖ de la parte dañada luego tendrán su proyección holográfica y fácilmente podrán determinar donde está el problema que es lo que deben hacer y quizás hasta suplante a tecnologías como los rayos X, otra aplicación está en el mundo de la comunicación cuantas veces uno tiene un pariente lejano y lo extraña mucho el hecho de poder generar un holograma suyo cuando entabla conversación te brindará una sensación reconfortante (eso sin tomar en cuenta que los japoneses ya están inventando un tipo de holograma palpable lo que dará la sensación de que realmente este ahí), también podríamos usarlos en los videojuegos construir complejos mundos virtuales con criaturas que vencer y todo eso. Podrían también facilitar algunos trabajos por ejemplo supongamos un aeropuerto necesitas una persona que te diga donde está tal lugar del aeropuerto que tal si en vez de una persona se dejará un holograma que permanezca ahí las 24 horas, programado especialmente para dar ubicaciones en el aeropuerto. Podríamos también mencionar los retratos holográficos simples fotos tuyas, pero está vez en tres dimensiones, otra aplicación interesante está en la sustitución de objetos muy valiosos por hologramas por ejemplo en un museo nosotros tenemos muchos objetos que no solo son muy valiosos sino que a veces son frágiles y deben ser bien cuidados que tal si se los suplantará con hologramas, nadie notaría el cambio y estos no podrían romperse ni ser robados, o usarlo como un medio de almacenamiento masivo (a diferencia de un DVD por ejemplo tiene la gran ventaja de que la información no sólo se sobrescribirá en la superficie sino en todo el volumen, claro ni bien se obtenga un polímero adecuado para realizar esto, lo cual brindará mucho más espacio de almacenamiento) y así puedo continuar mencionando aplicaciones que se le puede dar a la holografía (o sé le dará).

REFERENCIAS [1]

IV. CONCLUSIONES Como conclusiones podemos notar el gran avance de la tecnología de una simple foto en dos dimensiones hace años a imágenes en tres dimensiones que cubren 360º y parecen tan reales que uno no puede resistir a la tentación de intentar tocarlos, yo pienso que en un futuro no muy distante nosotros podremos quizás mantener una conversación con otra persona ―y tenerla frente a nosotros‖ mediante la tecnología holográfica, o almacenar discursos, hechos importantes en un holograma para que puedan ser vistos en cualquier momento, tal vez hasta una ciudad holográfica… nada cuesta soñar.

135

Vieira, H..(2012). Consultada el 12 de octubre de 2012, http://www.revistabiosofia.com/index.php?o ption=com_content&task=view&id=115&It emid=40


Revista Conceptual UCB

IMPRESORAS 3D Rodrigo Aliaga Vélez Ingeniería Mecatrónica Universidad Católica Boliviana “San Pablo” Av, 14 de Septiembre- obrajes r_aliaga_v@estudiantes.ucb.edu.bo

La Paz – Bolivia Resumen— Este documento muestra los antecedentes, y orígenes de las impresoras 3D además sus características generales, su diferenciación respecto a su funcionamiento y su manejo de capas. Incluyendo una recopilación de las aplicaciones actuales y futuristas planteadas por distintas personas. Palabras clave — Impresoras 3D, Funcionamiento, ZCorporation, Z-Printer 850,

I. INTRODUCCIÓN El ser humano a lo largo de la historia se encontró con la necesidad de implementar nuevos métodos para la reproducción de cierto tipo de objetos. El primer y mayor paso, basándose en algunas técnicas antiguas, lo dio Johannes Gutenberg, un herrero alemán del siglo XV, inventor de la imprenta de tipos o sellos móviles . Posteriormente con la aparición de la primera computara UNIVAC, Remington-Rand creo la primera impresora electrónica, para su uso con la UNIVAC. Esta impresora utilizaba tipos, muy parecidos a los de la imprenta Johannes, los cuales eran movidos con alta velocidad. Es a partir de este momento que las impresoras evolucionaron rápidamente uniendo su funcionamiento con lo virtual. La IBM, invento la impresora matricial, y la impresora laser. Hewlett Packard en 1976 creo la primera impresora a inyección de tinta. Algunos años después no nos conformamos con simplemente plasmar objetos, ya sean imágenes o letras en dos dimensiones, por lo que algunas empresas empezaron con la fabricación de impresoras en 3D

Figura 1. Objeto Impreso en una Z-Printer 650, en distintas escalas

Las impresoras 3d no presentan un creador principal, ya que esta fue una idea de ciencia ficción, simplemente, Varias empresas emprendieron este proyecto, paulatinamente, para poder hacer realidad este sueño, Capricho y necesidad. Estas impresoras surgieron bajo la necesidad de plasmar ciertos objetos en el espacio tridimensional. Facilitando muchas actividades en el campo Arquitectónico industrial, para la educación incluso de la salud. La invención de estas impresoras facilita y mejora la vida de muchas personas. Por ejemplo, para un arquitecto, le resulta mucho más sencillo imprimir una maqueta de un edificio que construirla cortando materiales, uniéndolos con pegamento, etc. O en la industria, es sumamente necesario crear un prototipo de un objeto a construir. En la simple creación del prototipo se invertía mucho dinero, gastaría muchos recursos en un solo intento, y probablemente no sea uno certero. Se encontró también una fuerte aplicación en la educación ya que resulta mucho más didáctico, ver un objeto desde distintas perspectivas, palparlo, haciendo el aprendizaje más eficiente. Incluso Algunas de las noticias decían que estas impresoras, ya habrían creado prótesis para humanos. ―Impresora 3D le ha dado ―Brazos mágicos‖ a una niña nacida con una enfermedad genética rara‖. Es por ello que resulta de gran utilidad en varias ramas, las impresiones 3D. III..MODO DE FUNCIONAMIENTO Las impresoras 3D, modelan cierto objeto digitalizado, en cualquier software tipo CAD (Computer Aisded Design). Previamente construido en 3D en un ordenador. Ya sea diagramándolo o con la utilización de un escáner 3D, digitalizando el objeto dejándolo listo para ser impreso. En general las impresoras 3D, logran plasmar la imagen bajo la utilización de capas. La única diferencia que existe entre la impresión de una u otra impresora, se da bajo el manejo, que cada una hace, de las capas para crear el objeto. Entre los métodos de manejo de capas se encuentran:

II. CREACIÓN

136


Revista Conceptual UCB A. Impresión por inyección La impresora crea el modelo de capa en capa esparciendo una capa de polvo (plástico o resinas) e inyecta un coagulante por inyección en la sección de la pieza. El proceso es repetido hasta que todas las capas han sido impresas. Esta tecnología es la única que permite la impresión de prototipos a todo color, permitiendo, además, extraplanos o salientes. B. Procesado digital por luz Un recipiente de polímero líquido es expuesto a la luz de un proyector DLP bajo condiciones controladas. El polímero líquido expuesto endurece; la placa de montaje se mueve hacia abajo en incrementos pequeños y el polímero es expuesto de nuevo a la luz. El proceso se repite hasta que el modelo es construido. El polímero líquido restante es entonces extraído del recipiente, dejando únicamente el modelo sólido. C. Fotopolimerización Para terminar, características ultra pequeñas pueden ser conseguidas a través de la técnica de la microfabricación 3D, mediante el mecanismo de foto polimerización por absorción de fotones. En esta variación, el objeto 3D deseado es trazado en un bloque de gel con un láser. El gel es curado y se solidifica sólo en los lugares en donde el láser es enfocado debido a la nolinealidad óptica de la fotoexcitación; después de la etapa de láser, el gel restante es lavado. Esta técnica ofrece tamaños de menos de 100 nm siendo fácilmente fabricables tanto en estructuras complejas de partes móviles como en fijas. D. Impresión con hielo Recientemente se han desarrollado técnicas que por medio de un enfriamiento controlado de agua tratada, son capaces de producir una auténtica impresión 3D con hielo como material. Aunque es una tecnología en desarrollo y sus ventajas a largo plazo están aun por ver, el ahorro de material específico para llevar a cabo la impresión, independientemente del coste del proceso, parece una de ellas. III Z-CORPORACIÓN Una de las empresas que revoluciono las impresiones 3D fue Z-Corporación. Esta empresa comenzó, en Massachusetts como un grupo de consultoría de la ciencia de materiales especializada en el diseño de soluciones de alto rendimiento para la industria de

construcción, el transporte, la industria aeroespacial y polímero. El nombre se debe a que el eje z le agrega profundidad a un objeto en el plano X y Y. esta empresa fue comprada en enero es este año por 3D Systems. Entre sus últimas creaciones se encuentra la Z-printer 850, según una pagina web de comparación de impresiones 3D, esta es una de las mejores impresoras 3D creada hasta el momento. ―Las impresoras Z-Printer fijan el estándar para la velocidad, el color, la asequibilidad y la facilidad de uso‖. Es de 5 a 10 veces más rápida que cualquier otra impresora 3D creada hasta hoy. Imprime modelos realistas a full color, no hay la necesidad de después de haber sido creados pintarlos manualmente. Puede imprimir objetos más grandes, respecto a otras impresoras. Tiene la posibilidad de que el usuario escoja el tipo de material que va a utilizar para la impresión. (Muestra de algunas características antes mencionadas es la figura 1). Estas son pocas entre las muchas características con las que cuenta la z-printer 850, por lo que se ha convertido en una de las más importantes en el mercado. El costo de una impresora Z-printer es de 20.000$.

Figura 2. Objeto Impreso en una Z-Printer 650. IV PROYECCIONES AL FUTURO Las impresiones 3D tienen mucho camino por recorrer aun. Ya se están planteando algunas ideas respecto a lo perspectivas que se tiene sobre este dispositivo, tanto aplicación en los hogares, en la gastronomía, como en la industria y hasta en la salud. Una impresora 3D en el futuro es vista como accesorio indispensable en una casa. La cual tenga la posibilidad de imprimir cualquier objeto que se necesite, simplemente descargando un diagrama por internet del objeto deseado, para poder imprimirlo y utilizarlo. Incluso podría ser aplicable introduciendo algunas recetas para poder ser consumidas. Otras personas dicen que esto podría ser aplicable, para realizar chocolate artesanal. En la industria existe el

137


Revista Conceptual UCB reto de crear un el mimo dispositivo con el mismo dispositivo, es decir autoreplicarse. El proyecto planteado para lograr esto es llamado RepRap, el cual busca crear una impresora 3D, bajo impresiones 3D. Están buscando una maquina auto replicable la cual, el costo de la maquina seria nulo y el único precio a pagar seria el de los materiales utilizado en la auto creación. Incluso se podría imprimir una casa o un auto, en tamaño real, los cuales funcionen a la perfección, como si hubieran pasado por un proceso de construcción o fabricación. Además en los próximos años esperan que se puedan imprimir órganos humanos para trasplantes alargando así la vida de los humanos. V. CONCLUSIÓN Las impresoras 3D, son un gran invento aplicable en distintas áreas. Estas impresoras facilitan y mejoran la vida de muchas personas. En este momento no son muy accesibles, es decir no son aun para uso domestico. Pero la primera computadora empezó de esa manera, y ahora, prácticamente, tenemos una minicomputadora en nuestro bolsillo. Por ello no es difícil creer que las aplicaciones futuristas que le están dando a este dispositivo, sean normales y de uso cotidiano en nuestra vida futura. Incluso lleguen, ha convertirse en objetos de primera necesidad. REFERENCIAS [1] Biografías y vidas, Guttenberg, Consultado el 17 de octubre 2012 http://www.biografiasyvidas.com/monografia/gutenb erg/imprenta.htm [2] Historia y Evolución de las Impresoras, Consultado el 17 de octubre 2012 http://www.fdi.ucm.es/profesor/ptirado/EI1_10_11_a rchivos/impresoras.pdf [3]La Batalla por la casa Blanca Consultado el 17 de octubre 2012 http://actualidad.rt.com/ciencias/view/50706VIDEO-Una-impresora-3D-le-ha-dado%E2%80%9Cbrazosm%C3%A1gicos%E2%80%9D-a-una-ni%C3%B1anacida-con-una-enfermedad-gen%C3%A9tica-rara [4] Wikipedia, Consultado el 16 de octubre de 2012 http://es.wikipedia.org/wiki/Impresi%C3%B3n_3D [5]Tecsol3D. Consiltado el 16 de Octubre de 2012 http://www.tecsol3d.com/3dsys/ZPrinter.htm [6] YouTube, Consultado el 17 de octubre de 2012 http://www.youtube.com/watch?v=TWq3XIsEhA8 [7]Epox-Z, Consultado el 18 de octubre de 2012 http://www.in-greenpr.com/Epox-z.html [8]Alma de herrero Consultado el 15 de octubre de 2012 http://almadeherrero.blogspot.com/2012/06/fabricaruna-llave-inglesa-en-una.html

138


Revista Conceptual UCB

Las redes sociales y tu empresa Omar Mauricio Saavedra Peña Ingeniería de Telecomunicaciones Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre 1 omar369_@hotmail.com La Paz - Bolivia #

Resumen— Este documento da algunas observaciones y recomendaciones relacionadas acerca de que hacer y no hacer en una empresa cuando ella entra al mundo de las redes sociales. Palabras clave — Empresa, sociedad, negocios, publicidad, emprendimiento.

I. INTRODUCCIÓN Un problema que se ve en las empresas es que ven con recelo las innovaciones tecnológicas, por ejemplo cuando se dio existencia a la World Wide Web, a mediados y finales de los noventa, muchas empresas temían que los empleados pasaran su tiempo navegando ociosos por la red, por lo que intentaron controlar el acceso de la misma. Aunque era indudable que algunos empleados si perdían el tiempo en eso, muchos descubrieron que no era del todo perjudicial, es más descubrieron como desplegar el poder de Internet para poder trabajar mejor y pronto se convirtió en un recurso altamente valioso para seguir la trayectoria de los competidores, investigar desde el propio escritorio y llevar a cabo otras actividades corporativas. Lo mismo pasó con la aparición de las redes sociales, ya hace bastante tiempo que aparecieron, pero hace no mucho tiempo que las empresas empezaron a sacarle provecho, ahora en la implementación laboral de las ya mencionadas redes, todavía no se establece de manera clara una norma para controlar su uso en el área laboral, se debe canalizar los esfuerzos para que tanto empleados como jefes salgan beneficiados con su implementación.

Fig.1 Imagen que hace referencia a la presencia de las redes sociales en el mundo.

II. PRODUCTIVIDAD Las redes sociales pueden convertirse en un verdadero impulso para la productividad. Las empresas de mayor prestigio a nivel mundial cuentan actualmente con una o varias redes sociales, las utilizan como espacio publicitario y algunas otras como un servicio más. Por otra parte otras empresas utilizan las redes sociales como espacios en donde se puedan cerrar tratos a través de las conocidas video-conferencias que sirven de medio para que los tratos se concreten, evitando los viajes largos, la distancia, el tráfico molesto y así manteniendo el stress al mínimo. III.

EL MARKETING

Fig.2 Imagen que hace alusión a la influencia de las redes sociales sobre las masas.

139


Revista Conceptual UCB Uno de los puntos más importantes, por no decir el más importante para las empresas es el marketing barato que consiguen en las redes sociales, la construcción de marca es el uso más prometedor de las redes sociales. También es recomendable abrir canales bidireccionales entre el consumidor y el productor, de manera que ambas partes puedan ser beneficiadas, haciendo concursos donde los consumidores den ideas de cómo mejorar la producción, incentivando a que la gente compre más; de esta manera las empresas podrán conocer de mejor manera las preocupaciones de las personas interesadas. La gran influencia que tienen algunas personalidades, influye mucho a la hora de decidir que producto comprar o cual no, por ejemplo en “twitter‖ si algún actor dice que cierto lugar es bueno para comer, de seguro que las personas que lo siguen averiguaran acerca del lugar y muchas otras irán a comer al ya mencionado lugar. Hablando acerca del marketing gratuito que ganan algunas pequeñas empresas, lo aprovechan para promocionar sus productos, llegando incluso a más personas que si lo hicieran por medio de televisión, radio y otros medios de comunicación.

Fig.3 En la imagen: la importancia que tiene una persona en las decisiones de otras.

IV. LA SEGURIDAD Uno de los peligros constantes que entraña el uso de redes sociales tiene que ver con el riesgo de intromisiones externas en las redes informáticas de la empresa. Este tipo de ataques puede significar la pérdida de datos confidenciales, así como trastornos en el servicio informático. Pero no se sabe con claridad con qué frecuencia el uso de las redes sociales ha permitido esos ataques y cuál es el daño real que han provocado.

Es importante que cada empresa cuente con un software de seguridad de red, este puede sin duda ayudar a atenuar esos riesgos al bloquear el acceso a determinados sitios. Pero, de nuevo, una gran parte del riesgo reside en el comportamiento poco seguro de los empleados: sólo cambiando ese comportamiento las empresas podrán avanzar en cuanto a su seguridad. Efectivamente, las redes sociales suscitan preocupaciones reales sobre los efectos que pueden provocar en términos de productividad, reputación y seguridad de las empresas. Sin embargo, eso no significa que las empresas no deban desarrollar e imponer unas directrices formales sobre el uso y el abuso de las redes sociales. Pero el interés de estas directrices no debería ser intentar controlar el comportamiento de los empleados en las redes sociales, sino canalizar su uso hacia una dirección positiva y creativa que pueda beneficiar tanto a las empresas como a sus empleados. No hay marcha atrás en lo que respecta a las redes sociales. La clave es descubrir como sacarles mayor provecho en beneficio de la organización y aceptar su utilización productiva. V. REPUTACION ¿De qué sirve un blog de su compañía tenga 10 millones de seguidores en una página de red social, pero solo tenga 10.000 clientes? Aunque es cierto que la cuenta de una compañía no será seguida por tantos consumidores, no cambia el hecho de que aún así, afectará las decisiones que ellos tomen. Suponga que un cliente potencial se percata de un nuevo producto de su empresa y va a su sitio web para buscar más información. ¿Cómo puede el cliente percatarse que su producto es en realidad bueno? Por los comentarios que existan sobre su producto en las redes sociales. Si un cliente potencial de su compañía llega a su sitio web y encuentra un blog activo con entradas relevantes y actualizadas respecto a como el producto o servicio de su compañía ayuda a sus clientes, lee detalles demostrando el conocimiento de su compañía y se cruza con algunos casos de estudio, estará más inclinado a regresar a usted para satisfacer sus necesidades. Los medios sociales proveen una vitrina inigualable para mostrar quién es usted y quién es su compañía. Hablar sobre su industria en forma inteligente a través de Twitter o un blog actualizado regularmente puede aumentar el perfil de su empresa y su marca como líder de opinión y experto en su línea de negocio. Las redes sociales crean o destruyen la reputación de las empresas, de la misma forma en que los clientes contentos escriben buenos comentarios de un producto, los clientes molestos también escribirán acerca de su mala experiencia. Estos comentarios pueden ser vistos por miles de

140


Revista Conceptual UCB personas en poco tiempo y afectar la imagen de cualquier empresa en semanas o incluso días. Las empresas deben protegerse afrontarlo estos inconvenientes con honestidad. Muchos Blogs corporativos eliminan los malos comentarios de sus Blogs, creando desconfianza entre los consumidores. En Internet tenemos las herramientas para poder hacer aclaraciones, proponer alternativas y si es necesario ofrecer disculpas. Si una empresa sabe utilizar adecuadamente la retroalimentación (buena o mala) de sus clientes, contesta sus dudas y comentarios con honestidad, los resultados positivos se darán tarde o temprano.

REFERENCIAS Los siguientes artículos solo se publican en la web:      

[1]www.cnnexpansion.com (redes sociales) 27 de Abril del 2009 [2]www.incubeit.wordpress.com (empresas y redes sociales) 27 de Julio del 2009 [3]www.soxialmedia.com (influencia de las redes socials en las empresas) 16 de Agosto del 2010

VI. CONCLUSIONES 10 Motivos que tienen las empresas para contar con un sitio en alguna red social: - Un nuevo medio.- Es un medio para conquistar mercados a los cuales no se pensaba llegar antes de tener un sitio en alguna red social. - Rapidez viral.- La facilidad con que se pueden difundir ideas, sobre mejoras o nuevos productos, esto mejora la calidad de los mismos y la reputación de la empresa. - Foro caliente.- En las redes sociales ocurren conversaciones, se generan y escuchan nuevas ideas. - Servicio al cliente.- Es como tener a un cliente al lado, hablando sobre nuestros productos. Obviarlas sería taparnos los oídos. - Bajo costo.- Su uso tiene un costo económico prácticamente nulo, aunque es necesario considerar que hacerlo bien ocupa ―tiempo‖. - Full contacto.- A nivel institucional, las redes sociales son un perfecto medio para unir grupos específicos. - Complemento publicitario.- Si es que se lo puede llamar complemento, ya que en la actualidad constituye uno de los pilares publicitarios más importante para cada empresa. - Gran Influencia sobre las masas.- Las personas pasan en navegando en las redes sociales un promedio de 8 horas diarias. No se deben ignorar los espacios de la mayoría. Antes, lo que decían los expertos de promoción de los programas, hoy es información que viaja por fuentes creíbles: amigos y amigos de los amigos. - Compartir.- Cuando el cliente tiene tanta facilidad para compartir su experiencia con tu producto, más te vale que hable bien de él. - Equipamiento diverso.- Tener más de una red social es ventajoso, cada una se maneja de distintas maneras, el mercadeo suele ser más efectivo cuando existen diferentes publicidades para cada red.

141


Revista Conceptual UCB

Seguridad Informática, Un Riesgo para la Sociedad Miguel Álvaro Peñaranda Sanabria Ingeniería de Sistemas Universidad Católica Boliviana “San Pablo” Avenida 14 de septimbre miguel_maps_07@hotmail.com

La Paz – Bolivia Resumen— daremos a conocer la inseguridad de la seguridad por internet aunque parezca contradictoria, existe una amplia gama de redes, paginas, métodos para evitar las falsificaciones, delitos electrónicos el plagio de contraseñas, etc. Con este articulo quiero crear un poco de conciencia social de la actualidad que estamos viviendo en cuento a la inseguridad con la que contamos en muchas de las páginas de internet. Palabras clave — cristología, firmas digitales, certificaciones, delitos electrónicos, hackers.

I. INTRODUCCIÓN desde la antigüedad, el hombre ha tenido como una de si prioridades en el proceso de comunicación, la confidencialidad de si mensajes más importantes, redes sociales, compra y venta por las distintas páginas existentes y otros de tal forma que solamente puedan ser interpretados correctamente por ellos mismos. Para esto se a implementado diferentes sistemas y mecanismos de protección cuyo objetivo es impedir la intercepción de dicha información por terceras personas ajenas a la relación. En este breve documento podremos observar lo que existe detrás de una simple contraseña o en una transacción bancaria por internet o la clave de tarjetas de crédito. Comenzaremos por los métodos utilizados para la seguridad de documentos. A. ENCRIPTACIÓN DE DOCUMENTOS En la actualidad la internet puede llegar a ser tan seguro Como insegura en muchas de sus páginas disponibles. Para poder tener una seguridad de alto nivel se toma en cuenta hoy en día la encriptación de documentos, ―toda encriptación se encuentra basada en un algoritmo cuya función es de básicamente codificar la información para que sea indescifrable a simple vista‖ El trabajo del algoritmo es precisamente determinar como será la transformada la información de si estado original a otro que sea muy difícil de descifrar.

Una vez la información es transmitida a su destino final se aplica el algoritmo al contenido codificado obteniendo como resultado el contenido original. Hoy en día la tecnología a avanzado tanto que resulta fácil descifrar aun documentos encriptados, por tal motivo este método se ha dividido en algoritmos de encriptación simétrica, estos mezclan la transposición y la permutación, mientras que los algoritmos de clase publica, que son la segunda clases, se basan mas en complejas operaciones matemáticas. Este método de seguridad es codificado en un leguaje de bajo nivel como puede ser assembler, que por la complejidad de su codificación y el control total del documento y todo tipo de motos para ―esconderlo‖. B. FIRMA DIGITAL La firma electrónica es un conjunto de datos asociados a un documento electrónico, que permite asegurar tanto la identidad del firmante como la integridad del mensaje. A esto lo podemos definir como la secuencia de datos electrónicos (bits) determinado por un algoritmo que al fin de cuentas tiene el mismo valor jurídico que la firma manuscrita es definitivamente el equivalente a la firma de puño y letra. La firma electrónica se basa en la utilización combinada de dos técnicas distintas, que son la criptografía asimétrica o de clave publica para cifrar mensajes y el uso de las llamadas funciones ―HASH‖ o función resumen, esta es una segura y aconsejable método para poder realizar transacción bancarias. Pero como toda aplicación el problema es que este consume una gran cantidad de ancho de banda ya que el documento ininteligible que sirve de base para comprobar la autenticidad del original ocupa mucho mas espacio que el propio documento. La firma digital tiene un alto rango de seguridad porque se encuentra respaldado por varios aspectos legales uno de ellos es que las normas del proceso de firmas no debe ser totalmente imparcial para así no favorecer a ninguna de las dos contrapartes. Ni se

142


Revista Conceptual UCB debe mantener un sistema donde se pueda almacenar las claves de los usuarios. II.

ALMACENAMIENTO DE LA AC DE CLAVES PRIVADAS

las autoridades de certificación (ac) vistas como los controladores de este tipo de procesos de certificación de autenticidad y el cumplimento de las políticas establecida para el proceso de transacciones monetarias o bancarias. En cuanto a esta última actividad las agencias de certificación (AC) son verdaderos signatarios digitales, para lo cual deben disponer de una clave privada que solo conocen ellos. En Bolivia no contamos con ninguna autoridad de setificacion y no nos encontramos respaldados por la ley ya que la ley solo sancionara delitos electrónicos como el uso indebido de tarjetas de crédito o robo ilícito de la información. Por ello distintas autoridades están luchando para poder implementar este tipo de autoridades lo cual es muy importantes para el mejor control y, obviamente, el mejor manejo de transacciones para asegurar la confiabilidad del cliente con el acreedor. Este tipo de autoridades debe abstenerse de generar, exigir o por cualquier otro método tomar conocimiento o acceder bajo ninguna circunstancia, a la clave privada del titular de certificados por el emitido ya que en muchos otros países este es como delito electrónico y penalizado por la ley.

Fig. 1 este es uno de los protocolos mencionados para transportar información segura a travez de terceros que no alteraran dicha informacion.

IV. NORMAS ISO 17799 Y 27000 En el mes de noviembre del año 2005 se ha publicado la norma ISO 27001:2005 denominada ―requerimientos para la especificación de sistemas de gestión de la seguridad de información (SGSI)‖ Esta norma se certifica bajo los esquemas de cada país, además contiene una guía de implementación para el correcto funcionamiento, como los estándares relacionados con las métricas y medidas en materia de seguridad para evaluar la efectividad del sistema de gestión de la seguridad informática, por ultimo cuanto con los estándares de los riegos a los que nos podemos atener. ISO 17799 que describe el Código de buenas prácticas para la gestión de la seguridad de la información. Este medio que permite y da paso a la conciencia de seguridad de información no se encuentra implementado en nuestro país, al ser un país tercermundista no logramos avanzar en leyes de seguridad informática a pesar de que la tecnología a dado un gran paso por toda Sudamérica, Bolivia es el único país que no cuenta con ninguna ley para asegurar el perfecto funcionamiento de transacción o cualquier tipo otro tipo de interacciones.

III. MEDIOS DE PAGOS ELECTRÓNICOS Actualmente internet no solo es un sistema de comunicación para el intercambio de datos e información, sino que por el contrario se ha construido un nuevo modelo de mercado empresarial de transacciones económicas para mejorar el rendimiento de dichas empresas, mejorar las ventas, etc. La seguridad e interoperabilidad están dadas actualmente por protocoles de seguridad de carácter general tales como SSL, TLS, HTTPS, IPSec y PCT entre otros, estos respaldan la seguridad de transacciones bancarias, compra y venta de objetos en los cuales se encuentran metidos ECOMMERS & E-BUSSINES que carecen de leyes que los respalden utilizan estos medios de seguridad los cuales tienen métodos que certifican que las claves o cualquier documento confidencial llegue sin ser interceptado por terceros.

143


Revista Conceptual UCB Fig. 1 esta grafica nos da un pequeño resumen del funcionamiento de la norma ISO 27000.

V. PROBLEMÁTICA ACTUAL Y DESAFÍO ―the invention of the internet has forever altered the world wi live in. Not since the industrial revolution have we seen such profound change in the way we work, we shop, we ge tour news and conduct business‖

distintos tipos de trabajos en cuanto a dinero. Documentos de alto valor, claves contraseñas, series de tajetas, etc. Pero esto solo se lograr teniendo el apoyo de nuestras autoridades lo cual esperemos que se logre al tener un proyecto tan grande como es el satélite que se va a implementar para crecer en lo tecnológico de una manera irelevante. REFERENCIAS

William M. Daley secretario de comercio USA

Con estas grandes palabras podemos deducir que entre las principales razones de la popularización y el éxito del internet se encuentra basado en su alto nivel de eficacia, ya que atreves de cálculos matemáticos se demuestra que un año en el internet es como 7 años físicos. Prácticamente lo que buscamos con la implementación de

RECONOCIMIENTOS Todo país ya cuenta con las leyes básicos de control de seguridad informática, excepto Bolivia que no cuenta con ninguna ley que respalde a las pequeñas empresas que tratan de hacer conciencia social atravez de páginas con un mínimo nivel de seguridad y asi lograr que el país progrese acorde al mundo tecnología que se está viviendo en esta época. Existen mucho métodos de poder hacer seguras nuetras paginas de internet haciendo un amplio estudio de cuales deben ser las empresas que deben contar con una certificación para poder hacer

144


Revista Conceptual UCB

La tecnología en la educación Héctor Ormachea Castrillo Ingeniería de Sistemas Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre Nº 4807, Obrajes h_ormachea_c@estudiantes.ucb.edu.bo

La Paz - Bolivia Resumen— El veloz desarrollo de la tecnología en un periodo muy corto ayudo al avance del desarrollo del ser humano, en este caso uno de las bases màs importantes, la educación. Palabras claves— información,

Globalización, Cultura de la

Actualmente existen varias herramientas que pueden ayudar a mejorar la enseñanza en la educación ya que tales herramientas ayudan a mejorar la comprensión de los estudiantes mediante ejemplos interactivos, videos hasta juegos.

I. INTRODUCCIÓN La tecnología está presente en todo lo que nos rodea, desde nuestro trabajo, nuestra comunidad, nuestra familia, hasta nuestro hogar, en fin todo lo relacionado con la vida cotidiana. Sin embargo en el sector de la enseñanza, vemos que muchas escuelas hoy en día no tienen los recursos necesarios para integrar la tecnología en el ambiente del aprendizaje. Muchas están empezando a explorar el potencial tan grande que ofrece la tecnología para educar y aprender. Con el uso adecuado, la tecnología ayuda a los estudiantes a adquirir las habilidades necesarias para sobrevivir en una sociedad enfocada en el conocimiento tecnológico. II. LA CULTURA DE LA INFORMACIÓN Actualmente la sociedad mundial se encuentra interconectada con la web y eventos políticos, culturales, deportivos o económicos ya no están aislados ya que gracias a la globalización es más fácil acceder en esta llamada la sociedad de la información.

Fig. 2 La pizarra digital (Smart Board), un elemento que ayudaría enormemente en la enseñanza.

II. IV. LA ERA DE LOS ―SMART GADJETS‖ Hoy en día, casi la mayoría de los artículos que se pueden conseguir en el mercado pueden son ―Smart‖ que se queden conectar al internet y descargar aplicaciones que ayudan en la vida diaria, es claro que son más que nada usadas para el ocio, pero pueden ser muy útiles en la enseñanza, ya que ayudarían en el mejor entendimiento y la transmisión de la información de forma más rápida y accesible.

Fig. 1 Las redes sociales, la herramienta más importante en la cultura de la información.

III. USO DE LA MULTIMEDIA PARA UNA ENSEÑANZA INTERACTIVA

V. ESCUELA COREANA REEMPLAZA LOS LIBROS POR TABLET. En un anuncio que es un claro signo de los tiempos, Corea del Sur confirmó su intención de eliminar los libros escolares físicos. Anunciaron que de aquí al 2014 se digitalizarán todos los libros de los primeros años de educación, y para el 2015 quieren terminar el proceso para toda la educación escolar.

145


Revista Conceptual UCB Si bien algunos colegios del país ya no usan libros, y en su lugar entregan los contenidos en notebooks, el gobierno anunció que ahora el cambio también incluirá Smartphone y Tablet. Uno de los grandes beneficiados de esta medida podría ser Samsung: sería raro que el gobierno elija usar un iPad para los colegios, en vez de un Galaxy Tab, producido por una empresa local como Samsung. Antes del cambio definitivo, habrá que solucionar un tema pendiente: ¿es más efectivo que los niños aprendan a través de pantallas? e ¿infuye el tamaño de la pantalla en relación al tamaño de los libros?

A. Demandas económica Teniendo en cuenta la rapidez de la evolución de los cambios tecnológicos, los países que deseen aspirar a convertirse en una economía del conocimiento deben caminar, primero, hacia una sociedad del aprendizaje, dotada de estructuras flexibles mediante las cuales todos los ciudadanos puedan actualizar regularmente sus capacidades y conocimientos, y que faciliten el aprendizaje a lo largo de la vida. Esto es de particular importancia en una sociedad orientada hacia los servicios, donde la creciente digitalización de los procesos exige una fuerza laboral más cualificada. La transformación de las demandas laborales en el contexto de una economía del conocimiento es un dato importante, al que generalmente no se presta suficiente atención en el sector escolar. El tipo de tareas que un porcentaje creciente de empleos exige en este nuevo modelo roductivo aparecen con frecuencia vinculadas a la tecnología (Autor,Levy y Murname, 2003). Es fácil comprender que, si la mayoría de los alumnos de hoy serán trabajadores mañana en una economía del conocimiento, las escuelas deben ofrecerles suficientes oportunidades para prepararse en las competencias transversales que ahora los mercados laborales exigen. En definitiva, la economía del conocimiento exige una enseñanza acorde en la que la tecnología facilite igualmente el trabajo y en la que se prepare a los jóvenes para que ocupen su lugar en el mercado laboral de la economía del conocimiento.

Fig. 3 La ―Tablet‖ un dispositivo que podría reemplazar a la computadora tradicional.

Las pantallas de tablets, y especialmente de smartphone, son considerablemente más pequeñas que una página de un libro escolar. La empresa Kno intentó hacer un tablet con dos pantallas y el tamaño de un libro escolar promedio. Si bien el producto fue un fracaso, su investigación confirma que un tablet para uso escolar tiene que ser más grande que, por ejemplo, el iPad 2. Habrá que ver qué productos elige el gobierno de Corea del Sur para educar a sus niños. VI. LA IMPORTANCIA DE LA TECNOLOGÍA EN LAS ESCUELAS

Toda discusión acerca de la tecnología en la escuela debería empezar por recordar por qué razón se desea promover una mayor presencia y un mayor uso de la tecnología enlas aulas. Fundamentalmente, hay cuatro grandes grupos de razones que justificarían sobradamente unas expectativas de uso intenso y relevante: económicas, sociales, culturales y, en último término, estrictamente pedagógicas. El resultado combinado de estas razones configura un contexto extremadamente proclive, cuando no exigente, a la utilización de la tecnología en la escuela.

B.

Necesidades sociales

Indudablemente, la tecnología puede ofrecer mejores oportunidades para aprender, e incluso para mejorar la calidad de vida, a todas las personas con dificultades de aprendizaje o físicas y, en algunos casos, solo la tecnología puede ofrecerles acceso apropiado a la educación. Puesto que la tecnología puede ser una herramienta útil para crear entornos muy flexibles de formación, puede contribuir a la igualdad de oportunidades para la formación independientemente del sexo, de la ubicación geográfica, de la extracción social o étnica, de la enfermedad o de cualquier otra circunstancia de las que normalmente impiden o dificultan el acceso, en términos de igualdad de oportunidades, a una formación de calidad.

146


Revista Conceptual UCB

Fig. 4 Escuela sur coreana que ya implementa las Tablet en vez de los libros y cuadernos.

Pero, más allá de estos aspectos pragmáticos, es una creencia compartida por la mayoría de gobiernos, y de muchas otras instituciones, que la lucha contra la brecha digital, estrechamente relacionada con la dificultad que algunas familias y, por consiguiente, sus hijos tienen para acceder a la tecnología, debe constituirse en la prioridad política por excelencia en materia de tecnología y educación. Nadie parece discutir que al territorio de la primera se debe ingresar de la mano de políticas públicas de carácter compensatorio para que todos, incluso los más vulnerables, puedan aprovechar las oportunidades que la tecnología ofrece. De lo contrario, la ya creciente brecha digital seguirá sumándose a los déficits profundos de tipo económico o social preexistentes, como lo advierten diversos autores. III.

VII. CONCLUSIONES

En general, el uso de la tecnología puede hacer la educación mucho más interactiva y mas sencilla para el docente y para los estudiantes y con la facilidad de la conexiòn al internet y los dispositivos cada vez màs poderosos y baratos, es posible que, como en el caso de Corea del Sur, en un futuro no muy lejano, reemplazemos el papel y el làpiz por tecnologìa IV.

REFERENCIAS

Carnoy Martin. ―Las TIC en la enseñanza: posibilidades y retos‖. http://www.uoc.edu/inaugural04/dt/esp/carnoy1004.pdf (consultado en Marzo de 2008) María Eugenia. ―Las TIC´s en los procesos de enseñanza aprendizaje‖ http://educatics.blogspot.com (consultado en Noviembre,2007) Litwin Edith. ―La educación a distancia‖. Argentina, 2000: Amorrortu editores. http://blog.catedratelefonica.deusto.es/

[1] [2] [3]

[4]

147


Revista Conceptual UCB

SmartPen, Bolígrafo Inteligente Joaquín Oros Llorenti Ingeniería de Telecomunicaciones Universidad Católica Boliviana ―San Pablo‖ Av. 14 de Septiembre Nº 4807, Obrajes j_oros_l@estudiantes.ucb.edu.bo

La Paz - Bolivia Resumen— Este documento da algunas instrucciones relacionadas al formato para los artículos que serán enviados al congreso internacional de Desarrollo Comunitario. El autor debe seguir las instrucciones dadas en el documento para que el artículo sea publicado. Puede utilizar el mismo documento para escribir tu propio artículo. Palabras clave: Smartpen, Dot Paper, Livescribe, Tecnología, Ordenador.

I. INTRODUCCIÓN Este es un articulo tecnológico en el cual les presentare el asombroso Smartpen(Bolígrafo Inteligente), con el cual no solo puedes escribir, si no, también grabar todo lo que escuchas alrededor, asocia lo grabado con lo escrito o dibujado. Además le permite al usuario del Smartpen, descargar sus archivos a la computadora mediante un cable usb y organizarlos por la afinidad que usted mejor decida, entre otra de sus ventajas esta el poder convertir el documento redactado a un documento en Word o PDF.

· Quick Record: con sólo pulsar un botón, el Smartpen inicia la grabación del sonido ambiente; ideal para grabaciones rápidas. · Nav Plus: menú de control de las aplicaciones instaladas; basta dibujar una cruz para tener un completo control de 4 vías. · Piano: dibuja las teclas de un piano y podrás tocarlo con tu smartpen, añadir ritmos, instrumentos, etc. · Calculadora: reconoce números y operaciones matemáticas mientras los escribes y te ofrece el resultado en pantalla. A. Además de las siguientes aplicaciones preinstaladas en versión demo: · Translator: escribe una palabra y el Smartpen la reconoce, la traduce a otros idiomas en pantalla y la pronuncia vía altavoz. B. Podrás instalar muchas más aplicaciones que ya están siendo creadas por la comunidad de desarrolladores: · Visión Objects MyScript: potente software de reconocimiento de caracteres para exportar a Word tus anotaciones manuscritas. Cuenta con capacidad de diccionario y aprendizaje; convierte textos, tablas y gráficos en formato Word y dispone de una demo gratuita de 30 días para evaluarlo.

Fig. 1 Smartpen (Bolígrafo Inteligente) Smartpen y sus funciones Los Bolígrafos inteligentes de Livescribe son pequeños ordenadores con forma de bolígrafo, capaces de digitalizar todo lo que escribes, dibujas , hablas y escuchas.Estas aplicaciones vienen instaladas en el Pulse Smartpen y pueden usarse desde el primer momento: · Paper Replay: captura y digitaliza tus anotaciones y el audio de manera conjunta. Lo convierte a texto y sonido en el PC.

Fig. 2 Smartpen (Bolígrafo Inteligente) C. Descubre la Tecnología DOT bolígrafos digitales Livescribe

PAPER

para

El Smartpen PULSE funciona gracias a una tecnología especial de papel denominada DOT PAPER. Es preciso emplear los cuadernos, libretas y blocks DOT PAPER para acceder a las funciones especiales de PULSE. Puedes comprar online todos

148


Revista Conceptual UCB los accesorios de papel con tecnología DOT PAPER: cuadernos, libretas, bloks, … También puedes imprimir tu propio papel DOT PAPER en casa con una impresora Laser Color PS.

Fig. 3 Smartpen (Bolígrafo Inteligente) En su asombroso estuche. Los Bolígrafos Digitales son bolígrafos de tinta normal capaces de transmitir su posición en función del momento (tiempo) a la estación receptora, mediante ondas infrarrojas y de ultrasonidos. De esta forma, es posible reconstruir digitalmente la firma o los caracteres manuscritos que se plasmen en el papel con estos bolígrafos, a la vez que los datos quedan escritos en el papel. El software Digifirmas, encargado de la captura de las firmas le proporciona métodos para poder integrar esta solución a su sistema. Es la herramienta perfecta para estudiantes, ejecutivos y profesionales en movimiento, ya que permite grabar, almacenar y compartir toda la información de una clase, reunión o evento con gran facilidad. Es un instrumento muy útil en la vida cotidiana de cualquier ejecutivo, empresario o hasta un estudiante universitario o de colegio, ya que este asombrosamente pequeño aparato es capaz de grabar todo lo que escucha y lo relaciona con todo lo que escribes o dibujas, te ayuda a obtener datos importantes además de ayudarte a recordar todo lo que necesites, sin mencionar la facilidad de hallar todos tus apuntes con tan solo conectarlo a una computadora mediante un puerto usb.

Fig. 4 Smartpen (Bolígrafo Inteligente) Conectado a la computadora mediante un puerto usb.

¿Porque usar un smartpen y no un bolígrafo y una grabadora?: Imagina este cambio en la forma de tomar tus notas: Deja de apuntarlo todo; concéntrate en los puntos importantes, escucha mira y comprende a quien te habla y deja que el Smartpen grabe todo por ti, hasta la última palabra, hasta el más pequeño trazo escrito. Después podrás transferir las notas y el audio automáticamente al ordenador, para verlas en pantalla completa, escuchar las grabaciones con calidad cristalina, digitalizar tu escritura, imprimirlo todo en pdf o Word, compartir tus notas con otros vía internet con un simple click, enviarlo a Facebook por email entre otros.¿Aún quieres más? Prueba a hacer búsquedas de texto sobre tu propia escritura. Te sorprenderá la impresionante precisión de este bolígrafo digital, muy superior a otros modelos, pues se basa en analizar tus trazos para saber qué letra escribes y no fallar en el reconocimiento. O prueba su procesador matemático: escribe números y operaciones matemáticas, estadísticas, financieras… y tendrás el resultado en pantalla ¡en menos de 1 segundo!

Fig. 5 Smartpen (Bolígrafo Inteligente) D. Usado en un cuaderno normal. Un smartpen usa la tinta normal, lo cual le permite escribir sobre cualquier tipo de papel, aunque lo interesante del smartpen es que graba todo lo que escucha y lo asocia con lo que escribes y esta función es solo posible en los papeles con tecnología DOT PAPER en los cuadernos de Livescribe, al activar la función grabar para grabar todo lo que escucha, automáticamente este asombroso bolígrafo inteligente asocia todo lo que escucha con lo que el usuario escribe o dibuja esto permite una mayor recolección de la información para los usuarios oficinistas, ejecutivos o empresarios sin posibilidad alguna de perder ningún dato importante, en muchas reuniones de trabajo donde la gente no deja de hablar y parece que nadie recuerda lo que dijeron los

149


Revista Conceptual UCB demás, el usuario de un Smartpen , simplemente debe acceder notar y reproducir para recordar todo lo mencionado en la reunión.

con todo detalle. Un smartpen además de todo esto permite almacenar sus notas en un ordenador, convertirlo a PDF o Word, además de poder enviarlas junto con su grabación de sonido asociado. Además de la facilidad de búsqueda de documentos mediante su ordenador con tan solo ingresar palabras relacionadas al tema o el titulo del tema.

Fig. 6 Cargador del Smartpen

Particularmente no considero desventajas de tener un smartpen mas allá del costo, pero si consideramos el costo como una inversión que será a futuro debido a la gran calidad de este producto y de cuanta información recabara e impedirá su perdida, el costo llega a ser mínimo en comparación a estar en una junta ejecutiva y no haber logrado tomar apuntes claros de los costos de la empresa, un smartpen le facilitaría esto con tan solo poner grabar y luego reproducir, para que usted pueda escuchar toda la junta ejecutiva nuevamente desde un principio sin perderse de nada.

Fig. 4 Smartpen (Bolígrafo Inteligente) E. Descripcion clara de sus botones. Un gran uso para los estudiantes universitarios sobre todo, seria que muy comúnmente se ven afectados en su desempeño académico debido a que el docente empieza a explicar y el estudiante no alcanza a entender la explicación y anotar lo que dicta el docente, esto ya no seria un problema con un bolígrafo inteligente, ya que uno anotaría lo mas importante de la explicación o del dictado del docente y el bolígrafo comenzaría a grabar y relacionar lo grabado con lo escrito o dibujado en el DOT PAPER posteriormente de este manera el usuario del Smartpen podría con tan solo pulsar en sus anotaciones escuchar lo explicado por el docente y completar mas claramente y de manera relajada sus anotaciones escuchando los puntos importantes

Fig.7 Cuaderno con la tecnología DOT PAPER de Livescribe . II. CONCLUSIONES Concluyo en que este instrumento tecnológico es sumamente necesario para grandes ejecutivos y alumnos universitarios, por el hecho de que les facilita el tomar apuntes, en el caso de los estudiantes, graba la explicación de los docentes y en el caso de los ejecutivos, graba reuniones enteras y las relaciona con los apuntes tomados o dibujados. Además con la revolución mundial que se esta produciendo en este siglo XXI por la protección del medio ambiente, esta seria una gran oportunidad de revolucionar aun mas el mundo ejecutivo y estudiantil, al no ser necesario el uso de un papel que haya sido producido a causa de una tala de uno o mas arboles, esto gracias a los cuadernos DOT PAPPER de Livescribe. Es asombroso como la tecnología va avanzando conforme pasa el tiempo y va facilitando la vida cotidiana del ser humano con grandes descubrimientos o invenciones como esta, el bolígrafo inteligente le permite al usuario no perder ni un solo dato, por lo cual hablando en una rama mas importante como ser la ejecutiva donde perder algún numero o no haber tomado un buen apunte puede significar una gran perdida importante para su compañía. III. Referencias  Tecno adicto. Consultada el 16 de octubre de 2012, http://www.tecnoadicto.net/2009/04/livescribepulse-smartpen-boli-inteligente-digital/ [1]  Tecno adicto. Consultada el 16 de octubre de 2012, http://www.tecnoadicto.net/pulse-smartpen/ [2]  Livescribe. Consultada el 16 de octubre de 2012, http://www.livescribe.com/es/smartpen/ [3]

150


Revista Conceptual UCB

NANOTECNOLOGÍA Rolando Soria Barrenechea #

Ing.mecatronica Universidad Católica Boliviana “San Pablo” Av. 14 de septiembre No.4807 esq. Calle 2 (obrajes) 1

rsb162010@hotmail.com

La Paz - Bolivia Resumen— En este artículo se hablara sobre los nanobots o también llamados nano robots, su definición, funcionamiento y sus distintas aplicaciones en los ámbitos de la medicina y el uso militar. Palabras clave — Nanotecnología, nanorrobotica, células, Biónicos, Artificiales. I. Introducción La nanorrobótica es la fabricación de máquinas, o robots, de dimensiones nanométricas. De una forma más específica, la nanorrobótica se refiere a la ingeniería nanotecnológica del diseño y construcción de robots, se postula como la tecnología del futuro y la que tendrá diferentes usos en la ciencia, entre los más importantes por ejemplo en la medicina, informática y peligrosamente en materias militares o bélicas. Otra definición, usada algunas veces, es la de una máquina capaz de operar de forma precisa con objetos de escala nanométrica; aunque en los últimos tiempos se han desarrollado algunos prototipos no tan eficientes en Japón que no son totalmente robóticos, sino que tienen partes biológicas constituidas por bacterias que los impulsan a modo de motores.

tratan de curar las células cancerígenas. Desarrolado por un grupo de investigadores del Instituto de Tecnología de California (Caltech) Se logro construir ―robots moleculares‖, capaces de realizar tareas complejas a una escala microscópica. Los robots, igual que sus parientes de mayor tamaño, pueden moverse, pararse, girar y realizar con precisión los trabajos para los que están programados. En un artículo publicado hace unos días en Nature, los autores explican cómo estos "nanobots" están destinados, en apenas unos años, a revolucionar por completo una multitud de áreas, desde la ingeniería industrial a la medicina. El primero de los dos robots es una especie de "araña molecular" que, según la programación que incorpore, será capaz incluso de tomar sus propias decisiones y reaccionar de acuerdo con el ambiente en el que se encuentre. Sus tres patas son enzimas de ADN que son capaces, por ejemplo, de dividir una secuencia genética determinada o de ensamblar todo tipo de moléculas construyendo (o rompiendo) sus enlaces moleculares.

Figura 2. Nanobots de ADN

Figura 1. Ejemplo de un nanorrobot.

II. FUNCIONAMIENTOS. El mejor ejemplo de cómo funciona un nanobot microscópico muy pequeño son los nanobots que

III. APLICACIONES La nano tecnología tiene diversas aplicaciones prácticas para el hombre. . A. Uso Médico

151


Revista Conceptual UCB Ray Kurzweil, autor de los libros The Age of Spiritual Machines y The Singularity is Near: When Humans Transcend Biology, afirma que los nanobots acabarán pronto con el cáncer, almacenarán copia de seguridad de nuestra memoria y ralentizarán el envejecimiento. En 30 o 40 años, dispondremos de máquinas microscópicas que viajarán por nuestro cuerpo, reparando las células y los órganos, para acabar con las enfermedades. La nanotecnología se utilizará también para almacenar nuestros recuerdos y personalidades. En una entrevista realizada al escritor y futurista Ray Kurzweil en Computerworld, éste afirmó que cualquiera que esté vivo para el 2040 o 2050 podría estar cerca de la inmortalidad. El rápido avance de la nanotecnología implica que la condición humana evolucionará hacia una colaboración hombremáquina, ya que los nanobots fluirán por nuestro torrente sanguíneo y llegarán incluso, algún día, a reemplazar a la sangre biológica. Esto puede sonar a película de ciencia-ficción, pero Kurzweil, miembro del Inventor's Hall of Fame (salón de la fama de los inventores) y galardonado con la National Medal of Technology (Medalla Nacional de Tecnología), afirma que la investigación que se está realizando hoy en día conducirá a una época en la que la combinación de la nanotecnología y la biotecnología acabará con el cáncer, la enfermedad de Alzheimer, la obesidad y la diabetes. Para entonces, los humanos habrán aumentado también su capacidad cognitiva natural y habrán alargado sus vidas unos cuantos años, añadió Kurzweil.

autobús, pero se podrán reparar muchos más daños por trauma. Si los nanotubos nadan por nuestro flujo sanguíneo o llegan, incluso, a reemplazar a la sangre biológica, las heridas se podrían sanar casi inmediatamente. Sería posible reconstruir los miembros y acceder a las copias de seguridad de nuestros recuerdos y personalidad después de sufrir daños por trauma en la cabeza Actualmente, inversitgadores del MIT están utilizando ya las nanopartículas para dirigir unos genes exterminadores que combaten el cáncer en sus últimas etapas. La universidad informó el mes pasado que el tratamiento basado en nanotecnología eliminó, en ratones, el cáncer de ovario, considerado uno de los más mortíferos. Y a comienzos de este año, científicos de la Universidad de Londres afirmaron haber usado la nanotecnología para eliminar las células cancerosas en ratones con genes "que deshacen los tumores", dando una nueva esperanza a los pacientes con tumores inoperables. De momento, las pruebas han mostrado que esta nueva técnica deja intactas las células sanas. Con todos estos trabajos en marcha, Kurzweil afirma que para el 2024 añadiremos un año a nuestras expectativas de vida por cada año que pase, y en unos 35-40 años, seremos básicamente inmortales. Según él, la adición de estas máquinas microscópicas a nuestro cuerpo no nos hará menos humanos. "Está en la naturaleza de los seres humanos cambiar lo que somos", señala Kurzweil. Pero no eso no significa que no haya partes de este futuro que no le preocupen. Con una nanotecnología tan avanzada como la descrita anteriormente no solo vendrán beneficios, sino también peligros. Los nanobots, explicó Kurzweil, se podrán autoduplicar y los ingenieros deberán frenar esta duplicación. "Podría ser que un nanobot con capacidad para autoduplicarse crease copias de sí mismo... y finalmente, tras 90 duplicaciones, podría devorar el cuerpo en el que se encuentra o los de todos los humanos si se convierte en una plaga no biológica", añadió Kurzweil. "La tecnología no es una utopía, sino un arma de doble filo y lo ha sido siempre desde que descubrimos el fuego por primera vez".

IV. Figura 3. Un ejemplo de nanobot aplicada en la medicina.

Por supuesto, a la gente todavía le puede caer un rayo en la cabeza o pueden ser atropellados por un

Uso Militar La Agencia de Proyectos de Investigación Avanzada para la Defensa (DARPA) ha encargado a la Universidad Tufts el desarrollo de unos nanosoldados que se construirán con biomateriales y cuya

152


Revista Conceptual UCB estructura y funcionamiento estarán basados en la biomecánica de las orugas, lo que les permitirá introducirse en edificios enemigos a través de una rendija bajo la puerta, un conducto para el cableado o un agujero en un muro. Esta nueva generación de robots se llama Chembots (de Chemical Robots) y una vez llevado a cabo su cometido en territorio hostil, pueden autodestruirse y biodegradarse completamente. Por César Gutiérrez.

REFERENCIAS [1]

[2]

[3]

[4]

Figura 4. Ejemplo de nanobots para el uso militar.

Conclusiones Los nanobots tienen muchas aplicaciones prácticas para el hombre. Los nanobots tienen un gran potencial para solucionar problemas que la medicina tradicional no ha podido solucionar. La gente que sufre de cancer tiene la posibilidad de curarse. Para el uso militar los nanobots proveen a los soldados la capacidad de mandar al nanobots por orificios pequeños como los cableados para la mejoriar sus planificaciones. La nanotecnología como indica el texto es un arma de doble filo. El nanobot aplicado en la medicina puede ser mortal ya que en un futuro no muy lejano los nanobots pueden ser capaz de remplazar la sangre biológica. Al estar el nanobot dentro del cuerpo humano, puede ir curando el cáncer o varias enfermedades, pero si no es biológico el nanobot puede multiplicarse hasta llegar a unas 90 copias echas por si mismo, al multiplicarse puede ir matando todo el cuerpo en el que se encuentre dejando al individuo sin vida. En cuanto al uso militar es un arma muy efectiva ya que el nanobot que ya fue creado tiene forma de una oruga y es llamado chembot. Este pequeño nanobot puede ser mandado a campos enemigos, ya que el nanobot-chembot puede introducirse porrendijas, bajo las puertas, cableados o agujeros en la pared. El chembot (nanobot) al llegar a su objetivo puede autodestruirse o biodegradarse. Dejando el lugar muy afectado. Esta nueva tecnología en el futuro llegara a remplazar varias partes de nuestros cuerpos, al mismo tiempo haciéndonos inmortales.

153

Gamasoft. (2009, Septiembre). Consultada el 15 de Octubre de 2012, http://ve.globedia.com/nanobot-halextraordinario. Gamasoft. (2009, Septiembre). Consultada el 15 de Octubre de 2012, http://ve.globedia.com/nanobots-halextraordinario.. Pardo, L. (2011, Diciembre). Consultado el 15 de Octubre de 2012, http://www.neoteo.com/un-nanobotspara-curar-las-celulas-del-cancer Pardo, L. (2012, Febrero). Consultado el 15 de Octubre de 2012, http://www.neoteo.com/hercule-nanobots-deuso-civil


Revista Conceptual UCB

POR QUE EL INTERNET EN BOLIVIA ES ―DE TORTUGAS‖??? Rodrigo Alexis Uruchi Quispe #

Ingeniería en Telecomunicaciones Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre Nº 4807, Obrajes 1 ralexamigos@hotmail.com La Paz - Bolivia Resumen— Este documento da algunas instrucciones relacionadas al formato para los artículos que serán enviados al congreso internacional de Desarrollo Comunitario. El autor debe seguir las instrucciones dadas en el documento para que el artículo sea publicado. Puede utilizar el mismo documento para escribir tu propio artículo. Palabras clave — Internet, lentitud, satélite, alto costo, distancia altas.

I. INTRODUCCIÓN ¿Por qué el internet en Bolivia es tan lento a comparación de los demás países? ¿Tiene algo que ver no contar con salida propia al océano pacifico? ¿Por qué el costo de la conexión es tan alto? ¿El famoso satélite nos ayudara a mejorar nuestra velocidad? Son preguntas que a diario nos hacemos, todos sufrimos por la lentitud de nuestro internet aquí, en Bolivia. II. ¿CUÁLES SON LAS CAUSAS? Son muchos los factores por los cuales, el internet en nuestro territorio es de tan reducidas capacidades, principalmente: A. El Precio La velocidad de internet viene íntimamente ligada al precio del ancho de banda. En nuestro país, La penetración del servicio es reducida debido a que los proveedores deben subcontratar el servicio de empresas internacionales, lo cual encarece los costos.

Las empresas del país generalmente subcontratan la transmisión de datos de otras empresas internacionales ―lo que provoca un encarecimiento en los costos de este servicio‖. La velocidad del servicio de internet es proporcional a su costo, si bien el precio actual del servicio es todavía relativamente elevado, esto se debe, principalmente, a los costos de salida internacional que nuestro país tiene; los precios pueden ser más competitivos en la medida en que se reduzcan estos costos. Sin embargo, en la actualidad, hay una tendencia a que los precios decrezcan. Nuevatel Viva hace un gran énfasis en poder reducir la brecha digital en nuestro país a través de la ampliación de cobertura y el desarrollo de nuevos servicios, esto pensando siempre en adecuarnos a las necesidades de los clientes. C. ¿En serio es lento o sólo es caro? Las empresas (ISP1) ofrecen velocidades desde 128 Kbps hasta los 2 Mbps. Pero el costo por megabit internacional es de 720$us, para los países costeros el costo se minimiza notablemente. Inclusive hay usuarios que aun acceden a la red por medio de una conexión Dial-up (llamada telefónica). Esta ofrece una velocidad obsoleta de 56 Kbps. No hay suficiente cobertura.

El ancho de banda internacional es tan caro porque somos un país mediterráneo. Así que se necesitan servicios de transporte adicionales para que llegue internet a nuestras fronteras. Este servicio de transporte adicional es también caro. Son pocos los proveedores. Se crea algo muy cercano a un monopolio B. ¿Y Nuestro Mar? ―Nuestra mediterraneidad marítima es también mediterraneidad tecnológica. Si estuviéramos a orillas del mar, el megabyte (unidad de capacidad de ancho de banda) costaría 120 dólares al mes en lugar de los 720 que nos cuesta ahora‖.

Fig, 1 La mayoría no tiene acceso a internet domiciliario por lo que recurre a cafes internet.

154


Revista Conceptual UCB D. ¿Las inversiones? Ahora, en el tema de inversiones surge otro de los problemas, ya que, existe todavia un mercado pequeño que concurre a este servicio en nuestro territorio. Es así que unos pocos inversionistas deben pagar por ello. Cosa que no sucede en otras economias. Se necesita mas mercado y más inversionistas. E. Tráficos finales Los tráficos finales son otro de los problemas de nuestros proveedores. Sus tráficos finales2 no son muy altos. Los precios siguen siendo elevados para el volumen al que pueden acceder los ISP‘s. Nuestra deficiente economía es factor que contribuye a este problema.

Fig. 2 La conexión a internet, en Bolivia, es lenta como tortuga

F. Vivimos en la punta del cerro… Estamos en una de las zonas ―periféricas‖ de la red. Los backbones3 más importantes están muy lejanos. Se encuentran en países muy lejos del nuestro. Esto influye en los retardos adicionales (más retardo = más lento). Esto causa que, se deban usar varios proveedores para llegar al contacto que recibe la información. Esto es lo que limitan los anchos de banda. No tenemos un backbone nacional o departamental o latinoamericano. De esta manera cualquier comunicación entre las redes locales se convierte en comunicaciones internacionales con sus desventajas ya planteadas. Toda la información que se busca es internacional. No se produce dentro de nuestro territorio información propia. Ni siquiera en el continente. Casi toda la información es de otros continentes. Viene de países lejanos como: Japón, China, USA y toda Europa. Los servidores requeridos no se encuentran cerca. Porque los generadores de la información no colocan servidores

locales, nuevamente por que no hay mercado en el país (Google, Netflix, servidores de contenido). G. Para comprar pan dependemos del panadero… No sabemos qué es tener buenas velocidades. La mayoría de la gente pretende que la transmisión de un video sea mejor si es que se usa un enlace con mayor velocidad. Las condiciones para que esto ocurra no es solamente tener un buen ancho de banda. Sino que el proveedor del video también tenga buen ancho de banda y posibilidad que su servidor pueda enviarlo a esa velocidad. Que el proveedor de la información y todos los equipos de nuestro lugar tengan capacidad de ancho de banda que nos pueda dar por algunos minutos, y, que los servidores no estén muy lejos. Eso implica mayor retardo y eso es bajar la velocidad máxima de los enlaces. ―Para comprar pan necesitamos que el panadero tenga suficientes panes para abastecer a los hambrientos‖. H. ¿Quién nos dice que nuestra conexión es lenta? Usamos medidores de velocidad de Internet, que en realidad están midiendo la capacidad disponible de un enlace. Es decir, no se puede medir la velocidad de Internet con las herramientas web en un café Internet. Otros clientes también están usando una parte del ancho de banda disponible. Las páginas: Speedtest.net, Testdevelocidad.es, Adslayuda.com y otras lo único que ofrecen es informar la medida de la capacidad disponible. I. ¿Y el satélite? No se tiene en el país una política de desarrollo y uso de estas tecnologías. Nuestra patria está estancada en otros asuntos ―diplomáticos‖. Lo más cercano es el Satélite Túpac Katari, que nos ayudará en la cobertura para las conexiones pero esto no mejorará la velocidad. Las conexiones por satélite son más costosas que las terrestres. La velocidad mayor se logra a través de la fibra óptica. J. Para llegar hay que tomar el camino más largo… El ancho de banda es una parte. La calidad es la otra cara de la moneda. Nuestros ISP‘s no tienen el enlace más corto. Podremos tener excelente ancho de banda pero el ping4 puede ser muy grande. Así la latencia también es otro gran problema. Nuestras conexiones tienen que atravesar 13 servidores antes de llegar a su destino final.

155


Revista Conceptual UCB [8]

Fig. 3 Persona en cólera por la lentitud de su conexión

III. CONCLUSIONES Las empresas están conscientes de que los precios son caros, pero no se podrá mejorar hasta que tengamos más, mejores y sobre todo enlaces propios. Cotel ha diseñado un proyecto para crear su propio enlace internacional. El proyecto ya está siendo ejecutado. Esto creara precios más competitivos. Todas las empresas deberían tomar iniciativas e implementar proyectos similares para la mayor competencia. En conclusión, cuando logremos el enlace internacional nuestro Internet será ―más bonito y más barato‖. Hasta entonces nuestra conexión estará en vías de desarrollo. Al igual que nuestro país. Necesitamos pertenecer, o por lo menos estar en contacto más cercano a los backbones. Una red de fibra óptica propia de cada empresa puede resultar muy costosa. El gobierno tiene que implementar una propia red de fibra óptica para abaratar nuestros costos. RECONOCIMIENTOS Al Ing. Clifford Paravicini (director de la Autoridad de Regulación y Fiscalización de Telecomunicaciones y Transportes, ATT), a Pilar Soria (Gerente regional VIVA) y al Ing. Nelson Uruchi (Ex Gerente Planificación COTEL) por brindarnos la información requerida durante el proceso de gestación del artículo.

[1] [2] [3] [4] [5]

[6] [7]

REFERENCIAS ISP.- Internet Service Provider (Proveedor de servicios de internet) trafico final.- capacidad de información Backbone.- eje troncal de internet. Ping. Tiempo entre envío y recepción de paquetes de datos entre dos dispositivos conectados. Entrevista a: Ing. Clifford Paravicini (director de la Autoridad de Regulación y Fiscalización de Telecomunicaciones y Transportes, ATT), Fecha: Martes 8 de Mayo del 2012. Entrevista a: Pilar Soria (Gerente regional VIVA), Fecha Jueves 10 de mayo del 2012. Entrevista a: Ing. Nelson Uruchi (Ex Gerente Planificación COTEL), Fecha: Lunes 4 de Junio del 2012.

156

Entrevista a: (Ing. Anónimo), Fecha: Viernes 8 de Junio del 2012.


Revista Conceptual UCB

Neurosensores Alejandra Ayad Rubín de Celis Ingeniería biomédica Universidad Católica Boliviana “San Pablo” Dirección de la Universidad 1

primer.autor@universidad.edu

La Paz - Bolivia Resumen— Las sustancias bioquímicas son sensiblemente reconocidas y procesadas por las células vivas, ya sea a proporcionar energía de vida o para activar una célula de tipo adecuado respuesta específica. Para el monitoreo en línea de celular reacciones que desarrollamos (ed) Monitoreo de células diferente Systems (CMSA). En los últimos años hemos medido principalmente parámetros metabólicos como por ejemplo y acidificación respiración en líneas de células tumorales. Desde hace casi dos años que, además, se centran en el desarrollo de un CMS medir las señales eléctricas de las redes neuronales cultivadas en un nuevo microchip neurosensor. Actualmente optimizamos los parámetros del sensor utilizando experimental técnicas como patch-clamp en combinación con PSPICE modelado de sistemas. Palabras clave — microchip multiparamétrico,

eléctricamente activas con transductores apropiados por ejemplo, los permisos de mediciones a largo plazo de la electricidad señales de redes neuronales. La calidad de el contacto entre las células eléctricamente activas y los transductores es por lo tanto de importancia crucial para aplicación de tales híbridos en investigación básica y biomédica. El objetivo es conseguir un sistema de sensores en el que se pueda medir tanto señales eléctricas así como metabólicas, con un sensor de chips para la investigación básica y, por ejemplo aplicaciones de cribado en drogas.

neuronas, monitoreo del sistema celular. Asunto categoría: Biosensores

“Un biosensor se define como una herramienta o un sistema analítico compuesto por un material biológico que está inmovilizado, del tipo enzimas, anticuerpos, orgánulos… Este material biológico está en contacto con un sistema transductor adecuado que convierte la señal bioquímica en una señal eléctrica que se puede cuantificar. Las señales eléctricas que se producen pueden ser continuas o discontinuas.

I. INTRODUCCIÓN Los procesos bioquímicos y biofísicos permiten que una célula se mantenga, crezca, se reproduzca y se comunique con el entorno. Conseguir más información sobre el procesamiento de entrada y salida de señales multifuncionales celulares es fundamental para la investigación básica, así como para diversos campos de aplicaciones biomédicas. Para las investigaciones in vitro en células vivas del entorno celular difiere de la del ambiente nativo encontradas in vivo. Como una primera aproximación para el monitoreo en línea de las reacciones celulares bajo condiciones experimentales bien controladas se desarrolló lo que se llama Cell Monitoring System (CMS) Permite la medición paralela y no invasiva de diferentes parámetros de los sistemas de telefonía móvil por el uso de microsensores. Los Sensores microelectrónicos son la adecuada elección para la medición no invasiva de parámetros ambientales, así como las entradas y salidas de las células. Además de la medición de principalmente parámetros metabólicos como, por ejemplo, acidificación y la respiración que, además, se centran en el desarrollo de un silicio sensorchip basado en CMS para controlar también las señales eléctricas de las redes neuronales cultivadas en el nuevo neurochip. El acoplamiento extracelular no invasivo de células

II.

QUE SON LOS BIOSENSORES?

Fig. 1 Biosensores como marcadores Se emplea un transductor porque es un dispositivo capaz de transformar o convertir un determinado tipo de energía de entrada, en otra diferente a la salida. La elección del componente biológico, además, va a depender de la sustancia, que normalmente se denomina analito, que se quiera analizar o

157


Revista Conceptual UCB cuantificar; el transductor a su vez también dependerá del biocomponente. Antes se usaban sensores electroquímicos y con la aparición de los biosensores se mejoraron diferentes aspectos en los análisis. Se mejora así la sensibilidad y la precisión.

verificar, o mejor dicho, diagnosticar la depresión y el Parkinson en las personas en tiempo real tal que el diagnostico sea más preciso y no sea tardío como en la mayoría de los casos.

En los biosensores no es necesario manipular las muestras, ni usar una gran variedad de reactivos, sin embargo es posible hacer cientos o incluso miles de medidas con un único biosensor, se abarata el coste de los ensayos, se aumenta la rapidez del proceso y además son pequeños y su manejo es más sencillo.

Fig. 2 Esquema de un biosensores A pesar de estas ventajas presenta dos desventajas o limitaciones principales: la primera es la inestabilidad de los compuestos biológicos (enzimas, anticuerpos…), éstos pueden perder su actividad en horas o días; esto depende de la naturaleza de la molécula, del pH, la temperatura o la fuerza iónica del compuesto biológico. La segunda limitación se debe a que la señal que puede registrar el biosensor está en un rango muy pequeño, de milímetro a micrómetro. Esto se puede mejorar sustituyendo los dispositivos de transducción físico-químicos por dispositivos de transducción biológicos.

Fig. 3 Con ayuda de biosensores, detecta los cambios fisiológicos del hombre Otra de sus aplicaciones es en el campo de rehabilitación para personas que quedaron paraplégicas. Ya que en estos casos los neurosensores son los que ayudan a procesar las distintas señales que produce el cerebro. Un claro ejemplo de el uso de los neurosensores lo dan en la revista Spectrum en su articulo ―Imagining the future‖ ya que en este describe como una persona paraplegica del cuello para abajo logra controlar una computadora, un televisor y un robot gracias a un sistema de interfaz neural Brain Gate, tan solo utilizando sus pensamientos.

III. CLASIFICACIÓN Los biosensores se clasifican en dos tipos: a) En función del biocomponente inmovilizado. -Catalíticos o enzimáticos,Afinidad, Inmunobiosensor, Proteínas de membrana, Microorganismos b) En función del transductor. T. electroquímicos, T. ópticos, T. calorimétricos/térmicos, T. acústicos/térmicos‖

V. CONCLUSIONES Los neurosensores han demostrado que son muy importantes para el desarrollo de nuevas tecnologías y para el bien de la sociedad como tal, es por esto que son parte de nuestro presente y una parte fundamental de nuestro futuro, ya que los proyectos que se tienen pensados para estos involucran mucho.

IV.

APLICACIONES DE SENSORES NEURONALES O NEUROSENSORES

Existen diversas aplicaciones para los biosensores tanto en la industria como en la medicina, en el caso especifico de un neurosensor, las aplicaciones existentes son muchas, principalmente en el campo del diagnostico en la medicina. Existen diversos ejemplos para ello, uno de esos es la aplicación de neurosensores en la medición de los niveles de distintas sustancias en el cerebro, para poder

VI.

REFERENCIAS

[1]http://www.biosystems.unirostock.de/Projekt/neurosensors.pdf [15/10/12] [2] http://www.imm.cnm.csic.es/RedBiosensores/tendenciasfuturas.html [16/10/12] [3] http://spectrum.ieee.org/nanoclast/semiconductors/ nanotechnology/wearable-health-monitoring-project-turnsto-nanotechnology-for-power-sources [15/10/12] [4]http://blogs.creamoselfuturo.com/biotecnologia/2010/07/12/historia-de-los-biosensores/ [14/10/12]

158


Revista Conceptual UCB

Ensamblado y Configuración de un Microprocesador Cristhian E. Romano Rojas Ingeniería Mecatrónica Universidad Católica Boliviana “San Pablo” http://www.ucb.edu.bo/Nacional/Forms/Index.aspx c_roamno_r@estudiantes.ucb.edu.bo

La Paz – Bolivia

Resumen— Este documento muestra como es la configuración de los microprocesadores y también algunos componentes internos para su funcionamiento correcto. Palabras clave — Fabricación, Funcionamiento, Empaquetado , Configuración de un microprocesador.

I. INTRODUCCIÓN El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador. Es el encargado de ejecutar los programas; desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.

Figura 1. Procesador AMD Athlon 64 X2 conectado en el zócalo de una placa base Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y

una unidad de cálculo en coma flotante(conocida antiguamente como «co-procesador matemático»). El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el ventilador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de over clocking. II. CREACIÓN 1) Procesadores de silicio El proceso de fabricación de un microprocesador es muy complejo. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 mm por hora) se va formando el cristal. De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de 10 micras de espesor, la décima parte del espesor de un cabello humano, utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores. También se están desarrollando alternativas al silicio puro, tales como el carburo de silicio que mejora la conductividad del material, permitiendo mayores

159


Revista Conceptual UCB frecuencias de reloj; aunque aún se encuentra en investigación. 2) Otros materiales Aunque la gran mayoría de la producción de circuitos integrados se basa en el silicio, no se puede omitir la utilización de otros materiales tales como el germanio ; tampoco las investigaciones actuales para conseguir hacer operativo un procesador desarrollado con materiales de características especiales como el grafeno o la molibdenita . III..MODO DE FUNCIONAMIENTO Desde el punto de vista lógico y funcional, el microprocesador está compuesto básicamente por: varios registros; una Unidad de control, una Unidad aritmético-lógica; y dependiendo del procesador, puede contener una unidad en coma flotante.l microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:PreFetch, Pre lectura de la instrucción desde la memoria principal, Fetch, envío de la instrucción al decodificador, Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer, Lectura de operandos (si los hay), Ejecución,(Lanzamiento de las Máquinas de estado que llevan a cabo el procesamiento). Escritura de los resultados en la memoria principal o en los registros. Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un oscilador, normalmente un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles deMHz, a continuación mostraremos algunas funciones internas del microprocesador. A. Disipador de calor En las arquitecturas modernas la disipación de calor es un problema mayor, debido a la alta frecuencia de operación y a la miniaturización extrema de los microprocesadores recientes, y por eso es común que, en ordenadores como los compatibles con la IBM PC, lasmotherboards dispongan de un zócalo especial para alojar el microprocesador y un sistema de enfriamiento, que comúnmente consiste en un disipador de aluminio con un ventilador adosado (conocido como microcooler). Sin esta protección, los microprocesadores podrían sobrecalentarse al punto de estropearse permanentemente. Los

microprocesadores actuales, en su gran mayoría, incluyen mecanismos automáticos que miden la temperatura y eventualmente apagan el procesador en caso de detectar sobrecalentamiento (también pueden incluir alarmas sonoras previas). Esto sirve para protegerlo de fallos, como por ejemplo, que el ventilador se averíe o atasque. Equipos modernos también suelen incluir sensores en el microcooler (ventilador) que chequean continuamente su velocidad (rpm) y en caso de que esta baje peligrosamente el equipo se apaga automáticamente. B. Bus de datos El microprocesador lee y escribe datos en la memoria principal y en los dispositivos de entrada/salida. Estas transferencias se realizan a través de un conjunto de conductores que forman el bus de datos. El número de conductores suele ser potencia de 2. Hay buses de 4, 8, 16, 32, 64, ... conductores. Los modelos de la familia x86, a partir del 80386, trabajan con bus de datos de 32 bits, y a partir delPentium con bus de 64 bits. Pero los microprocesadores de lastarjetas gráficas, que tienen un mayor volumen de procesamiento por segundo, se ven obligados a aumentar este tamaño, y así tenemos hoy en día microprocesadores gráficos que trabajan con datos de 128 ó 256 bits. Estos dos tipos de microprocesadores no son comparables, ya que ni su juego de instrucciones ni su tamaño de datos son parecidos y por tanto el rendimiento de ambos no es comparable en el mismo ámbito.La arquitectura x86 se ha ido ampliando a lo largo del tiempo a través de conjuntos de operaciones especializadas denominadas "extensiones", las cuales han permitido mejoras en el procesamiento de tipos de información específica. Este es el caso de las extensionesMMX y SSE de Intel, y sus contrapartes, las extensiones 3DNow! deAMD. A partir de 2003, el procesamiento de 64 bits fue incorporado en los procesadores de arquitectura x86 a través de la extensiónAMD64 y posteriormente con la extensión EM64T en los procesadores [AMD] e [Intel] respectivamente. C. Empaquetado Los microprocesadores generalmente aparecen a la venta empaquetados para proteger el elemento de silicio (el microprocesador en sí) de la interferencia eléctrica y del daño por exposición al medio ambiente. Este empaquetado suele tener forma de paralelogramo o de prisma e incluye superficies o postes conductores para permitir el paso de alimentación eléctrica y de señales eléctricas desde y hacia el microprocesador. Este empaquetado comúnmente se instala sobre un elemento llamado zócalo (en inglés, socket) que sirve a la vez de

160


Revista Conceptual UCB anclaje e interfaz de comunicación entre el microprocesador y el resto del ordenador (por ejemplo, comunicando con el chipset). En algunas arquitecturas el microprocesador puede soldarse directamente a la placa madre (motherboard). También existen arquitecturas donde se adoptó el formato de cartucho, sin embargo éste formato es más bien raro en la actualidad, prefiriendo la industria disponer de microprocesadores como módulos independientes conectables (y también desconectables) en un zócalo especial.

Los microprocesador es un circuito integrado que contiene todos los elementos necesarios para conformar una "unidad central de procesamiento" UCP, también es conocido como CPU (por sus siglas en inglés: Central Process Unit). En la actualidad este componente electrónico está compuesto por millones de transistores, integrados en una misma placa de silicio, su configuración es muy diferente dependiendo la capacidad y el fin. REFERENCIAS [1] www.monografias.com › Computación › Hardware [2] www.duiops.net/hardware/micros/micros.htm [3]www.conozcasuhardware.com/quees/micro1.h tm [4]www.pucpr.edu/facultad/apagan/quees/microprocesadores.htm [5]www.freewebs.com/jojaqui/intro_microproce sadores. pdf

Figura 2. Empaquetado PGA Intel Xeon

IV . CONFIGURACIÓN DEL MICROPROCESADOR Cuando se instala un microprocesador en una placa base es necesario configurar algunos parámetros, como la frecuencia base del microprocesador y el multiplicador (en placas más antiguas era necesario configurar los niveles de voltaje). El multiplicador es el factor por el que una vez multiplicada la frecuencia base nos permitirá obtener la frecuencia real de funcionamiento del multiplicador. Para configurar estos valores, las placas solÍan disponer de un jumpers o microrruptores (generalmente tres o cuatro para la frecuencia, y uno para el multiplicador). Para configurar de forma correcta el procesador, debemos ayudarnos del manual de la placa base para saber exactamente la combinación correspondiente. En muchas ocasiones, en la misma placa base viene serigrafiada las combinaciones de los puentes.En la actualidad, no se suele utilizar los jumpers para estas operaciones, en algunos casos se usan microrruptores, pero en la mayoría de los casos, se hace configurando estos valores accediendo a la Bios y modificando ahí mismo los valores necesarios. NOTA: En las placas actuales no es necesario hacer esta configuración, ya que detectan automáticamente los parámetros correctos de los procesadores. V. CONCLUSIÓN

161


Revista Conceptual UCB

Realidad Virtual Wilde Edgar Valdez Iñiguez Ingeniería de sistemas Universidad Católica Boliviana “San Pablo” Av. 14 de Septiembre Nº 4807, Obrajes La Paz-Bolivia Resumen— La realidad virtual no es un tema nuevo del cual comentar, pero es el momento indicado para hacerlo ya que estamos acerca de entrar a esta tecnología que puede abrir varias puertas para muchos campos como ser la educación o el simple entretenimiento, pero algo es cierto, con esta tecnología daremos un gran paso en lo que es el mundo de lo que no existe nada más que en nuestras cabezas. I.

INTRODUCCIÓN

Actualmente, el constante cambio en el mundo tecnológico y la creciente necesidad de nuevas y mejores tecnologías que emergen estocásticamente, ocasiona que tanto usuarios como administradores algunas veces se mantengan al margen de las nuevas herramientas que surgen para satisfacer demandas de visualización e interacción de modelos que manejan grandes cantidades de información, así con la aparición de estas nuevas tecnologías emergentes, una gran cantidad de

disposición de cualquier usuario dicha tecnología aún incipiente pero con un horizonte impresionante de desarrollo. II.

FUNDAMENTOS DE REALIDAD VIRTUAL

Definición de realidad virtual La realidad virtual (RV) es una simulación tridimensional generada o asistida comúnmente por computadora de algún aspecto del mundo real o ficticio, en el cual el usuario tiene la sensación de pertenecer a ese ambiente sintético o interactuar con él. La RV permite interactuar con mundos tridimensionales de una manera más natural, por ejemplo, un usuario puede realizar acciones dentro de un modelo virtual, desplazarse, moverse, caminar a través de él o levantar cosas, y de esta forma experimentar situaciones que se asemejan al mundo real. La Enciclopedia Británica la define como: La utilización de la modelación y simulación que habilitan a la persona a interactuar con una visión tridimensional o a través de sensores ambientales. De tal forma que las aplicaciones inmergen o emergen al individuo en ambientes generados por computadora que simulan la realidad a través del uso interactivo de estos dispositivos, los cuales envían y reciben información. Este término también es usado para llamar una rama de las ciencias de la computación que involucra al desarrollo de tales sistemas.

Figura 1. Modelo genérico de un ambiente virtual. Sin duda, el gran crecimiento en el desempeño de supercomputadoras y en particular de computadoras con grandes alcances en capacidades de graficación, ha permitido la incorporación de nuevas tecnologías de visualización y modelación como lo es la Realidad Virtual, la cual ha proporcionado un mejor entendimiento de un fenómeno o hecho real mediante su simulación tridimensional e interacción con equipo especializado. Desde hace muchos años (en particular desde los 60's) el desarrollo de esta tecnología era exclusiva de centros de investigación y a partir de los años 90 la realidad virtual irrumpe el mercado poniendo a

Una de las principales aplicaciones se da en el área de entrenamiento o capacitación, donde el usuario tiene la oportunidad de poder trabajar en ambientes virtuales sin tener que ponerse en peligro o pagar un alto costo para adquirir cierta experiencia en un área determinada, además la RV se puede utilizar para elaborar prototipos de productos, ( simuladores de vuelo ) simulaciones de vuelo, educación médica ( simulación quirúrgica, entrenamiento, simulaciones para tratamientos psiquiátricos), visualización de datos (como la modelación de moléculas), entre otras. Se destacan tres características idóneas de la RV: * Es un ambiente tridimensional generado por

162


Revista Conceptual UCB computadora. *Es interactiva * Es inmersiva, es decir, el usuario se siente parte del ambiente virtual III.

MODELO GENÉRICO DE UN SISTEMA DE REALIDAD VIRTUAL

Las partes básicas de un sistema de realidad virtual son: el modelo de simulación, la representación del ambiente virtual, la entrada/salida y por supuesto el usuario IV. MODELO DE SIMULACION El modelo es la representación matemática del sistema que se está presentando. Un modelo virtual necesita responder dinámicamente en respuesta de la entrada del usuario. Se pueden crear modelos matemáticos sofisticados de realidad virtual, pero lo importante es la manera en que estos modelos están asociados con un sistema visual y auditivo. Entrada Los dispositivos de entrada se utilizan para interactuar con el ambiente virtual como puede ser el teclado o el mouse, un joystick o guantes, pedales, etc.

Sistemas semi-inmersivos Los sistemas semi-inmersivos o inmersivos de proyección se caracterizan por ser 4 pantallas en forma de cubo (tres pantallas forman las paredes y una el piso), las cuales rodean al observador, el usuario usa lentes y un dispositivo de seguimiento de movimientos de la cabeza, de esta manera al moverse el usuario las proyecciones perspectivas son calculadas por el motor de RV para cada pared y se despliegan en proyectores que están conectados a la computadora. Este tipo de sistemas son usados principalmente para visualizaciones donde se requiere que el usuario se mantenga en contacto con elementos del mundo real. Sistemas no inmersivos Los sistemas no inmersivos o de escritorio, son aquellos donde el monitor es la ventana hacia el mundo virtual y la interacción es por medio del teclado, micrófono, mouse o joystick, este tipo de sistemas son idóneas para visualizaciones científicas, también son usadas como medio de entretenimiento (como son los casos de los juegos de arcada) y aunque no ofrecen una total inmersión son una buena alternativa de bajo costo.

Salida La salida se refiere a la tecnología mediante la cual el usuario percibe estímulos, esta tecnología abarca un amplio rango y va desde aparatos de despliegue visual, sistemas sonoros, sistemas sensoriales, entre otros. Estos dispositivos también serán discutidos posteriormente en este documento en su sección III. Usuario El usuario es la razón de existir de un sistema de realidad virtual pues es él quien recibe los estímulos de parte del sistema y a su vez se encarga de retroalimentarlo y definir su comportamiento. V.

TIPOS DE REALIDAD VIRTUAL

Existen diferentes tipos de realidad virtual, los cuales se describen brevemente a continuación: Sistemas inmersivos Los sistemas inmersivos son aquellos sistemas donde el usuario se siente dentro del mundo virtual que está explorando. Este tipo de sistemas utiliza diferentes dispositivos denominados accesorios, como pueden ser guantes, trajes especiales, visores o cascos, estos últimos le permiten al usuario visualizar los mundos a través de ellos, y precisamente estos son el principal elemento que lo hacen sentirse inmerso dentro de estos mundos. Este tipo de sistemas son ideales para aplicaciones de entrenamiento o capacitación.

Figura 2. Hardware para RV. VI.

EVOLUCIÓN

Generalmente, se ve a la realidad virtual como una tecnología nueva, sin embargo, sus bases, es decir sus orígenes se remontan a los años 60's cuando emergen los primeros simuladores de vuelo

163


Revista Conceptual UCB construidos para la fuerza aérea estadounidense, donde los estudiantes de piloto aprendían a manejar aviones entrenando en cabinas aéreas montadas en plataformas movibles las cuales subían, bajaban o movían hacia los lados dependiendo de las acciones que el piloto realizara sobre los controles. Otro importante concepto fue el "Sensorama" na máquina de arcada creada or Morton Heiling en 1962, esta máquina simulaba las experiencias sensoriales de un paseo en motocicleta, al combinar imágenes, sonido, viento y aromas. En esta experiencia el usuario subía en el asiento de una motocicleta, tomaba los manubrios y usaba un visor parecido a unos binoculares donde podía pasear por dunas en California o las calles de Brooklyn, y donde unos pequeños 'grills' cerca de la nariz del usuario emitían aromas auténticos. Sin embargo, este proyecto era sumamente complejo y nunca se logró materializar versiones más sencillas de éste. Otro precursor dentro del área fue Ivan Sutherland, quién en 1965, publicó un artículo denominado "The Ultimate Display", donde sentó las bases del concepto de realidad virtual, Sutherland estipulaba "La pantalla es una ventana a través de la cual uno ve un mundo virtual. El desafío es hacer que ese mundo se vea real, actúe real, suene real, se sienta real". Posteriormente en 1966, el mismo Sutherland creó un casco visor de realidad virtual al montar tubos de rayos catódicos en un armazón de alambre, este instrumento fue llamado "Espada de Damocles" debido a que el aparato requería de un sistema de apoyo que pendía del techo. VII.

TECNOLOGÍA DE REALIDAD VIRTUAL

La tecnología de un sistema de realidad virtual trata sobre algo más que los dispositivos físicos que se utilizan para la visualización, interacción o retroalimentación de este tipo de sistemas, también incluye el software o programas que se utilizan para la modelación de este tipo de sistemas. Ambos elementos, se complementan uno con el otro, el hardware se encarga no solo de mandar señales al usuario sino también de recibir señales por parte de éste, el software es el encargado de procesarlas y transformarlas en un nuevo comportamiento del mundo virtual. En las secciones subsecuentes se describe tanto el hardware como el software de una manera más detallada. Hardware El hardware consiste de dispositivos físicos que forman parte de un sistema de RV y son los que estimulan al usuario en distintas maneras. Estos

estímulos son los que le permiten alimentar los sentidos del usuario, y así, inducirlo a un mundo creado para él. Existen diferentes tipos de dispositivos como los de entrada, los cuales son dispositivos visuales, de sonido, la máquina de realidad (reality engine) y de salida como los dispositivos hápticos 1. Ambos tipos de dispositivos se describen brevemente a continuación. Máquina de realidad La máquina de realidad se refiere al hardware que nos permite generar modelos virtuales, este hardware puede ser desde una simple PC, hasta estaciones de trabajo diseñadas especialmente para tratar con este tipo de tareas, como por ejemplo la familia de estaciones de trabajo y sistemas Onyx2 como son Onyx2Reality visualization u Onyx2 RealityMonster de Silicon Graphics. Estas máquinas se encargan de realizar todo el proceso de trazado de las imágenes. Dispositivos visuales Cuando se escucha hablar sobre realidad virtual generalmente, lo primero que viene a la mente es una persona usando unos lentes o un casco y visualizando algún modelo virtual. Los dispositivos visuales son una de las herramientas más importantes de retroalimentación para el usuario, en la mayoría de los casos es la entrada primaria que este recibe del sistema de RV. Uno de las principales consideraciones en este tipo de dispositivos es el detalle de las imágenes contra la rapidez en la formación de las imágenes que forman las escenas, además de una visión monoscópica contra una estereoscópica. La formación de escenas en tiempo real le dan un sentido de realidad al usuario al eliminar la discontinuidad. * Lentes LCD resplandecientes Los lentes resplandecientes de despliegue de cristal líquido tienen la apariencia de un par de anteojos, donde un foto sensor es montado en estos lentes para así poder leer una señal de la computadora. Esta señal le comunica a los anteojos si le permite al lente pasar luz del lado izquierdo o derecho del lente. Cuando la luz se le permite pasar a través del lente izquierdo, la pantalla de la computadora mostrará el lado izquierdo de la escena, lo cual corresponde a lo que el usuario verá a través de su ojo izquierdo. Cuando la luz pasa a través del lente derecho, la escena en la pantalla de la computadora es una versión ligeramente deslizada hacia la derecha. Los lentes de LCD resplandecientes son ligeros y sin cables. Estas dos características los hacen fáciles de usar, sin embargo, el usuario tiene que mirar fijamente y solo a la pantalla de la computadora para

164


Revista Conceptual UCB ver la escena tridimensional, ya que el campo de vista es limitado al tamaño de la pantalla de la computadora, el medio ambiente real puede también ser visto lo cual no proporciona un efecto de inmersión. * Despliegues montados en la cabeza (HeadMounted Display)Los despliegues montados en la cabeza (HMD por sus siglas en inglés) colocan una pantalla en frente de cada ojo del individuo todo el tiempo. El casco que usa el usuario tiene unos sensores montados en él, los cuales le permiten reconocer el movimiento de la cabeza por lo que una nueva perspectiva de la escena es generada

Figura 3. Visualización RV. * Despliegue HMD con LCD En este tipo de despliegues se utiliza la tecnología de LCD para desplegar las escenas. Este tipo de despliegues es más claro con respecto a los otros tipos de HMDs, y proporciona un efecto de inmersión, sin embargo, la resolución y el contraste es bajo, debido a que los cristales son polarizados para controlar el color de un pixel lo cual crea un retardo en la formación de la imagen, esto trae como consecuencia que el individuo no pueda identificar objetos o juzgar correctamente la posición de éstos provocando un retardo en la formación de la imagen, por lo que el individuo puede juzgar mal la posición de los objetos. * HMD proyectado En este tipo de casco se utiliza la fibra óptica para transmitir la escena a la pantalla. Esta es similar a la CRT con la diferencia de que el fósforo es iluminado

por la luz transmitida a través de la fibra óptica, donde cada fibra controla una celda con varios pixeles. El casco proyectado proporciona mejor resolución y contraste que el despliegue de LCD, esto significa que el individuo es capaz de ver una imagen con mucho mayor detalle. La desventaja de este tipo de dispositivos es que es caro y complicado de fabricar. * HMD con CRT pequeño Este casco utiliza dos tubos de rayos catódicos (CRT) que se posicionan en el lado del casco. Se utilizan espejos para reflejar la escena al ojo del individuo. Una diferencia con el casco proyectado es que en este tipo de casco el fósforo es iluminado por cables de fibras ópticas, aquí el fósforo es iluminado por un rayo de electrones. El casco con CRT es muy similar al casco proyectado, sin embargo, este tipo de casco es más pesado que la mayoría de los otros tipos de casco debido a los componentes electrónicos que le son agregados lo que también conlleva a la generación de grandes cantidades de calor lo cual puede hacer que el individuo que usa este tipo de dispositivo se sienta incómodo debido al peso y el calor. * Monitor Omni-direccional Binocular El monitor Omni-direccional binocular (Binocular Omni-Orientation Monitor-BOOM) es montado sobre un brazo mecánico articulado con sensores de posicionamiento localizados en las articulaciones. Un contrapeso es usado para estabilizar el monitor. Para ver el ambiente virtual, el usuario debe sostener el monitor y posicionarse enfrente de este, entonces la computadora generará una escena de acuerdo a la posición y orientación de las articulaciones del brazo. Al no tener el usuario que ponerse un despliegue BOOM como sucede con los HMD el paso entre el mundo virtual y el real es solo de mover los ojos lejos del BOOM. Dispositivos sonoros La utilización de sonido provee un canal de comunicación muy importante dentro de los sistemas de realidad virtual puesto que el sistema auditivo es uno de nuestros componentes perceptuales más importantes, y "Ha sido demostrado que usar sonido para proporcionar información alternativa o suplementaria a un usuario de computadora puede grandemente aumentar la cantidad de información que ellos pueden ingerir"[3]. El sonido estéreo convencional fácilmente puede poner un sonido en cualquier lugar entre el lado izquierdo y el derecho. Sin embargo, con el sonido 3D, puede ser colocado en cualquier lugar, ya sea en el lado izquierdo, derecho, arriba, abajo, cerca o lejos. * Sonido 3D

165


Revista Conceptual UCB Además de una composición visual, un mundo virtual válido de experimentarse debe incorporar un campo de sonido tridimensional que proporcione al usuario una imagen fidedigna de las condiciones que se desean presentar en el ambiente virtual que se esté experimentando. El tener un campo de sonido que reaccione al ambiente (como el reflejo del sonido en paredes, tener múltiples fuentes de sonidos, ruido de fondo, etc.) requiere de un gran poder de cómputo puesto que para tener una buena simulación de un ambiente virtual una computadora debe determinar la posición de la fuente relativa al oyente, calcular los efectos del ambiente (como por ejemplo un eco en la pared). El problema de producir un sonido es que no se puede repetir el sonido previamente grabado de manera que el sonido se escuche detrás del usuario cuando este gira su cabeza. Para crear un campo de sonido tridimensional se produce sonido que es sintonizado a la cabeza de un individuo. Cuando el sonido alcanza el oído externo, este dobla al frente de la onda del sonido y conduce este al canal del oído. El sonido que realmente alcanza el tambor del oído es diferente para cada persona. Para resolver este problema, la computadora debe crear un sonido que sea diseñado para adecuarse a un usuario en particular. Esto se logra al colocar un micrófono pequeño dentro del canal del oído, para crear sonidos de referencia de varias ubicaciones alrededor del oyente. * Sonido realista El sonido de fondo es importante para la persona que desea entrar a un mundo creíble. Como el ruido es de fondo no se necesita utilizar la tecnología del sonido 3D, algunos investigadores sugieren el uso de sonidos pregrabados así que el poder de cómputo se dedica a determinar la posición y dirección de la fuente. El problema con los sonidos es que cuando el usuario se da la vuelta, los sonidos que estaban detrás de el deberían estar ahora frente a él. Sin embargo, con métodos de pre grabar/repetir, los sonidos que estaban detrás del individuo están todavía detrás de él aunque este se haya dado la vuelta. VIII.

DISPOSITIVOS HAPTICOS

Según Ivan Sutherland "el sentido humano kinestésico es como otro canal independiente al cerebro, un canal cuya información es asimilada de una manera bastante subconsciente .Háptica es el estudio de cómo utilizar el sentido del tacto en un mundo generado por computadora. El estimular el sentido del tacto, como permitir al usuario "tocar" objetos de manera que pueda sentir la forma, textura, temperatura, firmeza y fuerza de éstos, puede agregar un buen nivel de realismo al ambiente virtual.

Existen dos sub-áreas en las que se divide la háptica para su mejor investigación: la retroalimentación de fuerza (kinestética) y la retroalimentación táctil, la primera trata sobre como el usuario aplica fuerzas en músculos y tendones por medio de dispositivos que lo hacen sentir las condiciones correspondientes al ambiente virtual que está experimentando, por ejemplo, el usuario debe chocar con una pared en vez de pasar a través de ella; la segunda sub-área se enfoca a los nervios terminales de la piel y como perciben el contacto con un objeto al sentir las características de éste como su temperatura, tamaño, forma, firmeza, textura entre otras. * Plataformas en movimiento La plataforma de movimiento nació junto con los simuladores de vuelo, éstas plataformas se mueven hacia los lados o se inclinan hacia enfrente o atrás de acuerdo a las imágenes que el individuo está percibiendo, esto le da la sensación de que realmente se está moviendo. * Guantes El uso de guantes es común como un medio de interacción con objetos en un mundo virtual, éstos guantes están diseñados especialmente para proveer al individuo retroalimentación sobre las características de los objetos, los guantes tienen pistones neumáticos montados sobre la palma del guante, de esta forma cuando un objeto es colocado virtualmente en la palma de la mano la mano verdadera puede cerrarse alrededor del objeto virtual, cuando esta se encuentre al objeto, la presión en el guante aumentará dando la sensación de resistencia del objeto virtual. * Mayordomos El mayordomo es un robot que se encarga de poner un objeto real donde se supone que el objeto virtual se encuentra, es decir, si el individuo toca virtualmente un escritorio, el mayordomo pondrá un objeto al alcance del individuo, para que se tope con el objeto y se dé la sensación de toparse realmente con un escritorio. Un inconveniente de este tipo de robots es que solo puede hacer su trabajo para un objeto a la vez. IX.

APLICACIÓN DE REALIDAD VIRTUAL

En un principio la realidad virtual fue usada en su mayoría para aplicaciones militares o incluso de entretenimiento, sin embargo, en los últimos años se han diversificado las áreas en que se utiliza. En las secciones anteriores, se mencionó los diferentes tipos de realidad virtual y sus áreas de injerencia, aquí se explora más a fondo los distintos proyectos que existen relacionadas con esta tecnología. Se

166


Revista Conceptual UCB describirán proyectos de distintos tipos: visualización -una de las facetas más fascinantes de la realidad virtual-, manipulación de robots, medicina, entre otros. Dentro del área de la física existen proyectos con distintos enfoques, aquí se describe una aplicación muy común: la visualización de fluidos de partículas. Visualización de fluidos de partículas: Una aplicación en el área de visualización es el fluido de partículas. Existen proyectos que modelan este tipo de fenómenos, donde el propósito principal es el fácil análisis de una gran cantidad de datos que facilitan el estudio de los modelos. Se cuenta con una herramienta auxiliar que permite visualizar modelos complicados de interpretar si solo se analizan tal cual. Este proyecto corresponde a un tipo de realidad no inmersiva. X. REALIDAD VIRTUAL EN LA INGENIERIA Dentro de las áreas de ingeniería hay proyectos de manipulación remota como lo son la manipulación de robots, o procesos de ensamblado, también existen áreas dedicadas al desarrollo de prototipos virtuales. Todas estas aplicaciones facilitan la automatización dentro de diferentes áreas. Manipulación remota de robots Es claro que los robots dan una gran aportación a los procesos de ensamblado de la industria. El agregar la característica de manipulación desde un lugar remoto abre las posibilidades para el mejoramiento de este tipo de procesos, puesto que se puede tener un robot que realice procesos definidos y donde su manipulación sea dada desde un lugar distinto de donde se encuentra físicamente. Las aplicaciones forman parte un nuevo enfoque del manejo de procesos y refleja las nuevas tendencias actuales, donde los lugares se vuelven más cercanos y la distancia deja de ser un factor a considerar. Éste proyecto es un tipo de realidad inmersiva Prototipos virtuales Una de las áreas en las que este tipo de aplicaciones tiene gran auge es la de la Ingeniería, aquí, el diseño de prototipos es combinado con un modelado virtual de estos permitiendo al diseñador jugar un rol activo en el detallado del diseño y la optimización del proceso. Las técnicas de realidad virtual permiten generar ambientes computarizados para que el diseñador investigue y pruebe múltiples cambios a sus diseños que está realizando mientras observa y manipula objetos virtuales al usar movimientos humanos naturales. Los diseños interactivos permiten cambiar los parámetros de diseño e inmediatamente determinar el efecto de los cambios.

* Prototipos de diseño de dispositivos de control de polución Existen compañías que utilizan la realidad virtual como una herramienta en el diseño de dispositivos de control de polución y de calderas. De esta forma, la compañía puede garantizar el funcionamiento de sus productos incluso antes de haberlos construido. Trabajando con las especificaciones de los productos, se modelan nuevas calderas y se simula su temperatura, dirección y velocidad de consumo(burning) de los gases. De esta forma, al realizar distintos experimentos con la colocación de los inyectores y otras características físicas se crea el mejor sistema controlador de polución para la caldera y se integra dentro del diseño antes de que la caldera sea construida. Antes de la realidad virtual se utilizaban modelos computacionales estadísticos que tomaban semanas para calcular. Con este proceso, se puede completar el análisis en un día o menos incluso con mayor exactitud. XI. REALIDAD VIRTUAL EN LA MEDICINA La medicina es uno de los campos más importantes para las aplicaciones de realidad virtual. Así como la medicina cuenta con una vasta diversidad de áreas de estudio, de igual manera la realidad virtual se aplica para una diversidad de disciplinas. Aquí se presentan dos tipos de proyectos que dan una buena idea de las aplicaciones dentro del área. Estas aplicaciones corresponden al tipo de realidad virtual inmersiva. XII. CONCLUSIONES La realidad virtual hoy en día es una tecnología muy importante para nuestro desarrollo en varios campos y si se llega a implementar y construir nuevas tecnologías a partir de esta puede llegar a ser de gran uso para la humanidad, enfocada en los puntos vitales podemos llegar a estudiar muchas cosas sin necesidad de realmente hacerlo, el campo del entretenimiento también se expandiría a tal punto de hacer este algo realmente nuevo y que nadie jamás esperaba. La RV está tocando la puerta, muy pronto será algo realmente innovadora y que mucha gente usara al máximo, ya sea para el estudio o para el entretenimiento. XIII.

RECONOCIMIENTOS

Solo queda reconocer a la Lic. Elizabeth Patricia Pommier Gallo por exigirnos más, por llevar nuestro ser al límite y mostrándonos que todo es posible si realmente queremos lograrlo, solo necesitamos poner nuestro máximo esfuerzo.

167


Revista Conceptual UCB I.

EL AUTOR

Wilde Edgar Valdez Iñiguez es un estudiante regular de la carrera de Ingería de sistemas de la universidad Católica Boliviana ―San Pablo‖ La Paz – Bolivia, intentando crecer como persona y expandir sus conocimientos para superar esta etapa en la educación superior. I.

REFERENCIAS

[1] http://alojamientos.us.es/gtocoma/pid/pid10/RedesNe uronales.htm [2] http://www.freewebs.com/artificial-intelligence/ [3] http://es.wikipedia.org/wiki/Realidad_virtual

168


Revista Conceptual UCB

169


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.