HORMIGAS CON INTELIGENCIA DISTRIBUIDA.
“Las hormigas BionicANTs trabajan juntas bajo reglas claras, se comunican entre sí y coordinan sus acciones y movimientos unas con otras, y realizan tareas colaborativas, como trasladar un carga entre todas, según sus desarrolladores, la empresa alemana Festo”. Para sus BionicANTs, Festo ha tomado como modelo la delicada anatomía de la hormiga y ha trasladado el comportamiento cooperativo de las criaturas naturales al mundo de la tecnología, usando para controlarlos programas informáticos y modelos matemáticos muy complejos almacenados en cada hormiga-robot. Al igual que sus modelos naturales, estos insectos biónicos trabajan juntos bajo reglas claras, se comunican entre sí y coordinan sus acciones y movimientos los unos con los otros, según esta compañía. Estas hormigas artificiales demuestran cómo los componentes individuales autónomos pueden reaccionar ante diferentes situaciones y, a la vez, resolver una tarea compleja, coordinarse entre sí y trabajar juntos como un sistema en red, encontrando la solución a un trabajo determinado como empujar y tirar de un objeto para trasladarlo dentro de un área definida, según Festo. Las hormigas realizan esta tarea colaborativa por medio de su ‘inteligencia distribuida’ e intercambiando información entre ellas, a través del módulo de radio ubicada en sus torsos, de acuerdo a su ficha técnica.
Gracias a esta división inteligente del trabajo, son capaces de transportar de manera eficiente cargas que una hormiga no podría mover por si sola, añaden sus desarrolladores. Estas hormigas están equipadas con unos componentes llamados ‘transductores piezocerámicos de flexión’, en sus piezas bucales, para agarrar los objetos, y también con patas para moverlas. Cuando se aplica un poco de energía eléctrica a los transductores, estos generan movimientos mecánicos con diferentes direcciones. Cuando se deforma el transductor superior, la hormiga levanta su pata y, mediante los transductores de la parte inferior de cada pata, las extremidades se mueven hacia adelante o atrás. El movimiento de pinza de las mandíbulas lo proporcionan dos transductores. Cuando se les aplica un voltaje, el mecanismo trasmite la fuerza y mueve las mordazas de agarre. 19 de mayo de 2015. http://laestrella.com.pa/vida-de-hoy/tecnologia/tecnologia-inspiramundo-animal/23866636
Un pampeano en un ambicioso proyecto Es Raúl Rivas, un egresado de la Facultad de Ciencias Exactas y Naturales de la UNLPam. El proyecto comprende una inversión pública y privada superior a los $43 millones que conjugará tecnología convencional y satelital. En el mes de febrero, la Agencia Nacional de Promoción Científica y Tecnológica adjudicó un subsidio de 24.865.444 pesos para financiar la fabricación de estaciones de monitoreo de inundaciones y sequías a partir de la incorporación de tecnología de última generación como antenas satelitales, celular satelital, internet, celular convencional, entre otras. Junto con el aporte privado, el proyecto contempla una inversión superior a los 43 millones de pesos. Raúl Rivas, un geólogo egresado de la Universidad Nacional de La Pampa, es uno de los responsables del proyecto. La iniciativa fue aprobada en el marco del Fondo Argentino Sectorial (Fonarsec) de la Agencia y tiene como objeto favorecer el desarrollo y la implementación de sistemas automáticos de alerta de inundaciones y sequías en el área sur de la cuenca del río Salado, provincia de Buenos Aires. El consorcio público y privado que llevará adelante el proyecto está integrado por la Comisión de Investigaciones Científicas de la provincia de Buenos Aires (CIC), la Autoridad del Agua y la empresa Redimec SRL. Según el contrato, las instituciones aportarán 18.278.026 pesos como contraparte, por lo que la inversión total del proyecto ascenderá a 43.173.470 pesos.
Sensor. El jueves por la tarde, Rivas habló con el envío radial "El Faro, un programa de ciencia". Allí contó que la experiencia comenzó a tomar forma en el año 2011, con el lanzamiento al espacio del satélite argentino SAC-D. Este satélite lleva a bordo el instrumento Aquarius, un equipo de sofisticada tecnología construido por la NASA para monitorear la salinidad de los océanos. No es el único sensor a bordo que porta el satélite nacional. Hay varios más, uno de ellos llamado Nirst (New InfraRed Sensor Technology), una "Cámara Infrarroja de Nueva Tecnología" diseñada por la Agencia Espacial Canadiense y la Comisión Nacional de Actividades Espaciales (Conae) para monitorear eventos de
altas temperaturas en función de la radiación que emite la superficie terrestre. Aunque el Nirst fue pensado para el seguimiento de incendios y volcanes, los científicos argentinos vieron la posibilidad de utilizar esa información para conocer el estado de humedad de los suelos. El año pasado, cuando la Agencia Nacional de Promoción Científica y Tecnológica lanzó una convocatoria para financiar proyectos para prevenir sequías e inundaciones, el grupo de trabajo en que está Rivas se asoció con la Autoridad del Agua de la provincia de Buenos Aires y con una pequeña empresa de electrónica para aviones radicada en Tandil, y presentaron un proyecto para construir una red de estaciones de monitoreo automático e instantáneo del estado de los suelos. El Instituto de Hidrología de Llanuras, comentó Rivas, tiene muchos años de trabajo en redes de alerta de inundaciones, un hecho que facilitó su asociación con empresas locales y con el órgano estatal que maneja las cuestiones hídricas.
Temperatura. La clave del proyecto es la "temperatura radiativa" de la superficie terrestre, un parámetro natural que cuando se conoce en detalle puede aportar información valiosa. Por ejemplo, el grado de humedad que tienen los suelos, ya que la cantidad de agua en un suelo influye directamente en su temperatura y ésta en la radiación que emite, que es al fin y al cambio la variable que miden los sensores abordo de los satélites. "Todo cuerpo en condiciones naturales emite energía en función de la temperatura en que se encuentra", recordó Rivas durante la entrevista. "Algunos sensores abordo de los satélites trabajan en la parte del espectro electromagnético que se llama 'infrarrojo térmico' y nos permite que la información que llega en forma energía podamos transformarla en la temperatura que tiene la superficie". Esa temperatura "es indicadora, a veces, de las condiciones del suelo, por ejemplo si está más seco o más húmedo", indicó.
El proyecto contempla la construcción y montaje de una red de estaciones de monitoreo de variables ambientales merced a un sistema distribuido en una superficie de 40.000 kilómetros cuadrados en la cuenca baja del río Salado, un área muy susceptible a inundaciones repentinas. "Sería una red de redes, un conjunto de estaciones distribuidas en el espacio que van a controlar por ejemplo en un arroyo o un cauce, la altura del agua en ese cauce sobre todo en proximidades de algunas ciudades donde pudiera llegar a provocar inundaciones, o el nivel freático de un pozo para saber cómo está el acuífero". Junto con ese conjunto de estaciones que tomará los datos en tiempo real, habrá una segunda línea de estaciones, que transmitirá los datos en tiempo diferido, enlazadas a una oficina central en la sede de la autoridad del agua y en los municipios de la zona. En este caso, serán los satélites los que una o dos veces por día descargarán en las estaciones centrales la información recopilada en las estaciones automáticas.
Decisiones. La zona donde se desarrollará la red concentra el 30 por ciento del Producto Bruto Geográfico de la provincia de Buenos Aires. Las inundaciones que la afectan en forma periódica generan impactos económicos muy altos, del orden de 200 a 300 millones de dólares. Lo mismo ocurre con los ciclos de sequías, que suelen tener una incidencia aún mayor. "Una red de estas características permitirá tomar decisiones rápidas y efectivas, que es la clave para atenuar esos impactos, tanto desde lo social, la salud y lo productivo", destacó Rivas. "Estamos pensando en una red no solo en los 3 años que dice el convenio sino con un horizonte de 10 años y más también, con una activa participación de los partidos de la cuenca, que se sientan parte activa de ella". "Calculamos que en diciembre vamos a estar trasmitiendo los primeros datos con un prototipo, todo depende de cómo vayamos avanzando con las cuestiones básicas. Y si no es en diciembre, será en febrero", se esperanzó.
20
de
Abril,
2015
http://www.laarena.com.ar/la_ciudad-
un_pampeano_en_un_ambicioso_proyecto-136976-115.html
La revancha del mainframe
Mientras el mundo IT habla de la Internet de la Cosas y las aplicaciones móviles, parece anticuado postular los términos en los cuales se pensaba hace más de medio siglo, cuando una gran computadora llamada mainframe centralizaba todas las operaciones. De hecho, este potente sistema computacional surgió el 7 de abril de 1964, de la mano de IBM, cuando el máximo entretenimiento por esos días era mirar televisión en blanco y negro. Quizás por este motivo hay quienes afirman que tiene los días contados. De todos modos, el 80% de los datos del mundo corporativo, incluyendo a las organizaciones más grandes del globo, como bancos, retailers, telecomunicaciones y sector público, aún lo utilizan, según datos del gigante azul.
"A pesar de las críticas que reciben los mainframe por tratarse de un sistema de información centralizada, son una opción rentable, sobre todo cuando se necesita realizar una ampliación de la infraestructura. El número de personas que se requiere para operar un sistema distribuido es mayor al necesario para ejecutar un sistema basado en mainframe", explica en una entrevista exclusiva con IT Business Jeff Frey, director de Tecnología de la Plataforma System z de IBM, quien añade: "Además, este sistema garantiza a las compañías que su inversión está protegida. En todas estas décadas jamás tuvieron que tirar la tecnología a la basura y, de hecho, las aplicaciones creadas hace años para esta plataforma aún se usan". Un ejemplo concreto es el sistema de reservaciones de viajes Sabre que, creado en 1960, aún corre sobre mainframe, procesando más de u$s 110 millones.
¿Nubes o nubarrones? "No hay dudas de que el mainframe es muy estable, robusto, seguro y escalable. Por eso, aunque lo hayan intentado matar en numerosas ocasiones, todavía existe y renace con cada nuevo lanzamiento", opina Claudio Zamoszczyk, licenciado en Informática, con una maestría en Tecnología de la Información, que se desempeña como docente de la Facultad de Ingeniería de la Universidad de Palermo.
De acuerdo con la consultora Gartner, el total de la inversión mundial en infraestructura y servicios de computación en la nube crecerá desde los u$s 76.900 millones, en 2010, a u$s 210.000 millones, en 2016. En algunos casos, esto se debe a que clientes de mainframe están migrando hacia el cloud computing. "Sin embargo, es lógico pensar que cualquier servicio en la nube deba probablemente conectarse a una computadora central. En definitiva, si bien es cierto que, gracias al despliegue de nubes privadas propias, muchas empresas podrían prescindir de los servicios de un mainframe, considerando el tipo de necesidad de la organización, al final del camino, para que la nube tenga éxito a gran escala necesita ofrecer características similares a la de un mainframe: debe ser escalable, garantizar disponibilidad y ser segura. Por este motivo, entre los nuevos clientes de mainframe se encuentran los proveedores de servicios de computación en la nube, que necesitan de virtualizar miles de servidores", ejemplifica Frey.
Los especialistas de mainframe tienen más de 50 años, por eso, otro de los mayores retos para las empresas que utilizan esta tecnología consiste en reclutar personal calificado joven. "Los estudiantes se sienten más atraídos por las nuevas tecnologías y otros lenguajes como Java y C++, que son más modernos en comparación con Cobol, que es lenguaje de programación creado en 1959 en el cual se basan los mainframe.
Con lo cual, conseguir recursos es una tarea difícil. Por eso, las firmas interesadas cuentan
con
‘ escuelitas’
para
capacitar
profesionales
en
programación
y
administración en mainframe", explica Zamoszczyk.
Según Néstor Taretto, ingeniero Industrial y licenciado en Sistemas de la UBA, que se desempeña como Profesor Titular en CAECE, sostiene que, efectivamente, existe una brecha generacional entre los expertos en Cobol y los jóvenes profesionales. Sin embargo, observa que esta tendencia está cambiando "debido a la modernización del mainframe, que ahora es compatible con los nuevos paradigmas de la industria informática como cloud computing, big data, mobile y social".
En este contexto, IBM implementa iniciativas académicas para impulsar que los estudiantes se capaciten. Por ejemplo, cuenta con un concurso mundial llamado ‘ Master The Mainframe’ , en el cual los estudiantes de Sistemas e Informática compiten por un viaje para conocer la fábrica más importante donde se producen estos sistemas computacionales, ubicada en Poughkeepsie, a unos 110 kilómetros de Nueva York, en los Estados Unidos. "El objetivo del certamen es contribuir a la capacitación de los estudiantes y, al mismo tiempo, identificar a los más talentosos para que puedan ser contratados por nuestros clientes, entre los cuales se encuentran los bancos más grandes de la Argentina y entidades gubernamentales", explica Adrián Costa, líder de Iniciativa Académica en IBM para la región de América Latina de Habla Hispana.
Cuestión de necesidad El intenso uso de smartphones y tablets hace que el volumen de datos generados y transacciones solicitado en simultáneo por millones de usuarios en todo el mundo crezca a pasos agigantados, y aquíel mainframe podría encontrar una oportunidad. Por ejemplo:
si antes las personas revisaban su cuenta bancaria sólo desde los cajeros automáticos dos veces al mes, ahora lo pueden hacer a diario desde el servicio de mobile banking. "El último equipo lanzado este año procesa mejor las cargas de trabajo móviles con sólo ofrecer más poder de procesamiento", dice Frey, refiriéndose al z13, que puede gestionar 2.500 millones de operaciones diarias. Gracias a la evolución tecnológica, no hay una única verdad a seguir cuando se trata de necesidades de infraestructura y de cada entorno TI. Por tal motivo, cada organización sabrá si le conviene confiar en mainframe o en alternativas más económicas, como las soluciones basadas en x86, que son una opción para las grandes empresas que están construyendo nubes de todo tipo y apelan a la virtualización de servidores para optimizar el hardware.
Mientras para muchos mainframe es un dinosaurio que tiene los días contados, para otros su imagen podría ser comparable a la de un automóvil. "Este vehículo fue inventado hace más de 100 años, pero a nadie se le ocurre decir que es un medio de transporte viejo, ya que, de la misma manera que un coche moderno difiere radicalmente de uno del siglo XIX, lo mismo pasa cuando se compara al mainframe de hoy con sus predecesores", concluye Frey.
Zamoszczyk admite que, mientras existan los bancos, las empresas de medicina y las de telecomunicaciones, subsistirá el mainframe. "En un mercado tan caliente como el de IT, en el que las soluciones son tan efímeras, es admirable como este sistema computacional logra subsistir a pesar de los meteoritos que le tiran", concluye. 28 de Abril, 2015 http://www.cronista.com/itbusiness/La-revancha-del-mainframe20150428-0009.html
Tim Swanson: La diferencia entre sistemas distribuidos y descentralizados como Bitcoin
(OroyFinanzas.com) – La semana pasada Tim Swanson ha publicado su informe “Consensus-as-a-service: a brief report on the emergence of permissioned, distributed ledger systems” de 66 páginas en inglés y que es uno de los mejores análisis que hemos leído en OroyFinanzas.com sobre la viabilidad de diferentes modelos de uso para sistemas descentralizados (Bitcoin y otros protocolos similares) y sistemas distribuidos (Ripple, Eris, Hyperledger, etc).
¿Cuál es la diferencia entre sistemas distribuidos y sistemas descentralizados? Para Tim Swanson los sistemas distribuidos se basan en participantes permitidos (permitioned en inglés) lo cual significa que se conoce al participante en el sistema. En este caso el participante es un nodo dentro del sistema distribuido. Swanson argumenta que estos sistemas son más adaptables a las necesidades de las instituciones financieras y sus necesidades regulatorias.
Los sistemas descentralizados como Bitcoin tienen participantes sin permiso (permissionless en inglés) lo cual significa que cualquier nodo puede participar en el sistema sin ser comprobado antes. Según Swanson este sistema tiene muchas desventajas sobre todo cuando se intenta utilizar para la gestión de contratos inteligentes. Además Swanson destaca que Bitcoin no es tan descentralizado como se supone por la
concentración del poder de verificación y aprobación de transacciones que tienen los pocos pools de minería que dominan alrededor del 60% de la red Bitcoin y defiende que los gobiernos desarrollados tienen la capacidad de atacar el protocolo Bitcoin con relativa facilidad.
Uno de los elementos que echamos de menos en su excelente informe es que no aclara si sus conclusiones se basan en lo que ve más factible o necesario para los intereses del sector financiero y los gobiernos o la sociedad civil y los usuarios finales en su conjunto, ya que los intereses de cada uno discrepan muchas veces de forma sustancial.
El informe de Swanson también acepta de forma demasiado sencilla que el funcionamiento del sistema actual es correcto y que los procesos de KYC (Know-yourcustomer, conocer al cliente) que se aplican para identificar a los clientes son útiles para la sociedad. Desde nuestro punto de vista muchas veces esos procesos son una consecuencia de los poderes políticos y económicos que solamente se aplican para aquellos que no forman parte del núcleo duro del poder, como ha demostrado una vez más el caso del Banco de Madrid.
Los cambios que están generando todos los desarrollos bajo lo que etiquetamos FinTech son en este caso acelerados por la tecnología Bitcoin porque los miembros del sistema financiero trabajan con sistemas y modelos obsoletos que tienen que cambiar. La cuestión es cómo se hará y cómo la fusión de los operadores tecnológicos (Apple, Google, Microsoft, Xiaomi, Alibaba, etc), las nuevas tecnologías de sistemas distribuidos o descentralizados y las nuevas empresas FinTech dejarán el mapa de las empresas financieras y el sistemas financiero en su conjunto en los próximos años. Eso sin olvidar el increíble problema estructural de la deuda de los gobiernos y empresas en el mundo que dará más de una sorpresa.
Junto al MOOC de Princeton sobre Bitcoin, el informe de Tim Swanson “Consensus-asa-service: a brief report on the emergence of permissioned, distributed ledger systems” nos parece una lectura obligatoria para todos aquellos interesados en entender las entrañas de lo que ofrecen las tecnologías distribuidas y descentralizadas para el futuro de la gestión de los activos financieros. Escribiremos mucho más sobre sus análisis y conclusiones. 13 de abril de 2015. https://www.oroyfinanzas.com/2015/04/tim-swanson-diferenciaentre-sistemas-distribuidos-descentralizados/
La estrategia de nubes de HP se basa en un concepto de nube híbrida que combina la infraestructura propia con recursos en nubes públicas
La estrategia de nubes de HP se basa en un concepto de nube híbrida que combina la infraestructura propia con recursos en nubes públicas, una tendencia que para HP está siendo adoptada mayoritariamente por las empresas. Este enfoque permite a las empresas deshacerse de la tradicional visión de “islas” de TI en que terminan convirtiéndose la mayoría de los centros de datos, con servidores y recursos asignados a proyectos y departamentos únicos, y desperdiciando gran cantidad de cómputo. HP está consciente que aunque resulte una mejor opción, hay diversos motivos que hacen que las empresas quieran mantener sus infraestructuras actuales. De hecho HP cuenta con estadísticas que revelan que en los próximos años se invertirá una gran cantidad de dinero en TI, pero sólo el 15% de todo el presupuesto será en nubes públicas, por lo que es muy importante el poder combinar y administrar toda la plataforma de una sola manera, algo que la empresa ofrece a través de su solución de Infraestructura Convergente. A pesar de haber sido lanzado hace apenas unos pocos meses, HP reveló a principios del mes pasado que ya más de 180 nubes eran administradas con su solución de converged cloud, y se atendían más de 675 clientes en esas nubes, utilizando un enfoque de infraestructura mixta. Para lograr un grado tan alto de interopreabilidad, HP se basa en el uso de estándares abiertos, en cuatro capas principales: nubes públicas, nubes privadas, Infraestructura tradicional y nubes híbridas. Se soportan diferentes versiones de hipervisores, sistemas operativos y hardware de los más diversos fabricantes, como
Cisco, Dell o EMC, por ejemplo. Usar un modelo abierto de implementaci贸n de nubes, el OpenStack, ha sido clave en el proceso. 25
de
Julio,
2012
http://www.pcworldenespanol.com/2012/07/25/nubes-de-hp-
convergentes-abiertas-y-administrables/
RCF elige ISE 2015 para presentar sus nuevos sistemas digitales de evacuación por voz DTX
Los nuevos sistemas digitales de alarma por voz DTX 9000 y 3000, los line array HDL10-A y los modelos incorporados a la serie HS Stadium para estadios y eventos en vivo son las principales propuestas tecnológicas que el especialista en audio RCF presentará a los profesionales en ISE 2015. El fabricante italiano de sistemas de audio profesional RCF acudirá a la edición 2015 de ISE con sus nuevos sistemas digitales evacuación por voz DTX 9000 y DTX 3000, que cuenta con la certificación EN 54-16 y EN 54-4 para su instalación e integración con otros sistemas de seguridad en múltiples aplicaciones que “aúnan el cerebro de la tecnología de red con el alma de audio profesional”, según la definición de los responsables de la compañía. DXT 9000 es el primer sistema de PA/VA totalmente digital de la compañía, diseñado desde cero por los ingenieros de RCF para ofrecer la máxima versatilidad (desde una escuela pequeña o un hotel hasta enormes complejos de edificios) y escalabilidad. Se trata de un sistema distribuido en el que todos los componentes, incluyendo los altavoces, tienen su propia dirección física y pueden monitorizarse de acuerdo a las normas vigentes EN 54 y configurarse después de la instalación en caso necesario, además de interconectarse con altavoces activos mediante el sistema de control RD-Net de RCF. Por su parte, el sistema de evacuación por voz DXT 3000 está diseñado para su sencillo montaje en pared o como sobremesa para aplicaciones de tamaño medio o pequeño (oficinas, escuelas, supermercados,…), en el que la amplificación, control, enrutamiento y fuente de alimentación están integrados para que el operador sólo tenga que conectarlo
a otros sistemas de la instalación (unidad de control de prevención de incendios, consola de micrófono de emergencia, etc.).
En el stand de la compañía (7-H185) en el Ámsterdam RAI también habrá un espacio destacado para la nueva versión de su sistema line array HDL 10-A, que equipa en un formato ultra compacto un amplificador de dos vías, con una potencia de 1.400 W Peak Power y procesamiento DSP. Diseñados especialmente para su instalación en estadios y espectáculos en vivo, los profesionales podrán conocer en detalle las posibilidades de los nuevos modelos de la serie HL Stadium, compuesta por los sistemas pasivos de dos vías HL2240, HL2260, HL2290 y el subwoofer HS2200. A ello se suma la serie Acustica P, integrada por los modelos coaxiales de alta eficiencia P2110, con transductor de 10 pulgadas, y P3115 y P6215, con transductor de 15 pulgadas, para instalaciones de sonido de todo tipo, incluso al aire libre, que pueden alimentarse con los amplificadores de la serie 100V Flexa de la firma italiana. 20 de enero, 2015 http://www.digitalavmagazine.com/2015/01/20/rcf-elige-ise-2015para-presentar-sus-nuevos-sistemas-digitales-de-evacuacion-por-voz-dtx/