R-90 junio 2016 "Tecnologías"

Page 1

Tecnologías Tribología La ciencia de los cuerpos en contacto

FireSale infraestructuras críticas bajo ataque

17

Palula el proyecto ecológico más importante 20 del centro del país El Mecanismo de Anticitera

25

Tecnologías de la antigüedad

33

Vector

Nº 90 Junio 2016 Costo

$ 50.00


Ventilación provisional para la construcción de acueductos subterráneos

KFT Alta eficiencia Eficiencia de hasta 85% para ventiladores unidireccionales y de 75% para ventiladores reversibles.

Ventilador de túnel axial Unidireccional Disponibilidad en diámetros desde 1 120 hasta 3 150 mm, presión estática hasta de 5000 Pa, poder vehicular de hasta 450 m3/s. Reversible Disponibilidad en diámetros desde 1 120 hasta 2 240 mm, presión estática hasta de 2500 Pa, poder vehicular de hasta 160 450 m3/s.

Operación libre de pérdidas Un diseño que evita la entrada en pérdida asegura una operación libre de pérdidas y protege a los ventiladores y a su equipo de daño potencial

Ángulo de las aspas ajustable El ángulo de las aspas puede ser ajustado para adecuarse a las necesidades de control y desarrollo. Aspas altamente resistentes. Aspas de perfil aerodinámico especialmente diseñadas en aleación de aluminio con alta eficiencia son perfectas para usos en alta presión (de hasta 5 000 Pa) y choques térmicos.

Diseño robusto y duradero Los componentes principales están hechos de acero de alta resistencia.

KJF Reversión asegurada Reversibilidad del 97 a l 100%.

Ventilador de túnel a chorro Disponibilidad en diámetros desde 560 hasta 1 600mm, con empuje máximo de 3,800 N.

Fácil Mantenimiento Las puertas y paneles de acceso e inspección están diseñados para ofrecer un camino sencillo hacia los componentes principales como motores y rodetes. La lubricación a base de cobre externa permite la relubricación constante y asegura una vida útil considerable a los rodamientos.

Soler & Palau México Blvd. A-15 Apdo. Postal F-23 Parque Industrial Puebla 2000 Puebla, Pue. México C.P. 72310

Tel. 52 (222) 2 233 911, 2 233 900 Fax. 52 (222) 2 233 914, (800) 2 291 500 e-mail: comercialmx@solerpalau.com

www.soler-palau.mx


A V I S A P N Ó I C C E T PRO O G E U F A CONTR

email: juanpablo.leon@grace.com


2

Índice

Vector JUNIO 2016 En portada AMIVTAC

•Ingeniería Civil del Siglo XXI Tribología. La ciencia de los cuerpos en contacto/4

Instituto Mexicano de la Construcción en Acero

• Empresas y Empresarios

—ASPACI—Asociación de seguridad pasiva ontra incendios. A.C./7 —SYLPYL—La pintura intumescente más utilizados en México/8 —MONOKOTE—El cementicio líder en el mercado mundial/9 —Aquí, allá y en todas partes: computadoras e internet en México/10 —Kaspersky Lab—FireSale infraestructuras críticas bajo ataque/14

• Suplemento Especial

— La domótica y el futuro de las ciudades/17 —Palula el proyecto ecológico más importante del centro del país/20

• Tecnología

—El Mecanismo de Anticitera. Tecnología de punta en la Antigua Grecia/25

• Historia de la Ingeniería Civil

—Tecnologías de la antigüedad/33

• Eventos

—Con gran éxito se llevaron a cabo Expo Seguridad y Expo Seguridad Industrial 2016

• Actualidades

—Big Toys Expo, una oportunidad para dejar escapar a tu niño interior/40

comunicar para servir

www.revistavector.com.mx


Editorial Cozumel # 63-A • Col. Roma Norte C.P. 06700 México, D.F. Tel. (55) 5256 1978

Carlos Arnulfo López López Leopoldo Espinosa Benavides José Rafael Giorgana Pedrero Roberto Avelar López Manuel Linss Luján Jorge Damián Valencia Ramírez Enrique Dau Flores CONSEJO EDITORIAL Raúl Huerta Martínez DIRECTOR GENERAL Daniel Anaya González DIRECTOR EJECUTIVO Patricia Ruiz Islas

DIRECTORA EDITORIAL Daniel Amando Leyva González JEFE DE INFORMACIÓN Ana Silvia Rábago Cordero COLABORACION ESPECIAL Historia de la ingeniería civil

Alfredo Ruiz Islas CORRECCIÓN DE ESTILO Iman Publiarte Nallely Morales Luna DISEÑO

Ernesto Velázquez García DIRECTOR DE DISTRIBUCIÓN Aide Celeste Cruz Martínez WEB MASTER Carlos Hernández Sánchez DIRECTOR DE PROYECTOS ESPECIALES

Las tecnologías. La tecnología, puede definirse como la aplicación de un conjunto de conocimientos, científicamente ordenados, para satisfacer una necesidad o resolver un problema, en un ámbito concreto. También se refiere a los instrumentos y procedimientos industriales que son usados en un sector determinado. La tecnología abarca desde la definición del problema, hasta el diseño, fabricación y correcta aplicación del dispositivo que lo resuelve. La actividad tecnológica influye en el progreso social y económico, pero la perspectiva comercial hace que actualmente esté más orientada a satisfacer los deseos de los más prósperos que las necesidades esenciales de los demás. Su empleo, puede mejorar la productividad del trabajo, disminuir los esfuerzos físicos e incrementar la calidad de vida de la población; pero también puede causar diferencias sociales, contaminar el entorno y generar desempleo. Aunque la noción de tecnología está vinculada principalmente a la fabricación de objetos y la modificación del medio ambiente, en este concepto pueden incluirse un gran número de disciplinas presentes en todos los ámbitos de nuestra vida y que han llegado a representar un sinónimo de modernidad, estatus social y poder: geomática, robótica, demótica, neumática, electrónica, mecatrónica, civiónica, entre muchas más. Se conoce como tecnologías blandas a aquellas cuyo producto no es un objeto tangible y se fundamentan en disciplinas como la sociología, la economía o la administración. Por otra parte, se suele llamar tecnologías duras a aquellas que se basan en el conocimiento de la física o la química. Se considera que una tecnología es apropiada cuando tiene efectos benéficos sobre las personas y el medio ambiente y las tecnologías de punta, término publicitario que enfatiza la innovación, son generalmente tecnologías complejas que hacen uso de muchas otras tecnologías más simples. Las nuevas tecnologías como la información, la biotecnología y los materiales especiales aparecieron después de la Segunda Guerra Mundial y se basan en la producción científica más avanzada. Su impacto es de tal magnitud, que en algunos países se destaca su importancia comercial y económica y se les llama también tecnologías estratégicas.

Herminia Piña González DIRECTORA COMERCIAL Myrna Contreras García DIRECTORA DE ADMINISTRACIÓN

SUSCRIPCIONES

(55) 5256.1978 www.revistavector.com.mx

‘Los medios de producción ya no son ni el capital, ni los recursos naturales ni la mano de obra ; son y serán los conocimientos’

3

Bill Gates E m p re s a r io e s t a dounid e ns e, f und a do r y C EO d e Mic ros of t

Búscanos en Facebook: Vectordelaingenieriacivil REVISTA VECTOR, Año 9, Número 90, Junio 2016, es una publicación mensual editada, diseñada y distribuida por Comunicaciones La Labor, S. A. de C.V. Cozumel 63 – A, Col. Roma Norte, Delegación Cuauhtémoc, C.P. 06700, Tel. 5256 – 1978, www.revistavector.com.mx, daniel.anaya@revistavector.com.mx •Editor responsable: Daniel Anaya González. Reservas de Derechos al Uso Exclusivo No. 04-2011- 010512575900-102, ISSN: (En trámite) Licitud de Título y contenido: Certificado No. 15819 Expediente CCPRI/3/TC/13/19755, ambos otorgados por la Comisión Calificadora de Publicaciones y Revistas Ilustradas de la Secretaría de Gobernación. Permiso SEPOMEX No. IM09- 0754. Impresa por Publicomp/Catalina Mariles Ortega, Calz. de la Viga 577 Col. Nueva Santa Anita, Iztacalco, C.P. 08210, Tel.5579 3675. Este número se terminó de imprimir el 5 de Junio 2016 con un tiraje de 8,000 ejemplares. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Queda estrictamente prohibida la reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización del Editor.

Índice

Publicomp/Catalina Mariles Ortega IMPRESIÓN


Ingeniería civil del siglo XXI

4

Tribología La ciencia de los cuerpos en contacto Idalia Márquez Jurado

¿Qué es la tribología? La tribología – del verbo griego que significa ‘frotar’ o ‘rozar’– es el campo de la ciencia y la tecnología que se dedica a estudiar cuerpos que están en contacto y que tienen un movimiento relativo entre sí, es decir, cuerpos que se frotan, deslizan, giran, etcétera, uno contra otro, como pueden ser, por ejemplo, los engranes de una máquina, los pistones o los frenos de un auto e, incluso, nuestras propias muelas cuando masticamos. En relación con éste movimiento relativo, la tribología estudia tres aspectos principalmente: fricción, lubricación y desgaste. A pesar de ser una disciplina virtualmente desconocida por el gran público, los hallazgos y métodos de la tribología han encontrado aplicación en numerosos campos de la ciencia y la tecnología, entre los cuales destacan la industria automotriz y aeronáutica, la medicina –en el desarrollo de prótesis e instrumental–, la electrónica –particularmente, en la fabricación discos duros– y la industria metal mecánica. Y la lista sigue creciendo.


Sin embargo, si lo meditamos con cuidado, lo verdaderamente sorprendente no es que la tribología haya hecho sentir su influencia en tantas ramas de la industria y de la investigación científica, sino, más bien, que se hable tan poco de ella fuera de la literatura especializada. Pensemos, por ejemplo, en una de las máquinas más comunes en el mundo moderno: el automóvil. Dentro de cada uno de estos aparatos hay un motor –acompañado de varios sistemas mecánicos más– compuesto por un sinfín de piezas que están en contacto y en continuo movimiento una respecto a otra; y si el motor se utiliza continuamente, se genera una gran cantidad de desgaste en las piezas debido a la fricción que hay entre ellas –recordemos que la fricción es una fuerza que se opone al movimiento–, por lo que es necesario buscar soluciones que reduzcan la fricción entre los componentes. Una posibilidad es el uso de lubricantes que promuevan el movimiento de las piezas en contacto y disminuyan el desgaste de las mismas, lo que resulta en la prolongación de la vida de las piezas y el correcto funcionamiento del motor. Al mismo tiempo, y dentro del mismo aparato, existen sistemas en los que, de hecho, se busca que la fricción sea mayor, como es el caso de sus frenos, en los que se requiere que exista la mayor fuerza de fricción posible para conseguir que el auto frene de manera rápida y segura. Cabe mencionar, de paso, que existen algunos tipos de sistemas que no permiten el uso de lubricantes líquidos –como es el caso de aplicaciones pensadas para funcionar en el espacio y algunos tipos de maquinado–, para los cuales se requiere desarrollar –con ayuda de la tribología y otras disciplinas– nuevos tipos de recubrimientos que promuevan bajos coeficientes de fricción y que funcionen ellos mismos como lubricantes –los llamados ‘recubrimientos autolubricantes’.

Ingeniería civil del siglo XXI

5


Ingeniería civil del siglo XXI

6

Para realizar sus investigaciones, la tribología se apoya en distintos tipos de herramientas que permiten medir la fuerza y coeficiente de fricción, estudiar la lubricación y hacer análisis del tipo y magnitud del desgaste en las piezas. Asimismo, hay una gran variedad de dispositivos que permiten simular el tipo de contacto que existe entre dos cuerpos, dependiendo de la geometría y condiciones del sistema que se quiere estudiar, por ejemplo, si se trata de frenos, pistones o engranes, y si trabajan en condiciones húmedas, secas, al vacío, etc. Durante la maestría, reacondicioné uno de éstos equipos para mejorar las mediciones de desgaste y fricción cuando los cuerpos se someten a condiciones abrasivas, además, participé en un proyecto enfocado a estudiar el efecto de nanopartículas de bismuto como aditivos en aceites minerales –México, por cierto, es el segundo productor de bismuto a nivel mundial. Actualmente, en mi trabajo de doctorado, participo en un proyecto para mejorar el desempeño y la vida útil de los recubrimientos que se utilizan en las herramientas de corte. Desde hace muchos años, se han utilizado distintos tipos de recubrimientos que mejoran el servicio de estas herramientas, pero la gente que se dedica a esas aplicaciones se dio cuenta, además, de que, al modificar la composición y la estructura del material, las propiedades del mismo cambiaban, haciendo que, en algunos casos, el desempeño de las herramientas mejorara considerablemente. Desafortunadamente, con éste avance tecnológico, también vinieron algunas desventajas. Una de ellas es que en algunos materiales existen efectos de inestabilidad y oxidación, sobre todo cuando se trabaja a altas temperaturas. Ésta situación representa una gran desventaja debido a que, en las aplicaciones actuales de maquinado, existen técnicas en seco –es decir, donde no se usan lubricantes– y de alta velocidad, las cuales propician que la temperatura que se alcanza en los puntos de contacto sea muy elevada y que el recubrimiento comience a disminuir su eficiencia debido a los procesos ya mencionados de degradación y oxidación. Por todo esto, es importante hacer investigación y desarrollo en ésta área de la ciencia y la tecnología, ya que si se optimizan las condiciones de lubricación, desgaste y fricción, se reduce el consumo de combustible, lubricantes, materiales, etc., lo que genera un ahorro considerable en muchas áreas de la industria, impactando directamente en la economía del país.

Idalia Márquez Jurado Idalia Márquez Jurado estudió física en la Universidad Nacional Autónoma de México, obtuvo el grado de Maestra en Ciencia e Ingeniería de Materiales en el Instituto de Investigaciones en Materiales de la UNAM, y actualmente cursa el doctorado en el Centro de Ingeniería y Desarrollo Industrial –CIDESI– en Querétaro. Desde hace algunos años se ha enfocado al área de recubrimientos y, específicamente, a la tribología, un campo que apenas comienza a difundirse en México.


SPACI es una asociación civil que nace en el 2013 por el interés de un grupo de empresas involucradas en el mercado de la Protección Pasiva Contra Fuego, siendo su fin último asesorar e informar a las empresas y personas que están relacionadas con este mercado para que puedan tanto ofrecer como recibir los mejores productos, tecnología y el mejor servicio posible. El cumplimiento de la normatividad está generando que el uso de la Protección Pasiva Contra Fuego ya sea más común en las nuevas edificaciones, sin embargo el desconocimiento de porqué, qué, con qué, como protegerlos ha generado distorsiones en el mercado. Estas distorsiones se dan principalmente en el uso de productos no certificados o formalmente aprobados. Una de las tareas a la que se ha comprometido ASPACI es a divulgar ante la comunidad usuaria como pueden ser constructores, arquitectos, responsables de obra, diseñadores, aplicadores, fabricantes de recubrimientos, ingenieros, etc., la necesidad de cumplir con los reglamentos de construcción y de utilizar aquellos productos que realmente proporcionan esta protección, para lo cual ASPACI participa en los comités de normalización para la aprobación de productos en México y en Latinoamérica en la elaboración de manuales de inspección de los productos aplicados y en la capacitación de diseñadores, contratistas, aplicadores e inspectores de este tipo de recubrimientos.

Dentro de los alcances de ASPACI está el contar con información actualizada de productos, reglamentos y normas al alcance de todo público vía nuestra página de internet, www.aspaci.net. En el caso particular de México, Costa Rica y Colombia, ASPACI funciona adicionalmente como una unidad de verificación que orienta a los usuarios y a los diseñadores en el tipo de productos a utilizar y el espesor correcto al que se debe de aplicar el material en cada proyecto en particular en los diferentes elementos estructurales. Y también realiza inspecciones de control de calidad y aseguramiento de calidad de los productos aplicados. El mercado de Proteccion Pasiva Contra Fuego a nivel mundial esta dominado principalmente por materiales tipo Cementicios y Pinturas Intumescentes. Estas dos tecnologías no compiten, SE COMPLEMENTAN. En cualquier obra de acero, el uso de cementicios e intumescentes esta marcado por la estética y presupuesto del dueño. Acero expuesto siempre llevará intumescente, áreas bajo plafón o no expuesto se protegerá con cementicio. En México los dos productos más comúnmente utilizados en los últimos años han sido el MONOKOTE de W.R. GRACE para el tipo Cementicio y del tipo intumescente las pinturas de Industrias Sylpyl, productos que a la fecha han demostrado su facilidad de aplicación, el correcto desempeño de pruebas realizadas internacionalmente y su gran aceptación por los usuarios y diseñadores. ASPACI tiene sus puertas abiertas a nuevos miembros que deseen incursionar en la Protección Pasiva Contra Fuego tanto fuegos de tipo celulósico como de hidrocarburos. En cuanto al futuro, la asociación considera importante unir a todos los futuros y actuales participantes en el mercado de la Protección Pasiva Contra Fuego y crear un ambiente transparente y justo, capacitando y asesorando a los interesados para evitar las malas prácticas que existen actualmente en el mercado latinoamericano de la Protección Pasiva Contra Fuego.


Se cuentan con varios mercados a los que atendemos en materia de infraestructura donde se han recubierto las estructuras de obras magnas como: Puente Chiapas, Puente Baluarte, Puente Tampico, Puente Mezcala entre otros puentes importantes de la red carretera y ferroviaria del país. En lo que se refiere al sector industrial hemos participado en múltiples obras en refinerías de Pemex, Plataformas offshore y Plantas industriales.

FIRESYL es la marca del producto intumescente líder en el mercado con aplicaciones realizadas sobre millones de metros cuadrados en las obras más importantes del país y a nivel mundial. Sylpyl cuenta con certificación de sus barreras contra fuego bajo la Norma UL 1709, ASTM E-119/UL 263, BS ISO 22899, ISO 834, ISO 20340, Norsok M-501 y BS 476 Pt 20.

En el tema de conducción hemos participado en múltiples proyectos de tuberías de agua potable como lo es el Sistema Cutzamala y el Acueducto II de Querétaro entre otros, así como en proyectos de conducción de gas y crudo. En el tema de protección a edificaciones comerciales podemos mencionar algunas recientes como T3 y T4 del Aeropuerto Internacional de Cancún, Plaza Carso, Punta Reforma, Auditoría Superior de la Federación entre muchas otras obras magnas. Sylpyl ha participado en las obras más importantes de infraestructura así como de edificaciones comerciales y de vivienda en nuestro país y varios países de América Latina y el Caribe. Nuestra meta es llegar a ser la compañía orgullosamente mexicana más grande en el sector recubrimientos, con los productos más especializados y con las acreditaciones que se requieren para participar en proyectos en México y en el resto del mundo.


MONOKOTE es un producto de Fireproofing conocido comúnmente como “Cementicio” que brinda protección contra fuego por hasta 4 horas. .R. Grace es una empresa transnacional fundada en 1854 por William Russell Grace, con más de 150 años en el mercado mundial teniendo presencia en todos los continentes y con oficinas de atención en más de 80 países a nivel mundial. Grace se especializa en diversas áreas tales como Construcción, Químicos, Catalíticos de Refinación, Can Coating, etc. Grace Construction (área de Grace especializada en productos para la construcción), inicio operación en México desde 1959, convirtiéndose rápidamente en el líder mercado de aditivos para concreto y cemento. Sus oficinas corporativas se encuentran localizadas en Cambridge Massachusetts La línea de Fireproofing (Proteccion Pasiva Contra Fuego) representa la joya de la corona en el amplio gama de negocios que W.R. Grace participa. Fundada desde mediados del siglo pasado, MONOKOTE (nombre comercial de producto) se ha convertido en el producto líder a nivel mundial para la Protección Pasiva Contra Fuego. Los edificios más altos de todos los continentes tienen una característica en común, todos están protegidos con MONOKOTE. En Mexico, MONOKOTE llego en el 2010, donde rápidamente se empezó a posicionar como la opción de Protección Pasiva Contra Fuego con mayor número de certificaciones de nivel internacional.

La principal ventaja competitiva es el servicio integral que ofrece W.R. Grace, el cual incluye proceso de especificación, apoyo en el uso de maquinaria, soporte técnico durante y después de la aplicación, servicio postventa. A partir del 2011, todas las torres de edificios construidas sobre Paseo de la Reforma en México D.F., están protegidas con MONOKOTE. Adicional a esto, MONOKOTE se ha utilizado en obras icónicas en todo México, incluyendo más de 15 hospitales, 18 hoteles, 9 centros comerciales, 5 centros de oficinas de gobierno. Derivado de un tema de seguridad nacional, la obra más importante para MONOKOTE lo representó la protección contra fuego de la Torre Ejecutiva Pemex, el cual sufrió una explosión el 31 de Enero del 2013. El Gobierno Nacional, después de una larga investigación determinó que MONOKOTE era el producto con las mejores características de resistencia y con mayor número de certificaciones de resistencia al fuego a nivel internacional. Ser miembros de la Asociación de Seguridad Pasiva Contra Incendio AS (www.aspaci.net) nos ha abierto muchas puertas importantes con autoridades, clientes, proyectos, obras en otros países, etc. MONOKOTE tiene muchos años de participar en el mercado de Oil&Gas, la principal obra de los últimos años en el mercado de petróleo sin duda es Ethileno XXI, donde se aplicaron más de 100 mil metros cuadrados de Protección Pasiva Contra Fuego, todo con MONOKOTE Z156.


10

Empresas y Empresarios

Aquí, allá y en todas partes: computadoras e internet en México Alfredo Ruiz Islas.

H

oy en día, a la vista del modo en el que se desarrolla la cotidianidad, de la manera en que se mueve el mundo, de las mil y un formas en las que los seres humanos trabajan, se divierten, se comunican y se alimentan, resulta una obviedad decir que la vida como se conoce no sería lo mismo sin la presencia de las computadoras. Basta mirar alrededor para darse cuenta de que casi todo lo que acontece alrededor de uno, si no es que todo, tiene que ver, de

un modo o de otro, con ordenadores. Con servidores que se conectan unos con otros o que, de forma autónoma, llevan a cabo una cantidad prácticamente inenarrable de funciones. No importa si se trata de automóviles, de elevadores, de aparatos de cirugía o hasta de refrigeradores: las computadoras están ahí para verificar que todo acontezca del mejor modo posible, que los fallos se reduzcan al mínimo o que, en caso de aparecer, sean controlados dejando tan pocas secuelas como sea posible.


Las computadoras han estado al alcance de los seres humanos por más tiempo del que, a simple vista, parecería. De hecho, las primeras máquinas que, de forma automática, realizaban operaciones matemáticas, fueron inventadas en el siglo XVII, y para el XIX ya existían algunos aparatos que, mediante el uso de tarjetas perforadas, podían realizar complejos diseños textiles o, incluso, enfrascarse en el procesamiento de toda la información obtenida como parte del censo levantado en los Estados Unidos en 1890. Sin embargo, las primeras computadoras alimentadas por electricidad, programables y capaces de realizar cálculos complejos por sí mismas, aparecerían solo hasta la década de 1940, ocupaban habitaciones enteras y requerían de una docena de personas para ser operadas. Incluso las primeras computadoras que podrían considerarse «personales», surgidas durante el decenio de 1950, resultaban por completo inmanejables para la mayoría de las personas, dado que pesaban cerca de una tonelada, requerían de una fuente de poder que pesaba un poco más que la propia computadora y tenían una memoria en extremo limitada. Por si algo hiciera falta, su costo superaba el millón de dólares. Los requerimientos técnicos, las dimensiones, el peso y el costo de una computadora a mediados del siglo XX limitaban su uso a unas pocas empresas, pero sobre todo a entidades gubernamentales o académicas. No es de extrañar que, en el caso de México, la primera computadora fuera importada por la Universidad Nacional en 1958, y que la misma no

fuera una máquina de última generación, sino un modelo anterior —una IBM 650 en lugar de la más moderna 6501—, debido a que el costo de la primera se hallaba fuera del presupuesto asignado por las autoridades universitarias para la operación. En el transcurso de los siguientes años se intensificó la adquisición de computadoras por parte de organismos públicos, instituciones académicas y corporaciones de gran tamaño, hasta totalizar cerca de doscientos al terminar la década de 1960. La misma multiplicación de los ordenadores hizo necesaria la impartición de cursos relacionados con su operación y, hacia 1970, se ofrecían incluso tres carreras relacionadas con la ingeniería de sistemas. El gobierno, por su parte, entendió que era su deber construir el marco legal necesario para la operación de las computadoras, para lo cual se creó, como dependencia de la Secretaría de Comunicaciones y Transportes, el Comité Consultivo de Teleinformática. Sin embargo, la computadora era aún un objeto de lujo. Las primeras computadoras personales pesaban cuarenta kilogramos, poseían una memoria RAM de 8 o 16 kilobytes y un disco duro en

el que podían almacenar, en el mejor de los casos, 64 kilobytes de información. Para efectuar cualquier visualización de los datos que se introducían o de aquellos que se obtenían como resultado de los procesos llevados a cabo por la máquina, se contaba con una pantalla de un solo renglón. Uno solo. Con todo, equipos como estos resultaban excepcionales. En la década de 1980 hicieron su aparición los monitores monocromáticos, en los que la información, y ocasionalmente primitivas imágenes de 8 bits, eran desplegados en color verde, naranja o gris sobre fondo negro. Asimismo, la mayoría de las computadoras carecían de unidad interna para almacenar la información, y todo se dejaba en manos de discos flexibles que, de ocho pulgadas, terminaron por reducirse hasta las tres y media, pasando por el muy popular de cinco y un cuarto. Discos, vale decirlo, poco o nada confiables, que no solo tenían la responsabilidad de conservar la información que hubiera generado el usuario sino que, además, en la mayoría de las ocasiones portaban los comandos necesarios para echar a andar el equipo.


12

Empresas y Empresarios

instantánea un tanto rudimentarios o, lo que comenzaría a ser la constante, mediante correos electrónicos.

El decenio de 1990 fue testigo de una revolución profunda en el mundo de la computación. Cuatro años después de aparecer en los Estados Unidos, las computadoras verdaderamente personales, como era el caso de la IBM PS/2, comenzaron a ser una constante en México. Entre las muchas novedades que incorporaba estaban el monitor a colores, el uso exclusivo de discos de cinco pulgadas y un cuarto y, quizá lo más importante, el empleo de un entorno Windows como interfaz de operación. El desarrollo de modelos más avanzados condujo, en el lapso de unos pocos años, a la integración de discos duros en las computadoras como equipo de fábrica, lo que terminaría por convertirse en un estándar. La segunda mitad del mismo decenio de 1990 fue testigo, asimismo, de la popularización de internet en México. Cierto es que los primeros contactos entre instituciones académicas nacionales y entidades extranjeras se habían dado desde el decenio anterior. Sin embargo,

los años postreros del siglo XX serían los que verían la magnificación del fenómeno. Poco a poco, sin saber cómo, las personas comenzaron a conectar sus computadoras entre sí, y por un tiempo no importó si al otro lado del cable telefónico —que era el medio por el que se transmitían los datos— había un conocido o un desconocido y si, finalmente, la conexión establecida solo servía para mandar saludos y comentar el estado del tiempo o alguna noticia más o menos insulsa. La gente simplemente contrataba el servicio de internet con algún proveedor, recibía un número que lo identificaba y lo posicionaba en el ciberespacio y comenzaba a navegar. En un principio, como era de esperarse, no había mucho que ver. De hecho, buena parte de las interrelaciones requerían, para ser exitosas, de un medio ajeno a internet. Por ejemplo, programas de televisión que, en el colmo de la vanguardia, solicitaban a su teleauditorio entrar en contacto con los conductores, no mediante el teléfono, sino a través de sistemas de mensajería

Durante la segunda mitad de la década de 1990 proliferaron, al mismo tiempo, los teléfonos celulares —aún incapaces de servir para algo que no fuera hacer llamadas y, quizá, enviar mensajes— y las cuentas de correo electrónico. O lo que es lo mismo, los portales en los que se ofrecía la posibilidad de gestionar una cuenta de correo electrónico, generalmente establecidos fuera de las fronteras nacionales, con la que la gente comenzaba a tener una idea de lo que significaba estar conectado con el resto del planeta. A falta de contenidos digitales extensos, la mayoría se conformaba con enviar correos a cualquier parte a la que pudiera hacerlo —desde revistas todavía en formato de papel hasta foros de discusión— o con ingresar en salones de conversación —chat rooms— donde se enfrascaba en intercambios al parecer interminables sobre cualquier tema imaginable, desde la mecánica cuántica hasta el cuidado del cabello, pasando por todos los deportes imaginables y, por supuesto, las relaciones interpersonales. Como la recesión derivada del —mal— llamado «error de diciembre» hacía inaccesible para la mayoría de los mexicanos la adquisición de una computadora —aun cuando alguna que otra tienda ponía ya en marcha planes de crédito altamente competitivos—, el boom de internet se vio acompañado por la proliferación de locales de todos tamaños —pero por lo general pequeños—, dotados de unas pocas máquinas en condiciones más o menos pasables, a los que la gente acudía para consultar su correo y, conforme las opciones del ciberespacio crecían, para enterarse de lo que ocurría en cualquier parte del mundo. O, también, para adquirir de forma ilegal música de una cantidad infinita de artistas a través de plataformas como Napster, LimeWire o Audiogalaxy, entre otras. Explicar los mecanismos seguidos por la tecnología basada en computadoras para integrarse de forma estable y du-


radera a la vida diaria de las personas requeriría de una gran cantidad de volúmenes para explicarse siquiera someramente. Sin embargo, es posible resaltar algunos de los elementos más importantes que han intervenido en el proceso. Uno de ellos, quizá el primero que vale la pena considerar, es la estabilidad económica por la que ha atravesado el país, y que ha determinado que el poder adquisitivo de las familias es suficiente como para permitir la compra de una o más computadoras por hogar. De igual suerte, el propio crecimiento de la producción de computadoras en Asia, particularmente en China, las ha abaratado de forma tal que se encuentran al alcance de buena parte de la población, lo que a su vez ha sido aprovechado por el Estado para implementar programas educativos basados en plataformas digitales, lo que a su vez ha redundado en la inserción de los individuos en los medios digitales a partir del salón de clases. El mismo internet parece haber cobrado vida propia, al ofre-

cer todos los días nuevas opciones de entretenimiento, educativas, creativas o de interacción a los ciberviajeros. Como colofón del proceso, las investigaciones relacionadas con la aplicación práctica de la tecnología se han incrementado de manera exponencial, lo que ha llevado a que, como se mencionaba líneas atrás, las computadoras se encuentren en todas partes y, más aún, la computadora haya dejado de ser imprescindible para acceder a internet, al existir una muy amplia gama de dispositivos —teléfonos celulares, tabletas, incluso relojes— desde los que es posible ingresar en la red. A pesar de todo, siempre es posible que lo mencionado no sea sino un espejismo. Una ilusión, provocada por vivir en un medio que depende en buena medida de los medios digitales y que, asimismo, se desarrolla en un entorno urbano. Porque, más allá de lo que cada quien pueda observar en un momento determinado a su alrededor, la llamada

«brecha digital» es una realidad insoslayable. Una realidad en la que viven entre el cincuenta y el setenta por ciento de los habitantes del país y que afecta en mayor medida a quienes tienen más de treinta años. Una realidad, finalmente, que no solo está determinada por la incapacidad de las personas para asumir a las computadoras, a internet y, en general, a la tecnología, como parte de sus vidas, sino que tiene que ver con el aislamiento en el que se encuentran algunas comunidades, con la falta de servicios, con la inutilidad que reviste poseer una computadora en medio del desierto, en lo profundo de la selva o en alguna cañada remota. Si uno de los retos del nuevo milenio es brindar oportunidades iguales de desarrollo a los individuos, es claro que su consecución debe transitar, no solo por el sendero de la educación y el empleo, sino también por el de la integración a los medios digitales que, en buena medida, rigen el mundo en el que se vive.

GRUPO SOLUCIONES TECNOLOGICAS FABRICACIÓN DE ESTRUCTURAS METÁLICAS Algunos de los servicios que realizamos. • Diseño, Fabricación, y Montaje de estructuras metálicas. • Realizamos desde el anteproyecto, visualización previa, calculo y obra. • Mantenimiento preventivo y correctivo de estructuras metálicas. • Asesoramiento por parte de nuestro departamento de ingeniería, que atenderán y escucharán tus necesidades para buscar juntos la mejor solución. Para nuestro proceso de fabricación de estructuras metálicas, contamos con la implementación de nuestros procedimientos de calidad avalados por ISO 9001

25 AÑOS

HACIENDO UNA REALIDAD TUS PROYECTOS Y SUPERANDO TUS EXPECTATIVAS

Calle Lago Seis millones Manzana 81 lote 12. Colonia Ciudad Lago Nezahualcoyotl EDO. MEX.C.P 57180.

Tel. 01 55 7023 59 77 Cel. 044 55 43 67 48 71 luis.ruiz@gruposolucionestecnologicas.com

www.gruposolucionestecnologicas.com


Empresas y Empresarios

14

FireSale

Infraestructuras críticas bajo ataque

Roberto Martínez, Analista de Malware Equipo Global de Investigación y Análisis (GReAT) de América Latina, Kaspersky Lab

La verdad es que pocas veces nos detenemos a pensar en la importancia de la infraestructura crítica que hace posible el funcionamiento de una ciudad y en el gran impacto que tendría que alguna parte de ella quedara comprometida y se viera interrumpido su funcionamiento. ¿Se ha puesto a pensar qué sucedería si el sistema de energía eléctrica, tratamiento de agua potable, control de semáforos o financiero –retiros en cajeros automáticos, transacciones bancarias u operaciones en una sucursal– de una ciudad dejara repentinamente de funcionar? Peor aún, ¿qué pasaría si todos ellos colapsaran de forma simultánea? Esta situación, que pareciera tomada de una película es, en realidad, muy posible e, incluso, ya se ha visto, hasta cierto punto, materializada en varias partes del mundo.

Actualmente, la ciberseguridad de infraestructuras críticas es un tema que está empezando a llamar poderosamente la atención de gobiernos y compañías de todo el mundo, y es que no es para menos, pues éstas son esenciales para el funcionamiento de diferentes industrias, así como para el control de las comunicaciones, los transportes y los sistemas financieros de una nación, y si bien la digitalización las ha hecho más eficientes, también las ha expuesto a nuevos riesgos. El principal problema es que hoy en día muchos de estos sistemas son accesibles desde internet, lo cual incrementa su vulnerabilidad.


En el mes de enero de 2010, como parte de su rutina de trabajo, un grupo de inspectores de la Agencia Internacional de Energía Atómica se disponían a supervisar una planta nuclear en la ciudad de Natanz, Irán. A diferencia de ocasiones anteriores, los observadores comenzaron a notar algo inusual: un número importante de máquinas centrifugadoras encargadas de la producción de uranio estaban presentando fallas y debían ser reemplazadas. Pero no solo eso, durante los siguientes meses, estas fallas continuaron y esto comenzó a levantar sospechas de que algo no andaba bien.

Fue a raíz de este incidente que se descubrió la que muchos consideran la primera ciberarma de la era moderna, conocida como Stuxnet. Investigadores de varias compañías descubrieron y analizaron diversas muestras de malware con características completamente inusuales. El código malicioso que tenían enfrente había sido cuidadosamente desarrollado, y su estructura mostraba una complejidad nunca antes vista, pero lo más preocupante es que parecía haber sido diseñada para lograr un solo objetivo: comprometer específicamente equipos que utilizaban sistemas SCADA dedicados a la producción de uranio, en particular, aquellos localizados en la región de Medio Oriente. A partir de entonces, se ha detectado un número importante de incidentes relacionados con ataques a infraestructuras críticas, como, por ejemplo, el malware encontrado en el centro de comando de la planta de energía nuclear Monju –Japón, enero de 2014, el cual se infiltró a través de una estación de trabajo de ingeniería para acabar vulnerando cerca de 42,000 documentos y correos electrónicos. Asimismo, en Alemania se descubrió un ataque a una acerería en diciembre de 2014 en el cual los atacantes lograron acceder a los sistemas de control industrial utilizando credenciales robadas y con ello provocaron un daño físico masivo.

En 2014 se presentaron un total de 245 incidentes de seguridad, mientras que en la primera mitad de 2015 se documentaron 208. Los principales objetivos de estos ataques fueron plantas de petróleo y gas y de producción de energía –hidroeléctrica y nuclear–, con un 59%, y la industria del transporte, co 25%. Más recientemente, el 23 de diciembre de 2015, las compañías que administran los sistemas de energía eléctrica en Ucrania experimentaron apagones no programados que afectaron principalmente a tres compañías de distribución de energía, además de dejar fuera de línea treinta subestaciones. Esto provocó que 230,000 residentes del área se quedaran sin electricidad.

Pero hay que insistir en que esta situación no afecta sólo a la industria energética, pues estas amenazas pueden comprometer cualquier sector que utilice sistemas de control industrial, incluso en este momento, hay evidencia de actividad maliciosa similar que afecta diversas áreas de la infraestructura crítica de Estados Unidos. Estos ciberataques persiguen uno de dos objetivos: espionaje o sabotaje. Por otra parte, como se ha visto en muchos de estos incidentes, estos ataques no necesariamente se realizan de forma sofisticada, y muchos de ellos se iniciaron por medio de un simple correo electrónico dirigido a un personal administrativo, a través del cual se consiguió comprometer el equipo y, luego, la red. En otras ocasiones, cuando los equipos no estaban conectados a internet, el ataque se llevó a cabo por miembros del propio personal de la compañía u organización, a través de dispositivos de almacenamiento externo. Todo esto nos da una idea del nivel de riesgo al que pueden estar expuestos los sistemas críticos.

15

Empresas y Empresarios

El surgimiento de las ciberarmas


Empresas y Empresarios

16

Seguridad estratégica para la protección de infraestructura crítica No obstante lo dicho, la realidad es que no es necesario ser un objetivo directo de algún grupo o actor para convertirse en una víctima. Muchas de los riesgos potenciales a los que se enfrentan los sistemas industriales actuales provienen de amenazas cotidianas que se encuentran en la zona administrativa de la infraestructura. Según estadísticas de Security Incidents, se estima que solo el 35% de los ataques hacia infraestructuras críticas están relacionados con ataques de código malicioso.

De igual manera, se debe tener también en cuenta la implementación de un sistema de inteligencia de información que permita a los sistemas de monitoreo identificar cualquier potencial amenaza que pudiera comprometer la red y realizar actividades anómalas o aparentemente normales, pero con fines maliciosos. Es necesario comenzar a trabajar en planes de seguridad para la protección de la infraestructura crítica, algo que, incluso, en muchos casos debería de considerarse como un asunto de seguridad nacional. En México, por fortuna, se ha comenzado a tomar muy en serio este tema, y a principios de año, según fuentes de la Secretaría de la Defensa Nacional, se anunció una inversión sin precedentes para la protección de la infraestructura crítica del país de alrededor de $89 millones de dólares para los próximos dos años.

Un punto que se debe tomar en cuenta es que cuando se habla de seguridad en sistemas de infraestructura crítica, el enfoque es diferente. Tradicionalmente, las estrategias de protección se enfocan prioritariamente en la confidencialidad, la integridad y la protección de la información. Sin embargo, en el caso de sistemas industriales, por ejemplo, la prioridad es asegurar la continuidad de las operaciones sobre todo lo demás, y esta es una diferencia que debe de tomarse en cuenta al momento de desarrollar una estrategia de seguridad. Es por esta razón que debe visualizarse a la seguridad no como un proyecto, sino como un proceso continuo donde se tenga un conocimiento claro de los adversarios y las amenazas asociadas a la organización.

Más información acerca de ciberataques a infraestructuras críticas en http://securelist.com


Tecnologías La domótica y el futuro de las ciudades Itzel González

C

El programa de la domótica, por decirlo así, tiene dos ejes principales: permitir el aprovechamiento más óptimo y eficiente posible de la energía que requieren los servicios domésticos, y crear una red cada vez más integrada entre dichos servicios y sus usuarios.

17

Suplemento Especial

omo consecuencia del acelerado, y en ocasiones, desenfrenado, avance de la tecnología, ésta ha hecho sentir su presencia incluso en el espacio más privado de nuestra vida: el hogar. Su aplicación a dicha área se conoce como domótica –del latín domus, ‘casa’, y del francés robotique, en referencia a la automatización de funciones, que es su objetivo–, nombre con el que se alude a la combinación de tecnologías de la información con medios de automatización que se aplica al confort, los servicios de comunicación, la seguridad y el almacenamiento y administración de la energía en el hogar. Por otra parte, aunque la automatización de los servicios de la residencia privada fue su objetivo original, mediante las adecuaciones pertinentes, las implementaciones aplicables a la llamada ‘vivienda domótica’ pueden extenderse también a otro tipo de lugares, como espacios públicos, hoteles y oficinas.


Suplemento Especial

18

‘La vivienda domótica difiere de la vivienda bioclimática, a la que se ha asociado en los últimos años, en que esta última se caracteriza por tener un diseño arquitectónico adecuado a las condiciones climáticas y geográficas que rodean a la construcción, lo que permite reducir tanto el consumo energético como la emisión de gases de efecto invernadero, mientras que la primera busca cumplir con dichos objetivos a través de respuestas automáticas a las condiciones variables de demanda de servicios’.

Una de las primeras soluciones funcionales ofrecidas por la domótica fue el Protocolo X10, desarrollado en Escocia en la década de los setentas. Se trata de un sistema de control remoto de dispositivos caseros –que sigue siendo empleado hoy en día– que utiliza la instalación eléctrica para enviar mensajes codificados en forma de pulsos. En un principio, este protocolo permitió únicamente el control vía remota de electrodomésticos y de algunas otras funciones domésticas, como el encendido de luces y la apertura y cierre de puertas y ventanas, pero, con el paso del tiempo, ha logrado abarcar la gestión de sistemas más complejos, como la climatización diferenciada de cada sección de una casa. Asimismo, y como era de esperarse, este flexible protocolo fue pronto asimilado por las computadoras, lo cual, después de sumar el acceso a internet a la ecuación, estableció

‘Es probable que el debut cinematográfico de la domótica haya tenido lugar en la cinta Eddy, la computadora enamorada, uno de los éxitos de taquilla más recordados de la década de los ochentas, en la cual el protagonista cibernético toma control del departamento de su dueño a través de varios adaptadores equipados con una versión del Protocolo X10’.


Como se ha dicho, el manejo racional del consumo energético es la otra gran meta domótica, y podemos ver sus aplicaciones en el control programado y autoajustable del aire acondicionado, así como en la regulación de las tarifas mediante el manejo automatizado de la energía, lo que permite, entre otras cosas, la sincronización del funcionamiento de algunos aparatos con las horas de tarifas reducidas; de igual forma, permite el control del encendido de luces, que puede coordinarse con las condiciones climáticas del exterior. Dado que esta clase de sistemas permiten el control de la iluminación, las alarmas de seguridad, etcétera, su aplicación podría reducir la demanda de servicios comunitarios, lo cual, en conjunto con la detección instantánea de fallos, hace que el sistema domótico sea más económico en comparación con sistemas de control no automatizados. A su vez, la domótica puede ser aplicable a la inmótica, que se define como la automatización integral aplicable a edificios, en cuanto a la capacidad de automatización en instalaciones como aeropuertos, hospitales, hoteles, naves industriales, etcétera. Si bien la introducción masiva de los sistemas domóticos sería posible en países como México en el mediano plazo, es importante considerar que su adopción –de acuerdo con estudios realizados en España, principalmente– depende en gran medida de la disposición de la industria inmobiliaria para ejecutar las modificaciones pertinentes en un edificio con sistemas mecanizados tradicionales, o para invertir en su implementación desde la etapa de diseño de las construcciones nuevas. De acuerdo con varios estimados, la infraestructura elemental para la domotización de una vivienda encarece su precio básico en un máximo del 2% del costo original, lo cual, sin embargo, es un costo casi

simbólico considerando el sinfín de beneficios que representa su utilización. En suma, la domótica se presenta como una de las grandes soluciones ecológicas para el manejo energético de edificios de cualquier índole, desde una casa hasta un complejo habitacional o comercial. Por ello, la domótica puede ser, en un futuro no muy lejano, la alternativa ideal para la enfrentar los problemas que aquejan a las grandes ciudades alrededor del orbe.

19

Suplemento Especial

una poderosa triple alianza que ha hecho posible automatizar la gestión de edificios enteros –de oficinas, de viviendas, o mixtos– para darle paso a los famosos ‘edificios inteligentes’, el estado del arte en lo que a diseño arquitectónico se refiere.


Palula

Suplemento Especial

20

E

n nuestro país se generan anualmente cifras del orden de ocho millones de toneladas de residuos producto de actividades industriales y procesos extractivos, según datos de la Dirección General de Materiales, Residuos y Actividades de Riesgo de la Secretaría del Medio Ambiente y Recursos Naturales – SEMARNAT . 1 La infraestructura y los sistemas para el control y manejo integral de estos materiales con que se cuenta son claramente insuficientes, lo que fomenta que sean desechados en tiraderos clandestinos; lo cual, a su vez, deriva en una creciente contaminación del aire, suelos y acuíferos. Actualmente, en México solo operan dos centros especializados en el manejo, tratamiento, aprovechamiento y disposición final de residuos industriales: uno en el municipio de Mina, en el estado de Nuevo León y otro, en Ramos Arizpe, Coahuila. Ambos, en conjunto, alcanzan una capacidad de procesamiento de 1´316,000 toneladas anuales 2, lo que representa apenas un 16.25% del total. 1 Generación reportada en las Cédulas de Operación Anual en 2014 por generadores de residuos peligrosos registrados en 11 de 32 entidades. 2 Secretaría del Medio Ambiente y Recursos Naturales – SEMARNAT -.

Con el propósito de contribuir a la atención a este problema y ante la evidente necesidad de contar a nivel nacional e internacional con soluciones científica y tecnológicamente fundamentadas, un grupo de empresarios potosinos se dio a la tarea de integrar un proyecto multidisciplinario y ecológicamente sustentable, cuya ejecución y operación se pudiera realizar con la garantía de un manejo integral de los residuos. Como primer paso, se abordó la búsqueda y localización del sitio que reuniera las mejores condiciones para albergar las instalaciones y procesos del proyecto; a este fin, se ubicó un predio de propiedad particular, muy adecuado por sus características y comunicaciones, en la región del altiplano potosino; dicho predio es el rancho Palula, en el municipio de Santo Domingo, en San Luis Potosí. Posteriormente, con la participación de destacados científicos nacionales, locales y de la Universidad Autónoma de San Luis Potosí – UASLP –, se procedió a realizar todos los estudios de suelo, subsuelo, agua, aire, flora y fauna, así como los socioeconómicos de los centros poblacionales, requeridos por las leyes estatales y federales y normas de carácter internacional para un proyecto de esta naturaleza. Los resultados de estos estudios confirmaron


el proyecto ecológico más importante del centro del país Redacción Vector

Por otra parte, en el aspecto socioeconómico, la densidad poblacional es de únicamente dos habitantes por kilómetro cuadrado, las poblaciones de la zona son consideradas como de alto grado de marginación 3, no se generan empleos y acusa un alto nivel de emigración, y la población local de varones tiene, en promedio, más de 50 años. Con este soporte, se integró el Estudio Técnico Justificativo – ETJ– para solicitar el cambio de uso de suelo en terreno forestal para el desarrollo de un centro para el manejo integral de materiales improductivos provenientes de actividades industriales y procesos extractivos, el cual fue autorizado por las autoridades municipales de Santo Domingo el 3 de septiembre de 2012. El ETJ fue aprobado y validado por el Consejo Estatal Forestal y el cambio de uso de suelo autorizado por la SEMARNAT. Posteriormente, se inició la realización de los trámites para la obtención de todos los permisos necesarios por parte de las autoridades estatales y federales. En una superficie de 20 ha, con una zona de amortiguamiento de 600, de las que no se prevé utilizar más de 100 en futuras ampliaciones, el proyecto considera la integración de diferentes procesos para el tratamiento de los residuos, la aplicación de tecnologías para reducir el nivel de peligrosidad que pudieran tener algunos de ellos y la implementación de un sistema y depósitos adecuados para su disposición final. 3

CONAPO Índice de marginación por localidad 2010.

21

Suplemento Especial

la idoneidad del sitio, ya que se encuentra sobre formaciones geológicas impermeables y estables, el suelo es geohidrológicamente desfavorable para la formación de acuíferos en un radio de 30 km, la precipitación es escasa -aproximadamente 306 mm anuales-, no existen arroyos permanentes, el escurrimiento se da en forma laminar, no se encuentra en zona de inundación, el sitio del proyecto tiene un relieve suave con una pendiente del 1.7%, no se encuentra en una zona sísmica, no existen fallas ni fracturas, no existen zonas habitadas en un radio de 12 km, los suelos son agrológicamente malos, no está en una zona de protección a la naturaleza, no está en un área de conservación prioritaria, no está en una Área de Importancia para la Conservación de las Aves, el ecosistema es semidesértico, árido y semiárido con clima de tipo estepario, seco y caluroso y las especies vegetales son de rápida recuperación y conservación.


Suplemento Especial

22

Los procesos considerados en el proyecto son Separación/ segregación.

Estabilización/ solidificación.

Neutralización.

Es un proceso meramente físico que normalmente constituye la primera etapa dentro de un tratamiento global de los residuos; son operaciones unitarias básicas muy comunes para dar a los residuos mejores condiciones de manejo o para garantizar su disposición final de manera segura. Se utilizará para tratar materiales impregnados con residuos peligrosos, polvos de sandblasteo, pilas, baterías, asbesto y sus derivados, escorias, polvos de hornos, lodos y agregados, catalizadores y empaques de todos los sectores, entre otros.

Es una serie de procesos orientados a reducir la carga contaminante de los materiales o residuos a tratar, ya que una vez estabilizados, se convierten en sustancias y mezclas inertes, poco solubles y de composición menos tóxica. Los residuos a que se aplica principalmente son: lodos de metalmecánica, de galvanoplastia, de salmuera y de plantas de tratamiento; suelos contaminados con metales, polvos de hornos, líquidos, licores, corrientes de lavado, plaguicidas, medicamentos, polvos de pintura, tortas de procesos de pinturas, etcétera.

Consiste en el ajuste del pH de los residuos en tanques de almacenamiento utilizando ácidos o álcalis. Mediante este proceso los residuos con características ácidas o alcalinas, se estabilizan para su posterior recuperación, mediante la adición de compuestos y sustancias químicas con el propósito de modificar el valor de pH a un nivel neutral. Los residuos que se tratan son: ácidos y bases, lodos, licores, fondos, licores de metalmecánica y galvanoplastia, mineros y químicos.

Detoxificación. El propósito de este proceso es modificar la forma química de los compuestos a una menos tóxica, mediante la adición de sustancias que producen una serie de reacciones químicas y cambian el estado de oxidación de la sustancia o la descomponen en otras con características más inocuas. Se aplica principalmente a licores tóxicos con metales pesados, reductores, oxidantes, residuos peligrosos remanentes de laboratorios, licores de baños de galvanoplastia o metalmecánica, soluciones gastadas de baños de cianuro, metales pesados, sales de cromo y sus derivados, sales de cianuro y sus derivados, etc.



Suplemento Especial

24

Confinamiento. Se ha propuesto realizar el confinamiento de los materiales estabilizados, en celdas de control diseñadas conforme a las especificaciones establecidas en la normatividad mexicana. Se utilizará un sistema de impermeabilización para cada una de las celdas, con una ingeniería definida especialmente para este proyecto que incluye un sistema de protección con varios tipos de geomembranas para evitar la infiltración al suelo de lixiviados o cualquier tipo de migración derivados del confinamiento de residuos que pudieran suscitarse. Con una inversión cercana a los 300 millones de pesos, que incluye los costos de desarrollo, patentes, construcción de las instalaciones, equipamiento y acciones postclausura, el proyecto Palula estima una zona de servicio en el centro del país con un radio aproximado de unos 500 km, en la que se incluyen la Ciudad de México y los estados de México, Puebla, Jalisco, Querétaro, Aguascalientes, Guanajuato, Nuevo León, Zacatecas y San Luis Potosí. La capacidad estimada de operación del centro es de 670 toneladas diarias, que podrá incrementarse conforme a la demanda del mercado. El proyecto incluye la instalación y operación de centros de acopio en estas entidades y la coordinación del transporte de los residuos al centro, brindando así servicio a industrias de todo tipo y a empresas de hidrocarburos, generación de energía, transporte, siderúrgicas y extracción minera, entre otras, al tiempo que se actúa en el tratamiento y disposición final de residuos y en la remediación de los pasivos ambientales acumulados de las ciudades de la región. En el entendido que no todos los residuos industriales son necesariamente peligrosos, una premisa fundamental del diseño y operación del proyecto es la decisión absoluta de no admitir residuos biológico–infecciosos, radioactivos o explosivos. Se ha considerado que la vida útil del centro sería de treinta años, a lo largo de los cuales se desarrollará un programa de monitoreo

ambiental con la finalidad de vigilar la efectividad de las medidas preventivas, de mitigación y de compensación ambiental y se integrará un sistema integral de gestión de calidad en el servicio que le permita operar con los mejores estándares, acreditaciones y certificaciones a nivel internacional. A pesar del aparente cuidado puesto, tanto en la selección del sitio como de la atención a las regulaciones que habrán de regir su operación, varias objeciones se han presentado en torno al proyecto. Una de ellas tiene que ver con la propia localización del predio, ya que, según investigadores del Colegio de San Luis, de acuerdo con SEMARNAT éste se encuentra en realidad en el estado de Zacatecas. Los materiales que recibirán tratamiento, se dice, no son del todo inertes y también se tiene contemplado tratar sustancias tóxicas como peróxido de hidrógeno, ácido nítrico y ácido sulfúrico: esto genera otra dificultad, a saber, y que es que las biomembranas que se instalarán para evitar filtraciones al subsuelo no son del todo seguras; el problema que se genera a partir de la supuesta falta de seguridad en las biomembranas es que, de acuerdo con CONAGUA, en la zona de influencia sí hay un acuífero que podría encontrarse en riesgo con la operación de la planta. Y una última consideración, de orden ecológico igualmente, tiene que ver con la ubicación de la misma, ya que, al parecer, se encuentra junto a la Unidad de Manejo y Conservación de la Vida Silvestre. Los problemas que presenta la construcción y puesta en funcionamiento de un proyecto de esta naturaleza no suelen ser pocos; sin embargo, si se atienden correctamente, se podrá hablar de que el país contará finalmente con mecanismos adecuados para el desecho de residuos industriales, cosa absolutamente indispensable si se piensa en la forma en que se desechan estos materiales actualmente y en las consecuencias que un manejo inadecuado de los mismos puede traer tanto a corto como a largo plazo, que se está traduciendo en un impacto sumamente negativo y pocas veces reversible al ambiente.


El Mecanismo de Anticitera Tecnología de punta en la Antigua Grecia

25

Tecnologías

L

as palabras “innovación” y “tecnología” se han vuelto de uso común en nuestros días. La nueva jerga empresarial emplea la primera para referirse a todo, desde los procesos de producción hasta la cadena del servicio al cliente, lo que nos ha forzado, o tratado de forzar en algunos casos, a correr una interminable carrera en pos de “lo nuevo” por mor de ir un paso adelante; en cuanto a la segunda, la hemos incorporado a nuestros quehaceres diarios y a nuestras vidas de tal forma que nos creemos incapaces de funcionar sin ella. Sin embargo, ambos términos tienen un significado muy reducido, inevitablemente relacionado a nuestro contexto y a nuestra época, tal cual como si quisiéramos decretar que nos pertenecen, que es sola y exclusivamente esta generación la que puede emplearlos con justicia, bajo la premisa de que, antes de nosotros, no había nada, o quizás, mejor dicho, no podía haber nada en términos de las mismas. Nada más lejos de la realidad: si bien no con la misma insistencia con que se encuentran hoy en día en todas partes, en la Antigüedad, aun en la más remota, se pensaba, se trabajaba y se producía en esas mismas líneas, tal como lo demuestra un complejísimo mecanismo del que aún no se ha descubierto por completo cómo es que funcionaba y que, sin embargo, no ha dejado de sorprender a la comunidad científica y arqueológica desde su descubrimiento. Nos referimos al Mecanismo de Anticitera.

Patricia Ruiz Islas


Tecnologías

26

El naufragio Una mañana cualquiera, en la primavera de 1900, una embarcación griega se hizo a la mar con el mismo propósito de siempre: llevar a sus buzos a la zona de pesca de esponjas. La embarcación, sin embargo, se topó con una tormenta que le obligó a buscar refugio en las costas de la isla de Anticitera, localizada en un rincón del mar Egeo. Al día siguiente, con las condiciones climáticas un poco más propicias para su labor, se hicieron a la mar nuevamente. Cuál sería la sorpresa de los buzos cuando, a la par que esponjas, fueron encontrando en el lecho marino una escena que parecía salida de una pesadilla: partes que, a los ojos de los asombrados y aterrorizados buzos, parecían humanas, partes humanas en un cementerio submarino corroídas tras años de permanecer resguardadas por la sal de las aguas. Una vez recobrados del susto, o por lo menos uno de ellos—se ignoran las reacciones del resto del equipo—, alguien se decidió a enfrentar el aparentemente macabro hallazgo y tomar lo que le quedaba más al alcance: una mano. Al emerger a la superficie, la mano resultó ser de bronce. Suponiendo correctamente que se encontraban frente a algo por demás fuera de lo corriente, la tripulación, una vez alcanzada tierra firme, dio parte a las autoridades, quienes organizaron una expedición al sitio del hallazgo ese mismo año. En el lecho marino, alrededor del sitio donde se encontró la mano de bronce, se encontraron los restos de un barco mercante romano, que, habiendo cargado mercancías en Rodas –isla griega ubicada frente a las costas de la actual Turquía–, se dirigía de regreso a Roma. Frente a las costas de Anticitera, o al menos así lo suponen los expertos, se topó con los traicioneros escollos que pueblan ese rincón del Egeo y fue a dar junto con su preciosa carga al fondo del mar. Entre las vasijas de vino y aceite, las monedas y una escultura prácticamente completa, conocida ahora como el “Efebo de Anticitera”, se encontró un trozo de bronce, calcificado por los años y las aguas, muy frágil, tanto, que amenazaba con desmoronarse entre las manos de los expedicionarios. No sabían, no podían saber en ese momento, que lo que tenían entre las manos era un mecanismo de dos mil años de antigüedad al que se le llama, sin temor a exagerar, “la primera computadora del mundo”, y tampoco sabían que se trataba de un aparato de una sofisticación y complejidad impensables, tanto, que hasta el día de hoy, a pesar de lo mucho que se ha estudiado y de los secretos respecto a su funcionamiento que se ha conseguido arrancarle, no se sabe a ciencia cierta cómo es que funcionaba.



28

Tecnologías

El mecanismo Cuando se rescató el mecanismo del fondo marino, se obtuvo lo que aparentemente era una pieza de bronce sólido, recubierta por una espesa capa de calcio y resguardada en una caja de madera. Fue de esta manera que se transportó al Museo Arqueológico Nacional, sito en Atenas, al año siguiente del descubrimiento del naufragio. La pieza permaneció en ese estado en el museo hasta que, un buen día, el matemático Spyridion Stais, Ministro de Educación en el momento en que se descubrió el naufragio, y personaje clave para organizar la expedición para recuperar las piezas en el lugar del mismo, se percató, en 1902, de que en realidad no se trataba de una sola pieza sino de tres partes principales y sinnúmero de pequeños fragmentos; de este hallazgo se pudo entresacar que, en realidad, lo que se creía era una caja de madera, era la montura de un mecanismo del que a simple vista parecía distinguirse un engrane de bronce. El interés en la restauración, investigación y datación de los hallazgos recuperados del naufragio se centró, en un principio, en las piezas escultóricas halladas en el sitio: el ya mencionado Efebo de Anticitera, estatuillas varias en marfil, piezas de joyería, monedas de bronce y plata e incontables vasijas en donde se había transportado vino y aceite. El registro de las piezas halladas en el lugar del naufragio había sido llevado cuidadosamente por Emmanuel Lykoudis, asesor legal del Ministerio de Educación, y el personal del museo decidió concentrar sus esfuerzos y energías a la restauración de las esculturas, las vasijas, la joyería y las monedas. El mecanismo, a pesar de que ya empezaban a asomar detalles que sugerían que era más que una simple masa de bronce calcificada, permaneció sumido en el olvido durante al menos cincuenta años; el único esfuerzo que se hizo en ese tiempo por arrancarle sus secretos se realizó en 1934, año en que el oficial de la Marina Ioannis Theofanidis intenta elaborar un modelo del mismo.

Las revelaciones En un principio, quienes habían manifestado interés en el mecanismo pronto lo perdieron al considerar que era demasiado complejo como para corresponder con el resto de las piezas encontradas en el lugar del naufragio. El arqueólogo Valerios Stais, director del Museo Arqueológico Nacional en el momento del descubrimiento, oriundo de la isla de Citera y vecino del sitio del hallazgo por proximidad geográfica, fue el primero en manifestar que quizás se tratara de una suerte de reloj astronómico, sin embargo, esto fue prontamente desechado: su misma complejidad comenzaba a sugerir que el artefacto se encontró en el sitio por accidente, y hasta se especulaba que probablemente hubiese caído de alguna embarcación que pasara por el sitio muchos años después, habiéndosele encontrado junto con el resto de las piezas por puro azar. Lo hallado en el naufragio fue suficiente como para mantener a los arqueólogos y curadores del museo absortos, como se ha dicho, durante medio siglo. La restauración del célebre Efebo de Anticitera, por ejemplo, terminó, o mejor dicho, llegó a su estado definitivo en 1950; esta escultura ha despertado innumerables especulaciones respecto tanto al autor como a quién representa, pero no se ha llegado a ninguna conclusión válida al respecto. Otra pieza escultórica que despertó igual curiosidad fue la cabeza que, podría suponerse, pertenecía a un busto, que representa, se dice, a un filósofo estoico, aunque se desconoce


El olvido, nuevamente A pesar de que el naufragio había despertado, después de las expediciones de Cousteau, nuevo interés, el mecanismo fue nuevamente relegado. Entre las décadas de 1970 y 1990, fue sometido a numerosos estudios con rayos X, en un intento por descubrir qué era lo que se alojaba en su interior; las imágenes, sin embargo, nada decían o revelaban muy poco. Fue en la década de 1970 cuando de Solla Price, junto con el físico nuclear griego Charalambos Karakalos, sometieron al mecanismo a un estudio con rayos gama, producto del cual fue un extenso artículo publicado por Price en 1974; su aportación, en esta ocasión, consistió en contabilizar el número de dientes de los engranes encontrados en el mecanismo, a la par que mostrar inscripciones que sugerían que había sido construido alrededor del año 87 antes de nuestra era. Tanta era la intriga que causaba el artefacto y tan pocas y vagas las conclusiones respecto a su naturaleza y funcionamiento que es precisamente en esa época que comienza a circular una teoría— cosa en absoluto extraña, ha de decirse—con respecto al origen alienígena del mismo. A pesar de que el mecanismo se negaba a desvelar sus secretos, el trabajo de datación del resto de piezas halladas en el naufragio contribuyó en no poco a la datación del artefacto o por lo menos, a dar una idea de la antigüedad de aquello con lo que estaban lidiando.

Con un interés renovado en el estudio del mecanismo, revivido por el interés manifestado por el célebre explorador Jacques Cousteau y por el físico e historiador de la ciencia Derek John de Solla Price, podría decirse que al olvidado artefacto se le empezó a mirar con otros ojos. En 1953, año en que Cousteau visitó el sitio del naufragio –al que regresaría veintitrés años después–, de Solla Price emprendió el estudio sistemático del mecanismo, lo que dio como resultado, en 1959, la publicación de su artículo “An Ancient Greek Computer”, que apareció en el número 200 de la publicación Scientific America. La peculiaridad del artículo de Price es que el estudioso elaboró una detallada descripción del mecanismo basándose únicamente en mediciones e inspección visual. Pero el mecanismo continuaba mudo, negándose a revelar sus secretos al mundo a pesar de que el cuchicheo entre la comunidad científica era cada vez más insistente y acuciante: ya se empezaba a vislumbrar, a partir de la descripción de Price, que se encontraba ante un artefacto poco menos que maravilloso.

Por otra parte, ya Cicerón, en el siglo primero antes de nuestra era, menciona la construcción de un aparato semejante como obra de Posidonio, polímata griego que en sus múltiples viajes de estudio había observado una conexión entre las mareas y los ciclos lunares y había elaborado hipótesis de relaciones entre los ciclos planetarios y los equinoccios y los solsticios, entre muchas otras observaciones y estudios de las más diversas materias. Los conocimientos de Posidonio le valieron tal celebridad que a Rodas fue a oírle Cicerón, quien se refería a él como “nuestro amigo Posidonio”. Es esta mención la que, junto con las inscripciones encontradas en el mecanismo, permitieron suponer que, muy probablemente, había sido fabricado en Rodas y de ahí había emprendido el viaje como parte del botín que sería presentado para el triunfo de Julio César. Sin embargo, conforme avanzaban los estudios, las informaciones que se obtenían se volvían a la par que más confusas, más fascinantes.

29

Tecnologías

de quién se trata. Pero no fueron estas piezas escultóricas, que mantuvieron fascinados a restauradores, historiadores del arte y arqueólogos por igual durante años, las que proporcionarían las primeras pistas respecto a la proveniencia y época aproximada de construcción del mecanismo, sino las monedas halladas en el lugar del naufragio.

Las vasijas encontradas en la embarcación se situaron como fabricadas en Rodas entre los años 65 y 60 antes de la era común; sin embargo, las monedas, de bronce y plata –algunas halladas durante la expedición de 1973, dirigida por Cousteau, y otras más extraídas en la primera expedición–, parecían ser algo más viejas y de otra procedencia. Finalmente, a éstas se les situó como acuñadas entre los años 70 y 60 antes de la era común en Pérgamo y Éfeso. Parecía, entonces, más o menos seguro situar la fabricación del mecanismo en el siglo primero antes de nuestra era, de modo que, al parecer, y según esta datación, apoyada por los descubrimientos de de Solla Price, el aparato habría llegado al fondo marino apenas unos años después de su construcción.


Tecnologías

30

El portento Tras medio siglo de especulaciones e hipótesis, algunas más fundamentadas que otras, y de básicamente caminar en la oscuridad en relación con el funcionamiento del mecanismo, en 2005 se integró, por fin, un equipo internacional multidisciplinario con el objetivo de desentrañar sus misterios empleando la tecnología más avanzada a su alcance: el Proyecto de Investigación del Mecanismo de Anticitera, que cuenta entre sus colaboradores a matemáticos, físicos, expertos en antigüedad clásica, astrónomos, filólogos, paleógrafos, cineastas y a un puñado de profesionales enviados por compañías como Hewlett Packard, Volume Systems y X-Tek Systems. Este equipo ha buscado no sólo determinar con la mayor precisión posible el funcionamiento del mecanismo, sino tratar de acercarse, a un tiempo, a la manera en que los griegos veían al Universo, porque el mecanismo no es sólo un sofisticado artefacto para determinar la posición de los cuerpos celestes, sino toda una revelación en cuanto a conocimientos mecánicos y astronómicos. Es, igualmente, una oportunidad para reevaluar nuestras propias ideas contemporáneas respecto a la ciencia, la innovación y la tecnología, y a la producción en esos campos en la Antigüedad, cosa que resulta sugerente en vista de la cantidad de conocimiento que se ha perdido a lo largo de los años y que a la humanidad le ha costado siglos redescubrir.

Porque el mecanismo de Anticitera, una vez sometido a reconstrucciones virtuales a partir de tomografías e imágenes en tercera dimensión, se ha revelado como una pieza de sofisticación tal que apenas hace cincuenta años, cuando comenzó a estudiarse, resultaba increíble para la época en que se construyó. Así es: las imágenes dieron como resultado un artefacto parecido en tamaño y apariencia a un reloj de trinchador con tres diales y una manivela que indicaban la posición del Sol, la Luna y, probablemente, de los cinco planetas visibles en la época de su construcción: Mercurio, Venus, Marte, Júpiter y Saturno, en cualquier momento dado en un periodo de diecinueve años, lo que servía no sólo para marcar el tiempo y el movimiento de los cuerpos celestes sino, igualmente, para determinar las fechas de los festivales atléticos más importantes celebrados en los territorios griegos. Dos de los tres diales se encuentran al frente del aparato: uno de ellos muestra el Zodiaco y el calendario solar, y el otro, el calendario lunar. En la parte trasera, un tercer dial muestra información acerca del ciclo de saros y el ciclo calípico –formas alternativas de medir el movimiento de los astros–, lo que permitía, de acuerdo con estas mediciones del tiempo y de los ciclos planetarios, la predicción de los eclipses. Es de llamar la atención que, para



Tecnologías

32 estos cálculos, el visionario que creó esta obra no se basó en la geometría griega sino, más bien, en la aritmética y el cálculo del tiempo de los caldeos, al ser la representación del ciclo de los eclipses que se observa de origen babilonio, según los expertos, y comienza en el año 205 antes de nuestra era. Esto sugiere que el constructor de la maravilla pudo haber sido Hiparco de Nicea, quien elaboró el primer mapa estelar y la primera división del día en veinticuatro horas de igual duración. Sin embargo, la teoría que más ha seducido a los estudiosos del mecanismo es que ese mismo aparato haya sido construido por el propio Arquímedes. El que el artefacto se construyó en las regiones de habla griega había quedado establecido prácticamente desde el principio, desde que las primeras inscripciones encontradas en el mecanismo se hicieron visibles, lo que despejó las dudas de que fuera una creación posterior. La fecha de su construcción ya se había datado como de no muy lejana a la fecha del naufragio; sin embargo, nuevas dataciones realizadas recientemente sugieren que el mecanismo muy bien pudo haberse fabricado unos cien años antes. Cicerón, nuevamente, menciona la construcción de un aparato semejante en el tercer siglo antes de nuestra era, igualmente en bronce, y se la atribuye a Arquímedes, lo cual no pasaría de ser un rumor al que se

adhiriesen científicos llevados de su entusiasmo a no ser porque, al parecer, los cálculos pueden hacerse a partir de observaciones astronómicas sólo posibles desde Corinto, lo que parece apuntar fuertemente a que el aparato bien pudo haberse construido en Siracusa. Si bien es cierto que Hiparco combinó la geometría griega con los cálculos aritméticos caldeos, lo que inclina la balanza a su favor, también lo es que las observaciones de la bóveda celeste en que se basan los cálculos para la construcción del artefacto bien pudieran llevarlo hasta el mismísimo taller de Arquímedes. En cualquier caso, hicieron falta dos mil años, y toda la tecnología que la Era Espacial brinda, para comprender, aunque fuera parcialmente, tanto el funcionamiento del Mecanismo de Anticitera, con sus más de treinta engranajes de bronce cortados a mano con una precisión difícil de replicar, como todo el conocimiento contenido en un artefacto no mayor a una caja de zapatos; pero, pensándolo bien, es más sorprendente que se requirieran más de mil años para que el mundo viera de nuevo algo siquiera remotamente parecido en los relojes astronómicos producidos en Europa en el siglo XIV – conocimiento que, por cierto, hubo de dar un largo viaje y pasar primero a los árabes para después transmitirse a Europa–, y otros cuatro siglos –hasta la llega-

da de la Revolución Industrial– para que se produjeran engranes con un grado de miniaturización y complejidad parecidos. Sin embargo, la ventana que abre hacia el mundo antiguo, su conocimiento y su visión del universo es no menos grande que las lagunas que aún existen en torno a su funcionamiento. Porque si para los griegos, y para eso, para los caldeos, la bóveda celeste, o por lo menos la porción que les era visible, funcionaba con la precisión de un mecanismo cuyo funcionamiento se puede predecir, entonces, los fundamentos del pensamiento científico moderno no son tan modernos como nos gustaría pensar. La comprensión de un mecanismo tan sofisticado y complejo se vio retrasada por al menos un par de décadas gracias al escepticismo contemporáneo, que se negaba a creer que artefacto tan complejo pudiera haberse producido en épocas tan supuestamente oscuras; sin embargo, a la luz de lo que se ha descubierto en los últimos años, quizás el conocimiento humano no ha avanzado a la velocidad a la que pudiera no tanto por la falta de medios o por las limitaciones propias del entendimiento humano, sino por la falta de voluntad para dar crédito a los logros, avances e innovaciones en campos que creemos tan propios de nuestra era como la tecnología, que ya en épocas remotas fue capaz de producir una maravilla como el Mecanismo de Anticitera.


Tecnologías de la antigüedad

Alfredo Ruiz Islas.

L

a palabra «tecnología» tiene el poder de invocar imágenes que, casi sin excepción, se relacionan con máquinas. Máquinas complejas, dotadas algunas de engranes, bandas, bielas y manivelas. Otras, de incontables botones, circuitos y procesadores, cubiertas cromadas o plásticas, pantallas a color, de alta definición, o monocromáticas, blanco y negro o verde y negro. Unas más, reminiscencia quizá de las películas de la década de 1960, podrían tranquilamente adscribirse a la máxima que dicta que las mayores alturas tecnológicas poseídas por cualquier tipo de máquina guarda una relación directamente proporcional con el número de focos, de luces y de timbres que la decoran.

Historia de la Ingeniería Civil

33


Historia de la Ingeniería Civil

34 A lo largo de los últimos dos siglos, la máquina movida en primera instancia por vapor, y más tarde por electricidad o por algún tipo de combustible, se ha convertido en la representación estereotípica de la tecnología. Es decir, de la ciencia aprovechada de forma práctica, lo que en consecuencia le permite ser aplicada a la realización de distintas tareas. La máquina, el aparato —o ahora, en estos tiempos idiomáticamente torcidos, el gadget— como receptáculo de conocimiento que, a su vez, tendrá la función de modificar la vida diaria de los seres humanos, de crear cosas que la hagan cómoda, de facilitar su tránsito por el mundo. Tal forma de pensar, aunque es correcta en nuestro tiempo y en nuestro espacio, queda corta si de lo que se trata es de comprender lo que es la tecnología y los alcances que, para el desarrollo de la especie humana, ha tenido a lo largo de los milenios. Eso. De los milenios. Los miles de milenios. Se tienen registros de que las primeras tecnologías a las que tuvieron acceso los seres humanos aparecieron hace, quizá, unos dos y medio millones de años. De alguna manera, los primitivos ancestros del ser humano que vive pendiente de lo que aparece en la pantalla de su tableta o de su teléfono —o de ambos— encontraron la manera de fracturar ciertas piedras para dotarlas de filo y conseguir, con ello, que los auxiliaran en la realización de tareas específicas. Primero, cortar. Cortar plantas de tallo grueso para comer, cortar otras piedras para disponer de una mayor cantidad de herramientas, incluso cortar al amigo y al enemigo particularmente impertinente o hasta agresivo a manera de advertencia o para dejar en claro las jerarquías que privaban en el clan. Solo cortar. Sin embargo, siempre resultaba más cómodo y más eficiente hacerlo con ayuda de la máquina que con las solas manos. Más tarde, al modificarse ligeramente la forma de la piedra fue posible rascar los huesos de los animales que cazaba —o que, con toda posibilidad, encontraba muertos por ahí, lo suficientemente conservados como para poder engullirlos— y retirar la carne con mayor limpieza de la que podía si se ayudaba solo por las manos y los dientes.

Hace un millón y medio de años, los seres humanos descubrieron la manera de crear el fuego. El mismo fuego que desde siempre habían conocido, pero que ignoraban cómo producir y, más aún, cómo conservar o cómo emplear con cierta dosis de seguridad. A la par, continuaron desarrollando las mismas herramientas con las que habían contado a lo largo del último millón de años. Hachas de mano. Palos afilados empleados como armas para cazar animales que, ahora, podrían comer cocidos. Punzones para dar una forma más detallada al resto de las herramientas. Pequeñas piedras que poco a poco eran incrustadas en palos resistentes para crear arpones. Pedazos de piel cortados con ayuda de piedras —las tijeras tardarán todavía algunos milenios en aparecer— para servir como prendas de vestir, y que después serán unidas entre sí con un singular procedimiento que involucraba porciones de hueso empleadas como agujas y tendones debidamente tratados que funcionaban a manera de hilos.

El descubrimiento de la agricultura incrementó, de golpe, las posibilidades que tenían los primitivos de crear nuevas tecnologías. Porque no es lo mismo dedicar buena parte del día a recolectar granos, bayas, hierbas y frutos, o enzarzarse a diario en una lucha a muerte con toda clase de animales salvajes para conseguir carne fresca, o incluso



Historia de la Ingeniería Civil

36 tener que organizar al clan o a la tribu cada determinado tiempo para movilizar el campamento porque se han terminado los recursos comestibles en el sitio en el que se encuentran, que tener acceso a los excedentes de la última cosecha. El desarrollo de la civilización se encuentra innegablemente atado al descubrimiento de los cánones que rigen la domesticación de las plantas, el arte de sembrar, cuidar, cosechar y almacenar. Contar con alimento sin la necesidad de desplazarse de un lado a otro. La dieta se empobrece, ciertamente, dado que solo se podrán sembrar unas pocas especies vegetales cada vez, a diferencia de la variedad infinita que ofrece la naturaleza al que se dedica a la recolección. Sin embargo, las comunidades ganan seguridad. Más aún, ganan tiempo. Ya no será necesario que las actividades de todo mundo graviten alrededor de la subsistencia del grupo. Habrá, ahora, el que esté ubicado de tal forma en la incipiente pirámide social que pueda dedicarse a pensar. Solo a eso. A pensar. A mirar el cielo y darse cuenta de que los cuerpos que de él parecen pender se mueven. A imaginar entonces el influjo que esos mismos astros tienen sobre las personas. A inventar cosas. Inventar cosas es sinónimo de crear nuevas tecnologías. Nuevas tecnologías aplicadas a la caza, como lo sería el perfeccionamiento de las herramientas con pequeñas piedras incrustadas, o a la conservación de los alimentos, lo que hace posible el surgimiento de la cerámica. Tiestos hechos de cualquier manera y empleados para mantener los granos lejos de la acción de insectos, aves y otros animales. Tiestos que ganarían en apariencia con el descubrimiento —hace más o menos seis mil años— de una de las tecnologías que, hasta la fecha, define tanto al entorno como a la manera en la que las personas se relacionan con el mismo: la rueda. Sus primeras aplicaciones tuvieron que ver con la producción de cerámica, al integrar tornos de alfarería que mejoraban las posibilidades de subsistencia de los cacharros y que, mejor aún, facilitaban su producción. Tendrían que pasar dos mil años hasta que, en Mesopotamia, cuna de la civilización urbana, alguien encontrara la manera de unir dos ruedas por medio de un eje y aplicarlas al transporte de personas y de objetos. Antes de que aparecieran sobre la faz de la Tierra los primeros vehículos, ya habían los seres humanos desarrollado nuevas

tecnologías, unas más complejas que las otras. Así, la unión de cuñas y su aplicación al trabajo de la tierra dieron como origen la aparición de los arados. En tanto, el desarrollo de las matemáticas permitió, con el tiempo, la aparición de la escuadra, que a su vez sería la base para la entrada en escena del plano inclinado. Las artes tomaron un rumbo propio y comenzaron a surgir a la luz como eso mismo, como artes. Si bien los habitantes de las cavernas habían dejado ya muestras de su talento pictórico y de sus capacidades decorativas, es incierta la finalidad que tendrían, para ellos mismos, las pinturas rupestres. Quizá eran dispositivos mnemotécnicos, confeccionados de modo tal que dieran cuenta de los sucesos más importantes de la comunidad. O tal vez eran el equivalente primitivo de los modernos periódicos. Posiblemente eran cuadernos de cuentas, hojas de censos, registros de propiedades o de haberes. O quizá no tenían otro fin más que permitir el esparcimiento de los sentidos, lo que automáticamente los englobaría en la categoría de «arte», al encontrarse destinadas a la promoción de experiencias estéticas. Sea como sea, no es posible saberlo. Lo que sí es posible saber es que, a partir del Neolítico, el arte comienza a ganar terreno. La vida deja de estar anclada en


el utilitarismo pleno y comienzan a aparecer los espacios necesarios para la creación artística. Espacios que no son otra cosa que tiempo y personas libres de obligaciones ligadas a la subsistencia, al gobierno, al orden o a la guerra, e incluso a las tareas meramente intelectuales. Personas estas que no tendrán otra función que crear objetos bellos o que escenificar actos bellos, a la par que educativos, frente a sus congéneres. El fin de la prehistoria y el inicio de la historia como tal —la historia como etapa en el devenir de la humanidad, no como disciplina encargada de estudiar

ese mismo devenir— está marcado por la aparición de la escritura, hace unos cinco mil quinientos años. Antes de ello, los saberes científicos, y que más tarde darían paso a procedimientos de corte tecnológico, eran transmitidos por vía oral, de padres a hijos o, en sociedades dotadas de una mayor complejidad, de maestros a alumnos en algo que, guardando las debidas distancias, asemejaría a la posterior organización contenida en el taller. De este modo, todos los conocimientos prehistóricos, todos los saberes y todos los rudimentos que permitieron a la especie humana sobrevivir al entorno —aun con todas

sus carencias físicas y con la desventaja que ello suponía frente a los animales, a cualesquiera de ellos—, imponerse al mismo y, más tarde, transformarlo de formas decisivas, fueron comunicados a lo largo de los milenios de boca a oído, sin contar para su preservación con nada más que la memoria de los involucrados en la construcción de herramientas y en la preservación de las tecnologías. La memoria, algún dibujo, un conjunto de señas. No mucho más. Y anclada en estos pocos elementos, la tecnología inició su viaje portentoso hacia el futuro, en pos de la transformación del planeta.


Con gran éxito se llevaron a cabo

2016

Eventos

38

L

a edición correspondiente al presente año de Expo Seguridad México y Expo Seguridad Industrial se realizó con gran éxito del 26 al 28 de abril, en el Centro Banamex de la Ciudad de México. Los principales fabricantes, integradores y distribuidores presentaron lo mejor de la industria y las últimas novedades en la materia, convirtiendo el evento 3en una plataforma única de soluciones en seguridad para América Latina. En el marco de la ESM, donde se dieron a conocer las tendencias y las innovaciones tecnológicas más recientes, tuvo lugar la VI Conferencia Internacional para la Administración de la Seguridad y Fuerzas del Orden, en la que se abordaron, mediante paneles, conferencias y talleres con especialistas del sector, entre otros, temas como: la estandarización de los servicios de atención de llamadas de emergencia, estándares técnicos de sistemas de videovigilancia para la seguridad pública, certificación de calidad de centros de evaluación y control de confianza y su personal,

tecnologías y equipamiento para unidades especializadas de combate al secuestro, prevención social de la violencia y la delincuencia con participación ciudadana; así como la integración, desarrollo y equipamiento de sistemas de misión crítica. Entre las empresas que tomaron parte en este importante foro se encuentran: Anixter, Axis Communications, Magocad, Moro, NVT, Samsung, Wisenet, Syscom, TVC, Altronix, INALARM, Honeywell, Panasonic, Pelco by Schneider, UTC, TSN y Tyco Security Products. Por otra parte, dentro de la novena edición de Expo Seguridad Industrial, se presentaron las tendencias en seguridad industrial, salud ocupacional e higiene con la participación de los fabricantes y distribuidores más importantes de equipos de protección personal, prevención y detección de incendios, servicios de consultoría y entrenamiento, ropa industrial, equipos de rescate, protección civil, rescate en alturas, protección ambiental, higiene laboral, prevención de riesgos, emergencias médicas y

atención pre hospitalaria. Entre las marcas presentes estuvieron 3M, Dickies, Hawk, Honeywell, MSA y Scott and Health, etc. Adicionalmente, se efectuó el V Congreso de Seguridad Integral, así como la presentación de las conferencias a cargo del Instituto Internacional de Administración de Riesgos –IIAR–. Conjuntamente, ESM y ESI, eventos organizados por Reed Exhibitions reciben a más de 17,000 visitantes de más de 23 países, y tienen una cobertura de más de 100 medios de comunicación nacionales y extranjeros. Su creciente importancia les permite generar excelentes oportunidades de negocio, facilitar el establecimiento de nuevos contactos y la extensión de relaciones comerciales con instituciones públicas y privadas y con representaciones industriales. Se considera que para el futuro, su principal reto es seguir consolidándose como el principal foro de seguridad en Hispanoamérica y contribuir a la construcción de alianzas estratégicas y sinergias entre los participantes del sector.



Actualidades

40

Big Toys Expo Una oportunidad para dejar escapar a tu niño interior

P

or quinto año consecutivo se llevó a cabo la edición 2016 de BigToys Expo, del 20 al 22 de mayo en el Pepsi Center del World Trade Center de la ciudad de México.

Con la participación de más de 75 expositores y alrededor de 11,000 visitantes BigToys Expo presentó a los adultos con alma de niño que conservan su afición por aquellos artículos, productos, actividades y tecnología que les proporcionan entretenimiento y diversión. En la edición 2016 destacó la extensa variedad de drones que abarcó, desde aquellos utilizables como simple entretenimiento hasta los que, complementados con otros dispositivos como cámaras o sensores, se utilizan en actividades profesionales. Una buena parte de la Expo llamó la atención de los amantes de piezas de colección dedicadas a súper héroes y personajes de acción, así como de los apasionados al modelismo, tales como trenes, vehículos y aviones. Para otro los coleccionistas de arte nostálgico, se presentaron placas, esculturas y otros artículos “vintage”. Y sin duda, la parte de estilo de vida igualmente capturó la atención de los visitantes con artículos de alta tecnología que incluyeron desde cámaras deportivas, monopatines, “hover balls”, electrobicis, purificadores de aire para el interior del auto, y no faltaron las novedades en ropa casual dedicada a perfiles de diferentes aficiones, así como lo último en ropa especial y accesorios para la práctica de deportes. Una sección importante que también acaparó la atención fue la exhibición de autos clásicos, protagonizada este año por el Club Nacional Mustang. Los visitantes pudieron deleitarse mirando varios modelos de este clásico y lo encontraron como un excelente escenario para tomarse “selfies” y fotografías posadas. BigToys Expo no solamente fue una exhibición, sino también ofreció a los visitantes el vivir dentro de ella la experiencia de la diversión y el entretenimiento, ya que pudieron jugar con réplicas de armas en un campo de gotcha y tiro con arco, escalar un muro o disfrutar en los simuladores y diplays de videojuegos. Si quieres dejar escapar a tu niño interior, prepárate y no te pierdas la edición 2017 de BigToys Expo.


VICTAULIC SERVICIOS DE CONSTRUCCIÓN DE TUBERÍA ®

DIBUJO, COORDINACIÓN BIM Y SOLUCIONES DE SOFTWARE PARA CONSTRUCCIONES COMERCIALES, INDUSTRIALES Y DE TUBERÍAS www.es.victaulic.com

Victaulic y todas sus demás marcas son marcas comerciales o industriales registradas por Victaulic Company y/o sus entidades afiliadas en EE.UU. y/u otros países. Todas las demás marcas industriales aquí mencionadas son propiedad de sus respectivos titulares en EE.UU. y/u otros países. Los términos “patentado” o “con patente en trámite” se refieren a patentes de diseño de herramientas o solicitudes de patentes para artículos y/o métodos que se usan en Estados Unidos y/u otros países. © 2015 VICTAULIC COMPANY. TODOS LOS DERECHOS RESERVADOS.

Más rápido desde el inicio



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.