10 minute read

Figura 3. Relación de Movimientos en Masa con Precipitación

factor climático ha variado en su intensidad en varias regiones. Según la Ley 1523 de 2012 (Congreso de la República, 2012), el cambio climático “se puede deber a procesos naturales internos o cambios del forzamiento externo, o bien a cambios persistentes antropogénicos en la composición de la atmósfera o en el uso de las tierras” (p. 3).

Figura 3. Relación de Movimientos en Masa con Precipitación.

Advertisement

Fuente. (Aristizábal et al. 2010) Desde el 2008 en el valle de Aburrá en el municipio de Medellín Colombia, se implementó el Sistema de Alerta Temprana por Movimientos en Masa Inducidos por Lluvias, el cual es utilizado para monitorear y comunicar información sobre amenazas a comunidades vulnerables. Dicho sistema cuenta con sensores de lluvia y telemetría, umbrales críticos de lluvia y medios de comunicación de alertas hacia la comunidad. Dicho sistema expone la relación de la generación de los movimientos en masa con la precipitación. (Aristizabal, Fidel, y Leoz, 2010). En la Figura 3 se puede observar la relación estrecha que tienen los deslizamientos con las intensas precipitaciones

Para predecir las lluvias o fenómenos climatológicos los investigadores relacionan datos recolectados en determinados sitios, como lo son las estaciones meteorológicas. Con la información recolectada en cada estación los investigadores pueden predecir patrones del clima en un territorio en específico. Según Tobler (1970) en la primera ley de geografía cita “todas las cosas están relacionado entre sí, pero las cosas más próximas en el espacio tienen una mayor relación que las distantes” (p. 236). La interpolación es una técnica para estimar datos donde no existen a partir de datos conocidos en un sitio específico. Por ejemplo, un

territorio tiene un limitado número de estaciones meteorológicas distribuidas espacialmente, los expertos utilizan la interpolación para predecir el clima en todo territorio.

Existen varios métodos de interpolación y depende de cada experto la elección. Los métodos son bastantes diferentes, sin embargo, se basan en la lógica entre más cercano dos puntos en el espacio, los valores estimados a partir de esos dos puntos serán más parecidos. Para una interpolación precisa se debe tener en cuenta la cantidad de puntos de muestreo, distribución de los puntos de muestreo y falta de puntos de muestreo en una zona. En los SIG se trabaja con la interpolación espacial para obtener capas raster (matriz de celdas) que representan los valores de la interpolación (Francisco, 2006).

Entre los métodos de interpolación más utilizados y conocidos son: interpolación IDW (Inverse Distance Weighting) y de Kriging. El método de IDW es un procedimiento determinístico que se basa en fórmulas matemáticas, interpola una superficie a partir de puntos conocidos usando la distancia inversa ponderada, es decir, que la influencia de cada celda o variable de la superficie interpolada disminuye a mayor distancia de la ubicación de los puntos de muestra o conocidos. La interpolación a partir de Kriging, es un procedimiento geoestadístico avanzado que incluye autocorrelación y genera una superficie a partir de puntos conocidos con valores Z (ESRI, 2016c).

Los métodos geoestadísticos suponen que parte de la variación espacial observada en los fenómenos naturales pueden ser modelada por procesos aleatorios con autocorrelación espacial. Los métodos geoestadísticos se pueden usar para para describir y modelar patrones espaciales y predecir valores en ubicaciones no medidas. La técnica geoestadística de Kriging tiene varios métodos para producir disímiles tipos de datos y superficies, para generar el modelo más acertado según el experto y área (ESRI, 2017c).

Antes de generar una superficie final para modelar un fenómeno natural, se debe tener en cuenta el ímpetu de los errores del modelo. Para lo anterior existen herramientas como la validación cruzada y la validación de ArcMap, que ayudan a tomar decisiones sobre qué modelos, sea determinístico o geoestadístico, son los mejores para predecir fenómenos naturales. Cuando se ejecuta una validación cruzada, algunos datos conocidos para la generación de la interpolación se pueden descartar debido a que contienen grandes errores.

En su investigación, Torres (2017) utilizó datos de evaporación de 34 estaciones meteorológicas del IDEAM en el departamento de Antioquia Colombia entre el periodo comprendido entre 1971 y el año 2000. Los datos fueron utilizados para comparar métodos de interpolación determinísticos (IDW) y geoestadísticos (Kriging) para obtener el mejor modelo de la variable de evaporación en el departamento de Antioquia. Por medio de la validación cruzada calculó los errores de los dos métodos de interpolación, teniendo como resultado, que el método geoestadístico presenta menor error y que estadísticamente presenta un mejor modelo espacial del fenómeno natural. Rodríguez (2014) analizó datos de precipitaciones anuales de 136 estaciones meteorológicas en el Departamento de Cundinamarca, permitiendo un modelamiento del fenómeno a partir de la comparación de métodos determinísticos y geoestadísticos. El autor utilizó el método de interpolación IDW y Kriging con la herramienta “asistente geoestadístico” del programa ArcGIS 10.1, y utilizó validación cruzada para obtener los errores de los métodos utilizados y así observó que método arrojó menor valor y por ende generó la mejor predicción del fenómeno natural. El método que arrojó menos errores y el más adecuado para el análisis de precipitación fue el método de Kriging, es el resultado más acertado y con un margen de error menor.

2.2.10 Avenidas Torrenciales

Otro factor importante en la caracterización de las inundaciones son las avenidas torrenciales, las cuales son otro peligro natural que causan las fuertes precipitaciones en épocas de lluvias, principalmente en cauces intramontañosos. Al generarse dicho fenómeno poseen un alto grado de afectación en personas, viviendas e infraestructura y medio ambiente. En la literatura existen varias definiciones de avenidas torrenciales que algunas divergen y otras no, dependiendo de la disciplina y experiencia de cada autor. En su estudio, Alfonso y Junco (2004) argumentan que las avenidas torrenciales: “son el aumento del caudal en un cauce con volúmenes excepcionales, en el cual, el fluido además de agua contiene una mezcla de escombros compuesta por suelo, roca y material vegetal” (p. 23). La clasificación de las avenidas torrenciales depende de la morfometría de la cuenca, de su origen y de los materiales que está compuesta, por lo general se clasifican así:

➢ Flujos de Lodo ➢ Flujos Concentrado (de arena, limo, detritos, roca fracturada) ➢ Flujo de Detritos

En su investigación, González, Montoya Jaramillo y Silva Arroyave (2009) introdujeron el índice de Melton en la evaluación de zonas de amenaza por avenidas torrenciales para cada una de las microcuencas que conforman la cuenca de la quebrada Doña María localizada al sur de Medellín, Colombia. El índice de Melton o también llamado rugosidad de Melton, fue definida por Melton (1957) como la relación entre el relieve y el área de una subcuenca hidrográfica. Los autores le dieron mayor importancia en uno de los escenarios evaluados a esta variable dentro del modelo, de esta forma, la cuantificación de la amenaza en la quebrada presentó una disminución que los otros escenarios, pero aumentó en las microcuencas, reflejando así su importancia en la evaluación de inundaciones.

2.3 SUSCEPTIBILIDAD Y AMENAZA

Los conceptos de susceptibilidad, amenaza y vulnerabilidad se diversifican en muchas literaturas dependiendo el área de estudio, sin embargo, en la rama de investigación de amenazas y riesgo por fenómenos naturales se han recopilado y formado conceptos unificados de este tema. La cartografía de identificación de zonas susceptibles y vulnerables a eventos naturales es una herramienta básica e indispensable para la evaluación del riesgo e inclusión dentro los procesos de ordenamiento territorial. La representación de susceptibilidad, amenaza y vulnerabilidad tiene como fin, disminuir los daños en la infraestructura y pérdidas humanas en un territorio. Dicha cartografía depende principalmente de la disponibilidad de la información (Delgado et al., 2006).

Por otra parte, la susceptibilidad es la probabilidad de que un evento natural se genere en un área esperada. Ésta varía dependiendo del tipo e intensidad del peligro natural, debido a que cada evento posee características diferentes. Por ejemplo, se debe evaluar la susceptibilidad para caída de rocas y deslizamientos por separado, debido a que estos fenómenos tienen diferente naturaleza (PMA, 2007). El SGC (2013) evaluó la susceptibilidad de movimientos en masa mediante la integración de dos elementos, la evaluación multicriterio y análisis espacial con SIG, asignando pesos y estandarizando las diferentes temáticas espacialescomo

geología, geomorfología, morfometría, suelos y cobertura de la tierra, cuantitativamente con pesos de ponderación para cada variable de 1 a 5. Con la superposición y posterior combinación de las variables obtuvieron las zonas con susceptibilidad muy baja, baja, media, alta y muy alta con respecto a la opinión de expertos en el tema.

Identificadas las zonas susceptibles a peligros naturales, en nuestro caso por movimientos en masa e inundaciones, dichas zonas representan una amenaza si se les suma factores detonantes, como la precipitación, sismos y en algunos casos factores antrópicos. En general, el significado de amenaza, es la probabilidad que ocurra un evento adverso a la condición humana o medio ambiente, generado por estos mismos. La Ley 1523 de 2012 (Congreso de la República, 2012) define la amenaza así:

Peligro latente de que un evento físico de origen natural, o causado, o inducido por la acción humana de manera accidental, se presente con una severidad suficiente para causar pérdida de vidas, lesiones u otros impactos en la salud, así como también daños y pérdidas en los bienes, la infraestructura, los medios de sustento, la prestación de servicios y los recursos ambientales (p. 3)

La amenaza se divide en dos según su origen; de origen natural o de origen antrópico. Para identificar el origen de la amenaza es necesario evaluar los elementos detonantes de ésta. Los elementos detonantes de origen natural son: procesos endógenos (actividad tectónica y volcánica) y procesos exógenos (movimiento en masa, inundaciones, lluvias, viento). Los agentes detonantes de amenaza de origen antrópico son: accidentes (incendios, explosiones, derrames) y actividades humanas (erosión, deforestación, contaminación) (Renda, Rozas Garay, Moscardini, y Torchia, 2014). Para el análisis de evaluación de amenaza se debe contemplar unas etapas básicas en todos los casos, las etapas son: términos de referencia, revisión y análisis de información secundaria, reconocimiento superficial - subsuelo y cartografía del terreno, análisis y evaluación de resultados. Con la ejecución de las anteriores etapas se tendrá un mapa de zonificación de amenaza con unas categorías generales de baja, media y alta, que permitirá la toma de decisiones para diferentes actividades y para la elaboración de estudios de riesgos.

2.3.1 Métodos para Análisis de Amenaza

Existen diferentes métodos para caracterizar la amenaza en una zona determinada, ya sea que se encuentre bajo amenaza por deslizamientos o inundaciones. A continuación, se presenta los principales métodos utilizados.

Evaluación Multicriterio

En la rama de investigación y evaluación de fenómenos naturales utilizan muy a menudo el método basado en el análisis multicriterio, debido a que permite la combinación de varios factores con la integración de los SIG. En la evaluación de peligros naturales los factores poseen un componente espacial. Los SIG permiten la superposición de varias temáticas y asignación de pesos a las variables con el fin de obtener resultados a partir de diferentes condiciones.

La integración de la Evaluación Multicriterio y Multiobjetivo (EMC) en el entorno de los SIG es muy habitual. Según Barredo (1996), la evaluación Multicriterio es un conjunto de técnicas orientadas a la toma de decisiones. Dado que los SIG permiten la combinación de diferentes capas (variables), el análisis multicriterio permite la valoración de criterios, factores y atributos para obtener un resultado en base de información geográfica para la toma de decisiones. El análisis multicriterio se ha aplicado a muchas ramas de investigación: en la gestión de riesgos de desastres naturales, medio ambiente, industria, política, transporte, demografía, entre otras ramas. En los SIG se pueden hacer combinaciones de capas tanto en formato raster como en vectorial, cada uno con sus ventajas y desventajas para un modelo con diferentes criterios. La evaluación y obtención de las variables y criterios al inicio de un proyecto debe realizarse en relación de que se quiere evaluar en el territorio.

Proceso De Análisis Jerárquico

El proceso de Análisis Jerárquico (AHP) fue desarrollado por Saaty (1980), y su fundamento principal radica en el hecho que permite asignar valores cuantitativos basándose de los juicios subjetivos de quien toma las decisiones y el resultado es una jerarquización de cada una de las temáticas o criterios evaluados. El procedimiento compara pares de criterios,

This article is from: