15 minute read

2.3.2 Análisis de trayectorias de ciclones tropicales

mientras que la referencia a la cobertura de las especies de pastos marinos se refere a la capa de información que contiene el área geográfca en donde se distribuyen.

2.3.2 Análisis de trayectorias de ciclones tropicales

Advertisement

El análisis de los International Best Track Archive for Climate Stewardship (IBTrACS3) son los conocidos como “Best Tracks” que son “resultado del reanálisis post-estación de la posición de una tormenta y de la intensidad de todos los datos disponibles” (Knapp et al. 2010, p. 364). Quienes elaboran los IBTrACS son 12 agencias de 8 países, dentro de los cuales se encuentran Australia, Fiyi, India, Francia, Nueva Zelanda, E.U.A. y China. Los datos de IBTrACS son usados a menudo “para estimar la variabilidad interanual e Inter décadas de los CT y su relación con el cambio climático” (Knapp et al. 2010, p. 364). Una de las fuentes de información para generar los Best Tracks es el formato HURDAT (Hurricane Research Division-NOAA, 2020) que es usado desde 1851 por agencias climatológicas de EU y por otros países. Los que usan o han usado el formato hacen la toma de datos cada 6 horas.

Es de considerar que los conjuntos de datos para generar los IBTrACS no son una construcción homogénea debido a varios factores que pueden ser una fuente de error y por ello deben ser considerados y que se reseñan a continuación:

1. La identifcación de cada tormenta como única. Varias agencias del clima pueden reportar la misma tormenta. Por ello se debe revisar sus coordenadas para identifcar posibles errores por duplicación. 2. En el caso de tormentas débiles puede haber grandes variaciones para detectar sus centros de circulación. Estos pueden llegar a ser de hasta 100 km.

3 Glosario en línea del Centro Nacional de Huracanes, los IBTrACS son “una representación subjetivamente suavizada de la ubicación e intensidad de un ciclón tropical a lo largo de su vida útil ...” y “... en general no refejarán el movimiento errático implicado al conectar posiciones individuales de fjación central”. Dada esta subjetividad, la cantidad de suavizado espacial también variará entre las agencias.

3. La OMM en 1983 estableció los VMS para el promedio de velocidad de 10 min average wind speed a 10m sobre el nivel de altura por arriba de la tierra o agua. En desprecio del estándar de la OMM, varias agencias usan diferentes periodos de promedios que incluyen promedios de 1-, 2-, 3-, y 10-min.

2.3.3 Cálculos de los parámetros para determinar el peligro y probabilidad de ciclones tropicales en función de la frecuencia de eventos

El cálculo de los parámetros de peligro o probabilidad de CT y su periodo de retorno usados en esta investigación parten del cálculo de la frecuencia de acuerdo con la contabilidad de trayectorias una malla cuadrada de 1 grado por lado. El parámetro base es el cálculo de la tasa de excedencia que se calcula a partir de la frecuencia de eventos para el periodo de análisis para cada cuadro de la malla. Los parámetros de probabilidad y periodos de retorno se obtienen de las tasas de excedencias en una hoja de cálculo donde se realizaron las operaciones que se indican a continuación de acuerdo con las fórmulas que proponen Eslava et al. (2006).

2.3.3.1 Tasa de excedencia v(i)

El cálculo de las tasas de excedencias se registra a partir del número de niveles rebasados durante el mismo evento. Es decir, el paso de intensidad 1 a 2 a 3 ...a 7. En esta investigación se usó una hoja de cálculo y se aplicó una tabla dinámica usando el archivo obtenido del proceso que se muestra en la Figura 6 (ver capítulo 3 de metodología) mediante el cual se contabilizaron el número de ocurrencias por categoría de CT para un cuadro de un grado por un grado de la malla de tal manera que se generó en un registro (Figura 7). Las tasas de excedencias v(i) se calcula de acuerdo con la siguiente fórmula:

Donde: N = máximo nivel de intensidad i que puede alcanzar M = conteo de ocurrencias por categoría

2.3.3.2 Peligro y probabilidad de ocurrencia de CT P(i)

Para calcular el peligro se consideraron las 7 intensidades con las cuales se calcularon las tasas de excedencias. El cálculo de k se hace con la siguiente ecuación:

Donde: P = probabilidad o peligro de ocurrencia v(i) = tasas de excedencias k = es una constante que se calcula como sigue:

Se simplifcó el cálculo como sigue:

El valor calculado para la probabilidad por categoría de CT indica el porcentaje de que pueda ocurrir un evento dada la tasa de excedencia por intensidad (v(i)) para el periodo de tiempo analizado. Así, un alto valor de P(i) para intensidades bajas indica una alta probabilidad de que no pase a una categoría mayor de CT (ver Tabla 2 que hace referencia a las intensidades de CT). Esto es considerando el total de CT para el mismo cuadro (registro). Por ejemplo: si para P(1) con 17 pasos de trayectos con categoría de depresión tropical (DT) y para tormenta tropical (TT) de 4, se obtiene un valor de P(1) de 0.81 y para P(2) un valor de 0.19, la ocurrencia de CT solo tiene el

19% de probabilidad de que pase de DT a TT de acuerdo con su tasa de excedencia. Por lo tanto, en este ejemplo el peligro es bajo.

2.3.3.3 Periodo de retorno Tr(i)

El periodo de retorno se defne, de acuerdo con Eslava et al. (2006, p. 288) “como el promedio de tiempo en que vuelve a ocurrir la excedencia de cierta intensidad i”. El cálculo se obtiene por el recíproco de la tasa de excedencia de acuerdo con la siguiente fórmula:

Donde: Tr = periodo de retorno i = intensidad v(i) = tasa de excedencias de la intensidad i

2.3.4 Empirical Bayesian Kriging (EBK)

De acuerdo con Farina et al. (2016, p. 132) “en general el término kriging se refere a un grupo de métodos de interpolación geoestadística en los que el valor en una ubicación no observada se predice por los valores en ubicaciones circundantes, utilizando pesos de acuerdo con un modelo que describe la correlación espacial”.

El kriging es de los métodos de interpolación más usados. Es una técnica de interpolación geoestadística que devuelve la mejor predicción lineal insesgada de los datos intermedios y evita los efectos de grupo (Zou et al., 2015). Sin embargo, es un método que no considera la incertidumbre respecto de la distribución (o transformación) y en la estimación de la función de covarianza de los datos. Esto es porque asume que la distribución de datos a analizar es gaussiana, pero el comportamiento de muchos fenómenos espaciales no es gaussiano (Pilz y Spöck, 2008). Por otro lado, el kriging

asume la estructura de correlación defnida por la estimación del semivariograma, que es difícil de establecer en la práctica (Zou et al., 2015).

Para Zou et al. (2015) y Pilz y Spöck (2008), la estadística o enfoque bayesiano proporciona un enfoque estadísticamente sólido para modelar las incertidumbres con respecto a la distribución desconocida y los parámetros de las muestras de entrada. El Kriging Bayesiano Empírico (EBK) combina el teorema de Bayes y la interpolación de kriging y explica el error en estimar el verdadero semivariograma a través de simulaciones iterativas. El algoritmo de ESRI (2020) calcula el semivariograma de los datos de localidades conocidas, este proceso implícitamente asume que el semivariograma estimado es el verdadero semivariograma para la región (subconjunto de datos) interpolada. Al no tomar en cuenta la incertidumbre del semivariograma estimado en la contabilidad, otros métodos subestiman los errores de predicción estándar. Lo anterior es explicado por Zou et al. (2015) y por Krivoruchko (2012) (como se citó en Farina et al., 2016) para el funcionamiento del algoritmo de EBK como se describe a continuación:

1. Se crea un semivariograma usando (n-1) datos. De acuerdo con ESRI (2020) es en subconjuntos de 100 que es modifcable. 2. Usando este semivariograma, se simula un nuevo valor en cada uno de los n-1 ubicaciones de datos de entrada. 3. Se estima un nuevo modelo de semivariograma a partir de los datos simulados. 4. Es entonces calculado un peso para este semivariograma utilizando la regla de Bayes, que indica la precisión del semivariograma para simular los datos observados.

El método de EBK ha sido usado por varios autores con muy buenos resultados. Zou et al. (2015) comparó el EBK y ordinary kriging (OK) mostrando que las tasas de subsidencia interpoladas de EBK están más cerca de estudios previos que los valores derivados de OK. Al respecto Zou et al. (2015, p. 12) concluye que “en comparación con OK, las tasas de hundimiento obtenidas por EBK tienen acuerdos más altos con hallazgos publicados anteriormente”. Farina et al. (2016) usaron el EBK

para interpolar datos de carbón orgánico del suelo (SOC), mencionan que “EBK representa la incertidumbre de las estimaciones, como también lo requieren los procedimientos del IPCC para estimar las existencias de SOC” (p. 132). Inclusive en estudios de salud humana para enfermedades como la Podocoinosis en donde hicieron la comparación entre varios métodos de interpolación, concluyen que el EBK funcionó mejor (Gislam et al., 2020).

Las ventajas por las cuales se eligió el EBK son:

● Los errores estándar de predicción son más precisos que otros métodos de kriging. ● Es más preciso que otros métodos de kriging para pequeños conjuntos de datos. En el caso de esta investigación son 300 datos que corresponden con los centros geométricos (centroides) de la malla de 1° x 1°.

La ocurrencia de un CT es completamente al azar por ello los datos obtenidos no son estacionarios. Es decir que se asume que todos los valores de v(i), P(i) y Tr(i) son resultado de procesos al azar. Para encontrar los subconjuntos de datos se usó la búsqueda en el vecindario de las opciones de interpolación Standard Circular y Smooth Circular.

2.3.5 Analytical Hierarchical Process (AHP)

Uno de los procedimientos de Métodos de Evaluación y Decisión Multicriterio (MEDMC) son los Procesos Jerárquicos Analíticos (AHP por sus siglas en inglés) propuesto por Saaty (1977). Este requiere del cálculo de factores ponderados para auxiliarse de una matriz de preferencias donde se identifcan todos los criterios relevantes que son comparados uno contra otro con factores reproducibles de preferencia (Marinoni, 2004; Saaty, 1984; Wind y Saaty, 1980). Saaty, Roger y Pell (1988) describen al AHP como la forma de “desmenuzar un problema y luego unir todas las soluciones de los subproblemas en una conclusión” (como se citó en Martínez, 2007, p. 527).

El método de AHP ha sido extensivamente usado en la evaluación de amenazas, vulnerabilidad y riesgo. Mondal y Maiti (2013) basan su metodología para desarrollar un modelo espacial de susceptibilidad a los deslizamientos de tierra en una cuenca en el Himalaya usando el AHP para descomponer, comparar juicios y sintetizar las prioridades de los variables del relieve como factores que pueden disparar un evento. A partir del AHP, se generaron lo que llamaron un valor de clasifcación del factor priorizado (PFRV por sus siglas en inglés). Pardeshi, Autade y Pardeshi (2013) realizaron una revisión de las tendencias y de las técnicas en la evaluación de las amenazas de deslizamientos de tierra. Mencionan brevemente la base metodológica del AHP. Adicionalmente, discuten sus resultados que comparando con la regresión logística (LR) y con mapas de la actividad de deslizamientos, se encontró que los mapas generados con AHP se ajustan mejor que los producidos por LR. En otros estudios se han usado para generar escenarios que requieren comparar múltiples criterios y un objetivo, como es el Galacho Jiménez y Arrebola Castaño (2010) para evaluar los senderos según las condiciones físicas del terreno en el Parque Natural Sierra de las Nieves en Málaga, España. En el cual hacen uso de las matrices de comparación pareada con la escala de asignación de juicios del AHP.

Saaty (1980) propuso para realizar la comparaciones pareadas entre criterios o variables una escala que va del 1 al 9 de acuerdo a la cual se establece su prioridad en función del grado de importancia que tienen respecto del objetvo propuesto. Los números nones se aplican directamente de acuerdo con la escala verbal de la Tabla 3 y los números pares referen a los valores intermedios entre los juicios adyacentes. La técnica consiste en aplicar una generalización del método de eigenvectores para determinar los pesos de una variable a través de una matriz de comparación pareada (Saaty, 1995).

Tabla 3. Escala de Saaty (1980) para establecer la escala de preferencias.

Escala numérica Escala verbal, explicación

1

3

Ambos elementos son de igual importancia. Ambos elementos contribuyen con la propiedad en igual forma. Moderada importancia de un elemento sobre otro. La experiencia y el juicio favorece a un elemento por sobre de otro. 5 Fuerte importancia de un elemento sobre otro. Un elemento es fuertemente favorecido. 7 Muy fuerte importancia de un elemento sobre otro. Un elemento es muy fuertemente dominante. 9 Extrema importancia de un elemento sobre otro. Un elemento es favorecido, por lo menos con un orden de magnitud de diferencia. 2, 4, 6, 8 Valores intermedios entre dos juicios adyacentes. Usados como valores de consenso entre dos juicios.

2.3.5.1 Escenarios de vulnerabilidad de CT

La amenaza de los CT a los pastos marinos y en general a la vegetación acuática sumergida (VAS) es por lo potencialmente perjudicial que estos fenómenos pueden causar a sus comunidades y poblaciones por una probable degradación ambiental. El peligro de que se presenten CT de intensidad mayor y con más frecuencia se evaluó para determinar la susceptibilidad de los pastos marinos y es lo que se defne como la vulnerabilidad en función de la amenaza (peligro) que representan los CT de acuerdo con su intensidad. Las amenazas son cada una de las categorías de CT consideradas por la intensidad de los vientos como se explica en el subcapítulo 2.3.3. Aquí, se considera a los peligros (P(i)) como las amenazas con las cuales se generó el escenario de vulnerabilidad a través del uso de una combinación lineal ponderada (WLC) con las capas interpoladas por intensidad y categoría, siguiendo el proceso que se menciona en el inciso anterior. Para calcular la ponderación se usó la técnica de AHP (Saaty, 1995).

2.3.5.2 Integración de peligro de CT y periodo de retorno de CT

Las amenazas por CT tienen dos parámetros de acuerdo con la metodología que se usó en esta investigación el primero es la P(i) que es el peligro o probabilidad de

que ocurra un CT de cierta intensidad que resultaron en un alto valor para intensidades menores como son las depresiones o tormentas tropical, lo que conlleva una baja probabilidad de pasar a la siguiente categoría. En otras palabras, dada una probabilidad alta, la tasa de excedencia es baja para pasar a la siguiente categoría de velocidad de vientos máximos. El segundo es el periodo de retorno de los CT que se denomina Tr(i), dice el número de años que pueden pasar para que ocurra un CT de cierta categoría. Si la Tr(i) da por resultado un número de años alto, indican que no ocurren en periodos de tiempo cortos y pocos años, indican que ocurren con alta frecuencia temporal. Para interpretar correctamente ambos parámetros, se desarrolló un método que los integra. Se usó una sobre posición espacial por combinación pareada de capas por su intensidad.

CAPÍTULO 3. METODOLOGÍA

3.1 Zona de estudio

La zona de estudio se encuentra en las partes costeras de la de península de Yucatán en el Sureste de México. Su posición geográfca se encuentra aproximadamente entre los 22° 00’ de latitud Norte y 92° 00’ de longitud Oeste a los 18° de latitud Norte y 86° 30’ de longitud Oeste (Mapa 1). La península de Yucatán presenta una conformación diferente al resto de la república de México ya que es predominantemente plana y la litología dominante es la de calizas que permiten la infltración de la precipitación pluvial y son especialmente susceptibles a la dilución formado Karst. Otra característica particular es la formación de cenotes que son “dolinas o depresiones kársticas de colapso que se presentan en el fondo un lago originado por agua subterránea” (Lugo, 2011, p. 68). En cuanto a la zona costera, la península de Yucatán que da a la vertiente del golfo de México se caracteriza por una plataforma continental extensa con profundidades someras. Esto la hace propicia para el desarrollo de comunidades de pastos marinos. La península de Yucatán carece de un sistema profuso de drenaje. El drenaje es subterráneo de profundidades someras que se alimenta de la abundante precipitación de la península de Yucatán que va de los 1,100 mm a los 1,500 mm del sur al este (Bryant et al., 1991). En la vertiente de la península de Yucatán al Mar Caribe, solo se contempla la porción de Cabo Catoche en el estado de Quintana Roo.

El clima de la zona costera de la península de Yucatán, de acuerdo con las normales climáticas de 1981 a 2010 del Servicio Meteorológico Nacional-CONAGUA (2021), presenta una temperatura promedio de 26.4°C. El máximo de temperatura se da en mayo y el mínimo en enero (Figura 3). La variación entre la temperatura mínima y máxima es de 5.1°C. La precipitación promedio anual de las estaciones de la costa de la PY es de 922 mm. La mayor precipitación promedio anual (PPA) se presenta en las estaciones de El Carmen, Isla Aguada, Sabancuy y Campeche con más de 1,000 mm y disminuye en dirección norte en las estaciones de Isla Arena, Celestún y Sisal hasta llegar a los 525 mm. En la zona costera norte de Yucatán las estaciones

de Chicxuluc, Telchac, Dzilam de Bravo y Ría Lagartos no pasa de los 750 mm de PPA. Los meses de mayor PPA van de mayo a octubre que son los seis meses de la temporada lluvias (Figura 3). La PPA que se presenta en los meses de noviembre a febrero es producto de los nortes que ocurren anualmente debido a la entrada de frentes fríos en el golfo de México.

Mapa 1. Mapa de ubicación de la zona de estudio. Fuente de las capas de vías de comunicación, nombre de los estados, ciudades principales y topónimos son de ESRI, Garmin, USGS, NPS. La fuente de las capas de batimetría, modelo digital sombreado de batimetría, modelo digital sombreado de las tierras del continente para México y límites de países de Norteamérica son de CICESE-CIGOM (2018).

This article is from: