7 minute read

2.2.4 Fotogrametría

33

espectrales (Chuvieco, 2016). Esta misión tiene una mayor resolución temporal ya que permite obtener información de la superficie de la tierra con una frecuencia de 5 días, lo cual constituye una ventaja para sus aplicaciones en el monitoreo del comportamiento de los cultivos. Adicionalmente las imágenes están disponibles de manera gratuita. En la tabla 1 se presentan las características de las imágenes de acuerdo a las bandas espectrales, su longitud de onda y resolución espacial.

Advertisement

Tabla 1. Características de las imágenes de SENTINEL-2

Banda Espectral

Banda 1: Costero/ aerosol Banda 2: Azul Banda 3: Verde Banda 4: Rojo Banda 5: visible e infrarrojo cercano Banda 6: visible e infrarrojo cercano Banda 7: visible e infrarrojo cercano Banda 8: visible e infrarrojo cercano Banda 8A: visible e infrarrojo cercano Banda 9: vapor de agua Banda 10: cirrus Banda 11: Onda corta infrarroja Banda 12: Onda corta infrarroja

Sensor

VNIR VNIR VNIR VNIR VNIR VNIR VNIR VNIR VNIR

VNIR SWIR SWIR SWIR

Longitud de onda central (nm) 443 490 560 665 705 740 783 842 865

940 1375 1610 2190

Resolución espacial (m)

60 10 10 10 20 20 20 10 20

60 60 20 20

-Las imágenes del satélite Sentinel-2A y Sentinel-2B poseen las mismas características. Adaptada de ESA (S.F.)

2.2.4 Fotogrametría

La fotogrametría es definida por Torres y Villate (2013), como la técnica de obtener información cuantitativa y cualitativa a partir de fotografías aéreas, permite realizar mediciones precisas a partir de fotografías tomadas usando ciertas reglas. Mientras

34

tanto Doumit. (2018) la define como el arte, ciencia y técnica de obtener información confiable de los rasgos físicos de los objetos y del ambiente, a través de procesos de almacenamiento, medición e interpretación de la energía electromagnética radiante y otros fenómenos.

La fotogrametría puede dividirse en fotointerpretación (interpretación fotográfica) y fotogrametría métrica. La fotointerpretación tiene por objeto el reconocimiento de objetos a partir del análisis de factores como la forma, textura, tamaño, tono, sombra y patrón de la imagen (Torres y Villate, 2013).

La fotogrametría métrica tiene su aplicación en la determinación de distancias, elevaciones, áreas, volúmenes, perfiles y secciones transversales, así como en la elaboración de mapas topográficos o modelos de elevación digital con base en mediciones hechas en las fotografías. En esta aplicación se utiliza, principalmente, la fotografía aérea obtenida con cámaras situadas en aviones o UAS, y en casos especiales se emplea la fotografía terrestre realizada con cámaras ubicadas en tierra (Torres y Villate, 2013).

Algunos autores engloban la fotogrametría dentro de la teledetección, mientras que otros se refieren con el término teledetección a las tecnologías más actuales y las consideran disciplinas distintas aunque muy relacionadas y estas a su vez con los SIG, encontrando la principal diferencia en sus aplicaciones ya que la fotogrametría produce mapas de objetos tridimensionales, los sensores remotos principalmente analiza e interpreta la información reflejada por la superficie terrestre. No obstante junto con la fotogrametría aérea aparece la fotogrametría espacial, encargada de operar sobre imágenes de satélite bajo unos principios similares (Olaya, 2020; Campbell y Wynne, 2011)

La fotogrametría es una disciplina de la ingeniería basada en técnicas tradicionales, sin embargo actualmente ha sido fuertemente influenciada por el desarrollo de las ciencias de cómputo y electrónicas. Aunque las modernas técnicas digitales fotogramétricas usadas actualmente son muy variadas (Doumit, 2018; Konecny, 2014), se basan en el método tradicional de fotogrametría que utiliza la

35

visión estereoscópica para percibir profundidad. Debido a que las fotografías aéreas proporcionan sólo una vaga impresión del relieve, usando la estereoscopía se puede producir una imagen tridimensional. Dicha imagen tridimensional la obtiene el ser humano con su visión normal debida al hecho de que posee dos ojos apartados unos 6 cm, cada ojo es capaz de presentar al cerebro una perspectiva ligeramente diferente del objeto que está siendo observado. De las diferencias en perspectiva entre estas dos imágenes, el cerebro es capaz de evaluar la profundidad y construir una imagen tridimensional. Este es el principio básico implicado en el uso de dos fotografías aéreas adyacentes con un solapamiento considerable (un par estéreo) y un esteroscopio para producir una imagen tridimensional (Butler, LeBlanc, Belbin, y MacNeill, 1990).

Para obtener datos que representen un área de interés, se adquiere una combinación de fotografías superpuestas tomadas de diferentes lugares a la misma distancia del terreno, proporcionando múltiples puntos de vista para cada punto observado. Posteriormente, las fotografías se procesan en un equipo de cómputo para generar un modelo digital (Doumit, 2018; Konecny, 2014).

La Figura 2 muestra cómo se realiza la toma de fotografías necesaria para realizar el proceso de fotogrametría. Las líneas azules representan la extensión del área capturada por cada imagen aérea, mostrando la superposición necesaria para la reconstrucción fotogramétrica de un punto visto desde múltiples perspectivas.

36

Procesar fotografías aéreas para producir modelos 3D, DEM y ortofotos es un proceso que se visualiza mejor como una serie de pasos incrementales donde cada paso depende de pasos anteriores como se ilustra en la figura 3.

Figura 2. Esquema de captura de imágenes para fotogrametría (Wintra, S.F.)

Figura 3. Flujo típico de procesamiento fotogramétrico digital, adaptado de Toffanin (2019).

37

La técnica de fotogrametría de estructura del movimiento (SFM por su sigla en inglés) es un método de reconstrucción 3D basado en fotografías que capturan el mismo objeto desde diferentes puntos de vista, el método SFM puede calcular la posición de la cámara en el momento de la captura de la fotografía, su orientación y geometría, proporcionando una reconstrucción digital de las ubicaciones de la cámara en el momento de adquisición de imágenes y crea un modelo 3D en la escena observada. La precisión resultante de los algoritmos SFM en fotogrametría está limitada por factores como superposición de imágenes, textura de la superficie, resolución de las fotografías, cambios de iluminación, geometrías de adquisición, trayectoria de la plataforma, perturbaciones por viento fuerte durante la recolección y la irregularidad del terreno (Toffanin, 2019; Doumit, 2018).

Durante el proceso SFM, la perspectiva y las distorsiones de la lente inherentes a la cámara pueden ser corregidas debido a que la posición y la orientación de la cámara (orientación externa), longitud focal y parámetros de distorsión radial para cada fotografía (orientación interna) son calculados (Doumit, 2018).

La técnica multi-vista estéreo (MVS por su sigla en inglés) reúne el trabajo realizado por SFM que se enfoca en estimar la posición de la cámara, y une la fotogrametría y la visión por computadora para generar densas nubes de puntos 3D que representan la superficie observada, según la posición conocida y parámetros de las cámaras que se capturaron de las fotografías (Toffanin, 2019).

Cuando la escena 3D ha sido reconstruido con ubicaciones de puntos a lo largo de la superficie observada, las imágenes originales son proyectadas y fusionadas (mosaico) en el modelo digital de superficie (DSM por su sigla en inglés) que ha sido generado para producir una imagen libre de distorsiones con una escala uniforme denominada ortomosaico. El ortomosaico presenta una fotografía que recrea la

38

escena como si hubiera sido capturada exactamente desde la vista superior en cada punto de la misma.

El proceso de georreferenciado permite utilizar la fotografía capturada con el UAS en un GIS para que puedan sobreponerse sobre otras capas de datos según la posición y características geográficas conocidas.

La calidad de un modelo aumenta cuando se utilizan más fotos, es decir, las características se capturan desde perspectivas más diversas (Konecny, 2014). Sin embargo, recopilar más fotografías aumenta el tiempo de recolección y procesamiento y en consecuencia los costos (Bendig et al., 2015). Típicamente la trayectoria de vuelo que cubre toda el área en direcciones perpendiculares mejora la reconstrucción del modelo 3D. Las rutas de vuelo cruzadas aumentan el número de imágenes tomadas de la misma área mejorando la distribución de las imágenes, equilibrando los diferentes brillos capturados desde diferentes ángulos y ayudando a reconstruir mejor la naturaleza tridimensional de los objetos (Toffanin, 2019; Doumit, 2018). Sin embargo algunos algoritmos como el SFM producen resultados más exactos al capturar fotografías desde dos diferentes elevaciones, usando el modo de cámara nadir (mirando hacia abajo) y modo cámara no-nadir (con un ángulo de inclinación), al combinar los dos patrones de captura a dos diferentes alturas y con variación de ángulo de la cámara permiten afinar los resultados (Toffanin, 2019).

Actualmente hay disponible una variedad de software de fotogrametría comerciales y no comerciales para procesar fotografías aéreas. Entre los comerciales se encuentran Pix4Dmapper de la empresa Pix4D, Metashape de la empresa Agisoft, Drone2Map de Environmental Systems Research Institute (ESRI), DroneDeploy de la empresa con el mismo nombre, entre los software de código abierto se encuentran MicMac por los franceses Instituto Nacional Geográfico y Escuela Nacional de Ciencias Geográficas y WebODM del consorcio Open Drone Map, Airphoto SE de la universidad de Colonia en Alemania, Fiji y ImageJ del Instituto

This article is from: