Procesamiento digital de imágenes obtenidas con dron ...

96
Procesamiento digital de imágenes obtenidas con dron mediante el uso de software libre Carlos Iván Sánchez Ariza Anderson Calderón Muñoz Universidad Distrital Francisco José de Caldas Facultad de Medio Ambiente y Recursos Naturales Bogotá D.C., Colombia 2020

Transcript of Procesamiento digital de imágenes obtenidas con dron ...

Procesamiento digital de imágenes

obtenidas con dron mediante el uso

de software libre

Carlos Iván Sánchez Ariza Anderson Calderón Muñoz

Universidad Distrital Francisco José de Caldas

Facultad de Medio Ambiente y Recursos Naturales

Bogotá D.C., Colombia

2020

Procesamiento digital de imágenes obtenidas con dron mediante el uso

de software libre

Carlos Iván Sánchez Ariza Anderson Calderón Muñoz

Proyecto de grado como requisito parcial para optar al título de:

Ingeniero Topográfico

Director (a):

Ing. Esp. Msc. William Barragán Zaque

Línea de Investigación: Fotogrametría

Universidad Distrital Francisco José de Caldas

Facultad de Medio Ambiente y Recursos Naturales

Bogotá D.C., Colombia

2020

Resumen y Abstract V

Resumen

En el mundo actual la gran practicidad y precisión de los drones (Sistema de aeronave

pilotada remotamente) frente a técnicas clásicas, ha aumentado su empleo en variedad

de aplicaciones y funciones. Los convierte en una alternativa óptima, pues su uso ofrece

un punto de vista antes inalcanzable. Además, la facilidad de llegar a sitios de difícil acceso

para obtener o recolectar información a menor costo y tiempo. En el ámbito de la Ingeniera

Topográfica es imprescindible conocer los tipos de drones y el uso adecuado de estos, el

desarrollo de proyectos relacionados con la recolección y análisis de datos. Así mismo, es

necesario resaltar que la calidad en las imágenes refleja un procesamiento apropiado,

proceso que se plantea ejecutar mediante el uso de software libre (MicMac).

Palabras clave: Software libre, MicMac, Remotely Piloted Aircraft System, Modelos 3D,

Ortofotomosaico, RPAS.

VI Procesamiento digital de imágenes obtenidas con dron

Abstract

In the current world, the high practicality and accuracy of drones (Remotely Piloted Aircraft

System) in relation to classical techniques has increased their use in a variety of

applications and functions. It makes them an optimal alternative, since their use offers a

previously unattainable. In addition, the ease of reaching hard-to-reach places to obtain or

collect information at a lower cost and time. In the field of Topographic Engineering, it is

essential to know the types of drones and their proper use, the development of projects

related to data collection and analysis. Likewise, it is necessary to highlight that the quality

of the images reflects an appropriate processing, a process that is proposed to be executed

through the use of free software (MicMac).

Keywords: Free software, MicMac, Remotely Piloted Aircraft System, 3D Models,

Orthophotomosaic, RPAS.

Contenido VII

Contenido

Pág.

Resumen ......................................................................................................................... V

Abstract.......................................................................................................................... VI

Lista de figuras .............................................................................................................. IX

Lista de ecuaciones ...................................................................................................... XI

Introducción .................................................................................................................... 1

1. Estado del arte o antecedentes ............................................................................... 3

2. Formulación del problema de investigación .......................................................... 7 2.1 Pregunta de investigación ................................................................................ 7 2.2 Justificación ..................................................................................................... 7

3. Objetivos ................................................................................................................... 9 3.1 Objetivo general............................................................................................... 9 3.2 Objetivos específicos ....................................................................................... 9

4. Marco teórico .......................................................................................................... 11 4.1 Cartografía ..................................................................................................... 11

4.1.1 Mapas ................................................................................................. 12 4.1.2 Proyección Cartográfica ...................................................................... 13

4.2 Fotogrametría ................................................................................................ 15 4.2.1 Fotogrametría analógica ..................................................................... 16 4.2.2 Fotogrametría analítica ....................................................................... 16 4.2.3 Fotogrametría digital ........................................................................... 17 4.2.4 Método general de la fotogrametría ..................................................... 18 4.2.5 Forma en que funcionan los programas de fotogrametría ................... 20

4.3 Aerotriangulación ........................................................................................... 21 4.3.1 Aerotriangulación por modelos independientes ................................... 22 4.3.2 Determinación de las coordenadas de los centros de proyección. ...... 22 4.3.3 Puntos de control terrestre .................................................................. 24

4.4 Dron (RPAS) .................................................................................................. 25 4.4.1 Historia del dron .................................................................................. 26 4.4.2 Clases de drones ................................................................................ 27

4.5 Aplicación en la ingeniería topográfica ........................................................... 30 4.5.1 Modelo digital del terreno (DTM) ......................................................... 30

VIII Procesamiento digital de imágenes obtenidas con dron

4.5.2 Modelo digital de elevación (DEM) ...................................................... 30 4.5.3 Ortofotomosaico ................................................................................. 31 4.5.4 Procesamiento digital de imágenes .................................................... 32

4.6 MicMac .......................................................................................................... 33 4.6.1 Presentación ....................................................................................... 33 4.6.2 Aspectos Algorítmicos ........................................................................ 34 4.6.3 Recuperación de la estructura (SfM) ................................................... 35 4.6.4 Coincidencia de imagen estéreo de múltiples vistas (MVSM) ............. 36

4.7 Otros software libres ..................................................................................... 40 4.7.1 OpenDroneMap .................................................................................. 41 4.7.2 Meshroom ........................................................................................... 42 4.7.3 Regard 3D .......................................................................................... 42 4.7.4 Visual SFM ......................................................................................... 43 4.7.5 Colmap ............................................................................................... 44

5. Metodología ............................................................................................................ 45 5.1 Fase I: Planteamiento del problema de investigación .................................... 46 5.2 Fase II: Obtención de los datos ..................................................................... 47 5.3 Fase III: Procesamiento de la información ..................................................... 49

5.3.1 Instalación del software ...................................................................... 49 5.3.2 GUI para MicMac ................................................................................ 52 5.3.3 Búsqueda de puntos de enlace ........................................................... 53 5.3.4 Post-Proceso puntos de control .......................................................... 57 5.3.5 Orientación interna y orientación relativa ............................................ 63 5.3.6 Orientación absoluta ........................................................................... 67 5.3.7 Generación de productos .................................................................... 74

5.4 Fase IV: Análisis de los datos ........................................................................ 83 5.4.1 Impacto ............................................................................................... 83 5.4.2 Limitaciones ........................................................................................ 84

6. Conclusiones y recomendaciones ....................................................................... 85 6.1 Conclusiones ................................................................................................. 85 6.2 Recomendaciones ......................................................................................... 85

A. Anexo: Tutorial MicMac ......................................................................................... 87

Bibliografía .................................................................................................................... 88

Contenido IX

Lista de figuras

Figura 4-1: Proyeccion cartográfica - Representación de la tierra. ................................. 13

Figura 4-2 Tipos de proyección ...................................................................................... 14

Figura 4-3: Estereoscopio de espejos ............................................................................ 16

Figura 4-4: Restituidor analítico universal Leica SD 2000 ............................................... 17

Figura 4-5: Esquema del método general de la fotogrametría. ....................................... 19

Figura 4-6: Nube de puntos. ........................................................................................... 20

Figura 4-8: Materialización Punto de control terrestre..................................................... 24

Figura 4-9: Posicionamiento punto de control terrestre ................................................... 25

Figura 4-10: Dron de ala fija ........................................................................................... 28

Figura 4-11: Dron ala rotatoria ........................................................................................ 29

Figura 4-12: Dron VTOL ................................................................................................. 29

Figura 4-13: Modelo digital de elevación ........................................................................ 31

Figura 4-14: Arquitectura simplificada de los módulos principales de MicMac. ............... 34

Figura 5-1: Fases metodológicas. Fuente: Elaboración propia (2020) ............................ 45

Figura 5-2: Ubicación sede Aduanilla de Paiba. Fuente: Mapas Bogotá ........................ 48

Figura 5-3: Antena GPS Trimble .................................................................................... 48

Figura 5-4: Ingreso a variables de entorno. .................................................................... 50

Figura 5-5: Propiedades del sistema. ............................................................................. 50

Figura 5-6: Variables de entorno. ................................................................................... 51

Figura 5-7: Editar variables de entrono. .......................................................................... 51

Figura 5-8: Verificación dependencias. ........................................................................... 52

Figura 5-9: GUI MicMac. ................................................................................................ 53

Figura 5-10: Ejecución comando XifGps2Txt. ................................................................. 54

Figura 5-11: Archivo Coordenadas.txt. ........................................................................... 55

Figura 5-12: Archivo RTLfromExif.xml. ........................................................................... 56

X Procesamiento digital de imágenes obtenidas con dron

Figura 5-13: Ejecución comando Tapioca. ...................................................................... 57

Figura 5-14: Ventana Startup. ......................................................................................... 58

Figura 5-15: Ventana para crear nuevo proyecto. ........................................................... 58

Figura 5-16: Importar datos. ............................................................................................ 59

Figura 5-17: Ventana de ocupación y panel de ocupación .............................................. 59

Figura 5-18: Establecer punto de control. ........................................................................ 60

Figura 5-19: Icono GPS + PostProcessing. ..................................................................... 60

Figura 5-20: Vectores de la red en color verde................................................................ 61

Figura 5-21: Icono Adjust network. .................................................................................. 61

Figura 5-22: Resultado del ajuste.................................................................................... 62

Figura 5-23: Reporte. ...................................................................................................... 62

Figura 5-24: Coordenadas de los puntos ajustados. ....................................................... 63

Figura 5-25: Ejecución comando Tapas. ......................................................................... 64

Figura 5-26: Ejecución comando Campari. ..................................................................... 65

Figura 5-27: Archivo AperiCloud.ply. ............................................................................... 67

Figura 5-28: Archivo GCP2.txt. ....................................................................................... 68

Figura 5-29: Archivo GCP2.xml. ...................................................................................... 68

Figura 5-30: Archivo IDGCP.txt. ...................................................................................... 69

Figura 5-31: Interfaz SaisieAppuisInitQT. ........................................................................ 70

Figura 5-32: Ejecución comando GCPBascule................................................................ 71

Figura 5-33: Ejecución comando ChgSysCo. .................................................................. 73

Figura 5-34: Visualización de las cámaras. ..................................................................... 74

Figura 5-35: Ejecución comando Tarama. ....................................................................... 75

Figura 5-36: Archivo TA_LeChantier.TIF (mascara). ....................................................... 76

Figura 5-37: Ejecución comando Malt. ............................................................................ 77

Figura 5-38: Ortofotomosaico. ......................................................................................... 78

Figura 5-39: Archivo Ort_DJI_0050. ................................................................................ 79

Figura 5-40: Archivo Correl_STD-MALT_Num_7. ........................................................... 80

Figura 5-41: Ejecución C3DC. ......................................................................................... 81

Figura 5-42: Archivo Nuage-Depth-DJI_0081.JPG_Masq. .............................................. 82

Figura 5-43: Modelo 3D. ................................................................................................. 83

Contenido XI

Lista de ecuaciones

Ecuación 4-1: Ecuación de coplaneidad. ........................................................................ 23

Ecuación 4-2: Ecuación de colinealidad. ........................................................................ 23

Ecuación 4-3: Dimensión de la coincidencia ................................................................... 38

Ecuación 4-4: Espacio de disparidad .............................................................................. 38

Lista de tablas

Tabla 4-1: Relación del sistema de coordenadas con el método general de la fotogrametría.

....................................................................................................................................... 20

Tabla 5-1 Diferentes software para procesamiento digital de imágenes obtenidas con dron

y su costo aproximado. ................................................................................................... 47

Introducción

El sentido de la vista del ser humano es uno de los mecanismos más poderosos que

existen. Este es capaz de detectar. Analizar y almacenar imágenes con un gran poder de

procesamiento. El procesamiento digital de imágenes consiste en alterar la información

visual para obtener mejores resultados o para aislar algunas características particulares

de las imágenes.

Los drones (Sistema de aeronave pilotada remotamente) se convirtieron en herramientas

versátiles para la toma de imágenes aéreas en diversos campos: cartografía, medio

ambiente, ingenierías, silvicultura, etc. Es importante conocer esta tecnología de fácil

acceso para emplearla en la tarea específica a desarrollar, en este caso particular en el

campo de la Fotogrametría y de la Ingeniería Topográfica en general. Cada día el manejo

de drones es más común desde todos los aspectos y diferentes actividades, se debe

resaltar que es importante analizar y comprender sus características y especificaciones,

dependiendo el tipo de práctica para el cual este destinado el dron. Con el gestor de datos

de vuelo; se puede pre-procesar, geo etiquetar y organizar las imágenes de vuelo.

Transformar las imágenes aéreas de alta resolución en un orto mosaico georreferenciado

(también conocido como ortofotografía). Las nubes de puntos individuales, con

coordenadas asignadas y un valor RGB. Se utilizan habitualmente en trabajos geométricos

y con CAD.

2 Introducción

Pero debido al software de procesamiento de imágenes comerciales que mantienen un

precio costoso para la mayoría de personas y sus funciones gratuitas son limitadas. Existen

diferentes elecciones a la hora de seleccionar un software que se ajuste a las necesidades

de cada usuario. Al margen de sus puntos fuertes, hay un elemento común: suponen una

inversión importante. Se busca que este proyecto de la solución al procesamiento de

imágenes de drones utilizando software libre (MicMac). Para la generación de cálculo de

puntos de conexión en la aero-triangulación, ortofotos, DEM; de esta manera, también

permite la georreferenciación de los productos finales en un sistema de coordenadas ya

sea local o global, estableciendo una alternativa para lo mencionado anteriormente.

Empleando este software de uso libre por medio de comandos ejecutables en la consola

de Windows se da otra salida al procesamiento digital de imágenes. Además, se genera

una documentación soportada que integre la metodología a seguir, familiarizando al lector

con el entorno de MicMac para los usos ya mencionados anteriormente.

1. Estado del arte o antecedentes

El manejo de las imágenes digitales se ha convertido en las últimas décadas en un tema

de interés extendido en diferentes áreas de las ciencias naturales, las ciencias médicas y

las aplicaciones tecnológicas entre otras. El crecimiento en el poder de cómputo, las

capacidades de almacenamiento y los nuevos sistemas de desplegado, captura e

impresión de bajo costo han facilitado el desarrollo de ésta disciplina.

Hace no mucho las posibilidades de los equipos de captura y procesamiento digital eran

bastante limitadas y los costos y tiempo de procesamiento prohibitivos. Ante lo cual en muy

pocas áreas se prestaba atención al potencial que las herramientas para el manejo de

imágenes digitales ofrecían. La explotación de éstas herramientas se había quedado

restringida a algunas secciones de investigación y el desarrollo de aplicaciones de software

se orientaba hacia problemas donde el presupuesto era exagerado. (Ortiz, 2013)

La fotogrametría es el arte, la ciencia y la tecnología para obtener información geométrica

sobre la forma tridimensional y la orientación de objetos a partir de imágenes y otros

sensores de imágenes. Es una metodología de medición barata, ya que puede ejecutarse

prácticamente con cualquier cámara digital de una marca decente. Es instantáneo ya que

captura los fenómenos observados de una vez y en una fracción de segundo, y altamente

automatizado, por lo tanto, accesible para usuarios no expertos. Gracias al campo de la

visión por computadora, la fotogrametría se rejuveneció y hoy se ubica entre otras técnicas

competitivas de detección remota (por ejemplo, LIDAR) (Granshaw & Fraser, 2015).

Los varios hitos que conducen a este progreso son la detección automatizada de puntos

de interés (Lowe, 2004). La Estructura del movimiento SfM (Structure from Motion)

algoritmos capaces de reconstruir escenas a partir de conjuntos de colecciones de

imágenes desordenadas (Snavely, Seitz, & Szeliski, 2006) y las técnicas de coincidencia

de imágenes densas que ofrecen modelos de superficie de resolución igual al tamaño de

píxel en el suelo (Pierrot-Deseilligny & Paparoditis, A multiresolution and optimization-

based image matching approach, 2006)

4 Procesamiento digital de imágenes obtenidas con dron

Todo esto contribuye a una visibilidad cada vez mayor de las herramientas fotogramétricas

en varios campos de la ciencia y la ingeniería, el creciente interés del mercado y,

posteriormente, una multitud de bibliotecas fotogramétricas / de visión por computadora y

soluciones de software, ya sea comercial o de código libre.

En la actualidad es posible explotar plataformas de bajo costo y obtener resultados de gran

calidad y crear aplicaciones de gran utilidad, versátiles y flexibles, así como aplicaciones

de software de propósito específico para atender las diversas necesidades de los

especialistas. (Rupnik, Daakir, & Pierrot Deseilligny , 2017)

Hasta la reciente aparición de los drones, la fotogrametría aérea, se realizaba con

imágenes satelitales o directamente desde helicópteros/avionetas. Cada método presenta

ventajas e inconvenientes, por lo que no existe una solución única para todo tipo de

trabajos:

Helicópteros: aunque pueden ofrecer una buena resolución (20/40 cm/píxel), son caros de

operar (costo/hora) y el procesamiento supone un gasto importante.

Avioneta: ofrece una resolución similar a los helicópteros, pero son más económicos

(costo/hora). Como en el caso anterior, es necesario estimar cuidadosamente los costos

de procesamiento ya que en la mayoría de casos supondrán costos elevados por proyecto.

Satélites: aunque no se trata de una tecnología excesivamente cara, ofrecen una

resolución muy baja para ese tipo de trabajos (1m por píxel). Otros problemas asociados

a esta tecnología son el tiempo de revisita y existencia de oclusiones (nubes).

Por otro lado, los drones para fotogrametría ofrecen rapidez, se habla de que en unas

pocas horas se puede disponer del mapa totalmente procesado, costos muy bajos a

comparación de las mencionadas anteriormente y mayor control en el resultado final. Por

otro lado, se vigila todo proceso del proyecto y se podrá decir la calidad del producto final,

obteniendo en cada trabajo más experiencia para agilizar y ser más eficaz en los trabajos

a futuro.

El control de calidad que se obtiene con este método es hacer uso de múltiples puntos de

control obtenidos con alta precisión mediante un GPS diferencial apoyado en un vértice

geodésico de la zona. A través de estos puntos de control se puede evaluar la precisión

obtenida en los trabajos. (Aerial Insights SL., 2019)

Capítulo 1 5

En la actualidad la tecnología de drones está transformando muchos campos en los que

la fotografía aérea es una alternativa para medición y procesamiento, en este caso mucho

más económico en tiempo y costo para obtener información topográfica, mediante

imágenes y aplicando técnicas fotogramétricas. Midiendo puntos de apoyo y procesando

las imágenes aéreas con un software en específico con el cual se pueden crear modelos

digitales de elevación, mosaicos orto rectificados y georreferenciados además de nubes

de puntos de alta resolución, modelos en 3D con precisión al centímetro que permiten el

cálculo de curvas de nivel, medición de áreas y volúmenes y diversos productos que

muestran la apariencia real del terreno. La utilización de drones permite, además, realizar

tareas a baja altura, grabando en tiempo real y facilitando el relevamiento de zonas

peligrosas o de difícil acceso y superar obstáculos diversos, de forma automatizada y sin

poner en riesgo la seguridad personal. En la actualidad existen con una gran variedad de

formas, tamaños y características en función del uso al que estén destinados. (Ferreira &

Aira, 2017)

2. Formulación del problema de investigación

2.1 Pregunta de investigación

¿Qué tanta utilidad y que nivel de complejidad puede tener el realizar procesamiento digital

de imágenes obtenidas con dron para obtener productos cartográficos con software libre

teniendo en cuenta su desarrollo y aplicación de manera que pueda convertirse en una

alternativa eficaz y competitiva en la actualidad?

2.2 Justificación

La realización de productos cartográficos a través de la obligación del mercado actual por

manejar software comercial, brinda una oportunidad de innovar y buscar una solución

confiable y eficaz de suplir dicha necesidad. Se busca generar una alternativa a los

diferentes productos finales cartográficos, entre los cuales se destaca el procesamiento de

imágenes de dron. Para el cual se hará uso un software libre (MicMac) proporcionado un

valor agregado a las diferentes personas, empresas o todo aquel interesado en el proceso,

para ejecutar en algunos de los diversos campos. En un balance con los productos finales

del uso de software comercial; se expondrá las ventajas, dificultades que nazcan en la

realización de los productos cartográficos terminados. Pretendiendo incrementar el interés

en el manejo libre de software como un objetivo secundario del proyecto.

La problemática abordada en este proyecto de investigación, será demostrar la dificultad

de utilizar un software libre sin previos conocimientos del mismo, con el fin de realizar

procesamiento de imágenes obtenidas con dron.

3. Objetivos

3.1 Objetivo general

• Realizar procesamiento digital de imágenes obtenidas con dron mediante el uso de

software libre

3.2 Objetivos específicos

• Generación de flujo de trabajo para realizar el procesamiento digital de imágenes

con el software de uso libre MicMac, por medio de comandos ejecutables en la

consola de Windows

• Establecer una alternativa para el procesamiento digital de imágenes con el uso de

software libre.

• Generación de una documentación totalmente soportada que integre las fases de

la metodología a seguir

4. Marco teórico

4.1 Cartografía

Desde hace siglos, el hombre se ha interesado por todo lo concerniente a la tierra en que vive.

En los tiempos más remotos se limitó, naturalmente, a las inmediaciones de su hogar; después

se extendió hasta la distancia de los mercados o lugares de intercambio y finalmente, con el

desarrollo de los medios de transporte, por el mundo entero. Siempre ha sido evidente la

especulación relativa a las dimensiones, la forma y la composición de la tierra. Por tal razón,

se debe reconocer a la cartografía, como una ciencia que está en proceso de desarrollo

técnico, pues cada día sus retos son más rigurosos y buscan entregar al usuario final datos

geográficos con calidad y eficiencia. (Aguirre, 1998)

La Cartografía es la ciencia que estudia los distintos sistemas o métodos para representar

sobre un plano una parte o la totalidad de la superficie terrestre, de forma que las

deformaciones que se producen sean conocidas y se mantengan dentro de ciertos límites o

condiciones, que dependen de las características que en cada caso se pidan a la

representación. Los métodos para representar gráficamente la Tierra sobre un plano o mapa,

necesitan de otras ciencias, como la Topografía y la Geodesia, capaces de determinar la

situación de los puntos de la superficie terrestre en ciertos sistemas de referencia.

Si la superficie a representar es de pequeña dimensión, puede considerarse ésta confundida

con el plano horizontal o tangente al esferoide terrestre en un punto central, sobre el cual se

proyectan los puntos singulares determinados mediante instrumentos que miden coordenadas

polares horizontales, ángulos y distancias (Teodolitos, taquímetros, etc.). Si la superficie es

de mayores dimensiones, no puede considerarse como un plano, sino como una superficie

esférica o elipsoidal convenientemente elegida, a la cual deben referirse las coordenadas

12 Procesamiento digital de imágenes obtenidas con dron

medidas utilizando los métodos de la Geodesia y la Topografía. Se utiliza como superficie de

referencia un elipsoide de revolución, cuyo eje es el de rotación terrestre, utilizándose entre

otros el internacional de Hayford, que tiene unos parámetros:

• Semieje ecuatorial a = 6 378 388 m • Semieje ecuatorial b = 6 356 911.946 m • Aplanamiento = 1 / 297

Sobre este elipsoide, los puntos determinados en el terreno por sus coordenadas horizontales

(acimut y distancia) se refieren a un sistema de coordenadas elipsoidales o geodésicas,

también llamadas “geográficas” que son la longitud y latitud.

Aquí empieza, en el proceso de la representación de la Tierra, el papel de la Cartografía o de

los “sistemas de representación cartográfica”, transformando las coordenadas curvilíneas

(longitud y latitud), en otras coordenadas planas, rectangulares o polares. Esta transformación

cartográfica se ocupa únicamente de la obtención de coordenadas planimétricas.

La tercera dimensión o altitud, se representa utilizando un método de Geometría descriptiva,

el “sistema acotado”, que emplea “cotas” y “curvas de nivel” y a veces tintas hipsométricas o

sombreados, que permiten ver más fácilmente el relieve. El objeto genérico de la Cartografía

consiste en reunir y analizar datos y medidas de las diversas regiones de la Tierra, y

representar éstas gráficamente a una escala reducida, pero de tal modo que todos los

elementos y detalles sean claramente visibles. (Santamaría, 2011)

4.1.1 Mapas

Un mapa es una representación convencional de la superficie terrestre, vista desde arriba, a

la que se añaden rótulos para la identificación de los detalles más importantes. Hay mapas en

los que se representa un determinado aspecto o elemento, como sucede, por ejemplo, con los

mapas pluviométricos, geológicos, demográficos, de vegetación, etc.

Por otra parte, los mapas suelen representar detalles que no son realmente visibles por sí

mismos, como, por ejemplo, las fronteras, los meridianos, los paralelos. Los mapas no se

Capítulo 4 13

limitan a representar la superficie de la Tierra. Hay mapas del firmamento, de la Luna..., y

también mapas geológicos del subsuelo. (Santamaría, 2011)

En el estudio y confección de un mapa se pueden considerar las partes siguientes:

• La escala • El sistema de proyección utilizado para representar el mapa • Los elementos a representar mediante símbolos (caminos, montañas) • La rotulación • El título • El recuadro • Detalles complementarios.

4.1.2 Proyección Cartográfica

Las proyecciones cartográficas son el método o sistema por el cual se representa gráficamente

la superficie curva de la tierra sobre una superficie plana.

Para tener claridad en esto, se debe entender cuál es la verdadera forma de la tierra y de

cómo esta se representa. Esto se puede observar en la Figura 4-1

Figura 4-1: Proyeccion cartográfica - Representación de la tierra.

Fuente: Elaboración propia (2020)

La tierra presenta una forma esférica deformada en gran cantidad de sus partes, no existe una

figura geométrica con la cual se puede representar adecuadamente, debido a esto es

necesario generar diferentes geoides y sistemas proyectados como se puede ver en la Figura

14 Procesamiento digital de imágenes obtenidas con dron

4-2 para realizar el mejor análisis posible. Buscando una representación simple pero útil, en

la cual se facilite la orientación, representación y vectorización de movimientos se lleva la tierra

a una representación esférica.

Figura 4-2 Tipos de proyección

Fuente: Elaboración propia (2020)

Después de definir la tierra como una esfera por su facilidad para representarla físicamente

se procede a estructurar, dividir, y caracterizar el espacio de este globo, este es organizado

según meridianos y paralelos los cuales subdividen la esfera terrestre de manera horizontal y

vertical.

Las divisiones verticales llamadas meridianos se intersectan todas en los dos polos de la

esfera, ubicados en la parte superior e inferior de esta. Los paralelos se ubican

transversalmente, y cada uno de estos nos permite realizar una medida de desplazamiento

entre ellos, dichas medidas se entregarán en grados y se llaman longitud y latitud

respectivamente.

Contando con las subdivisiones de la tierra se puede aspirar a la representación sobre

superficies planas, para esto se debe proyectar dicha esfera. Se busca llegar al sistema que

traslade los meridianos y paralelos desde una superficie curva hasta una plana.

En conocimiento de lo anterior se puede afirmar que las proyecciones surgen a partir de la

necesidad de convertir una esfera en un plano, esto se debe a que la esfera es un volumen y

se busca remodelarla en un plano de dos dimensiones lo cual causa gran cantidad de

distorsiones dependiendo el método usado para el anterior procedimiento. (Pachón, 2016)

Capítulo 4 15

4.2 Fotogrametría

La fotogrametría, según Bonneval, es la técnica que tiene como objetivo estudiar y definir con

precisión la forma, dimensiones y posición en el espacio de un objeto cualquiera utilizando

esencialmente medidas hechas sobre una o varias fotografías.

Etimológicamente, la palabra fotogrametría significa la métrica de lo escrito con luz. Es, en

esencia, la ciencia que utiliza la fotografía para hacer medidas, y su aplicación es extensiva a

numerosas áreas de conocimiento. Existe otra técnica que utiliza también fotografías aéreas

denominada fotointerpretación y que se dedica al estudio pormenorizado de las fotografías

con el objetivo de analizar fenómenos de muy variada tipología. (Quirós, 2014)

Actualmente, cualquier cartografía, así como los levantamientos topográficos de una cierta

magnitud, son realizados con técnicas de fotogrametría, a partir de fotografías aéreas. Si bien

el concepto está ampliamente ligado a la producción de cartografía, comprende un ámbito de

aplicación más amplio y se puede dividir en numerosas ramas que abarcan desde la

fotointerpretación hasta la teledetección. (Sánchez, 2006)

Sin embargo, la fotogrametría no interpreta fenómenos si no que, mediante mediciones en las

fotografías, genera planos y mapas de gran exactitud.

En conclusión, se puede definir la fotogrametría como la ciencia para elaborar mapas o planos

partiendo de fotografías realizadas bajo unos condicionantes específicos. (Quirós, 2014).

La fotogrametría es el arte, la ciencia y tecnología de obtener información verídica de objetos

físicos y su entorno a través de procesos de grabación, medición e interpretación de imágenes

fotográficas y patrones de energía electromagnética y otros fenómenos de la cual se divide

en:

• Fotogrametría analógica

• Fotogrametría analítica

• Fotogrametría digital

16 Procesamiento digital de imágenes obtenidas con dron

4.2.1 Fotogrametría analógica

Surge a partir de 1858 por el francés Laussedat, quien logra obtener planos exactos de

edificios y pequeñas extensiones de terreno a partir de la fotografía y esto dio pie para los

inicios de la fotogrametría realizada con estereoscopio de espejos, del cual se puede ver un

ejemplo en la Figura 4-3; que en su día se conoció con el nombre de fotogrametría ordinaria

y que ahora llamamos fotogrametría analógica. Con la invención del avión (1902) permitió unir

estas dos disciplinas y de ahí surge lo que hoy se conoce como fotogrametría analógica,

haciendo mucho más rentable la restitución de mapas topográficos. Las fotos que se

realizaban estaban limitadas generalmente a la fotogrametría terrestre. El avión se utilizó por

primera vez para uso topográfico en 1913. (CEUPE, 2018)

Figura 4-3: Estereoscopio de espejos

Fuente: Laboratorio de fotogrametría Universidad Distrital Francisco José de Caldas FAMARENA (2020)

4.2.2 Fotogrametría analítica

Surgen los primeros instrumentos electrónicos, que supuso una gran ayuda en el campo de la

fotogrametría. Las herramientas electrónicas para la fotogrametría sustituyeron a los

Capítulo 4 17

componentes mecánicos que realizaban las sustituciones, y a partir de entonces, muchas de

las operaciones realizadas manual o mecánicamente se empezaron a realizar por medio de

elementos electrónicos como el restituidor analítico universal que se puede ver en la Figura

4-4. En esta etapa puede destacarse que la toma de información es analógica y el modelado

geométrico es matemático. Mediante el uso de un mono-comparador o de un

estereocomparador integrado en el restituidor, se miden las coordenadas (X, Y) de los puntos

necesarios de las fotografías, coordenadas que son procesadas por los programas del

computador del sistema. (CEUPE, 2018)

Figura 4-4: Restituidor analítico universal Leica SD 2000

Fuente: Elaboración propia (2020)

4.2.3 Fotogrametría digital

Con la primera guerra mundial se empezó a implementar la aviación y la necesidad de ambos

bandos de obtener fotografías aéreas del campamento contrario. En la fotogrametría aérea la

cámara está en movimiento, y para poder efectuar la restitución, es preciso conocer el punto

exacto en que se capturo el fotograma. La revolución del soporte digital ha supuesto para la

fotogrametría cambios profundos en:

18 Procesamiento digital de imágenes obtenidas con dron

• Acceso a las imágenes: la naturaleza gráfica de las imágenes, y no solo la gráfica, sino

de cualquier banda del espectro electromagnético, implica que las fotos pueden ser

retocadas adaptándose a las necesidades requeridas, se puede re muestrear de forma

sencilla y sin involucrar complicados procesos químicos.

• Reformulación de disciplinas: todos los procesos asociados a la nueva imagen digital

y a sus nuevas formas de trabajar con ellas han provocado en la fotogrametría una

fusión de disciplinas. (CEUPE, 2018)

4.2.4 Método general de la fotogrametría

El Método General de la Fotogrametría (MGF) consiste en la obtención de los datos

tridimensionales de un modelo fotogramétrico, partiendo de información bidimensional de dos

fotografías correlativas.

Para llevar a cabo este método, serán necesarias dos fotografías tomadas desde dos puntos

de vista diferentes. De esta manera se reconstruye la forma de cada uno de los haces y su

ubicación en el espacio respecto a un sistema de referencia en concreto, y así, es capaz de

ofrecer coordenadas de cada uno de los puntos objeto. Para conseguir todo esto, se utiliza el

principio de visión estereoscópica que permite identificar los rayos homólogos de cada haz.

La orientación de un bloque fotogramétrico requiere seguir un proceso que consiste en dos

pasos. La primera parte e indispensable, es la realización de la orientación interna. En esta

fase se consigue el sistema de coordenadas imagen o foto-coordenadas y los puntos de

referencia que usa son las marcas fiduciales. Consiste en la determinación del haz perspectivo

de cada imagen. En la segunda parte se realiza la orientación externa, que consiste en

conocer la posición del fotograma en el espacio. Este paso puede dividirse en dos fases: la

orientación relativa y la absoluta como se puede evidenciar en la Figura 4-5.

En la segunda parte se realiza la orientación externa, que consiste en conocer la posición del

fotograma en el espacio. Este paso puede dividirse en dos fases: la orientación relativa y la

absoluta.

Capítulo 4 19

• Orientación relativa: Esta es la primera fase para la orientación externa y para ello se

usan los puntos de Von Guber, y el sistema de coordenadas que se consigue será el

sistema de coordenadas modelo. En definitiva, es la determinación de la posición

relativa de un haz respecto a otro, de tal forma que las intersecciones de los puntos

homólogos en la fotografía determinen los puntos del objeto.

• Orientación absoluta: Esta es la última fase a realizar en el Método General de la

Fotogrametría donde se realiza la nivelación y escalado del bloque en un sistema de

coordenadas terreno. En este caso se usan los puntos de apoyo y el sistema de

coordenadas que se obtienen son las coordenadas terreno. (Garcia & Ortiz, 2012).

Figura 4-5: Esquema del método general de la fotogrametría.

Fuente: Adaptado de Influencia del GSD (2012)

20 Procesamiento digital de imágenes obtenidas con dron

SISTEMA DE COORDENADAS TIPO ORIGEN UNIDADES RESULTADO DE:

Coordenadas instrumentales 2D Propio Propio Medida

Foto coordenadas 2D/3D Fotograma mm Orientación interna

Coordenadas modelo 3D Fotograma izquierdo mm Orientación relativa

Coordenadas terreno 3D General m Orientación

absoluta

Tabla 4-1: Relación del sistema de coordenadas con el método general de la fotogrametría.

Fuente: Adaptado de Influencia del GSD (2012)

4.2.5 Forma en que funcionan los programas de fotogrametría

La forma en que funcionan los programas de fotogrametría es la siguiente: Primero, el

programa registra automáticamente los puntos comunes compartidos entre cada imagen

fotografiada y luego calcula las distancias entre ellos en el espacio 3D. El resultado es una

nube de puntos como se ve en la Figura 4-6 que se puede transformar en una malla 3D.

Algunos programas más avanzados también proporcionan herramientas para limpiar la nube

de puntos y mejorar la calidad general.

Figura 4-6: Nube de puntos.

Fuente Elaboración propia (2020)

Capítulo 4 21

Para que estas herramientas de fotogrametría funcionen correctamente, necesitan datos

suficientes dentro de las imágenes. La técnica de estructura de movimiento hace uso de

características naturales como la corteza de un árbol y otras texturas densas. Otros programas

utilizan marcadores codificados. Estos marcadores son útiles para escanear objetos que no

tienen las características necesarias para procesar o que tienen una superficie reflectante y/o

transparente. Si se aplican correctamente, los marcadores codificados pueden producir una

mayor precisión que la técnica de estructura de movimiento.

La mayoría de los programas de fotogrametría están estrictamente diseñados para generar

una malla 3D de alta calidad o una nube de puntos. Sin embargo, algunos programas también

proporcionan sus propias herramientas de análisis dentro del espacio de trabajo para permitir

al usuario ejecutar mediciones, para realizar anotaciones en el mapa o enriquecer los datos.

Soluciones como ésta son utilizadas a menudo por empresas de infraestructura, silvicultura,

gestión de costas y organismos similares. (Übel, 2020)

4.3 Aerotriangulación

La aerotriangulación tiene por objeto obtener las coordenadas de diversos puntos del terreno

mediante los procedimientos de la fotogrametría.

Fue concebida para efectuar los levantamientos topográficos por medio de la fotografía,

reduciendo al mínimo los trabajos a realizar en campo. Necesita, no obstante, apoyarse sobre

puntos de posición conocida en el terreno y que tendrán que determinarse en campo por

métodos geodésicos y topográficos.

El objetivo de la aerotriangulación es obtener la posición del mayor número posible de estos

puntos de apoyos mediante operaciones fotogramétricas, reduciendo por tanto los trabajos a

realizar en campo.

Dentro del conjunto de tareas que conllevan las ejecuciones cartográficas por procedimientos

fotogramétricos se encuentra la fase de orientación absoluta, consistente en dar escala y

nivelar el modelo estereoscópico a partir de una serie de puntos de posición conocida.

Para grandes proyectos, el número de puntos de control (puntos de apoyo) necesarios es

enorme, y el precio de realización puede ser extremadamente alto si es realizado

22 Procesamiento digital de imágenes obtenidas con dron

exclusivamente por métodos de medición en campo. Muchos de estos puntos de control

necesarios se establecen rutinariamente por aerotriangulación, desde una escasa conexión

de control terrestre de trabajos de campo. Una más reciente innovación reside en el uso del

GPS cinemático en el avión para proveer de coordenadas a la cámara en el momento de cada

exposición. En teoría este método de control de GPS puede eliminar lo necesario para el

control terrestre, aunque en la práctica, una pequeña cantidad de control terrestre se usa

todavía para fortalecer la solución.

4.3.1 Aerotriangulación por modelos independientes

Este método tiene un desarrollo paralelo al avance de los medios de cálculo siendo uno de los

más utilizados. Se adapta a cualquier tipo de instrumento de restitución con tal que la precisión

en las medidas sea la adecuada.

Una vez finalizada esta fase se tendrá cada uno de los modelos con sistemas de coordenadas

diferentes. Suele utilizarse como origen de coordenadas de los modelos el respectivo centro

de proyección izquierdo.

La fase de cálculo consistirá en unir cada uno de los modelos mediante transformaciones

tridimensionales sucesivas de coordenadas, de forma que todos los puntos del bloque estén

referidos a un sistema de coordenadas único para poder proceder de todos los puntos (puntos

de control menor o complementarios) del bloque fotogramétrico considerado. (Pérez, 2001)

4.3.2 Determinación de las coordenadas de los centros de proyección.

Anteriormente se ha comentado que en el método de aerotriangulación por modelos

independientes se utiliza para realizar la conexión de modelos consecutivos, además de los

puntos de apoyo y de control menores (enlace y paso), los centros de proyección de los

respectivos modelos para asegurar una correcta unión de los mismos. Para calcular las

Capítulo 4 23

coordenadas de los centros de proyección hay que tener en cuenta el tipo de instrumento de

restitución que se va a emplear. En el caso de instrumentos de restitución analíticos, dichas

se obtienen directamente del algoritmo de cálculo (condición de coplaneidad o colinealidad)

(ver ecuación 1 y 2) utilizado una vez finalizada la fase de orientación en dos pasos

(orientación analítica relativa). (Pérez, 2001)

� = � ������������

��� = 0� é���� �� �� �������� ⇒, ��, �, ��, ��, �� é���� �� ��� !��� ⇒ ��, ��, ��, ��, ��, ��

Ecuación 4-1: Ecuación de coplaneidad.

Siendo:

bx, by, bz: Coordenadas centro de proyección

��, ��, �: Coordenadas de puntos homólogos de imagen

��, ��, �: Coordenadas de puntos homólogos de la segunda imagen

" = −� $11&" − "'( + $12&+ − +'( + $13&- − -'($31&" − "'( + $32&+ − +'( + $33&- − -'( + = −� $21&" − "'( + $22&+ − +'( + $23&- − -'($31&" − "'( + $32&+ − +'( + $33&- − -'(./0/1

⇒ "', +', -'

Ecuación 4-2: Ecuación de colinealidad.

Siendo:

X, Y: Coordenadas imagen del punto.

C: Distancia principal o focal de la cámara.

m11…m33: Elementos de la matriz de rotación M que da cuenta de los giros entre el sistema imagen y el sistema objeto.

24 Procesamiento digital de imágenes obtenidas con dron

4.3.3 Puntos de control terrestre

Un punto de control es un sitio físico en tierra del cual es conocida su posición respecto a un

sistema de coordenadas, y puede utilizarse como guía. (Cruz, 2008). Generalmente estos

puntos se establecen con la finalidad de ofrecer información de gran utilidad en los procesos

de georreferenciar objetos espaciales y/o fenómenos de interés de acuerdo a las

necesidades o naturaleza específica de cada proyecto, establece que para tener un

mayor control en la corrección plani-altimétrica de las imágenes, es necesario el

establecimiento de cinco (05) puntos, distribuidos en las esquinas y uno en el centro, esto con

la finalidad de obtener una mayor precisión al momento de efectuar el proceso de restitución,

ya que resulta arriesgado realizarla fuera de los límites que encierra el cuadrilátero que

une estos puntos. De igual forma poder corregir las inclinaciones longitudinales y transversales

de la fase de orientación absoluta (Pérez, 2001). A continuación se pueden ver unos ejemplos

de puntos de control terrestres en la Figura 4-7 y la Figura 4-8.

Figura 4-7: Materialización Punto de control terrestre

Fuente: Laboratorio de fotogrametría Universidad Distrital Francisco José de Caldas FAMARENA (2020)

Capítulo 4 25

Figura 4-8: Posicionamiento punto de control terrestre

Fuente: Laboratorio de fotogrametría Universidad Distrital Francisco José de Caldas FAMARENA (2020)

4.4 Dron (RPAS)

Las siglas RPA (Remotely Piloted Aircraft), que viene a ser traducido como aeronave pilotada

remotamente. Con esta palabra se refiere a un subconjunto de vehículos aéreos no tripulados

(VANT) o en ingles UAV (Unmanned Aerial Vehicle), generalmente conocido como drones.

Estos pueden volar de manera autónoma sin la intervención de nadie. En el caso de los RPA,

por el contrario, si están controlados necesariamente por alguien desde una estación remota.

Este control no tiene por qué ser el más estricto modo de vuelo manual como ocurre con los

tradicionales aparatos radio/control, si no que pueden hacer uso de sistemas de vuelo asistido

o pilotos automáticos, pero siempre con el seguimiento de una persona capaz de ejercer

mando sobre ellos en cualquier momento del vuelo.

Cuando se habla de RPAS (del inglés Remotely Piloted Aircraft System) se refiere al sistema

completo necesario para la operación de la aeronave, lo que incluye a la aeronave (RPA), la

26 Procesamiento digital de imágenes obtenidas con dron

estación de mando y control, los equipos de comunicaciones necesarios, etc. (Ortega, y otros,

2016)

4.4.1 Historia del dron

Los primeros usos registrados fueron realizados por los austriacos en julio de 1849 después

de que se lanzaran alrededor de doscientos globos aerostáticos no tripulados con bombas

sobre la ciudad de Venecia. Menos de dos décadas después de la Guerra Civil en EEUU,

fuerzas de la Confederación y de la Unión volaban globos para misiones de reconocimiento

donde instalaban cámaras y tomar fotografías aéreas y poder controlar y dar seguimiento a

los movimientos que realizaban sus enemigos. La práctica de la vigilancia aérea más tarde

surgió en la Guerra Hispano-Americana de 1898, cuando los militares de EE.UU. equiparon

una cámara a una cometa, dando lugar a una de las primeras fotografías de reconocimiento

aéreo.

En la Primera Guerra Mundial implementaron una metodología donde Los militares utilizaban

estas cometas para obtener fotografías aéreas y seguir los movimientos del enemigo formando

mapas de situación. Este sería uno de los pasos en la evolución de los aviones no tripulados

en Estados Unidos, proceso al que se suman otras cuatro fases posteriores.

• En primer lugar: el precursor del dron se utilizó como blanco de práctica para las

fuerzas militares de principios del siglo XX.

• En segundo lugar: en el período de entreguerras y en la Segunda Guerra Mundial, el

avión no tripulado fue diseñado para ser como una especie de bomba volante que

podría ser enviado tras las líneas enemigas.

• En tercer lugar: durante la Guerra Fría, el avión no tripulado fue visto como una

plataforma de vigilancia viable capaz de capturar datos de inteligencia en áreas de

difícil acceso.

Capítulo 4 27

• En cuarto lugar: el dron, en la guerra contra el terrorismo, se ha convertido en un arma

que fusiona la capacidad de vigilancia y la de matar, convirtiéndose en un

“depredador”.

El origen de los drones no hubiera sido posible sin algunos otros elementos de los cuales

también tiene componentes como lo fue el radio. Nikola Tesla demostró por primera vez el

mando a distancia o radio control de un vehículo al final del siglo XIX. En un estanque en el

Madison Square Garden de Nueva York en 1898, el inventor controlaba a distancia un barco

con una señal de radio. Esta fue la primera aplicación de ondas de radio en la historia, lo que

significa que una de las patentes más importantes de Tesla fue la cuna de la robótica moderna.

(Delgado, 2019)

4.4.2 Clases de drones

Hay variedad de drones en la actualidad y sus principales clasificaciones son:

Drones de ala fija: Los drones de ala fija como el que se muestra en la Figura 4-9, son

aeronaves que poseen un perfil alar que permite que la aeronave pueda moverse a través del

aire y sea capaz de generar fuerzas sustentadoras para mantenerse en el aire. Este tipo de

drones tienen una estética muy similar a los aeromodelos de radiocontrol.

La principal característica de este tipo de drones es la gran autonomía que ofecen ya que

pueden estar volando varias horas gracias a su eficiencia aerodinámica. Los drones de ala fija

son ideales para mapear grandes superficies de terreno ya que con una única batería se

cubren grandes extensiones de terreno. Por este motivo son drones muy utilizados en trabajos

de agricultura de precisión y de fotogrametría. (Aerial Insights SL., 2019)

28 Procesamiento digital de imágenes obtenidas con dron

Figura 4-9: Dron de ala fija

Fuente: Laboratorio de fotogrametría Universidad Distrital Francisco José de Caldas FAMARENA (2020)

Drones de ala rotatoria: La principal diferencia de los multirrotores con respecto a los drones

de ala fija radica en la forma en la que consiguen mantenerse en el aire. Mientras que los

drones de ala fija consiguen la sustentación a través de su perfil alar, los multirrotores como

el que se puede ver en la Figura 4-10, generan la sustentación a través de las fuerzas que

generan las hélices de sus rotores. Según el número rotores que monte el dron existen:

tricópteros (3 motores), cuadricópteros (4 motores), hexacópteros (6 motores) y octacópteros

(8 motores).

De una forma sencilla se le pueden instalar diferentes tipos de cámaras (cámaras RGB,

multiespectrales, termográficas) que permiten realizar una gran variedad de trabajos. Los

multirrotores son capaces de despegar y aterrizar de forma vertical. La puesta en marcha de

este tipo de drones es mucho más rápida que con los drones de ala fija ya que pueden

despegar y aterrizar prácticamente desde cualquier lugar al no necesitar de una superficie de

terreno adecuada para ello.

El principal inconveniente de este tipo de drones es su autonomía. Los multirrotores tienen un

elevado consumo energético debido a la necesidad de que todos sus rotores deben de estar

en funcionamiento para que la aeronave permanezca en el aire. En el mejor de los casos

puedenofrecer 20 minutos de vuelo. Por tanto, si se necesitan mapear grandes extensiones

es inevitable disponer de varios juegos de baterías con el sobrecosto en tiempo y dinero que

esto conlleva. (Aerial Insights SL., 2019)

Capítulo 4 29

Figura 4-10: Dron ala rotatoria

Fuente: Laboratorio de fotogrametría Universidad Distrital Francisco José de Caldas FAMARENA (2020)

Dron VTOL: Este equipo tipo VTOL como el que se puede ver en la Figura 4-11 ofrece un

despegue y aterrizaje vertical como un multirotor, convirtiéndose de manera automática en un

rápido y estable ala fija, resistente al viento gracias a su diseño aerodinámico y poco peso.

No se requiere de una plataforma de despegue, puede ser operado desde un área de 4x4m

libre de obstáculos e interferencias. Gracias a su peso ligero y a su estructura que aprovecha

al máximo la energía, tiene la capacidad de escanear hasta 725 ha en un solo vuelo.

Gracias a la tecnología RTK y a un sensor de 24 mega pixeles, es posible georreferenciar

cada fotografía con precisión, lo cual permite obtener una adquisición de alta densidad de

millones de puntos. (HÉLICÉO-Geomatic Innovation&Technology, 2019)

Figura 4-11: Dron VTOL

Fuente: Laboratorio de fotogrametría Universidad Distrital Francisco José de Caldas FAMARENA (2020)

30 Procesamiento digital de imágenes obtenidas con dron

4.5 Aplicación en la ingeniería topográfica

Con el gestor de datos de vuelo; se puede pre-procesar, geo etiquetar y organizar las

imágenes de vuelo. Transformar las imágenes aéreas de alta resolución en un orto mosaico

georreferenciado (también conocido como orto fotografía). Las nubes de puntos individuales,

con coordenadas asignadas y un valor RGB. Se utilizan habitualmente en trabajos

geométricos y con CAD. (Calderón, 2020)

4.5.1 Modelo digital del terreno (DTM)

Representación cuantitativa y continua de la distribución espacial de las alturas del terreno.

Contiene información acerca de la posición horizontal y la altura de los elementos de la

superficie terrestre. La denominación MDT (Modelos Digitales de Terreno) es la genérica para

todos los modelos digitales, incluyendo los DEM (Modelos Digitales de Terreno) en los cuales

la altura se refiere a la elevación sobre el nivel medio del mar. (IGAC, 2016)

El modelo digital del terreno es la representación únicamente del terreno, no incluye

construcciones, infraestructura ni vegetación.

4.5.2 Modelo digital de elevación (DEM)

En este caso la palabra elevación enfatiza el concepto de medición de altura con respecto a

un datum y la generación por varios países para describir un arreglo rectangular o hexagonal

de puntos con valores de elevación obtenidos por métodos fotogramétricos o cartográficos

como se ve en la Figura 4-12. (Fallas, 2007)

Capítulo 4 31

Figura 4-12: Modelo digital de elevación

Fuente: Elaboración propia (2020)

4.5.3 Ortofotomosaico

El ortofotomosaico u ortoimagen es una presentación fotográfica en proyección ortogonal de

una zona de la superficie terrestre, en la que se ha removido las distorsiones geométricas

causadas por el sistema de captura y el relieve. Todos los elementos que están al nivel del

terreno presentan la misma escala, con la misma validez de la cartografía básica vectorial.

(IGAC, 2016)

32 Procesamiento digital de imágenes obtenidas con dron

4.5.4 Procesamiento digital de imágenes

La amplitud de las frecuencias son cantidades finitas, discretas, se llama a la imagen, imagen

digital. El campo del procesamiento de imágenes digitales se refiere al procesamiento de

imágenes digitales por medio de una computadora digital. Se debe tener en cuenta que una

imagen digital se compone de un número finito de elementos, cada uno de los cuales tiene

una ubicación y un valor particular. estos elementos se denominan elementos de imagen.

La visión es el más avanzado de los sentidos, por lo que no es sorprendente que las imágenes

desempeñen el papel más importante en la percepción humana. sin embargo, a diferencia de

los humanos, que están limitados a la banda visual del espectro electromagnético (EM), las

máquinas de imágenes cubren casi todo el espectro EM, desde gamma hasta ondas de radio.

pueden operar en imágenes generadas por fuentes que los humanos no están acostumbrados

a asociar con imágenes, que incluyen ultrasonido, microscopía electrónica e imágenes

generadas por computadora, por lo tanto, el procesamiento de imágenes digitales abarca un

amplio y variado campo de aplicaciones. (González & Woods, 2002).

Al conjunto de técnicas y procesos para descubrir o hacer resaltar información contenida en

una imagen usando como herramienta principal una computadora se le conoce como

procesamiento digital de imágenes (PDI). Hoy en día, el PDI es un área de investigación muy

específica en computación y está muy relacionada con el procesamiento digital de señales.

Esta relación estriba en el hecho de que en esencia el PDI es una forma muy especial del

procesamiento digital de señales en dos o tres dimensiones. El interés en el estudio del PDI

se basa en dos áreas de aplicación primordiales:

a) El mejoramiento de la calidad de la información contenida en una imagen con el fin de que

esta información pueda ser interpretada por los humanos

b) El procesamiento de los datos contenidos en un escenario a través de una máquina de

percepción autónoma (Domínguez, 1996)

Capítulo 4 33

4.6 MicMac

4.6.1 Presentación

MicMac es un conjunto fotogramétrico gratuito de código abierto que se puede utilizar en una

variedad de escenarios de reconstrucción en 3D. Se dirige principalmente a usuarios

profesionales o académicos, pero se hacen esfuerzos constantes para que sea más accesible

al público en general. Una de las fortalezas de MicMac es su alto grado de versatilidad. De

hecho, se puede utilizar en varios campos: cartografía, medio ambiente, industria, silvicultura,

patrimonio, arqueología, etc. MicMac permite la creación de modelos 3D y de ortoimágenes

cuando sea apropiado El software es adecuado para todo tipo de objetos de cualquier escala:

desde pequeños objetos o estatuas con adquisición desde el suelo, hasta iglesias, castillos

mediante adquisiciones de drones, hasta edificios, ciudades o áreas naturales mediante

adquisiciones aéreas o satelitales. Las herramientas también permiten la georreferenciación

de los productos finales en un sistema de coordenadas local / global / absoluto. Algunas

herramientas complementarias abren los campos de metrología y topografía del sitio.

(MicMac, 2017)

Desde el punto de vista de la arquitectura como se puede ver en la Figura 4-13, la

característica única de MicMac con respecto a sus alternativas es que el usuario puede operar

en diferentes niveles de software, El usuario menos experimentado puede dirigir el

procesamiento mediante una línea de comando simple donde se deben establecer pocos o

ningún parámetro. Un usuario experimentado puede operar desde la misma línea de comando

adaptando los parámetros que normalmente se rellenan con los valores predeterminados. Un

experto en fotogrametría puede acceder al parámetro que desee en cualquier paso del

procesamiento a través de un conjunto de archivos Además de eso, los desarrolladores y

científicos pueden usar MicMac como una biblioteca, implementar sus propios algoritmos y

compartirlos en beneficio de la comunidad fotogramétrica. Dicho esto, MicMac fue diseñado

principalmente como una herramienta para profesionales (Rupnik, Daakir, & Pierrot Deseilligny

, 2017)

34 Procesamiento digital de imágenes obtenidas con dron

Figura 4-13: Arquitectura simplificada de los módulos principales de MicMac.

Fuente: Adaptado de MicMac (2017)

4.6.2 Aspectos Algorítmicos

El flujo de trabajo fotogramétrico abarca el pasaje de las imágenes, a través de la estimación

de los parámetros de orientación, finalizando con un modelo de superficie 3D. En otras

palabras, es un pasaje de una representación 2D del mundo capturado por una cámara, a

través de la inferencia de la posición y rotación de esa cámara en el momento de la toma de

la imagen, hacia una restitución 3D de la dimensión perdida. Siempre que la calidad del

resultado final dependa de la ingeniosa ingeniería de muchos pequeños pasos de

procesamiento, la estimación de los parámetros de orientación de la cámara y los algoritmos

de correspondencia constituyen el corazón de la tubería. Respectivamente, las próximas

secciones se concentran en estos dos aspectos, informan sobre los métodos adoptados y dan

una visión global de lo que es posible en MicMac.

Capítulo 4 35

4.6.3 Recuperación de la estructura (SfM)

Recuperación de la estructura (es decir, coordenadas 3D de la escena observada) y el modelo.

Es bien sabido que este modelo (es decir, la transformación del espacio 3D al espacio 2D y

viceversa, también conocida como ecuación de colinealidad) no es lineal, por lo tanto, requiere

linealización. Además, no existe un algoritmo directo capaz de calcular parámetros de

orientación globalmente consistentes con varias imágenes (generalmente n > 3). Para superar

esta brecha, se propusieron soluciones de arranque. Usando algoritmos directos para una sola

imagen, un par o triplete de imágenes, la orientación global se deduce secuencialmente o

jerárquicamente a partir de un par de imágenes semilla. Los parámetros así obtenidos sirven

como entrada para un sistema de ecuaciones compuesto por las ecuaciones de colinealidad

linealizadas, donde sus valores óptimos, en el sentido estocástico, se encuentran de forma

iterativa. Las observaciones (por ejemplo, puntos de enlace) son redundantes, por lo tanto, la

solución se deduce con el método de mínimos cuadrados minimizando una función objetivo.

La función típica son las diferencias al cuadrado entre las observaciones nominales y las

predichas a partir del modelo estimado, posiblemente sujetas a restricciones. La última etapa

también se conoce como el ajuste de bloque de paquete (BBA).

Implementación MicMac

MicMac resuelve el BBA con el método Levenberg-Marquardt (LM). El LM es, en esencia, el

método de Gauss-Newton enriquecido con un factor de amortiguación para manejar matrices

jacobianas con deficiencia de rango.

El elemento crítico del modelo matemático de BBA es la ponderación de observación,

conocida como modelo estocástico. MicMac especifica tres estrategias de ponderación

diferentes. La primera estrategia corresponde a la ponderación en el modelo clásico conocido

en fotogrametría, el Gauss-Markov, donde las observaciones se ponderan por sus verdaderas

desviaciones estándar conocidas a priori. La segunda estrategia controla la influencia de una

categoría particular de observaciones para evitar soluciones impulsadas por una sola

categoría solo por la simple razón de sus abundantes observaciones. La última estrategia

36 Procesamiento digital de imágenes obtenidas con dron

aborda la robustez. El peso es una función del residuo de la observación en el BBA, por lo

tanto, da más credibilidad a las observaciones que están cerca del modelo estimado y, por el

contrario, limita la influencia de las observaciones con residuos altos.

Punto de vista del usuario

Hay dos módulos principales que manejan la recuperación de orientación de la cámara con la

interfaz simplificada - Tapas, Campari - y ambos módulos llaman a la herramienta de

orientación principal Apero. Tapas calcula la orientación puramente relativa de las imágenes,

utilizando los puntos de enlace observados como la única entrada. Dado que en este punto

no hay a priori las posiciones y rotaciones de las cámaras, Tapas también implica el paso de

inicialización donde reconstruye progresivamente las cámaras con la ayuda de los algoritmos

de orientación directa, y las entrelaza con la rutina BBA.

A diferencia de Tapas, Campari es un módulo BBA adaptado para manejar observaciones

heterogéneas. Además de los puntos de enlace, funciona con GCP, los datos GNNS y puede

imponer varias restricciones a la solución. Este módulo generalmente se ejecuta una vez que

se establece una buena orientación relativa, y las cámaras se mueven dos en un sistema de

coordenadas (CS) coherente con el de las observaciones auxiliares, por ejemplo, los GCP.

Este último se realiza con cualquier herramienta Bascule, y es una transformación de similitud

espacial. Tanto Campari como todas las variaciones de la báscula pueden considerarse

herramientas de georreferenciación.

4.6.4 Coincidencia de imagen estéreo de múltiples vistas (MVSM)

Dadas varias imágenes superpuestas con parámetros de orientación conocidos, MVSM (Multi-

view stereo image matching) es el proceso de reconstruir un modelo 3D completo de la escena

al encontrar los píxeles correspondientes (es decir, sus disparidades o profundidades,

respectivamente) entre pares de imágenes y triangularlos en el espacio. El algoritmo genérico

Capítulo 4 37

se define como un problema de minimización de energía que busca un mapa de disparidad

que minimice la energía. La minimización se puede resolver con algoritmos locales, semi-

globales y globales. Hoy, el método para producir modelos 3D densos a partir de imágenes es

la coincidencia semi-global.

La coincidencia de imágenes se divide en tres etapas de procesamiento: cálculo del costo de

coincidencia de píxeles, agregación de costos y cálculo de disparidad. El costo de coincidencia

es una medida de disimilitud, es decir, describe la improbabilidad de que dos píxeles

pertenezcan a un punto único en 3D. Como la correspondencia puede ser ambigua y el costo

mínimo insignificante, se impone un a priori adicional sobre la función de energía que penaliza

los cambios de disparidad en los píxeles vecinos (el caso de los algoritmos locales y semi-

globales). Esta agregación tiene lugar dentro de una ventana, una ruta 1D (localmente) o

múltiples rutas (semi-globalmente). En el último caso, el costo de una disparidad dada es un

costo acumulado a lo largo de muchos caminos que terminan en el píxel en cuestión

Implementación MicMac

La coincidencia densa de imágenes en MicMac es posible con una versión de algoritmos semi-

globales y globales. El objetivo de la coincidencia es encontrar un mapeo tal que:

234: τ ⊗ ε34.

Dependiendo de la geometría de restitución, el τ puede ser el espacio euclidiano 3D o el

espacio de imagen de la imagen maestra, por lo tanto, es el espacio donde se produce el

modelo de superficie. El ε34 puede ser la profundidad de la euclídea Z o la disparidad de

imagen

La motivación para distinguir entre estas dos geometrías de restitución, el terreno y la imagen,

es doble. Por un lado, un Modelo de superficie digital (DSM) producido a partir de imágenes

aéreas se define normalmente en algunos sistemas de coordenadas de referencia, por lo

tanto, es más intuitivo realizar la reconstrucción directamente en el sistemas de coordenadas

objetivo (es decir, la geometría del suelo), donde el espacio de disparidad ε34 es la coordenada

Z. Por otro lado, se sabe que la coincidencia en el espacio de imágenes con un maestro y un

conjunto de imágenes esclavas es más confiable, especialmente en aplicaciones de

38 Procesamiento digital de imágenes obtenidas con dron

fotogrametría de corto alcance y para pequeños conjuntos de datos. El espacio disparidad ε34

en la geometría de la imagen es entonces o bien la profundidad a lo largo del rayo o la

disparidad respectivo en el espacio de imagen (es decir, la geometría de la imagen). Depende

del usuario qué geometría emplear.

MicMac ofrece una formulación muy flexible de la función de costo de coincidencia en lo que

respecta a sus términos, se considera el algoritmo de optimización y la dimensión de la

coincidencia que se puede ver en la Ecuación 4-3

ε9234: = ; <= >�, �, 234&�, �(? + ||∇9234:||BCD

Ecuación 4-3: Dimensión de la coincidencia

dónde < >�, �, 234&�, �(? es la medida de similitud entre píxeles con < = 0 cuando son

idénticos; |E∇9234:E|BCD una norma sobre el gradiente, que se utiliza como criterio de

regularidad (penaliza la variación de &234); F� es la regularización en el primer componente de

disparidad y F� la regularización en el segundo componente (equivalente a la coincidencia en

la dirección transversal a la línea epipolar).

|E∇9234:E|BCD = F� ∗ E∇ + &234(E + F� ∗ |∇&234(| Ecuación 4-4: Espacio de disparidad

El |E∇9234:E|BCD controla a priori en el espacio de disparidad de una manera que:

Si el modelo deseado es suave, una función convexa F es adecuada (es mejor subir un salto

dado por pasos regulares).

Si el modelo deseado tiene muchas discontinuidades, una función cóncava F es adecuada (es

mejor subir un salto dado en un solo paso).

cuando no hay un fuerte previo, la opción predeterminada es tener F lineal.

Capítulo 4 39

si existe un conocimiento a priori sobre la pendiente de la escena, puede imponer una

pendiente máxima permitida de la escena.

para la coincidencia 2D, se pueden configurar factores de suavizado no isotrópicos.

La medida de similitud real < >�, �, 234&�, �(? se calcula a partir del coeficiente de correlación

cruzada normalizado (1 − Cor ), definido como una función de múltiples imágenes, en lugar de

un solo par. El coeficiente puede privilegiar una imagen de un conjunto de imágenes (por

ejemplo, una imagen maestra), o considerar el conjunto como "simétrico". También son

posibles diferentes tamaños de ventana de correlación cruzada y ventanas ponderadas.

Para encontrar el mapa de disparidad que minimiza la energía, MicMac emplea por defecto

una variante multidireccional del algoritmo de programación dinámica. Los resultados en

direcciones independientes se agregan tomando una media de todos los resultados o

simplemente el mejor resultado. Opcionalmente, se puede aplicar una minimización global

mediante el algoritmo (Min-Cut / Max-Flow).

Para limitar el espacio de búsqueda de disparidad, acelerar el cálculo y reducir el ruido,

MicMac adopta un enfoque de coincidencia de resolución múltiple donde los mapas de

disparidad de resolución gruesa sirven como predictores de la salida de resolución fina.

(Rupnik, Daakir, & Pierrot Deseilligny , 2017)

Punto de vista del usuario

La creación de DSM (Modelo digital de superficie) en MicMac tiene lugar a través de varias

herramientas que son semi automatizadas o totalmente automatizadas. En ambos casos, la

herramienta principal para manejar la coincidencia densa de bajo nivel es el MicMac, al que

un usuario experto puede acceder a través de un archivo XML.

Malt, la herramienta semiautomática, funciona en tres modos predefinidos, es decir , Ortho ,

UrbanMNE y GeomImage . Los modos están adaptados para producir ortofotografía, DSM en

geometrías de suelo e imagen. En consecuencia, Ortho y UrbanMNE se seleccionarían para

terrenos planos o superficies planas y GeomImage para superficies 3D verdaderas.

40 Procesamiento digital de imágenes obtenidas con dron

El inconveniente de Malt GeomImage es que para una restitución 3D completa de una

superficie, se deben indicar varias imágenes maestras y sus esclavas relevantes. Siempre que

sea factible para geometrías de objetos simples, se vuelve ineficaz para objetos más

complejos y extensos. Las herramientas totalmente automatizadas superan este impedimento

al hacer esta elección por el usuario, al mismo tiempo que priorizan la integridad y precisión

de la salida. Las dos herramientas automatizadas son C3DC y PIM, que proporcionan una

nube de puntos y un conjunto de mapas de profundidad, respectivamente. Para continuar con

la generación de un ortofotomapa, los comandos PIMs2MNT y posteriormente Tawny se

ejecutarán. Este último recopila las ortofotos por imagen y las fusiona en un solo mosaico. Las

ortofotos individuales se pueden crear con la herramienta PIMs2MNT o Malt

Además del emparejamiento 1D clásico (a lo largo de un rayo de imagen, una fila de imagen

o la coordenada Z) para la reconstrucción de la geometría del objeto, MicMac también

implementa una estrategia de emparejamiento 2D. Esta estrategia es útil en estudios de

deformación 2D entre las imágenes rectificadas, como una herramienta de estimación de

calidad de orientación para evaluar la restante y-paralaje o en los casos en que las

orientaciones de los parámetros son desconocidos o conocidos con poca precisión

(ejecutados con un archivo XML). Debido a que las disparidades esperadas pertinentes a la

geometría son de frecuencias más altas que aquellas a lo largo del paralaje y, la regularización

de la función de energía en las dos direcciones se maneja por separado como se puede

observar en la Ecuación 4-4. (Rupnik, Daakir, & Pierrot Deseilligny , 2017)

4.7 Otros software libres

Según la Free Software Foundation, el software libre se refiere a la Libertad de los usuarios

para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el Software; de modo más preciso,

se refiere a cuatro libertades de los usuarios del software: la libertad de usar el programa, con

cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las

necesidades; de distribuir copias, con lo cual se puede ayudar a otros y de mejorar el programa

y hacer públicas las mejoras, de modo que toda la comunidad se beneficie (para la segunda

y última libertad mencionadas, el acceso al Código fuente es un requisito previo).

Capítulo 4 41

El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a

través de otros medios; sin embargo, no es obligatorio que sea así, por lo tanto, no hay que

asociar software libre a "software gratuito" (denominado usualmente Freeware), ya que,

conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial").

Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el Código fuente; no

obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos

que se garanticen los derechos de modificación y redistribución de dichas versiones

modificadas del programa. (Pérez Rivero, 2010)

Como otras muchas herramientas, el software de fotogrametría viene en muchas formas y

tamaños. Los principales desarrolladores de software han publicado soluciones comerciales

que son ideales para aplicaciones industriales y de ingeniería. Sin embargo, hay una serie de

programas disponibles para descarga gratuita. (Übel, 2020).

4.7.1 OpenDroneMap

OpenDroneMap (ODM) es un kit de herramientas de código abierto para procesar imágenes

capturadas por drones. OpenDroneMap convierte las imágenes simples obtenidas de las

cámaras en datos geográficos tridimensionales, pudiéndose utilizar posteriormente en

combinación con otros conjuntos de datos geográficos.

ODM contiene varias herramientas para procesar imágenes de drones como: nubes de puntos,

modelos digitales de superficie, imágenes orto rectificadas, modelos digitales de elevación,

etc.

OpenDroneMap está construido en Ubuntu 16.04, pero se puede ejecutar en otras plataformas

utilizando Docker. OpenDroneMap utiliza línea de comandos, pero existe una interfaz gráfica

de usuario para ello: WebODM. (Morales, 2019)

42 Procesamiento digital de imágenes obtenidas con dron

4.7.2 Meshroom

Meshroom es un software de reconstrucción 3D gratuito y de código abierto con fotogrametría.

Este software puede construir un modelo 3D de un objeto principal a partir de un conjunto de

imágenes tomadas desde diferentes ángulos. Básicamente, este software analiza la imagen

utilizando algunos algoritmos fotogramétricos y calcula los puntos de superficie y luego traza

el modelo 3D que puede exportar como un archivo OBJ. Cuenta con visor 3D integrado en su

interfaz donde se puede ver el modelo final. Puedes ver el modo generado desde todos los

ángulos, guardar y eso. Hay varios otros parámetros que puedes modificar para mejorar la

salida y usarlos donde quieras. (Alicevision, s.f.)

4.7.3 Regard 3D

Regard3D es un software de fotogrametría gratuito y de código abierto que utiliza el método

de “estructura de movimiento” (structure-from-motion) para generar modelos 3D. Aunque

Regard3D es gratuito, sigue siendo un software muy potente. De hecho, puede tomarte un

tiempo hasta que te sitúes y te sientas cómodo con todos los ajustes y parámetros que se

pueden configurar para lograr el tipo de resultados que deseas. El programa incluye incluso

herramientas completas para editar la nube de puntos antes de generar una malla 3D. Si eres

nuevo en este tipo de programas de fotogrametría, Regard3D te ayudará. Su sitio web ofrece

todas las guías y tutoriales que necesitas para empezar rápidamente. (Übel, 2020)

Utiliza “puntos clave” para detectar características en cada imagen con una alta probabilidad

de encontrarse en diferentes imágenes del mismo objeto, también para cada imagen calcula

un descriptor matemático, estos descriptores se combinan y filtran geométricamente para

obtener una colección de coincidencias entre cada par de imágenes. (regard3d, s.f.)

Capítulo 4 43

4.7.4 Visual SFM

de forma similar al resto de herramientas, su objetivo es crear una nube de puntos en 3D, con

la ayuda de diversas herramientas. Estas nubes de puntos están formadas por simples puntos

descritos por unas coordenadas espaciales XYZ y unos valores RGB que serán los

encargados de restituir la textura original a través de lo que se conoce como nubes de puntos

densas. El concepto de trabajo se acerca a Photomodeler, sin embargo, con Visual SFM no

es necesario establecer puntos de referencia entre imágenes ni calibrar nuestra cámara, lo

cual agiliza el proceso y nos permite trabajar con grandes cantidades de imágenes sin mucha

dificultad. Visual SFM tampoco no incorpora herramientas de medición, proceso que debemos

dejar para otras herramientas como MeshLab, aunque en las últimas versiones se dispone de

herramientas de georreferenciando de nubes de puntos por GCP (ground control points) y

GPS.

El proceso de funcionamiento de Visual SFM, como el de muchas herramientas de SfM se

fundamenta en los siguientes pasos:

1. SIFT: o detección de puntos clave o coincidentes entre las múltiples imágenes.

2. Bundle Adjustment: Crea la nube de puntos dispersa a partir de los puntos clave

detectados en el paso anterior. En este paso se puede intuir la forma de nuestro

modelo y disponer de la posición de las cámaras.

3. Multi-View Stereo: Será el proceso encargado de generar la nube de puntos densa a

partir de todos los datos anteriores. De este proceso se encargan las herramientas

CMVS y PMVS2 de Yasutaka Furukawa, ingeniero de Google Maps, de hecho, PMVS2

es una herramienta usada en dicha tecnología.

Visual SFM está disponible para WIN, Mac y Linux. (Pereira, 2012)

44 Procesamiento digital de imágenes obtenidas con dron

4.7.5 Colmap

COLMAP es una tubería de reconstrucción 3D de extremo a extremo basada en imágenes de

propósito general (es decir, Estructura desde el movimiento (SfM) y Multi-View Stereo (MVS))

con una interfaz gráfica y de línea de comandos. Ofrece una amplia gama de características

para la reconstrucción de colecciones de imágenes ordenadas y no ordenadas. El software se

ejecuta en Windows, Linux y Mac en computadoras de escritorio normales o servidores /

clústeres de cómputo. COLMAP tiene licencia bajo la Licencia BSD. (Schonberger, Zheng,

Pollefeys, & Frahm, 2016)

COLMAP es un software gratuito de fotogrametría disponible para su descarga en Github.

Puede ejecutarse desde la línea de comandos o como cualquier otro programa con una GUI.

Como la mayoría de los otros programas de fotogrametría de esta lista, COLMAP puede

reconstruir objetos 3D automáticamente a partir de una sola cámara o configuraciones estéreo.

Sin embargo, como es un programa creado por investigadores, COLMAP también incluye

muchas opciones altamente avanzadas. No es obligatorio para aquellos usuarios que quieran

generar una malla 3D rápida y sencilla, pero definitivamente mejorará la calidad del resultado.

Por ejemplo, puedes definir ampliamente el tipo de cámara que utilizas para capturar las

imágenes. También es posible ajustar el proceso de extracción para obtener los mejores

resultados posibles. Aunque el programa puede exportar una malla 3D, sólo se puede trabajar

con una nube de puntos en el editor. Para limpiar y refinar la malla 3D, es necesario trabajar

con otros programas como MeshLab. (Übel, 2020)

5. Metodología

Para el desarrollo de este proyecto se ejecutaron 4 fases metodológicas, con el fin de

separar cada uno de los procesos realizados para alcanzar el producto final. La mayoría

de ellos en oficina, dado que la información de campo fue suministrada por el Ingeniero

William Barragán; Las fases metodológicas se pueden ver en la Figura 5-1

Figura 5-1: Fases metodológicas.

Fuente: Elaboración propia (2020)

PLANTEAMIENTO DEL PROBLEMA DE INVESTIGACIÓN

RECOLECCIÓN DE INFORMACIÓN Y OBTENCIÓN DE LOS DATOS

PROCESAMIENTO DE LA INFORMACIÓN

ANÁLISIS DE LOS DATOS

46 Procesamiento digital de imágenes obtenidas con dron

5.1 Fase I: Planteamiento del problema de investigación

La fotogrametría se convirtió en una técnica bastante ingeniosa para realizar escaneo 3D,

pero no todas las personas, en especial estudiantes pueden costear una licencia de estos

software, por este motivo se vuelve importante el poder tener alternativas gratuitas y de

calidad para realizar este tipo de tareas. Para identificar el problema, se ha investigado el

modo de operación y los costos de algunos software. En la situación de un usuario normal,

se puede evidenciar lo costoso que puede ser trabajar con un software comercial, además

de los problemas legales en el caso de hacer un uso indebido de estos.

Ahí surge la idea de mostrar otra alternativa al público en general, sin costo en la

adquisición de software de procesamiento digital de imágenes, con los mismo o mejores

resultados a la hora de generar productos finales. Con el auge de los drones, su gran

practicidad en muchos campos y el creciente interés del mercado, empezaron a salir

diferentes software tanto libres como comerciales para procesar imágenes, a continuación

en la Tabla 5-1 se pueden observar los precios y las plataformas que corren algunos

software:

PROGRAMA PLATAFORMA LICENCIA

OpenDroneMap Linux, Windows Libre

Visual SFM Linux, OSX, Windows Libre

Open MVS Linux, OSX, Windows Libre

123D Cath Android, IOS, Windows, Web based

Libre

Photomodeler Windows Desde 3500 €

Drone 2Map Windows 1500 € año

Pix4D Windows OSX (BETA), Online

260 €/mes 2600 €/año 6500 €/ Perpetua

PhotoScan Linux, OSX, Windows 179 € Standard 3499 € Professional

Drone Deploy Online Pro 99 € mes Bussiness 300 € mes

Capítulo 4 47

Aerial Insights Online Desde 30 euros Tabla 5-1 Diferentes software para procesamiento digital de imágenes obtenidas con dron y su costo

aproximado.

Con esta información se decide explorar los diferentes software para trabajar uno en

concreto, se decide trabajar con MicMac. MicMac ha sido desarrollado en el Instituto

Nacional de Información Geográfica y Forestal (IGN) y en la Escuela Nacional de Ciencias

Geográficas (ENSG), desde 2003. Inicialmente, las herramientas de software se

desarrollaron pensando exclusivamente en la producción cartográfica del IGN. Las

herramientas independientes se interconectaron en 2005 a través de un marco XML, lo

que permite al usuario parametrizar libremente los cálculos en todas las etapas de

procesamiento. En 2007, IGN comenzó a distribuir gratuitamente MicMac bajo la licencia

CECILL-B que es una versión de la licencia L-GPL adaptada a la ley francesa.

5.2 Fase II: Obtención de los datos

Para simplificar procesos, se trabajó con fotografías tomadas por el ingeniero William

Barragán en una práctica de la materia cartografía digital avanzada de la Universidad

Distrital Francisco José de Caldas el día Domingo 26 de mayo de 2019, el objetivo principal

de la práctica fue tomar fotografías de la sede Aduanilla de Paiba de la Universidad Distrital

Francisco José de Caldas ubicada entre las calles 12 y 13 y las carrera 31 y 32 en la

ciudad de Bogotá como se puede ver en la Figura 5-2, para realizar su posterior

procesamiento.

Como resultado del vuelo se obtuvo 55 fotografías y los archivos pertinentes al

posicionamiento con GPS de 4 puntos de control terrestres (GCP); logrados los datos es

necesario tener un amplio conocimiento en el funcionamiento del software, para lo cual se

hizo uso de la documentación del software MicMac, el foro y trabajos que han realizados

algunas personas en pro de la comunidad de MicMac. (Calderón 2020)

48 Procesamiento digital de imágenes obtenidas con dron

Figura 5-2: Ubicación sede Aduanilla de Paiba.

Fuente: Mapas Bogotá

Los datos de los puntos de control terrestre fueron tomados con 4 antenas Trimble Zephyr

39105 como los que se ven en la Figura 5-3, las fotografías fueron tomadas con un Dron

Phantom 3 Professional y los datos RINEX de la estación permanente BOGA de la red

Magna Eco para realizar el post proceso de los GCP, fueron descargados a través dela

página del IGAC (Instituto Geográfico Agustín Codazzi).

Figura 5-3: Antena GPS Trimble

Fuente: Elaboración propia (2019)

Capítulo 4 49

5.3 Fase III: Procesamiento de la información

En esta fase se realiza la descarga de información de datos crudos, el post proceso y se

hace el procesamiento digital de imágenes para obtener los productos finales (Ortofoto,

DSM)

5.3.1 Instalación del software

Para realizar la instalación de MicMac en el equipo primeramente se debe descargar el

archivo “micmac_win.zip” del siguiente sitio web:

https://github.com/micmacIGN/micmac/releases; el cual es el archivo de instalación

comprimido para el sistema operativo Windows, se debe tener en cuenta esta información

ya que en este mismo enlace se pueden encontrar los archivos de instalación para los

diferentes sistemas operativos que pueden correr MicMac. El tamaño del archivo es de

38.7MB aproximadamente.

Ya con el archivo se procede a descomprimir y guardar en la ruta de preferencia, se

recomienda que las carpetas que hacen parte de la ruta no tengan espacios ni caracteres

especiales ya que estos podrían generar errores al momento de la instalación. Para el

ejemplo de este tutorial se utilizó la siguiente ruta: “C:\Tesis\MicMac”.

Para la instalación de MicMac es necesario editar las variables de entorno del sistema, la

manera más sencilla de realizar este proceso es escribiendo la palabra variables en el

buscador de Windows y seleccionar la opción “Editar las variables de entorno del sistema”

como se ve en la Figura 5-4

50 Procesamiento digital de imágenes obtenidas con dron

Figura 5-4: Ingreso a variables de entorno.

Fuente: Elaboración propia (2020)

Esto abre la ventana de las propiedades del sistema como se ve en la Figura 5-5, ahora

se debe ubicar en la pestaña de opciones avanzadas y dar clic en el botón “variables de

entorno” que se encuentra en la parte inferior de la ventana; este da el acceso a la ventana

donde se pueden editar las variables.

Figura 5-5: Propiedades del sistema.

Fuente: Elaboración propia (2020)

Capítulo 4 51

Ya en la ventana “variables de entorno” como se puede ver en la Figura 5-6, se hace doble

clic en la fila con el nombre “Path” de las variables del sistema para editar dicha variable.

A continuación, se debe dar clic en nuevo y pegar la ruta donde se encuentra el archivo de

instalación del software, añadiendo al final de esta ”/bin” como se ve en la Figura 5-7.

Figura 5-6: Variables de entorno.

Fuente: Elaboración propia (2020)

Figura 5-7: Editar variables de entrono.

Fuente: Elaboración propia (2020)

52 Procesamiento digital de imágenes obtenidas con dron

Una vez realizados estos pasos se procede a verificar la instalación del software y sus

dependencias en la consola de Windows a través del comando “mm3d

CheckDependencies”, se debe verificar que cada una de sus dependencias haya sido

encontrada “found” como se ve en la Figura 5-8.

Figura 5-8: Verificación dependencias.

Fuente: Elaboración propia (2020)

5.3.2 GUI para MicMac

La GUI (graphical usar interface) de MicMac es demasiado limitada, pero puede ser de

ayuda en el uso de algunos comandos debido a la complejidad que puede tener para

algunos usuarios que no tienen conocimientos básicos de programación. Aunque este

tutorial está enfocado en hacer uso de MicMac con la utilización de líneas de comandos,

es importante resaltar esta opción que puede despejar futuras dudas que le surjan al

usuario al momento de realizar un procesamiento.

Para activar esta opción se debe ingresar en el símbolo del sistema y en este mismo

ejecutar el comando:

mm3d vGrShade

Capítulo 4 53

Figura 5-9: GUI MicMac.

Fuente: Elaboración propia (2020)

Seguido a esto se abre una ventana “GrShade” se hace clic en “Select File” como se

observa en la Figura 5-9 y se busca el archivo “GrShade” que se encuentra en la carpeta

“bin”, todo esto en el directorio de instalación de MicMac.

5.3.3 Búsqueda de puntos de enlace

Extraer coordenadas de las fotografías.

Por lo general, en las fotografías se puede encontrar la información GPS por medio de sus

metadatos EXIF, MicMac ofrece varias opciones para extraer las coordenadas de cada

una de las fotografías, para extraer un listado de coordenadas de cada imagen se utiliza

el comando “mm3d XifGps2Txt” del cual se peude ver el proceso de su ejecución en la

Figura 5-10, que se usará con la siguiente estructura:

54 Procesamiento digital de imágenes obtenidas con dron

“mm3d XifGps2Txt .*JPG OutTxtFile=Coordenadas”

Donde:

• “. *JPG" es el argumento obligatorio que extrae las coordenadas de todas las imágenes que tengan esta extensión.

• “OutTxtFile=Coordenadas” es un argumento opcional y sirve para dar nombre al archivo .txt resultante (en caso de no usar este argumento por defecto se creará el archivo GpsCoordinatesFromExif.txt que contiene la misma información.)

El listado de coordenadas que se exporta se puede ver en la Figura 5-11, se encuentra en

coordenadas elipsoidales, pero también existe la opción de exportar este listado en

radianes o coordenadas geocéntricas.

Figura 5-10: Ejecución comando XifGps2Txt.

Fuente: Elaboración propia (2020)

Capítulo 4 55

Figura 5-11: Archivo Coordenadas.txt.

Fuente: Elaboración propia (2020)

Extraer coordenadas en .xml

MicMac puede trabajar con varios tipos de coordenadas, pero lo ideal es trabajar en un

sistema de coordenadas local (RTL), esto para evitar errores durante el procesamiento

debido a la gran cantidad de dígitos que se pueden generar en algunos tipos de

coordenadas, el comando “XifGps2Xml “ extrae las coordenadas de las fotografías en un

archivo de extensión .Xml, estas coordenadas al pasar por este proceso quedan

convertidas en coordenadas RTL (locales) . la estructura a usar es la siguiente:

“mm3d XifGps2Xml .*JPG CoordXml”

Donde:

• “. *JPG” es el argumento obligatorio el cual extrae las coordenadas en general de todas las imágenes que tengan esta extensión.

• “CoordXml” es un argumento obligatorio para nombrar la carpeta que resulta del proceso y está ligada a la orientación RTL.

56 Procesamiento digital de imágenes obtenidas con dron

El comando genera un archivo Xml general de coordenadas de nombre RTLFromExif que

se puede observar en la Figura 5-12 y una carpeta llamada Ori-CoordXml que tiene

archivos xml con una orientación para cada una de las imágenes.

Figura 5-12: Archivo RTLfromExif.xml.

Fuente: Elaboración propia (2020)

Puntos de enlace

El comando para calcular puntos de enlace entre imágenes se llama Tapioca, ejecutar este

proceso puede tardar de minutos a horas dependiendo la resolución a trabajar, en la Figura

5-13 se puede ver el proceso de su ejecución, la estructura a usar es la siguiente:

“mm3d Tapioca All ".*JPG" 2000”

Donde:

• “All” es el argumento obligatorio para calcular puntos de enlace para todas las imágenes.

• ".*JPG" argumento obligatorio que llama a las imágenes en formato.jp

Capítulo 4 57

• “2000” tamaño de la imagen en pixeles, se utiliza -1 para tomar el tamaño de la imagen completa

Como resultado el comando genera tres carpetas, la carpeta “Homol”, la carpeta “Pastis”

y la carpeta “Tmp-MM-Dir”

Figura 5-13: Ejecución comando Tapioca.

Fuente: Elaboración propia (2020)

5.3.4 Post-Proceso puntos de control

En este apartado se realiza el procesamiento de los puntos de control correspondientes al

vuelo fotogramétrico, proceso que se ejecuta con el software Topcon Tools para este breve

ejemplo.

Como primer paso se debe ejecutar el programa, una vez abierto se abre una ventana

“startup” como se ve en la Figura 5-14 en la cual podemos, crear, abrir, eliminar y borrar

proyectos, para este ejemplo se crea un nuevo proyecto, así que se debe dar clic en el

58 Procesamiento digital de imágenes obtenidas con dron

botón “New job”, al cliquear este botón se abre una nueva ventana en la cual se le da

nombre al proyecto, se puede indicar el directorio de ubicación, el nombre del creador del

proyecto y editar la configuración del proyecto (sistema de coordenadas, unidades,

tolerancias, etc.) como se puede observar en la Figura 5-15, que deben ser manejadas a

criterio del usuario o a los requerimientos del trabajo.

Figura 5-14: Ventana Startup.

Fuente: Elaboración propia (2020)

Figura 5-15: Ventana para crear nuevo proyecto.

Fuente: Elaboración propia (2020)

Capítulo 4 59

Establecidos los parámetros, se da clic en el botón “OK” para la creación del proyecto y

apertura de la interfaz del programa. Ahora el paso a seguir es cargar los archivos de

posicionamiento y los datos RINEX previamente descargados, para hacer esto se debe

dar clic en el icono de importar que se muestra en la Figura 5-16.

Figura 5-16: Importar datos.

Fuente: Elaboración propia (2020)

Ya cargados los datos en el programa, en el panel inferior como se muestra en la Figura

5-17 se pueden renombrar los puntos para evitar futuras confusiones, además de esto se

asigna el punto de control horizontal, en la columna “control” seleccionamos la opción

“Both” en el punto denominado (BOGA) como se observa en la Figura 5-18 y asignamos

las coordenadas y altura al mismo, mientras que con los otros puntos en la pestaña “GPS

Occupations” se asigna el tipo de antena utilizada, su altura y el tipo de medición.

Figura 5-17: Ventana de ocupación y panel de ocupación

Fuente: Elaboración propia (2020)

60 Procesamiento digital de imágenes obtenidas con dron

Figura 5-18: Establecer punto de control.

Fuente: Elaboración propia (2020)

Con los anteriores parámetros ya definidos, se procede a realizar el post proceso de la red,

para ello se debe dar clic al icono GPS + PostProcessing, icono que se muestra en la

Figura 5-19, al terminar el Post proceso los vectores de la red cambian de color, si el color

es verde, la red cumple con la configuración de tolerancia dada al momento de crear el

proyecto como se evidencia en la Figura 5-20, pero si alguno de los vectores es rojo,

significa que la red no cumplió las tolerancias, en este caso se deben suprimir datos

intermitentes de los satélites al momento de realizar el posicionamiento y realizar de nuevo

el post proceso.

Figura 5-19: Icono GPS + PostProcessing.

Fuente: Elaboración propia (2020)

Capítulo 4 61

Figura 5-20: Vectores de la red en color verde.

Fuente: Elaboración propia (2020)

Figura 5-21: Icono Adjust network.

Fuente: Elaboración propia (2020)

En el momento que los vectores cumplan con las tolerancias establecidas, se realiza un

ajuste a la red, el cual se ejecuta al dar clic en el icono Adjust network (icono que se puede

ver en la Figura 5-21), este proceso es corto y al terminar genera una ventana con los

resultados del ajuste como se observa en la Figura 5-22.

62 Procesamiento digital de imágenes obtenidas con dron

Figura 5-22: Resultado del ajuste.

Fuente: Elaboración propia (2020)

.

Para finalizar es necesario generar un reporte del ajuste como el que se observa en la

Figura 5-24, el cual se realiza dando clic en la pestaña “Report” y en la pestaña

“Adjustment” como se puede ver en la Figura 5-23. Este reporte incluye diferentes ítems

incluidas las coordenadas de los puntos de control terrestre con los que se trabajar más

adelante y puede ser configurado al oprimir la tecla F9, dependiendo la información que

requiera el usuario.

Figura 5-23: Reporte.

Fuente: Elaboración propia (2020)

Capítulo 4 63

Figura 5-24: Coordenadas de los puntos ajustados.

Fuente: Elaboración propia (2020)

5.3.5 Orientación interna y orientación relativa

Calibración cámara

La fotogrametría se compone de tres pasos:

1. Orientación interna: para determinar los parámetros de la cámara (distancia focal, PPA, PPS, centro de distorsión o parámetros de distorsión).

2. Orientación relativa: para determinar la posición relativa de cada cámara en un sistema de coordenadas arbitrario.

3. Orientación absoluta: para mapear las orientaciones relativas a un sistema de coordenadas escalado y orientado (típicamente WGS84).

En MicMac, los dos primeros pasos generalmente se procesan al mismo tiempo. las

herramientas que realizan orientación interna y relativa son llamadas Tapas, en la Figura

5-25 se puede ver el proceso de la ejecución de este comando.

64 Procesamiento digital de imágenes obtenidas con dron

La estructura a usar es la siguiente:

“mm3d Tapas RadialExtended ".*JPG" Out=Arbitrary SauvAutom=NONE ExpTxt=0”

Donde:

• “RadialExtended” es el argumento obligatorio de distorsión que se desea usar (para más opciones revisar la wiki de MicMac) este en específico se usa para una lente clásica con parámetros de distorsión adicionales.

• ".*JPG" argumento obligatorio que llama a las imágenes en formato.jpg.

• “Out=Arbitrary” argumento no obligatorio que da nombre al directorio de salida, en este caso “Arbitrary” haciendo referencia a una orientación arbitraria.

• “SauvAutom=NONE” argumento no obligatorio para guardar resultados intermedios, se escribe NONE si no se desean ya que el comando los guarda por defecto.

• “ExpTxt=0” argumento no obligatorio para exportar en formato de texto.

Figura 5-25: Ejecución comando Tapas.

Fuente: Elaboración propia (2020)

Capítulo 4 65

De este proceso se generan dos carpetas, la carpeta Ori-Arbitrary y la carpeta Ori-

InterneScan que contienen archivos en xml con la orientación de cada una de las imágenes

procesadas.

Compensación de medidas heterogéneas

Para realizar una compensación de medidas heterogéneas y de puntos de control se utiliza

el comando Campari, en la Figura 5-26 se puede ver el proceso de la ejecución de este

comando, y se utiliza la siguiente estructura:

“mm3d Campari “.*JPG" Arbitrary mascampari”

Donde:

".*JPG” argumento obligatorio que llama a las imágenes en formato.jpg

“Arbitrary” Argumento obligatorio en el que se hace el llamado al directorio de

orientación arbitraria.

“Mascampari” Argumento obligatorio para dar nombre al directorio de salida.

Figura 5-26: Ejecución comando Campari.

Fuente: Elaboración propia (2020)

66 Procesamiento digital de imágenes obtenidas con dron

Como resultado tenemos una carpeta de nombre Ori-mascampari que contiene archivos

en formato .xml de la orientación de cada una de las imágenes procesadas.

Visualización de la orientación

Apericloud es la herramienta de MicMac que genera nubes de puntos dispersas para

obtener una visualización 3D y de la posición de las cámaras, la estructura del comando

usado es la siguiente:

“mm3d Apericloud ".*JPG" Arbitrary Out=AperiCloud.ply ExpTxt=0”

Donde:

".*JPG" argumento obligatorio que llama a las imágenes en formato.jpg

“Arbitrary” Argumento obligatorio en el que se hace el llamado al directorio de

orientación arbitraria.

“Out=AperiCloud.ply” Argumento para nombrar el archivo de extensión .ply para la

posterior visualización de a nube de puntos.

“ExpTxt=0” argumento no obligatorio para exportar en formato de texto.

Como resultado de este comando se genera un archivo en extensión .ply de nombre

Apericloud como se puede observar en la Figura 5-27 que se puede abrir con el software

MeshLab o CloudCompare previamente instalados y un archivo en formato .Xml de

nombre SauvApero con la información de los argumentos aplicados.

Capítulo 4 67

Figura 5-27: Archivo AperiCloud.ply.

Fuente: Elaboración propia (2020)

5.3.6 Orientación absoluta

Transformación de los puntos de control terrestre (GCP) en un sistema de coordenadas

euclidiano adecuado para MicMac; Para realizar esta transformación de coordenadas se

utiliza el comando GCPConvert con la siguiente estructura:

“mm3d GCPConvert AppInFile GCP2.txt [email protected]

Donde:

“AppInFile” Argumento obligatorio que indica el formato que se desea usar debido

al manejo de la información (para más opciones revisar la wiki de MicMac).

68 Procesamiento digital de imágenes obtenidas con dron

“GCP2.txt” archivo de extensión .txt previamente creado con la información de los

GCP a trabajar (que se puede observar en la Figura 5-28.

Figura 5-28: Archivo GCP2.txt.

Fuente: Elaboración propia (2020)

[email protected]” argumento no obligatorio para

realizar transformación de coordenadas, en este caso de WGS84 a un sistema de

coordenadas local con el archivo RTLFromExif.xml anteriormente generado.

Genera un archivo de extensión .xml como resultado de la conversión, archivo que se

puede ver en la Figura 5-29.

Figura 5-29: Archivo GCP2.xml.

Fuente: Elaboración propia (2020)

Capítulo 4 69

ingresar coordenadas para los GCP

El comando a usar para ingresar las coordenadas de los GCP en las imágenes es

InputSupportInitQT y su estructura es la siguiente:

“mm3d SaisieAppuisInitQT ".*JPG" Arbitrary IDGCP.txt MeasuresInit.Xml”

Donde:

".*JPG" argumento obligatorio que llama a las imágenes en formato.jpg

Arbitrary argumento obligatorio en el que se hace el llamado al directorio de

orientación arbitraria.

IDGCP.txt archivo de extensión .txt previamente creado con la identificación de los

GCP a trabajar como se observa en la Figura 5-30.

MeasuresInit.Xml argumento obligatorio que define el nombre de salida de las

mediciones realizadas en la interfaz.

Figura 5-30: Archivo IDGCP.txt.

Fuente: Elaboración propia (2020)

Al ejecutar este comando se despliega una interfaz en la cual se pueden seleccionar

los puntos de control como se ve en la Figura 5-31, cada uno con su identificación

previa, cabe anotar que esta interfaz es muy sensible y se puede cerrar

inesperadamente así que deberá manejarse con prudencia.

70 Procesamiento digital de imágenes obtenidas con dron

Figura 5-31: Interfaz SaisieAppuisInitQT.

Fuente: Elaboración propia (2020)

Transformación 3D entre orientación arbitraria y absoluta

Para determinar la transformación 3D entre el sistema arbitrario y el sistema

georreferenciado se utiliza la herramienta GCPBascule, en la Figura 5-32 se puede

observar el proceso de su ejecución, este funciona con la siguiente estructura:

“mm3d GCPBascule ".*JPG" Arbitrary Absol GCP2.Xml MeasuresInit-S2D.Xml”

Donde:

".*JPG" argumento obligatorio que llama a las imágenes en formato.jpg.

“Arbitrary” Argumento obligatorio en el que se hace el llamado al directorio de

orientación arbitraria.

Capítulo 4 71

“Absol” Argumento obligatorio que da el nombre al directorio de orientación de

salida.

“GCP2.Xm”l Archivo de puntos de puntos de control terrestre GCP.

“MeasuresInit-S2D.Xml” archivo de medidas resultante del proceso de

GCPConvert.

Figura 5-32: Ejecución comando GCPBascule.

Fuente: Elaboración propia (2020)

Como resultado del proceso genera una carpeta de nombre Ori-Absol que contiene

información en formato .xml de la orientación absoluta de cada una de las imágenes.

Realizado este proceso se puede ejecutar nuevamente el comando Campari para

obtener una mejor precisión en los datos.

Visualización de la nube de puntos con una orientación absoluta.

Para visualizar la nube de puntos con orientación absoluta nuevamente se ejecuta el

comando Apericloud con la siguiente estructura:

“mm3d AperiCloud ".*JPG" Absol Out=AperiCloud.ply ExpTxt=0”

72 Procesamiento digital de imágenes obtenidas con dron

Que es muy similar a la utilizada antes pero se cambia el directorio de orientación por

Absolut y genera de nuevo un archivo en formato “.ply” con la nube de puntos con la

orientación absoluta.

Cambio del sistema de coordenadas

Para realizar el cambio del sistema de coordenadas usamos el comando ChgSysCo (ver

Figura 5-33 para observar el proceso de su ejecución) con la siguiente estructura:

“mm3d ChgSysCo ".*JPG" Absol RTLFromExif.xml@SysCoMagna_EPSG3116.xml All-

MAGNA”

Donde:

".*JPG" argumento obligatorio que llama a las imágenes en formato.jpg

“Absol” Argumento obligatorio que indica el directorio de orientación

“RTLFromExif.xml@SysCoMagna_EPSG3116.xml” argumento obligatorio que

realiza el cambio de coordenadas local a sistema de coordenadas Gauss

“All-MAGNA” argumento obligatorio para indicar el nombre del directorio de salida

Capítulo 4 73

Figura 5-33: Ejecución comando ChgSysCo.

Fuente: Elaboración propia (2020)

Como resultado de este procesamiento se genera la carpeta Ori-All-MAGNA que contiene

información en formato.xml de cada una de las imágenes con coordenadas Magna.

Visualización de las cámaras.

Este proceso es opcional, pero puede ser de gran utilidad al dar la información visual de la

posición de las cámaras al momento de tomar las fotografías como se puede apreciar en

la Figura 5-34, y se usa la siguiente estructura:

“mm3d AperiCloud ".*.JPG" All-MAGNA Out=All-MAGNA-cam.ply WithPoints=0”

74 Procesamiento digital de imágenes obtenidas con dron

Figura 5-34: Visualización de las cámaras.

Fuente: Elaboración propia (2020)

5.3.7 Generación de productos

Creación de mascara

Es necesario crear una máscara para indicar que parte de la escena del mosaico

rectificado se desea usar, para la ejecución de este proceso se usa el comando Tarama

(ver Figura 5-35Figura 5-33 para observar el proceso de su ejecución) con la siguiente

estructura:

“mm3d Tarama ".*.JPG" All-MAGNA”

Donde:

".*.JPG" argumento obligatorio que llama a las imágenes en formato.jpg

“All-MAGNA” Argumento obligatorio que indica el directorio de orientación

Capítulo 4 75

Figura 5-35: Ejecución comando Tarama.

Fuente: Elaboración propia (2020)

Realizado este proceso se genera la carpeta TA que contiene las máscaras para generar

el ortomosaico, a continuación, se presenta el resultado de la máscara general para el

ortofomosaico como se puede observar en la Figura 5-36 y una carpeta llamada Pyram

con máscaras de cada una de las imágenes

76 Procesamiento digital de imágenes obtenidas con dron

Figura 5-36: Archivo TA_LeChantier.TIF (mascara).

Fuente: Elaboración propia (2020)

Creación de mapa de profundidad

El método que consiste en utilizar todas las imágenes para crear un modelo 3D es la

llamada correlación densa o densificación. En MicMac, se realiza mediante el comando

Malt (para observar el proceso de su ejecución ver la Figura 5-37Figura 5-37) y la

estructura que se usa para realizar dicho proceso es la siguiente:

“mm3d Malt Ortho ".*JPG" All-MAGNA DirMEC=MEC DefCor=0 Regul=0.005 ZoomF=2

DirTA=TA”

Donde:

Capítulo 4 77

“Ortho” es el argumento obligatorio que indica el tipo de Malt a usar (para más

opciones revisar la wiki de MicMac) este en específico se usa para adaptación para

a generación de ortofotos

".*JPG" argumento obligatorio que llama a las imágenes en formato.jpg.

“All-MAGNA” Argumento obligatorio que indica el directorio de orientación.

“DirMEC=MEC” Argumento no obligatorio que nombre la carpeta donde se

guardaran los resultados.

“DefCor=0” correlación predeterminada en pixeles.

“Regul=0.005” Factor de regulización.

“ZoomF=2” Zoom final (2 en orto, 1 en MNE).

“DirTA=TA” Argumento no obligatorio para indicar el directorio que contiene la

máscara a usar.

Figura 5-37: Ejecución comando Malt.

Fuente: Elaboración propia (2020)

Creación del orto mosaico

La herramienta para la creación del ortomosaico se llama tawny, es una herramienta

bastante simple porque supone que los datos se han preparado y organizado

78 Procesamiento digital de imágenes obtenidas con dron

correctamente durante todo el proceso, el trabajo de tawny es fusionar los datos generados

anteriormente por la herramienta Malt, la estructura a utilizar es la siguiente:

“mm3d Tawny Ortho-MEC”

Donde:

“Ortho-MEC” va a ser el argumento obligatorio que define el directorio de salida

Genera las carpetas Ortho-MEC y MEC, la primera contiene cada una de las fotografías

con la orientación absoluta, algunas fotos de profundidad en escala de grises como se

puede ver en la Figura 5-40 y el Ortofotomosaico en la Figura 5-38, la segunda contiene

imágenes de mascaras generadas automáticamente como se observa en la Figura 5-39

Figura 5-38: Ortofotomosaico.

Fuente: Elaboración propia (2020)

Capítulo 4 79

Figura 5-39: Archivo Ort_DJI_0050.

Fuente: Elaboración propia (2020)

80 Procesamiento digital de imágenes obtenidas con dron

Figura 5-40: Archivo Correl_STD-MALT_Num_7.

Fuente: Elaboración propia (2020)

Creación de la nube de puntos densa

El comando C3DC es el comando que calcula automáticamente una nube de puntos a

partir de un conjunto de imágenes orientadas (ver Figura 5-41 para observar el proceso de

su ejecución). La estructura a usar es la siguiente:

Capítulo 4 81

“mm3d C3DC QuickMac ".*JPG" All-MAGNA Out=modele3D.ply PlyCoul=1”

Donde:

“QuickMac” Argumento obligatorio que determina la calidad del procesamiento

(para más opciones revisar la wiki de MicMac).

".*JPG" argumento obligatorio que llama a las imágenes en formato.jpg

“All-MAGNA” Argumento obligatorio que indica el directorio de orientación.

“Out=modele3D.ply” Argumento no obligatorio para dar nombre al archivo de

extensión .ply resultante

“PlyCoul=1” Argumento no obligatorio para dar color en el archivo de extensión .ply

Al finalizar el proceso se genera la carpeta PIMs-QuickMac que contiene imágenes que

corresponden a la nube de puntos de profundidad como se observa en la Figura 5-42 y el

archivo modele3D.ply que contiene el modelo 3D resultante que se puede apreciar en la

Figura 5-43.

Figura 5-41: Ejecución C3DC.

Fuente: Elaboración propia (2020)

82 Procesamiento digital de imágenes obtenidas con dron

Figura 5-42: Archivo Nuage-Depth-DJI_0081.JPG_Masq.

Fuente: Elaboración propia (2020)

Capítulo 4 83

Figura 5-43: Modelo 3D.

Fuente: Elaboración propia (2020)

5.4 Fase IV: Análisis de los datos

A partir de la experiencia adquirida tras hacer el procesamiento digital de imágenes

obtenidas con dron usando el software de uso libre MicMac, se puede decir que esta

alternativa ofrece resultados óptimos, en primer lugar, hay que tener en cuenta la calidad

de los productos frente a otros software.

Comparados los resultados de MicMac con dos software comerciales (Agisoft PhotoScan

y Pix4D) se deduce que MicMac al ser gratuito genera productos de alta calidad y puede

competir con varios software con el mismo objetivo, la desventaja de MicMac frente a los

software comerciales, es que este está enfocado principalmente a usuarios con

conocimientos en el área de la fotogrametría, mientras que los software comerciales

presentan bastantes facilidades en su uso y están superiormente automatizados, lo que

los hace accesible a personas incluso sin previos conocimientos de fotogrametría.

5.4.1 Impacto

Se piensa que usar un software libre para hacer procesamiento digital de imágenes puede

ser una alternativa beneficiosa en el aspecto educativo, económico y legal. La obtención

de sus productos finales de acuerdo con su calidad contribuirá a su divulgación,

comprensión y total aprovechamiento por estudiantes, docentes y profesionales; es de

gran importancia, el hacer uso de varias herramientas para conocer el alcance del software

y en este caso sus diferentes aplicaciones.

84 Procesamiento digital de imágenes obtenidas con dron

5.4.2 Limitaciones

Para hacer un uso adecuado de el software y sacar el mejor provecho de este es necesario

tener conocimientos básicos del manejo de la consola de Windows o de las otras

plataformas que ejecutan el software y un nivel intermedio de inglés debido a que la mayor

cantidad de información y los comandos para ejecutar la herramienta se encuentran en

este idioma

Las principales limitaciones de MicMac son la complejidad de la configuración y, para

algunas aplicaciones, la velocidad de ejecución. Estas limitaciones pueden dificultar

algunos de los usos operativos de MicMac, pero no se bloquean en un entorno de

investigación donde los criterios de prioridad son el uso general y la calidad de las

soluciones. (Pinte, 2017)

6. Conclusiones y recomendaciones

6.1 Conclusiones

con el desarrollo de este proyecto se pretende abrir una pequeña puerta a la exploración

de los diversos software de procesamiento digital de imágenes de uso libre que existen;

aunque la mayoría tienen diferencias en su metodología y/o interfaz, su estructura es muy

similar.

Es importante tener muchos conceptos fotogramétricos claros antes de empezar a trabajar

con los softwares de procesamiento digital, además de haber leído previamente la

documentación de cada uno, esto para tener una mayor fluidez, optimizar los tiempos de

trabajo y poder resolver futuras inquietudes.

MicMac al no tener una interfaz para hacer el procesamiento digital de imágenes, genera

una pequeña ventaja al realizar paso a paso cada proceso, lo cual permite tener un mayor

nivel de detalle en todo su procedimiento y cierto control en el proceso de cada tarea.

6.2 Recomendaciones

Los tiempos de procesamiento serán directamente proporcionales a la calidad que se

requiera en los resultados, cabe anotar que se recomienda realizar estos procesos en

computadores que tengan buenas especificaciones técnicas, ya que esto puede ahorrar

bastante tiempo.

86 Procesamiento digital de imágenes obtenidas con dron

MicMac maneja una extensa cantidad de herramientas que no se alcanzan a contemplar

en su totalidad en este trabajo, se recomienda revisar la documentación de MicMac para

usar otro tipo de herramientas, profundizar en las ejecutadas en este proyecto y explorar

otras aplicaciones del Software.

Uno de los grandes problemas para el uso de MicMac en regiones de habla hispana es la

poca información que se encuentra de este en idioma español, es necesario indagar en el

foro del software y hacer uso de las diferentes herramientas de traducción para facilitar

este aspecto.

A. Anexo: Tutorial MicMac

88 Bibliografía

Bibliografía

Aerial Insights SL. (2019). Aerial Insights . Obtenido de Aerial Insights SL.:

http://www.aerial-insights.co/blog/tipos-de-drones/

Aguirre, N. (1998). Principios Básicos de Cartografía Temática. Bogotá: Instituto

Geográfico Agustín Codazzi.

Alicevision. (s.f.). Obtenido de https://alicevision.org/

CEUPE. (7 de Diciembre de 2018). Centro Europeo de Postgrado. Obtenido de Ceupe:

https://www.ceupe.com/blog/fotogrametria-analitica-y-digital.html

Cruz, M. (2008). Caracterización de puntos de control en teledetección: Aplicación de la

corrección geométrica automática de imágenes.

Delgado, V. (6 de Febrero de 2019). ELDRONE. Obtenido de ELDRONE:

http://eldrone.es/historia-de-los-drones/

Domínguez, A. (1996). Procesamiento digital de imágenes. Distrito Federal, México:

Perfiles Educativos.

Fallas, J. (2007). Modelos digitales de elevación: Teoría, métodos de interpolación y

aplicaciones.

Ferreira, M. R., & Aira, V. G. (2017). Aplicaciones topográficas de los drones.

Garcia, P., & Ortiz, E. (2012). Influencia del GSD en la orientación de un bloque

fotogrametrico. universidad del pais vasco.

Bibliografía 89

González, R., & Woods, R. (2002). Digital Image Processing. New Jersey.

Granshaw, S. I., & Fraser, C. S. (2015). Computer Vision and Photogrammetry: Interaction

or Introspection? The Photogrammetric Record, 3-7.

HÉLICÉO-Geomatic Innovation&Technology. (2019). HÉLICÉO. Obtenido de HÉLICÉO:

http://www.heliceo.com/es/produits-pour-geometres/fusion-dron-avion-vtol/

IGAC. (2016). Especificaciones técnicas cartografía básica digital.

Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International

Journal of Computer Vision, 91-110.

MicMac, C. (2017). MicMac wiki. Obtenido de

https://micmac.ensg.eu/index.php/Presentation

Morales, A. (2019). MappingGIS. Obtenido de

https://mappinggis.com/2019/08/opendronemap-crea-mapas-con-imagenes-

capturadas-por-drones/

Ortega, D., García, J., Vergara, R., Sanz , S., Hernández, A., & Ramos , D. (2016). Piloto

de dron RPAS.

Ortiz, M. M. (2013). Procesamiento Digital de Imágenes. Puebla: Universidad Autónoma

de Puebla.

Pachón. (2016). Practica de proyecciones.

Pereira, J. (8 de Octubre de 2012). Digital Heritage. Obtenido de

http://www.jpereira.net/software-revisiones-y-consejos/introducicon-a-la-

fotogrametria-parte-1

Pérez Rivero. (2010). Ecured. Obtenido de https://www.ecured.cu/Software_libre

Pérez, J. A. (2001). Apuntes De Fotogrametría III. Merida: Universidad De Extremadura.

Pierrot-Deseilligny, & Clery. (2011). Apero, an open source bundle adjustment software for

automatic calibration and orientation of set of images. 835-846.

90 Bibliografía

Pierrot-Deseilligny, & Paparoditis. (2006). A multiresolution and optimization-based image

matching approach. Arch Photogramm Remote Sens Spat.

Quirós, E. (2014). Introducción a la Fotogrametría y Cartografía aplicadas a la Ingeniería

Civil. Cáceres: Universidad de Extremadura.

regard3d. (s.f.). Obtenido de https://www.regard3d.org/index.php/documentation

Rupnik, E., Daakir, M., & Pierrot Deseilligny , M. (2017). MicMac – a free, open-source

solution for photogrammetry. Open geospatial data.

Sánchez, J. (2006). Introducción a la fotogrametría. E.T.S.I. Caminos, canales y puertos.

Santamaría, J. (2011). La cartografía y las proyecciones cartográficas. Universidad de La

Rioja.

Schonberger, Zheng, Pollefeys, & Frahm. (2016). Conference on Computer Vision and

Pattern Recognition. Obtenido de https://colmap.github.io/#

Snavely, N., Seitz, S., & Szeliski, R. (2006). Photo tourism: exploring photo collections in

3D. SIGGRAPH '06, 835-846.

Übel, M. (2020). 2020 Best Photogrammetry Software (Some are Free). ALL3DP .