TFG Angel Acevedo Sanchez
TFG Angel Acevedo Sanchez
TFG Angel Acevedo Sanchez
cuerpos de agua
mediante el tratamiento
de imágenes
multiespectrales
Grado en Ingeniería del Software
Curso académico: 2020/2021
Autor
Ángel Acevedo Sánchez
Tutor/es
Montserrat Hernández Viñas
Departamento de Sistemas Informáticos
Elvira Martínez de Icaya Gómez
Departamento de Sistemas Informáticos
Change detection of water bodies is directly applicable in the study of land and aquatic
ecosystems. It helps provide answers to the adverse events favoured by global warming or the
misuse of freshwater reserves.
In this project, we take technology as a key tool for the development of an analysis to
detect changes in reservoirs. During a specific time, we combine unsupervised classification
techniques, such as Principal Analysis Component, with multispectral image processing. Li-
kewise, some improvements, proposed by the author, are applied to the methods employed
and will be assessed using the suited metrics for the context of the project.
To finish with the research, and as a result of the assessment, we initiate a discussion
about the effectiveness of the methods and lead to obtain a final conclusion.
Resumen
1. Introducción 1
1.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Estructura de la obra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2. Marco Teórico 3
2.1. Sistemas de captura de información a distancia . . . . . . . . . . . . . . . . . 3
2.2. Principios físicos de la radiación electromagnética . . . . . . . . . . . . . . . . 3
2.2.1. Modelo de onda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2.2. Modelo de partícula . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.3. Radiación del cuerpo negro . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.4. Otras leyes de la radiación . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.5. Espectro electromágnetico . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.6. Términos radiométricos . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. Firma espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4. Teledetección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4.1. Sistemas de Teledetección . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4.2. Influencia de los fenómenos naturales . . . . . . . . . . . . . . . . . . . 12
2.4.3. Tratamiento digital de imágenes multiespectrales . . . . . . . . . . . . 13
2.4.3.1. Presentación de imágenes en Teledetección . . . . . . . . . . 13
2.4.3.2. Corrección . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4.3.3. Realce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4.4. Índices derivados de la Teledetección . . . . . . . . . . . . . . . . . . . 18
2.5. Algoritmos de Segmentación de imágenes . . . . . . . . . . . . . . . . . . . . 19
2.6. Análisis de Componentes Principales . . . . . . . . . . . . . . . . . . . . . . . 20
2.6.1. Cálculo de las Componentes Principales . . . . . . . . . . . . . . . . . 20
2.6.2. Aplicaciones en Teledetección . . . . . . . . . . . . . . . . . . . . . . . 23
4. Desarrollo 30
4.1. Contexto geográfico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2. Ecosistema tecnológico empleado . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3. Entregables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
vii
viii Índice general
4.4. Metodología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.4.1. Obtención de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.4.1.1. WRS PATH ROW . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4.1.2. Minimun bounding rectangle (MBR) . . . . . . . . . . . . . . 36
4.4.1.3. Colecciones Landsat . . . . . . . . . . . . . . . . . . . . . . . 37
4.4.1.4. Script desarrollado . . . . . . . . . . . . . . . . . . . . . . . . 38
4.4.2. Procesamiento de imágenes . . . . . . . . . . . . . . . . . . . . . . . . 41
4.4.2.1. Obtención del área de interés (ROI ) . . . . . . . . . . . . . . 41
4.4.2.1.1. Procedimiento 1: paralelogramo con rotación . . . . 41
4.4.2.1.2. Procedimiento 2: bounding box . . . . . . . . . . . . 44
4.4.3. Análisis de nubosidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4.4. Obtención del ground truth . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.5. Aplicación de métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.5.1. Método 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.5.2. Método 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5. Resultados 59
5.1. Análisis de cambios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1.1. Período 2014 - 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1.2. Período 2014 - 2017 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1.3. Período 2014 - 2015 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2. Evaluación de métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.2.1. Selección de puntos de control . . . . . . . . . . . . . . . . . . . . . . 63
5.2.2. Matrices de confusión y métricas empleadas . . . . . . . . . . . . . . . 63
5.2.3. Discusión sobre los resultados obtenidos . . . . . . . . . . . . . . . . . 65
5.3. Crítica y comparación de métodos . . . . . . . . . . . . . . . . . . . . . . . . 66
Bibliografía 76
ix
Índice de tablas
x
Índice de Códigos
xi
1. Introducción
Desde un punto de vista biológico, el agua es la molécula más abundante en los seres vivos
y es, además, el principal elemento sustentador de la vida. Este es un recurso finito y por
tanto, merece una gestión adecuada que garantice su disponibilidad en cualquier situación.
En España contamos con 1225 presas según datos publicados por el que fuera Ministerio de
Agricultura y Pesca, Alimentación y Medio Ambiente (MAPAMA) en el inventario “Evolución
del Número de Presas” (s.f.), lo cual nos sitúa como el país con el mayor número de pantanos
en la Unión Europea. Sin embargo, la cantidad de agua en nuestros embalses va disminuyendo
y en 2020 ya se tiene un nivel total nacional por debajo del promedio de los últimos 10 años
si atendemos a los resultados publicados por La Moncloa en la nota de prensa “La reserva
hídrica española se encuentra al 47 por ciento de su capacidad” (2020).
1.1. Motivación
Son varios los motivos que han llevado al autor a realizar su Trabajo Fin de Grado sobre
la temática definida en el título de la obra.
El cambio climático que sufre el planeta Tierra debe ser analizado en todas sus vertientes.
Es por eso que este trabajo nace del desafío planteado por dicho fenómeno, y pretende dar
cuenta de su acción en las reservas de agua dulce que tan valiosas son para la subsistencia
del ser humano.
1
2 Introducción
1.2. Objetivos
Este Trabajo Fin de Grado pretende, en primera instancia, desarrollar un procedimiento
de análisis de cambios en cuerpos de agua, aplicándolo de manera específica a los embalses
de la comarca de “La Siberia” (Badajoz).
Este análisis será el resultado de un estudio realizado tomando imágenes del satélite
Landsat-8 correspondientes al mes de junio de los períodos 2014-2015, 2014-2017, 2014-2020.
De esta manera, se podrá obtener una referencia general sobre la evolución del agua embal-
sada a lo largo de los años para dar cuenta de fenómenos producidos por el cambio climático
como son la escasez de lluvias o la sequía, que presentan un impacto ambiental importante.
Además, se realizará un procesamiento exhaustivo de las imágenes obtenidas para dar paso
a la aplicación de dos métodos de detección de cambios con algunas variaciones propuestas
por el autor. En este sentido, se pretende también realizar una evaluación final que dicte
la bondad de cada uno de los métodos empleados y así, sentar las bases para discutir las
ventajas o desventajas que pueda ofrecer cada uno de ellos.
3
4 Marco Teórico
FOTOGRAMETRÍA TELEDETECCIÓN
∇ · E = 0, (2.1)
∇ · B = 0, (2.2)
−∂B
∇×E = , (2.3)
∂t
∂E
∇ × B = ε0 µ 0 , (2.4)
∂t
Si consideramos ondas planas que se propagan en la dirección del eje X, se definen las
ecuaciones de onda para el campo magnético y el campo eléctrico:
→
− →
− →
− →
−
∂2 E 1 ∂2 E ∂2 B 1 ∂2 B
= = (2.5)
∂2x c2 ∂ 2 t ∂2x c2 ∂ 2 t
2π
Donde: k = → Número de onda (m−1 ).
λ
λ → Longitud de onda (m), representa la distancia entre dos
máximos de onda sucesivos.
2π
w = 2πf = → Frecuencia angular expresada en radianes/s.
T
f → Frecuencia (Hz), representa el número de ondas por segundo
que pasa por un punto fijo.
T → Período, expresado en segundos.
c
λ= (2.7)
f
Las ondas electromagnéticas están, pues, caracterizadas por las variables anteriores y se
componen de dos ondas que oscilan perpendicularmente la una a la otra y, siendo ondas
planas, perpendicularmente también a la dirección de propagación:
6 Marco Teórico
E =h·f (2.8)
Donde: h → Representa la constante de Planck cuyo valor es aproximadamente
6′ 6 × 10−34 J · s.
f → Es la frecuencia de la radiación.
En el año 1900, Max Planck fue el primero en proponer esta idea que sentaría las bases de
la Mecánica Cuántica y ayudó a resolver el fenómeno de la radiación del cuerpo negro. Más
adelante, en 1905, Albert Einstein tomó el trabajo de Planck para confirmar su teoría de la
discontinuidad de la luz en Einstein (1905), especificando el término “cuantos” como “cuantos
de luz”. Después, dicho término fue sustituido por el de fotón, una vez fuera introducido por
autores como Gilbert en Lewis (1926). Con todo ello, Einstein utilizó los descubrimientos
para explicar el efecto fotoeléctrico.
Tanto Planck como Einstein recibirían el Premio Nobel por su trabajo. Planck fue galar-
donado en 1918 por su contribución al desarrollo de la teoría cuántica; mientras que Einstein
lo recibiría en 1921 gracias al efecto fotoeléctrico.
2.2. Principios físicos de la radiación electromagnética 7
Entonces, hasta 1900 se tenían dos leyes que describían la relación entre la frecuencia/lon-
gitud de una onda y su energía. Sin embargo, dichas leyes no podían ser aplicadas de manera
conjunta. En ese mismo año, Planck introdujo que la energía se radia en forma discreta, es
decir, a través de pequeñas unidades separadas entre sí denominadas cuantos y alcanza su
valor máximo a una determinada temperatura. Esta afirmación puso en tela de juicio la na-
turaleza ondulatoria de la luz propuesta por Maxwell ya que se infería que la luz en realidad
podría comportarse como una partícula y no como una onda.
Planck consiguió modelar la curva de emisión de energía para un cuerpo negro como una
función que depende de la longitud de onda y de la temperatura del cuerpo negro. Esta curva
era modelada por una distribución que sí se ajustaba a los datos experimentales y, por tanto,
se adaptaba a la Ley de Wein para longitudes de onda corta, y a la Ley de Rayleigh-Jeans
para longitudes de onda largas, apareciendo en todos los casos un máximo de emisión que
depende de la temperatura:
2πhc2 1
E(λ, T ) = (2.9)
hc
λ5 e λKT −1
Donde: h → Es la constante de Planck.
K → Es la constante de Boltzmann cuyo valor es 1′ 38 · 10−23 ws2 k −1 .
T → Temperatura absoluta en grados Kelvin.
De la expresión anterior, 2.9, se observa que la radiación que emite un cuerpo no depende
en absoluto de su composición, sino de su temperatura. De hecho, se puede obtener incluso
aquella longitud de onda donde la potencia de emisión es máxima por medio de la la Ley del
Desplazamiento de Wein.
8 Marco Teórico
Tomada de “La radiación del cuerpo negro. Hipótesis de Planck” por Fernández (2015).
2898µm · K
λmax = (2.10)
T
Con esta ley se concluye que cuanto mayor sea la temperatura de un cuerpo negro, menor
es la longitud de onda en la que emite y, por tanto, mayor su frecuencia.
No solo es posible conocer el hecho anterior, sino que a través de la Ley de Stefan-
Boltzmann (ecuación 2.11) se puede medir el flujo total de energía radiante en todo el es-
pectro, dada una temperatura absoluta T . Con esta ley se ratifica la relación directamente
proporcional entre la energía emitida y la temperatura de un cuerpo.
E = σ · Te4 (2.11)
W
Donde: σ → Es la constante de Stefan-Boltzmann cuyo valor es 5′ 67 × 10−8 .
m2 K 4
• Ultravioleta o UV, 1-380 nm: esta región condensa la radiación con menor longitud de
onda que puede ser considerada para la Teledetección (la de mayor energía).
• Espectro visible, 380-750 nm: el espectro visible representa la radiación que es percepti-
ble por el ojo humano a través de los colores. En particular, es divisible en los siguientes
colores:
– Violeta, 380-450 nm.
– Azul, 450-495 nm.
– Verde, 495-570 nm.
– Amarillo, 570-590 nm.
– Naranja, 590-620 nm.
– Rojo, 620-750 nm.
• Infrarrojo, 0’75-100 µm: esta región del espectro electromagnético es muy usada en
Teledetección como se verá a lo largo de este proyecto. Es divisible en tres subregiones:
– Infrarrojo próximo (NIR), 0’7-1’3 µm.
– Infrarrojo corto (SWIR), 1’3-3 µm.
– Infrarrojo térmico (TIR), 3-100 µm.
• Región de microondas, 0’001-1 m: La región de microondas es útil en Teledetección
ya que la radiación que emite en este rango no se ve afectada ni por las condiciones
meteorológicas ni por las propiedades de opacidad de la atmósfera. Es la tecnología
Radar la que opera en este rango de frecuencia.
Como se decía, el concepto de espectro electromagnético es muy importante de cara a la
Teledetección. Normalmente, las imágenes de Teledetección son organizadas en “bandas” que
se identifican con rangos de longitud de onda del espectro electromagnético. El concepto de
banda será tratado con más detalle en la siguiente sección.
∂Q
ϕ= (2.12)
∂t
• Radiancia (W /sr): es el flujo radiante que sale de una superficie en una dirección de-
terminada siguiendo un ángulo sólido (la unidad de ángulo sólido es el estereorradián,
que en el Sistema Internacional se escribe sr). La radiancia es fundamental en Telede-
tección ya que es la magnitud que detecta el sensor satelital. En los casos en los que la
radiancia se define en relación a una región concreta del espectro electromagnético, se
denomina radiancia espectral.
• Absorbancia: relación entre el flujo absorbido por una superficie y el flujo incidente
sobre ella.
Cada tipo de material (suelo, vegetación, agua, etc.) refleja la radiación incidente de forma
diferente, lo que permite distinguirlo de otras superficies. A partir de medidas de laboratorio,
se han obtenido las curvas de reflectividad para las distintas cubiertas terrestres en función de
la longitud de onda, lo que se conoce como albedo o firma espectral. Esta firma espectral
constituye una marca de identidad de los objetos y muestra el tanto por ciento de la radiación
incidente que es reflejada para cada longitud de onda.
2.3. Firma espectral 11
Tomada de “Firmas espectrales típicas para vegetación, suelo y agua en el rango visible e infrarrojo
reflejado del EE” en Hernández y Montaner (2009)
Son diversos los factores que influyen en la curva de reflectividad de los cuerpos. Con algo
más de detalle se describen a continuación:
• Vegetación: tal y como recogen varios estudios (Gates et al., 1965; Knipling, 1970;
Colwell, 1974; Curran, 1980; Jensen, 1983) sintetizados en Chuvieco (1995), el compor-
tamiento de la curva de reflectividad de la vegetación se ve reducida en la zona visible
del espectro, aunque muestra un pico sutil en la banda verde. Sin embargo, la misma
curva presenta una tendencia en alza en zonas del infrarrojo cercano hasta que esta
se ve reducida al llegar al infrarrojo medio. Todo este comportamiento es debido a la
presencia de pigmentos foto-sintéticos (clorofila, xantofilas y carotenos) y al contenido
en agua que presenta la vegetación (Chuvieco, 1995).
• Suelo: aquí conviene hacer una división entre suelos desnudos y cubiertos por vegetación.
En los suelos cubiertos por vegetación el comportamiento espectral de esta cubierta será
el que describa la propia vegetación (Villar et al., 2016). En los suelos sin vegetación, la
firma espectral presenta una tendencia constante incrementándose a medida que crece
la longitud de onda tal y como se puede ver en la figura 2.3.
• Agua: de acuerdo con Chuvieco (1995); Villar et al. (2016), el comportamiento notable
de la curva espectral del agua se aprecia en el espectro visible. Y es que en la firma
espectral del agua aparece un máximo en el la banda verde (visible) que va reducién-
dose hasta el infrarrojo. Esta falta de reflectividad en el infrarrojo va a ser clave para
distinguir entre áreas cubiertas de tierra y agua tanto en costas como en lagos, ríos o
embalses. Por su parte, los factores que afectan al comportamiento de esta curva son
la profundidad de la masa de agua y la clorofila presente debido a vegetación de la
superficie. Cuanto mayor sea la profundidad, menor es la radiación emitida mientras
que si el agua presenta poca profundidad, la emisión de radiación será mayor.
12 Marco Teórico
2.4. Teledetección
El objeto de este proyecto recae en la aplicación de la Teledetección al seguimiento de
cuerpos de agua y, concretamente, a embalses. Es por ello que la Teledetección merece una
mención especial en este marco teórico; además, conviene profundizar en este campo para
conocer los cimientos en los que esta se basa. Las siguientes secciones intentarán ayudar al
lector a comprender la base científico-técnica de la Teledetección.
A su vez, el mismo autor anterior especifica que puede existir una categorización entre
los sistemas pasivos de Teledetección si distinguimos en función del origen de la radiación
emitida. Es decir, existen dos tipos de sistemas pasivos: aquellos que recogen la radiación
solar reflejada por los objetos (ultravioleta, luz visible e infrarrojo reflejado) y aquellos que
recogen la radiación térmica emitida por los propios objetos (infrarrojo térmico).
• Tercera venta: entre 1 mm y unos pocos metros. Esta ventana se corresponde con la
región de las microondas.
Por otro lado, los fenómenos de dispersión y absorción suponen un factor determinante en
el proceso de Teledetección. La dispersión ocurre cuando las partículas o grandes moléculas
de gas que están presentes en la atmósfera interaccionan con la radiación de manera que esta
se ve desviada en su trayectoria original. La absorción es el fenómeno que ocurre cuando la
radiación electromagnética interactúa con las moléculas de la atmósfera y estas absorben la
energía en varios niveles de longitud de onda (“Interactions with the Atmosphere”, 2016).
Las moléculas o partículas mencionadas en el párrafo anterior pueden ser de distinta
naturaleza: polvo en suspensión, polen, vapor de agua, gas ozono o dióxido de carbono (“In-
teractions with the Atmosphere”, 2016).
En definitiva, ambos fenómenos, absorción y dispersión, provocan una disminución de la
energía en su dirección de incidencia.
Normalmente, cada uno de los píxeles de un ráster contiene dos tipos de información:
intensidad y posición. La intensidad, se refiere al nivel de gris. En cuanto a la posición, ahora
se va un paso más hacia adelante, es decir, no solo se tiene una posición relativa dentro de
la imagen (i, j); sino que cada uno de estos píxeles está georeferenciado a coordenadas del
mundo real de tal forma que la localización de cada punto en una imagen de Teledetección
se hace de forma unívoca y universal.
Ahora que se ha introducido cómo es una imagen digital y, en concreto, una imagen de
Teledetección, se describen los procesos de tratamiento existentes para imágenes de Tele-
detección. La guía publicada en Eastman (2001), Guide to GIS 1 and Image Processing,
describe la correción y el realce, términos muy utilizados en inglés como Image Restora-
tion y Image Enhancement, como las técnicas de procesamiento principales para imágenes de
Teledetección.
2.4.3.2. Corrección
En la misma línea que lo expuesto en “Interactions with the Atmosphere” (2016), Eastman
(2001) reconoce la dificultad existente para la llegada de la radiación electromagnética al
sensor debido al grado de opacidad en la atmósfera y a la distancia entre el objeto y el sensor.
Esta suma resulta en una posible distorsión en cuanto a la energía que se recibe desde el
satélite.
Si a esto además se une el hecho de que el satélite está orbitando en una ruta sujeta
a variaciones debidas al movimiento planetario o a vibraciones de la propia plataforma, se
1
Geographic Information System. Sistema de Información Geográfica
2.4. Teledetección 15
Corrección radiométrica
Corrección atmosférica
Si bien la corrección radiométrica se aplica con el objetivo de corregir aquellos píxeles con
valores erróneos, la corrección atmosférica evalúa los efectos producidos por los fenómenos
ya descritos de dispersión y absorción que terminan por modificar los valores de radiancia
que llegan al sensor satelital desde la superficie terrestre.
Este proceso de corrección atmosférica es algo más complejo. Consiste en transformar los
ND a valores reales de radiancia para lo cual se utilizan distintas fórmulas como la propuesta
por Chander et al. (2009) para el satélite Landsat-7:
Normalmente, estos valores son conocidos y publicados por las entidades responsables de
los satélites; de tal forma que el cálculo se simplifica y se resume a aplicar expresiones como
la 2.16 conociendo los factores de sesgo y ganancia de cada banda.
Corrección geométrica
2.4.3.3. Realce
Los métodos de realce de imágenes de Teledetección tienen por objetivo la obtención de
imágenes con una mejora en la apariencia visual. Este objetivo se logra por medio de la
aplicación de técnicas para mejorar el contraste de la imagen, realizar correcciones entre dos
imágenes u obtener máscaras finales (Ruiz Fernández, 2018).
Modelización de histogramas
Existen distintos métodos que actúan sobre el histograma de una imagen para modificar
su contraste. Entre otros, destacan el método de la Ecualización del histograma, método
de Normalización (Contrast stretching, en inglés) y método de Especificación (matching, en
inglés).
El método de la Ecualización del histograma pretende obtener un histograma con una
distribución lo más uniforme posible. Las imágenes obtenidas por el sensor de Teledetección
suelen tener en un rango muy reducido de valores la mayor parte de los píxeles, lo que dificulta
la correcta visualización de las imágenes (Eastman, 2001). Para conseguir un histograma bien
2.4. Teledetección 17
distribuido, se le debe hacer una transformación de tal forma que la frecuencia de los diferentes
valores de los píxeles sea lo más parecida posible.
El segundo método, Normalización, busca obtener un histograma final “estirando” el
histograma original de tal forma que se consigue tener los valores de los píxeles normalizados
entre un rango determinado. Esta técnica es bastante útil para obtener imágenes de satélites
en color real, las cuales suelen presentar inicialmente un contraste muy bajo.
Por último, el método de la Especificación del histograma se aplica a una imagen
tomando como referencia otra del mismo lugar pero tomada en otras condiciones: distinta
fecha, distinto sensor... (Ruiz Fernández, 2018). De este modo, se transforma el histograma
de la imagen original para que tenga la misma forma del histograma de referencia, de modo
que las dos imágenes tengan tonos y contrastes similares y sean comparables.
Fusión
aplicable a cualquier tipo de banda, lo que será de utilidad a futuro en este pro-
yecto. Para cualquier conjunto de bandas B = b0 , b1 , ..., bn , el método Brovey
puede ser implementado por medio de la siguiente expresión:
Bi
Bi,f us = · P AN (2.17)
∑
n
bi
i=0
• NDWI: Normalized Difference Water Index (McFeeters, 1996). Utilizado para extraer
la cubierta de agua. Se calcula como:
GREEN − N IR
N DW I = (2.19)
GREEN + N IR
• MNDWI: Modified Normalized Difference Water Index. Propuesto por Xu (2006), será
utilizado más adelante en este trabajo. Pretende mejorar el resultado obtenido con el
índice NDWI para la extracción de cuerpos de agua. Se calcula como:
GREEN − SW IR
M N DW I = (2.20)
GREEN + SW IR
• NDBI: Normalized Difference Built-up Index. Este índice es utilizado para resaltar las
2.5. Algoritmos de Segmentación de imágenes 19
• Basados en entropía: Son algoritmos que escogen el umbral t mediante la elección del
20 Marco Teórico
Figura 2.5: Histograma bimodal con umbral T detectado y con t0 y t1 como posibles niveles de gris
diferentes.
valor de intensidad que refleje la mayor entropía. Dentro de las medidas más comunes
para calcular la entropía se encuentra la entropía de Shannon. Algunos de los algoritmos
basados en esta métrica son el método Kapur (Kapur et al., 1985) o el algoritmo
de Li (Li y Lee, 1993).
cada elemento de la matriz, Xij , indica la intensidad de luz que emite el píxel i en la banda
j.
x11 · · · x1j · · · x1p
··· ··· ··· ··· ···
X = (x1 , ..., xj , ..., xp ) =
xi1 · · · xij · · · xip
(2.23)
··· ··· ··· ··· ···
xn1 · · · xnj · · · xnp
Por tanto, para obtener los ND de la i-ésima banda se extrae Xi = [x1i , x2i , · · · , xnp ] .
También es necesario definir la matriz de varianzas y covarianzas de X. Se trata de una
matriz con p dimensiones, es decir, coincide con el número de variables o bandas de la imagen
multiespectral.
2
σ11 · · · σ1p
2
ΣX = · · · · · · · · · (2.24)
2
σp1 · · · σpp
2
Como las nuevas componentes principales se obtienen como combinación lineal de las
originales, se puede definir Y como la nueva variable a obtener de la combinación lineal de
X:
V ar(Yi ) = ati Σx ai
Cov(Yi , Yk ) = ati Σx ak
Las combinación lineal debe ser única y para ello ha de satisfacer tres condiciones:
1. Las nuevas variables Yi han de maximizar la varianza.
2. Las nuevas variables Yi han de ser ortogonales para que no exista correlación entre
componentes.
3. Se debe utilizar vector unitario de coeficientes que satisfaga ati · ai = 1 (longitud 1).
El procedimiento general para el cálculo de las componentes principales es el siguiente:
22 Marco Teórico
1. La primera componente principal es la combinación lineal ati X que maximiza V ar(at1 X).
2. La segunda componente principal es la combinación lineal at2 X que maximiza V ar(at2 X)
y con Cov(at1 X, at2 X) = 0 de tal manera que no esté correlacionada con la primera
componente principal.
3. La i-ésima componente principal es la combinación lineal ati X que maximiza V ar(ati X)
y con Cov(ati X, atk X) = 0 para k < i de tal manera que no esté correlacionada con la
anterior componente principal.
En Johnson y Wichern (1982) se muestra que el i-ésimo componente principal puede ser
calculado de la siguiente forma:
A · v = λ · v, v ̸= 0v
λ1 · · · · · · 0
0 λ2 · · · 0
Σy = . .. .. .. (2.26)
. . . . .
0 · · · · · · λp
2.6. Análisis de Componentes Principales 23
En esta matriz Σy , los autovalores van decreciendo en la diagonal por lo que la máxima
varianza es expresada por la primera componente principal hasta que se va reduciendo en
las siguientes componentes. Es útil conocer como un autovalor representa la cantidad de
información que contiene la componente principal asociado al autovalor. Por otro lado, el
autovector puede ser concebido como una sucesión de pesos para cada una de las bandas que
permite obtener la componente principal tras aplicar la combinación lineal.
El “Estado del Arte” de este proyecto se propone como una sección donde se realice un
doble análisis. Por un lado, revisar el estado actual de la tecnología relativa al análisis de
cambios en masas de agua; y por otro, de forma implícita, tomar conciencia de la evolución
de los distintos métodos existentes para evaluar estos cambios, no solo con mecanismos de
Teledetección, sino también con técnicas menos vanguardistas pero igual de utilizadas como
las herramientas de medición sobre el terreno.
24
3.2. Misión SWOT 25
aire hacia la masa de agua y, gracias a un sensor situado sobre la cota máxima de
agua, se mide la presión de aire que se origina en la sonda.
• Medida por tiempo de paso: este tipo de sistemas calculan el tiempo que emplean
impulsos de ultrasonido o de radar en recorrer la distancia entre el dispositivo generador
y el nivel de agua.
– Ultrasonidos: el impulso es generado por una sonda ultrasónica. En este caso, la
velocidad de los ultrasonidos se ve influida directamente por la temperatura del
aire, por lo que se necesita contar con un sensor de temperatura para compensar
las medidas.
– Radar: el impulso es generado por una antena que emite ondas electromagnéticas
a la velocidad de la luz. Este sistema no se ve afectado ni por la temperatura ni
por otros fenómenos meteorológicos.
Landsat-7
Landsat-7 fue lanzado y puesto en órbita el 15 de abril de 1999 con el Enhanced Thematic
Mapper Plus (ETM+) como sensor de Teledetección abordo.
El sensor ETM+ cuenta, entre otras, con las siguientes características:
3.3. Programa Landsat 27
• Scan Line Corrector (SCL): mecanismo que corrige el patrón de zigzag que puede
haber en algunas imágenes. Sin embargo, el 31 de mayo de 2003 este mecanismo dejó
de funcionar por lo que Landsat-7 continua adquiriendo imágenes con un patrón de
zigzag que tiene que ser corregido con técnicas de post-procesamiento.
Las bandas espectrales que el sensor puede detectar son 8, y se pueden ver en la tabla 3.1
en comparación con las que se obtienen con Landsat-8.
Las imágenes obtenidas con Landsat-7 a partir de las bandas obtenidas con el sensor
ETM+ están georeferenciadas con el sistema WRS1 -2 y abarcan una superfice de 185km ×
170km. Además, es capaz de obtener unas 450 escenas diarias realizando un ciclo completo
cada 16 días (Ihlen, 2019).
Landsat-8
Actualmente, “Landsat-8” es el satélite más reciente del programa. Fue lanzado y puesto
en órbita con éxito el 11 de febrero de 2013 para continuar con el programa y mejorar la
calidad de las imágenes capturadas con el todavía operativo “Landsat-7”.
En cuanto a tecnología, esta plataforma incorpora dos nuevos sensores: Operational Land
Imager (OLI) y Thermal Infrared Sensor (TIRS).
– Redefinición del rango espectral de bandas para evitar los fenómenos de la atmós-
fera y el vapor de agua.
• TIRS: Este sensor térmico recoge imágenes para dos bandas (TIR-1 y TIR-2) con una
resolución espacial de 100 metros redimensionados a 30 metros. Por su parte, la resolu-
ción radiométrica sigue siendo de 12 bits. Además, el sensor TIRS tiene una sensibilidad
mucho mayor que el sensor ETM+, ya que es capaz de detectar temperaturas entre 260K
y 330K en comparación con el rango de sensibilidad térmica 272-285K de ETM+.
Banda Longitud de onda (µm) Resolución (m) Banda Longitud de onda (µm) Resolución (m)
Adapatada de “OLI and TIRS Spectral Bands Compared to ETM+ Spectral Bands” por Ihlen
V., 2019, Landsat 8. Data Users Handbok, p. 10.
Landsat-9
Aunque las misiones operativas del programa Landsat son actualmente Landsat-7 y Landsat-
8, el Estado del Arte de este programa, en cuanto a contexto temporal y tecnología, pasa por
la misión Landsat-9 que será lanzada en septiembre de 2021.
El objetivo de Landsat-9 sigue siendo el mismo: continuar con la captura de imágenes que
ayuden a mejorar el conocimiento científico de la cubierta terrestre. Concretamente, en el
artículo “Landsat 9 Overview” (s.f.) se recogen algunos objetivos más específicos para esta
misión que pasan por el apoyo en la toma de decisiones relativas a distintos fenómenos:
• Deforestación tropical.
• Expansión urbana.
Para el desarrollo de este proyecto se ha elegido como zona geográfica de estudio la comarca
“La Siberia” (39°9′ 0′′ N, 5°6′ 0′′ W), situada en el margen nororiental de la provincia de
Badajoz, en la comunidad autónoma de Extremadura.
La comarca extremeña, que cuenta con 5 embalses, es la mayor costa interior de agua
dulce de España. Cada uno de estos 5 embalses han sido estudiados a lo largo de este trabajo
y son los siguientes:
• Embalse de Cíjara (39°20′ 2′′ N, 4°53′ 7′′ W): en la cuenca del río Guadiana. Cuenta con
una capacidad total de 1532 hm3 .
• Embalse de García de Sola (39°9′ 23.77′′ N, 5°11′ 26.57′′ W): en la cuenca del río Gua-
diana. Recibe el agua arrojada por los aliviaderos del embalse de Cíjara y alimenta al
embalse de Orellana. Cuenta con una capacidad total de 554 hm3 .
• Embalse de Orellana (38°59′ 9′′ N, 5°32′ 16′′ W): en la cuenca del río Guadiana. Cuenta
con una capacidad total de 808 hm3 de agua embalsada.
• Embalse del Zújar (38°55′ 47.38′′ N, 5°26′ 41.74′′ W): en la cuenca del río Zújar. Actual-
mente, este pantano sirve como contraembalse del embalse de La Serena. Cuenta con
una capacidad total de 302 hm3 .
• Embalse de La Serena (38°54′ 45.65′′ N, 5°24′ 48.89′′ W): en la cuenca del río Zújar. Es
considerado como la segunda mayor bolsa de agua dulce de la península ibérica y una
de las más grandes de Europa. El embalse de La Serena tiene capacidad para embalsar
3219 hm3 de agua.
30
4.1. Contexto geográfico 31
Figura 4.1: Mapa comarcal de España. En rojo, la comarca de “La Siberia” (Badajoz)
Figura 4.2: Imagen en color real de la comarca “La Siberia” con la localización de sus 5 embalses
Elaborada por el autor mediante la combinación de bandas RGB del satélite Landsat-8 tras aplicar el
método de Normalización del histograma (ver subsección 2.4.3.3). Fecha de adquisición: 28 de junio
de 2015.
32 Desarrollo
Python
Para este trabajo se ha empleado este lenguaje tanto para la obtención de imágenes de
Teledetección como para realizar todo el procesamiento de imágenes obtenidas y aplicar
los métodos de detección de cambios. Sin embargo, para el procesamiento y la aplicación
de métodos se ha utilizado el entorno de desarrollo “Jupyter”, que será introducido en el
siguiente punto.
En general, una buena parte de la programación con Python pasa por la utilización de
distintas librerías desarrolladas por terceros. Estas librerías son de reconocido prestigio y
están testadas en cuanto a rendimiento y finalidad. En este sentido, y con la intención de que
este proyecto pueda ser replicado en el futuro en las mismas condiciones en las que ha sido
desarrollado por el autor, se detalla el entorno utilizado en cuanto al lenguaje y sus librerías:
La versión de Python empleada ha sido la 3.7.8 de 64 bits. En la tabla 4.1 se detallan las
versiones de las librerías utilizadas.
Jupyter
Jupyter es un proyecto open source que sirve de entorno de programación para lenguajes
como Python y está enfocado hacia la ciencia de datos y la computación científica.
Este entorno ofrece una gran versatilidad, sobre todo a la hora de trabajar con imágenes,
ya que la visualización de estas se realiza dentro de la misma herramienta sin necesidad
de recurrir a otros programas externos. Por tanto, puesto que tanto el tratamiento como la
visualización de imágenes es vital para este trabajo, se ha decidido emplear esta tecnología.
El entorno de Jupyter ofrece su interfaz de usuario mediante una aplicación web que se
ejecuta en el puerto 8888 del localhost del sistema. Esta interfaz se basa en una serie de celdas
de entrada, que pueden contener texto o código, y de salida, que contienen el resultado de la
ejecución de la celda de entrada previa. Fruto de esta sucesión de celdas, y siempre que se
utilice Python como lenguaje de programación, se tiene finalmente un fichero de extensión
ipynb que conforma un cuaderno o notebook.
Hardware
Todo el software mencionado ha sido ejecutado bajo un equipo Windows 10 con las si-
guientes características hardware:
• Memoria RAM de 16 GB compuesta por 2 módulos con tecnología DDR3 de 8 GB cada
uno, trabajando en modo dual channel.
• Procesador Intel Core i5-4210U con frecuencia base de 1.7 GHz y frecuencia máxima de
2.7 GHz con turbo activado. 2 procesadores principales (cores) y 4 procesadores lógicos.
• Disco duro interno con tecnología HDD de 1TB de capacidad destinado al almacena-
miento de las imágenes de Teledetección.
• Disco duro externo con tecnología HDD de 1TB de capacidad destinado al respaldo
diario del contenido de todo el proyecto.
• Disco duro interno con tecnología SSD de 256 GB de capacidad destinado a la ejecución
de tareas de procesamiento de imágenes.
4.3. Entregables
Para alcanzar cada uno de los objetivos descritos en la sección 1.2, se han elaborado una
serie de ficheros que serán adjuntos a modo de entregables y que sirven de complemento al
presente documento.
• Fichero get_data.py. Se trata un script desarrollado por el autor para la comunicación
con la API M2M de EROS USGS y que ha sido empleado para la selección y descarga
de las colecciones de imágenes de Landsat-8. En la subsección 4.4.1 se profundiza sobre
este ítem.
34 Desarrollo
4.4. Metodología
La metodología empleada a lo largo de este Trabajo Fin de Grado se conforma de distintas
etapas secuenciales, que van desde la obtención de imágenes de la zona de estudio, hasta la
evaluación de los resultados obtenidos tras la aplicación de distintos métodos de detección de
cambios.
Descarga de
imágenes
Análisis de
nubosidad
Obtención del
ROI
Normalización a
8 bits
su interior. Es decir, lo que se busca es un polígono rectangular que contenga al punto medio
del cuadrante del área de estudio y que ese polígono sea mínimo, de tal forma que no incluya
cuadrantes aledaños.
En la figura 4.4 se observa como existen dos cuadrantes que contienen partes de la zona de
estudio con una ligera superposición en el extremo oriental. Sin embargo, solo el cuadrante
amarillo (202-33) es el que cubre toda la zona de interés. Esta imagen también es útil para
comprender la importancia de seleccionar el punto medio del cuadrante para calcular el MBR
y poder así obtener tan solo la escena buscada; de forma contraria, obtendríamos también la
escena correspondiente al cuadrante de color rojo (201-33).
– Nivel 1: al igual que con el nivel 1 de la colección 2, son imágenes con una calidad
superior fruto de la aplicación de técnicas de corrección.
– Nivel 2: dentro de este nivel se encuentran las imágenes que, tras aplicar el proce-
samiento, no cumplen con los requerimientos del nivel 1 y por tanto, son agrupadas
en este nivel secundario.
Para realizar un estudio temporal de detección de cambios, las imágenes deberían seguir un
mismo patrón de procesamiento y contar con la mejor calidad posible. Es por esto que para el
desarrollo de este trabajo se ha elegido la colección 2 nivel 1 del inventario proporcionado
por USGS EROS.
Aunque la funcionalidad principal queda recogida en los puntos anteriores, el flujo de eje-
cución del script pasa por distintas etapas donde, en algunos casos, se requiere la intervención
del usuario.
2. Obtención de las coordenadas del punto medio del cuadrante: tras solicitar los datos
de path y row se realiza una consulta sobre el endpoint “grid2ll” para obtener las coor-
denadas del punto medio en formato decimal.
3. Búsquedas de escenas: para este punto se requiere un archivo JSON que actúa co-
mo filtro de búsqueda. La búsqueda de las imágenes adecuadas radica en la correcta
configuración de este fichero:
4.4. Metodología 39
• Filtro espacial: Se indican las coordenadas del MBR del cuadrante seleccionado.
Ya se había dicho que el MBR es calculado indicando tan solo el punto medio del
cuadrante, por lo que se indica la longitud y latitud del mismo en formato decimal
para los extremos “lowerLeft” y “upperRight”.
• Filtro estacional: El intervalo [5, 6] indica que para este estudio se han seleccionado
los meses de mayo y junio.
• Filtro de nubosidad: Con la intención de descartar imágenes que presenten una alta
concentración de nubes, se indica que se obtengan imágenes con un 5% máximo
de nubosidad.
Figura 4.5: Salida por consola del script desarrollado tras la finalización de la descarga de imágenes
En la figura 4.5 se puede comprobar el resultado de la ejecución del script. Tras la aplicación
del filtro anterior, se detectan 15 conjuntos de imágenes correspondientes a los meses de mayo
y junio entre los años 2013 y 2020. Además, la imagen es útil para dar cuenta del tiempo
empleado en la descarga de los productos identificados, hecho que fundamenta la elección de
automatizar la obtención de imágenes a través de un script que interactúe con la API M2M.
4.4. Metodología 41
Existe una rotación evidente en las imágenes de la colección 2 nivel 1 de Landsat-8. Dicha
rotación es debido a la georeferenciación y a la ruta orbital del satélite. Si se recuerda,
Landsat-8 contaba con una órbita “casi polar” en el sentido norte-sur, lo que obliga a girar
42 Desarrollo
las imágenes para conseguir un ráster georefenciado donde se mantenga la situación de los
puntos cardinales.
Tomando la anterior premisa, si se quiere contar con un recorte que abarque la mayor
cantidad de terreno dentro de la zona de estudio, es preciso realizar un corte sobre la imagen
que presente su mismo ángulo de rotación; sobretodo cuando se trata de zonas situadas en
los extremos del ráster como es el caso.
El primer paso para conseguir este recorte es trazar un polígono rectangular con sus lados
paralelos dos a dos con los lados del ráster original. Para ello se propone utilizar un visor
GeoJson1 para trazar el polígono sobre la zona de interés y obtener las coordenadas de cada
uno de sus vértices.
Las coordenadas obtenidas de un visor GeoJson son de tipo decimal en el formato EPSG:4326;
sin embargo, el sistema de coordenadas CRS (Coordenates Reference System) de un ráster
Landsat es el EPSG:32630, tal y como se puede consultar en los metadatos del propio ráster.
Por tanto, es necesario hacer una conversión de CRS para poder realizar un corte al ráster
original con el polígono trazado. Para ello, el autor ha utilizado el módulo “warp” de la libre-
ría “rasterio” que proporciona el método “transform_geom” para realizar transformaciones
de CRS de un objeto JSON.
Una vez que tanto el polígono de corte como el ráster tengan el mismo CRS se puede
obtener la imagen final aplicando una máscara de recorte por medio del módulo “mask” de
“rasterio”.
1
Ejemplo de visor GeoJson disponible en https://www.keene.edu/campus/maps/tool/
4.4. Metodología 43
Una de las consecuencias de optar por este primer procedimiento es que se tienen imágenes
con un característico fondo negro. Este fondo negro representa a los píxeles no-data cuyo valor
viene recogido en los metadatos de la imagen. En concreto, para los ráster de Landsat-8 este
valor de píxel es 0.
Para deshacerse de estos valores y obtener una imagen con un fondo transparente se crea
una máscara que distinga los píxeles que contienen información de los que no (fondo negro).
Para ello se sigue la siguiente secuencia de pasos:
Paso 1 Crear un ráster auxiliar con los mismos metadatos de un ráster origi-
nal de Landsat-8. Este ráster auxiliar debe tener las dimensiones de
la imagen ROI.
Paso 2 Obtener la máscara predeterminada del ráster auxiliar, que no es otra
que una de las mismas características de un ráster original, es decir,
una máscara binaria con un objeto con una ligera inclinación hacia la
derecha en el frente y otro objeto que actúa como fondo de la imagen.
Para obtener esta máscara se puede recurrir al método “read_masks”
de “rasterio”.
Paso 3 Aplicar la máscara anterior a la imagen ROI original para obte-
ner el resultado final. En este punto se puede utilizar el método
“ma.masked_array” de la librería “numpy”.
De ahora en adelante cada una de las imágenes se conforma de dos partes: la propia
imagen con fondo transparente y la máscara booleana. Esto, entre otras cosas, dificulta el
procesamiento posterior y añade peso a las imágenes. Además, se deja de tener un ráster
georeferenciado para pasar a imágenes digitales sin georeferenciación.
′
x a b c x
y ′ = d e f y
1 0 0 1 1
Para realizar esta transformación afín de manera rápida y automatizada se opta por uti-
lizar el método “bounds” del módulo “windows” de “rasterio” que toma como parámetros
los valores x0 , x1 , y0 , y1 y el objeto afín del ráster original. El resultado es un conjunto de
′ ′ ′ ′
coordenadas x0 , x1 , y0 , y1 en el CRS EPSG:32630.
Sin embargo, de lo anterior se obtiene un único valor de coordenada por cada vértice y el
resultado debería ser un bounding box definido por cuatro vértices con dos valores decima-
les como coordenadas. Tras aplicar la expresión inferior, se obtiene el polígono rectangular
correctamente georeferenciado:
bbox = ((min(X), min(Y )), (min(X), max(Y )), (max(X), max(Y )),
(max(X), min(Y ), (min(X), min(Y ))
De la misma manera que con el procedimiento 1, se toma el bounding box obtenido como
un objeto geoJSON para utilizarlo como máscara de corte sobre el ráster original.
Para el desarrollo de este trabajo, se ha decido finalmente tomar este segundo procedi-
miento para realizar la obtención del ROI. El motivo reside en el hecho de evitar contar con
valores “no-data” ni tener máscaras adheridas a las imágenes que han demostrado acarrear
ciertos problemas a la hora de aplicar los métodos de detección de cambios.
Finalmente, el ROI obtenido se ha dividido en dos zonas: norte y sur. La zona norte cuenta
4.4. Metodología 45
con los embalses de Cíjara y García Sola; mientras que la zona sur contiene los embalses de
Orellana, Zújar y La Serena. Así, se pretende mejorar la visualización de las imágenes además
de aliviar el peso de las mismas, lo que supone una reducción de los tiempos de cómputo en
el procesamiento y en la aplicación de los métodos finales.
Es por lo anterior que se ha propuesto realizar un análisis de nubosidad entre las capturas
disponibles de cada año recogidas en la tabla 4.2, de tal manera de que la finalidad sea el
escoger únicamente la captura del día/mes que presente menor concentración nubosa en la
zona de estudio. Este análisis debe ser realizado de forma visual comparando las imágenes.
Por otro lado, con el fin de no demorar demasiado este paso, se ha seleccionado una
única banda en lugar de optar por analizar las imágenes en color real que necesitaría de
una combinación de bandas RGB. Aunque la banda 9 (Cirrus) de Landsat-8 proporciona
información acerca de las posibles nubes que pueda haber en una imagen, estas nubes son
muy específicas y no afectan demasiado a las bandas de menor longitud de onda. Por esto,
se elige la banda 6 (SWIR-1) que ofrece un equilibrio entre la visualización del terreno y la
visualización de nubosidad.
Figura 4.8: Comparación y análisis de nubosidad entre capturas del mismo año
Finalmente y como resultado de este proceso, se seleccionan las capturas adquiridas en las
fechas resaltadas en negrita de la tabla 4.2.
46 Desarrollo
En este punto, pudiera surgir un debate entre qué índice de Teledetección tomar para
establecer esta referencia de validación. De una manera u otra, el objetivo es conseguir una
referencia que modele los cambios en los cuerpos de agua existentes. Para esto las opciones
más acertadas debieran ser el índice MNDWI o NDWI. McFeeters (1996) describe que el
índice NDWI maximiza la reflectancia del agua tomando la banda Green; minimiza la baja
reflectancia del agua en la banda NIR y considera la alta reflectancia de la vegetación y el
suelo en la misma banda NIR.
Por otro lado, Xu (2006) recoge en su artículo que el índice NDWI puede obtener resultados
erróneos a la hora de identificar cubiertas terrestres formadas por suelos o vegetación frente
a cuerpos de agua. Por esta razón, propone un nuevo índice MNDWI en el que se sustituye
4.4. Metodología 47
la banda NIR por la banda SWIR1 (infrarrojo medio), donde el agua no refleja en absoluto,
mientras que suelos y vegetación reflejan aún más. De este modo, el contraste entre las
cubiertas terrestres y el agua aumenta y es posible extraer las cubiertas de agua en los
valores positivos del índice.
Así, como nuestro el objetivo es detectar cambios, no basta sólo con calcular el MNDWI
para cada año concreto, sino que se debe calcular la diferencia entre años distintos para
obtener el ground truth final. Sin embargo, antes de poder obtener este resultado final, se
debe hacer una segmentación del MNDWI obtenido. Con esta segmentación se estudian los
valores de píxel obtenidos con el MNDWI y se obtienen múltiples imágenes que tratan de
asociarse con una cubierta terrestre determinada. El objetivo final es considerar solo el valor
de píxel que representa mayormente el cuerpo de agua y formar una imagen solo con este
valor. Finalmente, el proceso general se resume de la siguiente manera:
Figura 4.10: Ground truth obtenido de la imagen diferencia MNDWI de los años 2014 - 2020
De la figura 4.9 se tiene que para ese caso en concreto el valor de píxel 0 es aquel que
representa el cuerpo de agua. Por tanto, se toma la imagen 4.9a como M N DW Iwater(2014) .
Mientras tanto, si se hace lo propio con una captura de otro instante temporal y se aplica
el procedimiento descrito, el resultado final obtenido es el que se muestra en la figura 4.10
donde los píxeles de color blanco representan los cambios respecto del instante t1 (año 2020).
4.4.5.1. Método 1
Este primer método puede ser considerado como el método estándar de aplicación de
PCA para la detección de cambios. Aplicado a la Teledetección en trabajos como Martínez-
Izquierdo et al. (2019), pretende ser un método que ayude a simplificar el problema de de-
tección de cambios en tanto reduce las dimensiones del conjunto inicial de datos. En este
sentido, las imágenes de Teledetección, como ya se había dicho a lo largo de líneas anteriores,
50 Desarrollo
son imágenes pesadas en cuanto a tamaño, por lo que conviene considerar métodos donde el
coste computacional se vea reducido.
Paso 3 Crear una imagen multitemporal con 2n canales y añadir las bandas
de los pasos anteriores.
for i in range(len(original_img[0])):
for j in range(len(original_img[0][0])):
cp_ij = 0
for k in range(len(eigen_vector)):
cp_ij += eigen_vector[k] ∗ original_img[k][i][j]
out_image[0][i][j] = cp_ij
return out_image
Por tanto, tras aplicar la secuencia de pasos se tiene un conjunto de n imágenes PC menor
o igual a las n componentes principales consideradas. Dichas imágenes son el resultado de
realizar la suma aritmética entre el producto de los vectores propios y el ND de cada banda
original.
Una vez que se tienen las imágenes PC, el objetivo es seleccionar aquella componente
principal que evidencia los cambios de forma más notoria para después crear un mapa binario
de esos cambios. Para ello, una opción es la selección por visualización; aunque se trata de
técnica poco escalable. Martínez-Izquierdo et al. proponen seleccionar la componente principal
2 para evaluar los cambios apoyándose en un criterio de signos de los coeficientes de los
vectores propios. Este último enfoque será discutido más adelante.
Por otro lado, de cara a evaluar nuevas alternativas para la detección de cambios, en
este proyecto se proponen dos posibles mejoras a aplicar sobre las imágenes multiespectrales
previas a la aplicación de PCA:
• Método de la Especificación del histograma o matching.
• Técnica de fusión o pansharpening para obtener imágenes con una resolución espacial
mayor.
La aplicación del primer método anterior nace al preguntarse si debiera influir la distribu-
ción del histograma de dos imágenes tomadas en el mismo lugar pero en distinto momento. Es
decir, el objetivo futuro será evaluar cómo de importante es tener histogramas de intensidad
similares para la detección de cambios en tanto que, inicialmente, los ND de las zonas de no
cambio deberían tener una intensidad parecida; mientras que los valores ND de las zonas de
cambio deberían ser notablemente diferentes.
Aunque en la figura 4.11 se pone como ejemplo de aplicación la banda número 5, esta téc-
nica es aplicada sobre todas y cada una de las bandas que conforman la imagen multiespectral
a la que se le aplica el proceso de detección de cambios.
El segundo método, por su parte, surge de forma paralela cuando el autor se cuestiona si
la resolución espacial de las imágenes multiespectrales puede ser significativa para mejorar
52 Desarrollo
los resultados obtenidos con la aplicación del algoritmo PCA. Es por esto que en este trabajo
se aplica la técnica de fusión para obtener imágenes Landsat-8 con el doble de resolución, es
decir, 15 metros frente a los 30 metros iniciales.
Sea cual sea el método aplicado, el objetivo continua siendo obtener un mapa de cambios
binarizado. Es por esto que tras aplicar cada uno de los métodos propuestos, se debe aplicar
un algoritmo de segmentación, en concreto Otsu, para obtener ese mapa binario donde las
zonas de no cambio se representen con un 0 y las zonas de cambio con un 1.
4.4.5.2. Método 2
Si el anterior método presentaba la desventaja de tener que seleccionar de forma manual,
tras la visualización, la componente principal o imagen PC que evidenciara los cambios, el
segundo método se postula como candidato para poder seleccionar esa componente principal
sin necesidad de recurrir al prueba y error.
Propuesto por Wu et al. (2015), se trata de un método que, como el primero, se basa en
la aplicación del algoritmo PCA. Sin embargo, en este caso, el algoritmo es aplicado a la
diferencia de las bandas correspondientes a los instantes t0 y t1 . De forma detalla, la primera
etapa del método se ha desarrollado en este trabajo de la siguiente manera:
Paso 1 Creación de una colección de bandas (Azul, Verde, Roja y NIR) para
cada instante temporal t0 y t1 .
−
→ = {x , x , x }
x 1 11 21 31
−
→
x = {x , x , x }
2 12 22 32
..
.
−→
x = {x
N 1N , x2N , x3N }
−→ −→
Id = {xIi 1 − xIi 0 , 1 ≤ i ≤ N }
Lo descrito hasta ahora conforma la primera etapa del método, que es la aplicación del
algoritmo PCA. La segunda etapa representa la novedad en este campo. Wu et al. proponen
una evolución del método que consiste en decidir aquella imagen PC o componente principal
que modela los cambios de forma automatizada. Para ello, analizan el histograma de cada
una de las imágenes PC para dar cuenta de la dificultad en identificar los píxeles de cambio
y no cambio mediante un umbral o threshold.
Por lo anterior, se propone considerar tres clases de clasificación distintas: cambio, no
cambio e indeterminado. Todos y cada uno de los píxeles de una imagen deben pertenecer a
una de estas clases. Además, como ya se introdujo en la subsección 2.6.2, se toma la premisa
de que los píxeles de las componentes principales más altas serán fácilmente clasificables
como píxeles de cambio, mientras que los píxeles de las componentes principales más bajas
se podrán clasificar mayoritariamente como píxeles de no cambio.
Para identificar las tres clases, Wu et al. proponen utilizar un modelo de Mezclas Gaussia-
4.4. Metodología 55
nas formado por la combinación lineal ponderada de tres distribuciones Gaussianas, N (µ, σ 2 ),
que agrupan a los píxeles de cambio, no cambio y a los indeterminados.
2 2 2
h(cb ) = wcb N (µcb , σcb ) + wub N (µub , σub ) + wib N (µib , σib )
Donde: µcb , µub , µib → Son las medias de las distribuciones Gaussianas de los píxeles de
cambio, no cambio e indeterminados, respectivamente.
σcb , σub , σib → Son las varianzas de las distribuciones Guassianas de los píxeles de
cambio, no cambio e indeterminados, respectivamente.
wcb , wub , wib → Son los pesos de las distribuciones Guassianas de los píxeles de
cambio, no cambio e indeterminados, respectivamente.
Figura 4.13: Distribución de la componente principal 3 de IdP CA en la zona norte durante el período
de 6 años (2014-2020)
Como a priori se desconoce a qué distribución pertenece cada uno de los píxeles, se debe
realizar la estimación de los parámetros desconocidos en la Mezcla Gaussiana. Para ello se
utiliza el algoritmo de esperanza-maximización (EM) para buscar estimadores de máxima
56 Desarrollo
verosimilitud. Este algoritmo realiza un proceso iterativo que comienza suponiendo compo-
nentes aleatorias centradas en torno a un punto y calcula cuál es la probabilidad para cada
punto de haber sido generado por cada una de las distribuciones. Después, ajusta los pará-
metros para maximizar la probabilidad de las asignaciones generadas y repite todo el proceso
hasta que el algoritmo converge en un máximo local.
Una vez aplicado el algoritmo EM se tienen modeladas las tres distribuciones, pero aún se
desconoce cuál se corresponde con las clases de cambio, no cambio y píxeles indeterminados.
Para ello, Wu et al. proponen una serie de restricciones que han de cumplir los parámetros
de la Mezcla Gaussiana:
De esta forma, con la restricción 4.3 se pretende que la distribución correspondiente a los
píxeles de cambio esté lo más alejada posible de la distribución de los píxeles de no cambio.
Además, para que la distancia entre los píxeles de cambio y no cambio sea aún mayor,
así como en cuanto a la distancia entre píxeles de cambio e indeterminados, se aplica la
distancia de Mahalanobis para definir un índice F que cuantifique el cambio en las imágenes
PC resultantes de aplicar el paso 3 del procedimiento anterior. Dicho índice se calcula como
sigue:
( )/ ( )
(µcb − µub )2 (µcb − µib )2 (µib − µub )2
Fb = 2 + 2 2 (4.4)
σub σib σub
∑
B
f b = Fb / Fj (4.5)
j=1
Wu et al. establecen dos condiciones a tener en cuenta para refinar la selección de aquellas
componentes principales que evidencian los cambios de forma más notoria:
Condición 1 Si max{fb , b ∈ B} > t, entonces seleccionar la componente principal
que tenga el índice f máximo.
Condición 2 Si max{fb , b ∈ B} ≤ t, entonces descartar la componente principal
con el índice f mínimo y aplicar de nuevo las condiciones hasta que
la suma de índices f de las componentes principales restantes no
sobrepasen al umbral t.
4.4. Metodología 57
B−1
<t<1 (4.6)
B
Todo este proceso que describe al método se ha aplicado meticulosamente en este trabajo
por lo que, más adelante, se comentará el grado de efectividad del mismo para la zona de
estudio y las condiciones que aplican a este proyecto.
Por otro lado, también serán de aplicación las técnicas de matching y pansharpening ya
descritas. Se pretende buscar una posible mejora al método estudiando la importancia de la
resolución espacial de las imágenes y la variabilidad de intensidades en los ND.
Esta forma de segmentar se muestra en la figura 4.14, donde se pueden observar las tres
clases identificadas por la Mezcla Gaussiana. Para obtener una imagen de estas características
se convierte la imagen a 3 canales (RGB) o dimensiones, de tal forma que cada uno de los
canales contiene información relativa a una o varias clases. Así, como se tienen imágenes de
8 bits, para visualizar la clase de “no cambio” se utilizan los tres canales con el valor ND 255
(28 ); para visualizar la clase de cambio se utiliza el canal B con el valor 255 (azul); y para la
clase de píxeles indeterminados se emplea el valor 255 en el primer canal, R (rojo).
58 Desarrollo
Figura 4.14: Imagen segmentada en tres clases: cambio (azul), no cambio (blanco) e indeterminado
(rojo)
Zona sur, 2014 - 2020. Componente principal 1 sin binarizar con aplicación previa de técnica de fusión
(pansharpening).
5. Resultados
59
60 Resultados
una disminución marginal del 0’5% mientas que Zújar y La Serena permanecen en rangos
también reducidos con un 5% y 8%, respectivamente.
El hecho de que los cambios en la zona sur sean menores afecta a la visualización en
la figura 5.3 en tanto que se hace difícil percibir los cambios a simple vista en la imagen
binarizada.
Evaluar los métodos empleados es un paso imprescindible para obtener una medida ob-
jetiva que permita concluir cómo de precisa ha sido la detección de cambios. Esta forma de
validar se basa en comparar las imágenes obtenidas tras la aplicación de los métodos, con la
verdad sobre el terreno o ground truth. Para ello, la última fase experimental de este trabajo
ha consistido en definir y aplicar una metodología de validación que ha pasado por distintas
etapas, como la selección de puntos de control y el cálculo de las métricas de validación.
5.2. Evaluación de métodos 63
Si bien es cierto que gran parte de los artículos de Teledetección no suelen aclarar a este
paso inicial, aquí se propone una metodología de selección y cálculo de puntos de control para
el problema de clasificación de detección de cambios.
Esta serie de puntos de control se ha elegido de forma aleatoria, pero con un criterio previo:
mantener las clases de “cambio” y “no cambio” balanceadas con un porcentaje prefijado. En
este sentido, era de esperar que algunos de los métodos empleados aportaran ruido en las
zonas no cubiertas por agua. Esto, sumado al hecho de que la superficie del cuerpo de agua es
mucho menor que la superficie externa (suelo, vegetación, etc.), conlleva a tener una cantidad
mayor de posibles fallos de detección de cambios en esta última.
Por todo lo anterior, como el objetivo es detectar cambios en el cuerpo de agua y evaluar
los métodos principalmente en base a esto, se ha decidido tomar una relación 60% - 40%
donde el 40% de los puntos de control formen parte de la clase “no cambio” y el 60% de la
clase “cambio”. Esta selección se ha llevado a cabo tomando el ground truth del período más
largo para obtener así un conjunto de puntos repartidos en zonas más amplias. Tener además
un balanceo apropiado entre clases ayuda a obtener métricas de evaluación más precisas,
como se verá más adelante.
Con esta selección (40%-60%) se da más importancia a las zonas reales de cambio para
evaluar el método, pero también se le da un peso importante a las zonas de no cambio, que
se corresponden en mayor medida con la superficie externa al cuerpo de agua. Esto también
permite evaluar los métodos en base a un criterio añadido: la presencia de ruido.
Un ejemplo de proyección de los puntos de control sobre las imágenes a evaluar se muestra
en la figura 5.4.
Si se eligiera al método más sencillo para evaluar clasificadores, este probablemente sería
la matriz de confusión. Proporciona una buena imagen visual de los resultados, reconocible
a simple vista en términos de predicciones: “verdadero positivo” (TP), “verdadero negativo”
(TN), “falso positivo” (FP) y “falso negativo” (FN).
64 Resultados
Figura 5.5: Ejemplo de matriz de confusión con los términos TP, TN, FP y FN
Por otro lado, las métricas proporcionan un valor numérico que indica cómo de bueno es
el método o clasificador. De hecho, la mayoría de métricas se calculan a partir de la matriz
de confusión.
Para analizar los resultados de este proyecto se han elegido una serie de métricas, las que,
a juicio del autor, son más convenientes para la evaluación y extracción de conclusiones:
• Overall Accuracy (OA): evalúa cuántos aciertos ha habido del total de predicciones.
TP + TN
OA = (5.1)
TP + FP + TN + FN
torio basado en la frecuencia de las clases. Lleva intrínseco el hecho de acertar por
casualidad. Será empleado como métrica para evaluar la bondad de los modelos en
general.
OA − randomAccuracy
kappa = (5.2)
1 − randomAccuracy
Donde:
(T N + F P )(T N + F N ) + (F N + T P )(F P + T P )
randomAccuracy =
T otal2
siendo:
T otal = T P + F P + T N + F N
• Recall: también llamada tasa de verdadero positivo, es una métrica que evalúa cuantas
observaciones del total de positivos (TP y FN) se han clasificado como positivas (TP).
Para este caso, recall penaliza aquellas situaciones en las que se tienen muchos falsos
negativos (clases que deberían ser de “cambio” y son predichas como “no cambio”); por
tanto, al tener un recall cercano a 1 se tendrá un método que es bueno identificando la
mayoría de las clases de “cambio”.
TP
recall = (5.3)
TP + FN
• Precision: se centra tan solo en las predicciones positivas para proporcionar una métrica
que indica cuántas observaciones predichas como positivas son en verdad positivas. Si
existen pocos falsos positivos, se tendrá una precision muy alta. Esto significa que la
imagen cuenta con poco ruido en la superficie externa al cuerpo de agua y la mayoría
de clases de “no cambio” son realmente clases de “no cambio”. El hecho de contar con
poco ruido es determinante para aislar y visualizar los cambios en el cuerpo de agua,
es por esto que esta métrica será tomada en consideración.
TP
precision = (5.4)
TP + FP
De forma general, los resultados indican que el método 1, PCA aplicado a conjunto de
bandas multitemporales, es más eficaz para la detección de cambios bajo el contexto y condi-
ciones de este trabajo. En este sentido, se concluye que aplicar la diferencia de bandas previo
a PCA (método 2) no es tan efectivo como cabría esperar.
Tomando como apoyo las métricas de la tabla 5.1, todo apunta a que mejorar la resolución
espacial aplicando técnicas de pansharpening con anterioridad a PCA, ayuda a obtener imá-
genes con menor ruido (precision más alto) lo que facilita la visualización de los cambios en
cuerpos de agua. Además, no solo se obtienen imágenes con menos ruido, sino que también la
calidad general de la imagen aumenta y se obtienen métricas globales (kappa y f1) superiores
en la mayoría de los casos estudiados. Este hecho ha sido más evidente en la zona norte del
ROI, precisamente donde los cambios no eran tan notorios y se concentraban en el contorno
del cuerpo de agua, contorno que es justamente resaltado tras aumentar la resolución espacial
de la imagen. Es decir, al hacer fusión se multiplican los puntos en el contorno de la imagen
y los cambios son detectados con mayor facilidad.
Por otro lado, contar con imágenes con histogramas similares tras la aplicación de técnicas
de matching parece ayudar a la detección de cambios, especialmente en el método 2. Si se
atiende a la métrica recall, esta experimenta un aumento en su valor en ambos métodos en
gran parte de los períodos de estudio. Además, en términos generales, las métricas kappa o
f1 también reaccionan de manera notable a la aplicación de esta técnica, lo que hace indicar
que se cuenta con una mejora general en la detección de cambios y en la disminución de ruido
en las imágenes finales.
También es observable que, aunque el método 1 se ve beneficiado a la hora de aplicar
las mejoras propuestas (sobre todo con la técnica de pansharpening), también se obtienen
resultados bastante aceptables aplicando el método sin realizar operaciones de realce. En
cambio, el método 2, que parte de una situación menos ventajosa, sí mejora sus resultados
generales (kappa y f1) en 5 de las 6 situaciones analizadas si se aplica al menos una de las
técnicas de realce empleadas.
entre los coeficientes de los vectores propios asociados a cada componente principal. Esta
diferencia cuantifica cómo de diferentes son las bandas de cada uno de los períodos, lo que es
vital para la detección de cambios. En el caso anterior, es justamente la PC2 la que presenta
coeficientes negativos en las bandas correspondientes al período t0 , y coeficientes positivos
en las bandas correspondientes al período t1 . Este hecho contribuye a obtener una diferencia
máxima entre los coeficientes de la mismas bandas en períodos distintos.
Los resultados de este proyecto indican que todas y cada una de las transformaciones
realizadas, correspondientes con la PC2, satisfacen la relación de signos contrapuestos que
señalan Martínez-Izquierdo et al.. Sin embargo, se ha podido comprobar que la componente
principal 2 no es la que lleva asociada la diferencia máxima entre coeficientes en todos los
casos, ni tampoco la que muestra los cambios más notorios. En este sentido, se ha realizado un
análisis por parte del autor sobre cómo influye la magnitud de los coeficientes de los vectores
propios en la detección de cambios.
En la tabla 5.2 se muestra la distancia o diferencia absoluta entre los coeficientes del vector
propio de cada componente principal i. Se recuerda que cada vector propio está formado por
n coeficientes, uno por cada banda, que expresan el grado de contribución de la banda i a
la transformación lineal que da como resultado una componente principal. La información
contenida en la tabla demuestra que no siempre es la PC2 la que maximiza esa distancia. A
modo de resumen, para el caso de estudio de este proyecto se tiene:
• En el 33% de los casos se maximiza la distancia con PC2.
• En el 11% de los casos se maximiza la distancia con PC3.
• En el 56% de los casos se maximiza la distancia con PC7.
Es evidente que la componente principal 7 presenta, en promedio, una mayor distancia
entre los coeficientes de su vector propio. Además, es elegida el 33% de las veces como com-
ponente principal de cambios. Por su parte, aunque la PC3 haga máxima la distancia el 11%
de las veces, es elegida como PC de cambios el 67% de los casos de estudio; mientras que
la PC2, ni si quiera representa el 1%. En este sentido, y tal y como se puede observar en la
tabla 5.2, el hecho de tener una componente que maximice la distancia, no conlleva a que
sea elegida como componente principal de cambios en el cuerpo de agua. El motivo de esta
situación puede relacionarse con que una componente principal puede modelar cambios que
sean más significativos y que, a su vez, estos se correspondan con otro tipo de características
de la imagen relacionadas con otras cubiertas terrestres (vegetación, suelo, etc.).
Si bien es cierto que la componente principal elegida como cuantificadora de cambios en
cuerpos de agua no sea la que presente una mayor distancia en los coeficientes, sí que se
encuentra entre las que mayor diferencia presentan: PC2, PC3 o PC7.
Una vez analizado el primer método de PCA, es el turno del enfoque propuesto por Wu
et al. (método 2). Los resultados obtenidos indican que la aplicación rigurosa de este método
no se adapta demasiado bien a las circunstancias de este proyecto, en la medida que se hace
complejo elegir un umbral t para la selección de componentes que sea útil para todos los casos
de estudio.
En ocasiones, la imagen con el mayor índice f no se corresponde con la componente
68 Resultados
(a) Imagen PC2 (b) Imagen PC4 (c) Resultado PC2 + PC4
principal que cuantifica más cambios. Esta situación particular es observable en la figura 5.6
donde la imagen PC1 tiene un índice de valor 0′ 0061 y la imagen PC3 de 0′ 979; finalmente, es
descartada la imagen PC3 por considerar que no evidencia suficientes cambios. De este tipo
de casos se pueden extraer varias conclusiones. Por un lado, las características de la imagen
correspondiente con los cambios del cuerpo de agua presentan un peso menor en comparación
con el resto de características de cambios; por otro, no todos los cambios están reflejados en
una única PC, es decir, pueden existir varias componentes que evidencien distintos tipos de
cambios y en zonas diferentes de la imagen.
Por otro lado, la aplicación de este segundo método supone un aumento en el coste total de
computación. Pese a que, de nuevo, se realiza el Análisis de Componentes Principales sobre
un conjunto de bandas, antes hay que hacer la diferencia multibanda, lo que añade tiempo
de cómputo. Además, la aplicación del algoritmo EM (Esperanza-Maximización) para la
asociación de cada un de los píxeles a alguna de las tres distribuciones, añade complejidad
a todo el proceso y termina siendo costoso en tiempo en comparación con el método 1. Y,
sin embargo, los resultados no mejoran respecto al primer método, e incluso empeoran. Por
5.3. Crítica y comparación de métodos 69
Tabla 5.1: Métricas de evaluación de los métodos empleados para la detección de cambios
Zona Período Método OA Kappa Recall Precision f1 score
1 0,872000 0,737705 0,860000 0,921429 0,889655
1 + matching 0,750000 0,508261 0,673333 0,882096 0,763705
1 + pansharpening 0,954000 0,904564 0,953333 0,969492 0,961345
Norte 2014 - 2020 2 0,490000 0,074074 0,280000 0,682927 0,397163
2 + matching 0,772000 0,541063 0,740000 0,860465 0,795699
2 + pansharpening 0,662222 0,360555 0,560000 0,831683 0,669323
1 0,872000 0,741686 0,809322 0,909524 0,809322
1 + matching 0,852000 0,702266 0,817797 0,861607 0,839130
1 + pansharpening 0,926000 0,851615 0,904564 0,939655 0,921776
Norte 2014 - 2017 2 0,576000 0,119660 0,639535 0,233051 0,233051
2 + matching 0,770000 0,537826 0,741525 0,764192 0,752688
2 + pansharpening 0,546000 0,081953 0,390041 0,540230 0,453012
1 0,892000 0,751331 0,984733 0,712707 0,826923
1 + matching 0,832000 0,552344 0,633588 0,697479 0,664000
1 + pansharpening 0,906000 0,747399 0,712230 0,933962 0,808163
Norte 2014 - 2015 2 0,826000 0,620180 0,954198 0,606796 0,741840
2 + matching 0,636000 -0,032800 0,167939 0,231579 0,194690
2 + pansharpening 0,828000 0,628984 0,942446 0,626794 0,752874
1 0,900000 0,793388 0,900000 0,931034 0,915254
1 + matching 0,841818 0,672686 0,854545 0,878505 0,866359
1 + pansharpening 0,954545 0,906367 0,939394 0,984127 0,961240
Sur 2014 - 2020 2 0,583636 0,238190 0,375758 0,843537 0,519916
2 + matching 0,814545 0,608896 0,869697 0,829480 0,849112
2 + pansharpening 0,641818 0,328562 0,478788 0,863388 0,615984
1 0,925455 0,837196 0,945652 0,848780 0,894602
1 + matching 0,841818 0,672686 0,854545 0,878505 0,866359
1 + pansharpening 0,905455 0,796760 0,907216 0,838095 0,871287
Sur 2014 - 2017 2 0,594545 -0,022543 0,173913 0,310680 0,222997
2 + matching 0,814545 0,608896 0,869697 0,829480 0,849112
2 + pansharpening 0,743636 0,417382 0,556701 0,662577 0,605042
1 0,954545 0,764482 0,824561 0,758065 0,789916
1 + matching 0,894545 0,023210 0,017544 0,333333 0,033333
1 + pansharpening 0,947273 0,705295 0,645161 0,851064 0,733945
Sur 2014 - 2015 2 0,860000 0,466019 0,789474 0,409091 0,538922
2 + matching 0,743636 0,092069 0,350877 0,161290 0,220994
2 + pansharpening 0,809091 0,198073 0,370968 0,258427 0,304636
70
Tabla 5.2: Distancias medias entre coeficientes de cada vector propio y PCs de cambios seleccionadas
Zona Período Método Distancia a1 Distancia a2 Distancia a3 Distancia a4 Distancia a5 Distancia a6 Distancia a7 Distancia a8 PC seleccionada
1 0,004564 0,6532165 0,65576925 0,33686 0,0289565 0,55762625 0,6563385 0,2604975 7
Norte 2014 - 2020 1 + matching 0,00492275 0,65362875 0,65610225 0,335524 0,03077125 0,558282 0,6567415 0,2604 7
1 + pansharpening 0,00442275 0,6491005 0,63965125 0,27486275 0,21823425 0,57127425 0,502679 0,38759425 3
1 0,00504825 0,652965 0,65567675 0,33728375 0,0284675 0,557967 0,6562425 0,25948375 7
Norte 2014 - 2017 1 + matching 0,00507725 0,6533155 0,65584075 0,33642325 0,0294865 0,5584185 0,65644025 0,2592915 3
1 + pansharpening 0,004685 0,64890725 0,6391215 0,27337475 0,22530675 0,56934 0,49207725 0,3973505 3
1 0,0056855 0,65297175 0,655836 0,33570675 0,03007275 0,5590215 0,65645 0,259089 3
Norte 2014 - 2015 1 + matching 0,0052805 0,65323125 0,655983 0,3349125 0,03139975 0,5600105 0,65661225 0,2576715 7
1 + pansharpening 0,00529425 0,64999475 0,64183725 0,2816855 0,1970595 0,577655 0,51683225 0,37638575 3
1 0,00466725 0,651536 0,65552975 0,33799575 0,03104025 0,55772075 0,6560645 0,25938425 7
Sur 2014 - 2020 1 + matching 0,0053495 0,651937 0,65604325 0,334565 0,03436025 0,5595425 0,65661225 0,2576715 3
1 + pansharpening 0,00528050 0,65323125 0,655983 0,3349125 0,03139975 0,5600105 0,6208185 0,29642975 3
1 0,0046805 0,65141925 0,65541675 0,34107475 0,0286285 0,55615725 0,65593925 0,2594195 3
Sur 2014 - 2017 1 + matching 0,0049265 0,6519885 0,65547775 0,34045475 0,032217 0,55654675 0,655732 0,25800725 2
1 + pansharpening 0,003452 0,63243975 0,59096025 0,416808 0,11768625 0,44449525 0,61861675 0,29896775 3
1 0,00517525 0,65132425 0,65541825 0,3409605 0,02794775 0,5551545 0,6555015 0,26086675 3
Sur 2014 - 2015 1 + matching 0,0048845 0,65185625 0,65519475 0,34189 0,033367 0,55477775 0,65510075 0,2592585 7
1 + pansharpening 0,0039315 0,63754125 0,606894 0,39809875 0,11344325 0,45314975 0,62009325 0,294735 3
Resultados
6. Impactos sociales y ambientales.
Responsabilidad ética y profesional
71
72 Impactos sociales y ambientales. Responsabilidad ética y profesional
y a la riqueza local.
También, del desarrollo de este trabajo se desprenden matices sobre la responsabilidad éti-
ca y profesional; aunque para ello se requiera realizar un análisis más profundo. El ingeniero
o profesional experto en Teledetección que llevara a cabo un proyecto similar al propuesto
debería regirse por criterios estrictamente profesionales sin acceder a presiones provenientes
del entorno social o administrativo, cuando el proyecto es encargado por un particular o una
administración. Esto guarda relación con lo que se introdujo en el capítulo inicial de este
trabajo, en la medida que el agua es un bien escaso y su utilización es diversa pueden sur-
gir conflictos de intereses entre comunidades, ayuntamientos, diputaciones o confederaciones
hidrográficas. Las conclusiones a obtener tras el análisis de cambios en embalses deben es-
tar libres de opiniones que puedan ir en detrimento del ecosistema. Para comprender esta
situación, se propone el siguiente ejemplo: si el experto en Teledetección identifica una zona
potencialmente acosada por la sequía durante un período de tiempo significativo, debe señalar
este hecho en su investigación aunque conozca que esto vaya en detrimento de los intereses
de una organización o de la entidad por la que fue contratado.
La mención del párrafo anterior no es casualidad, es conocido que existen conflictos de
intereses en cuanto al uso y aprovechamiento de los pantanos. Como ya se ha dicho, regadíos,
consumo humano u ocio, conviven como formas de utilización. En definitiva, debiera existir
un equilibrio entre todos los usos de tal forma que se garanticen los ODS de la Agenda 2030,
que son prioritarios a juicio del autor, y que ello no suponga un efecto negativo a ningún
colectivo de la sociedad en particular.
7. Conclusiones y propuesta de trabajo futuro
Ha sido necesario, por tanto, un estudio en profundidad de todos aquellos conceptos re-
lacionados con la captura de información a distancia; conceptos todos ellos nuevos para el
autor. Es necesario decir, que se dedicó un tiempo importante a seleccionar la mejor opción
para obtener la materia prima con la que se ha elaborado el estudio presentado. Esta materia
prima, es decir, las imágenes multiespectrales, provienen del inventario público de la USGS y
han sido capturadas por el satélite Landsat-8. En esta línea, aprovechando los conocimientos
que el grado en Ingeniería del Software le ha proporcionado al autor, y con el objetivo de
aportar valor en el campo de la Teledetección, se desarrolla un script que automatiza todo el
proceso de obtención de imágenes por medio de la comunicación con la reciente API M2M de
la USGS. La decisión de automatizar este proceso vía script se fundamenta en evitar utilizar
herramientas de terceros o repositorios de escenas Landsat que difieran del proveedor oficial
de dichas escenas. Este script se pone a disposición de todo aquel que quiera comenzar a in-
vestigar acerca de cómo es la captura de información a distancia y qué aplicaciones tiene, de
tal manera que el paso previo de obtención de imágenes sea lo más sencillo posible. Además,
al mismo tiempo que se ha automatizado la descarga de imágenes, también se automatiza
la selección y obtención del ROI mediante código fuente con un procedimiento que tiene en
cuenta el área de estudio delimitada por un polígono georeferenciado en formato JSON. Sin
embargo, si bien se ha utilizado un único método para la obtención del área final de estudio,
se ha propuesto otro método alternativo que obtiene una imagen final sin valores “no data”
y con la misma orientación que el ráster original. Dicho método favorece la obtención de un
ROI en zonas limítrofes de la escena Landsat, aunque dificulta el procesamiento posterior. En
este mismo sentido, se ha desarrollado todo un conjunto de notebooks de Jupyter en los que
se recoge el trabajo experimental desarrollado, desde el análisis inicial y el preprocesamiento,
hasta la aplicación de los métodos de detección de cambios y la evaluación de los mismos.
Una vez que contamos con las imágenes de partida, resulta evidente que el tratamiento y
procesamiento de las imágenes multiespectrales ha tenido un peso importante en este Trabajo
Fin de Grado. Este es un paso costoso, pero necesario en cualquier problema que conlleve
un análisis posterior y la aplicación de técnicas de clasificación. Es decir, se debe contar
con un conjunto de datos de calidad para obtener resultados fiables y objetivos. En este
sentido, ha sido necesario el desarrollo de métodos específicos para realizar todo el proceso.
Estos métodos han sido desarrollados siguiendo distintos paradigmas de programación como
la programación orientada objetos, programación imperativa procedimental y programación
declarativa funcional. En la medida de lo posible, se ha intentado reducir el uso de librerías
73
74 Conclusiones y propuesta de trabajo futuro
de terceros y se ha optado por implementar métodos propios para tareas relacionadas con la
evaluación y obtención de métricas para los métodos de detección de cambios, la aplicación
de fusión o pansharpening utilizando el método Brovey, la obtención de las imágenes PC a
partir de los vectores propios, la obtención del ground truth, etc.
En cuanto a las evaluación de los métodos, la cual es una de las partes más importantes
de este trabajo, se ha realizado un análisis profundo de las métricas a emplear. Desde un
inicio, el autor ha querido que los resultados obtenidos fueran comparados de forma objetiva,
utilizando métricas que sienten una base común para la discusión final. Es por esto, que se
ha querido dar un paso más allá y no limitar la evaluación a utilizar matrices de confusión,
sino que se han propuesto dos métricas robustas como kappa y f1 score para la evaluación
general de las imágenes. Kappa, es utilizada de manera notoria en Teledetección, y f1 es cada
vez más utilizada para problemas de clasificación binaria, como es el caso de este trabajo.
Además, también se han incluido Precision y Recall, tratando en cada caso de encontrar un
interpretación adaptada al estudio que nos ocupa. En este sentido, Precision puede ayudar
a evaluar la presencia de ruido en las imágenes, mientras que Recall da cuenta de la bondad
del método a la hora de identificar zonas de cambio.
Por otro lado, el hecho de realizar un estudio de detección de cambios en cuerpos de agua
en el intervalo de tiempo escogido tenía doble finalidad. Por una parte, dar cuenta de los
efectos derivados del cambio climático, como puede ser la sequía o la escasez de lluvias; y
por otra, comparar y evaluar métodos basados en Análisis de Componentes Principales ante
imágenes con la presencia tanto de cambios mínimos (período 2014-2015) como de cambios
más notorios (período 2014-2020). De esta manera, se podrían analizar los resultados de las
técnicas empleadas en base a más criterios, y valorar si determinadas mejoras contribuyen al
aumento de la detección de cambios.
Además, si en un comienzo se pudo llegar a pensar que la detección de cambios aplicando
PCA en imágenes multiespectrales sería una tarea libre de impedimentos; nada de esto sería
cierto. Probablemente, el lector más experimentado en este campo ya conozca que son dema-
siados los factores que pueden afectar a los resultados de un proyecto de estas características:
resolución espacial de las imágenes, número de cubiertas terrestres distintas presentes en el
ROI, profundidad en los cuerpos de agua, existencia de vegetación acuática, turbidez, etc.
Teniendo en cuenta los factores anteriores, parece que, de los métodos aplicados, el método
1 combinado con técnica de pansharpening, por medio del método Brovey, ha conseguido
mejores resultados en promedio. De aquí se extrae que la resolución espacial es un parámetro
bastante relevante de cara a realizar un estudio para la detección de cambios con imágenes
multiespectrales. Además, este primer método goza de mayor sencillez frente al segundo
método, que es computacionalmente más costoso y conceptualmente más complejo, ya que
utiliza distribuciones Gaussianas Mixtas para la clasificación de los píxeles de las imágenes.
De cara a proponer trabajos futuros que partan de la línea aquí expuesta, se podrían tener
en cuenta distintas temáticas. Una primera relacionada con la mejora de la resolución espacial
de las imágenes de partida. Si bien en este trabajo hemos utilizado imágenes de Landsat-8 que
son de libre distribución, y con las que podemos llegar a tener una resolución espacial de 15
m (fusionando con la pancromática) existen productos bajo licencia comercial que presentan
una resolución de hasta 1’5 metros, como es el caso del satélite francés SPOT-7. En este
75
sentido, comparar los resultados obtenidos en este trabajo con los que se puedan obtener
con un satélite de tales características formaría parte de la primera línea de actuación de
trabajos futuros. Además, probar diferentes tipos de algoritmos y métodos de pansharpening
también es una opción que, aunque ha quedado fuera del alcance de este TFG, se propone
como trabajo futuro. En segundo lugar, continuar con el seguimiento del programa Landsat
con su siguiente misión Landsat-9, también merece una mención en este apartado en tanto
que el disponer de imágenes de satélite de tal calidad y a libre disposición de manera gratuita,
debe ser valorado por la comunidad científica y por todo aquel que comience su andadura en
Teledetección.
Continuando con las líneas de trabajo futuro, seguir investigando acerca del Análisis de
Componentes Principales se debe percibir como una obligación. Aún quedan por resolver
algunas incógnitas en cuanto a la selección de determinadas componentes principales para
dar cuenta de los cambios en una imagen multitemporal. En este sentido, se ha resaltado la
importancia de la distancia entre coeficientes de los vectores propios para extraer las com-
ponentes más importantes o, que en principio, pudieran ser las que más cambios identifican
y la que nos lleven a sistematizar y simplificar el proceso. También se ha observado como la
aplicación previa de técnicas de fusión o matching pueden contribuir a incrementar la calidad
de los resultados.
Para terminar, destacar que en este trabajo, el autor ha expuesto y analizado los resultados
en base a su conocimiento y a las evidencias existentes en la literatura, intentando en todo
momento ligar explicaciones objetivas y meditadas a los resultados obtenidos.
Bibliografía
Amolins, K., Zhang, Y., y Dare, P. (2007, 07). Wavelet based image fu-
sion techniques - An introduction, review and comparison. International So-
ciety for Photogrammetry and Remote Sensing. Descargado 26/04/2021, de
https://www.researchgate.net/publication/342318193_Wavelet_based_image
_fusion_techniques_-An_introduction_review_and_comparison
ASPR. (s.f.). What is ASPRS? American Society for Photogrammetry and Remote
Sensing. Descargado 27/02/2021, de https://www.asprs.org/organization/what-is
-asprs.html
Canadian Space Agency. (2020). The Surface Water and Ocean Topography (SWOT) mission.
Descargado 10/05/2021, de https://www.asc-csa.gc.ca/eng/satellites/swot.asp
76
Bibliografía 77
Eastman, J. R. (2001). Guide to gis and image processing. Clark Labs. Descar-
gado 20/03/2021, de http://planet.botany.uwc.ac.za/nisl/GIS/IDRISI/Idrisi32%
20Tutorial/Documents/Idrisi_Guide1.pdf
Einstein, A. (1905). Über einen die erzeugung und verwandlung des lichtes betreffenden
heuristischen gesichtspunkt. Annalen der Physik. Descargado 27/03/2021, de https://
www.zbp.univie.ac.at/dokumente/einstein1.pdf
Esparragón, D. R. (2015). Evaluación y desarrollo de métricas de calidad espacial y
espectral para aplicaciones de fusión de imágenes multiespectrales de teledetección de alta
resolución. Universidad de Las Palmas de Gran Canaria, 23. Descargado 21/04/2021,
de https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=
2ahUKEwi3kMn_kcDxAhWKCmMBHXGiCDMQFnoECAMQAA&url=https%3A%2F%2Ffanyv88.com%3A443%2Fhttps%2Faccedacris
.ulpgc.es%2Fbitstream%2F10553%2F18132%2F4%2F0726210_00000_0000.pdf&usg=
AOvVaw0-nzRF3S2KYamyZ6-I7_Mq
Evolución del Número de Presas. (s.f.). Ministerio de Agricultura y Pesca, Alimenta-
ción y Medio Ambiente. Descargado 06/02/2021, de https://sig.mapama.gob.es/
WebServices/clientews/snczi/default.aspx?origen=8&nombre=PRESA_ESTADISTICA
_4&claves=&valores=
Fernández, G. (2015). La radiación del cuerpo negro. hipótesis de planck. Descargado
03/06/2021, de http://www.quimicafisica.com/radiacion-cuerpo-negro-hipotesis
-planck.html
Garcia, W., Marchand, G., Llactayo, W., Salcedo, K., y Victoria, A., E. andZambrano.
(2013). Ortorectificación de imágenes satelitales landsat. Ministerio del Ambiente.
Descargado 05/04/2021, de https://cdn.www.gob.pe/uploads/document/file/11896/
Protocolo-ortorectificacion-imagenes-Landsat.pdf
Gates, D. M., Keegan, H. J., Schleter, J. C., y Weidner, V. R. (1965, Jan). Spectral Properties
of Plants. Appl. Opt., 4(1), 11–20. Descargado 15/04/2021, de http://ao.osa.org/
abstract.cfm?URI=ao-4-1-11 doi: 10.1364/AO.4.000011
Gordo, J. F. R., y Robles, C. L. (2010). La fusión de imágenes de teledetección: una ayu-
da para la interpretación de entornos urbanos. EGA Expresión Gráfica Arquitectónica,
15(15), 182–189. Descargado 19/04/2021, de https://polipapers.upv.es/index.php/
EGA/article/view/1006 doi: 10.4995/ega.2010.1006
Hernández, J., y Montaner, D. (2009). Patrones de respuesta espectral. Universidad de
Chile, 5. Descargado 15/04/2021, de http://www.gep.uchile.cl/Publicaciones/Hern%
C3%A1ndez%20&%20Montaner%202009%20SAF.pdf
Iddamsetty, H. K. (2003). Segmentation of range images for modeling of large outdoor
scenes. The University of Tennessee, Knoxville, 6. Descargado 10/04/2021, de http://
citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.106.5385
Ihlen, V. (2019). Landsat 7 (L7). Data Users Handbook. U.S. Geological Survey. Descargado
12/05/2021, de https://prd-wret.s3.us-west-2.amazonaws.com/assets/palladium/
production/atoms/files/LSDS-1927_L7_Data_Users_Handbook-v2.pdf
78 Bibliografía
A continuación, se adjuntan las tablas donde figuran los datos hidrológicos de los embalses
de la comarca “La Siberia” en el período de tiempo estudiado en este trabajo. Dichos datos
han sido obtenidos directamente del sistema de descarga para usuarios externos que pone
a disposición la Confederación Hidrográfica del Guadiana mediante una aplicación web que
permite consultar y descargar los datos hidrológicos automáticos de la red SAIH (Sistema
Automático de Información Hidrológica).
Para tener acceso a la aplicación web y, por consiguiente, a los datos, es necesario solicitar
un usuario de acceso vía email a la dirección [email protected].
81
82 Anexo I: Datos hidrológicos SAIH Guadiana