TRABAJO

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 113

FENOMENOS AMBIENTALES

BARRAGÁN NOVOA HERNANDO JOSÉ


CORDOBA GARCIA ELIECER ANDRES
FLOREZ BALAGUERA CAMILO ANDRES
FUENTES HENAO ANDRES
GARCIA VILLALBA ELISEO ANDRES
MUÑOZ AGUILAR SHARYNE PATRICIA
OROZCO DE AVILA BRYAN STEVEN
PACHECO ORTEGA JUAN CARLOS
RINCON CERVANTES HAYLIN NORELA
VERGARA FLOREZ LUIS ALBERTO

UNIVERSIDAD DEL ATLÁNTICO


FACULTAD DE INGENIERÍA
PROGRAMA DE INGENIERÍA MECÁNICA
BARRANQUILLA
2021
FENOMENOS AMBIENTALES

BARRAGÁN NOVOA HERNANDO JOSÉ


CORDOBA GARCIA ELIECER ANDRES
FLOREZ BALAGUERA CAMILO ANDRES
FUENTES HENAO ANDRES
GARCIA VILLALBA ELISEO ANDRES
MUÑOZ AGUILAR SHARYNE PATRICIA
OROZCO DE AVILA BRYAN STEVEN
PACHECO ORTEGA JUAN CARLOS
RINCON CERVANTES HAYLIN NORELA
VERGARA FLOREZ LUIS ALBERTO

TRABAJO DE SEGUNDO CORTE

ING. VACCA ESCOBAR VICTOR MANUEL

UNIVERSIDAD DEL ATLÁNTICO


FACULTAD DE INGENIERÍA
PROGRAMA DE INGENIERÍA MECÁNICA
BARRANQUILLA
2021
CONTENIDO
2
Para que esta tabla de contenido se actualice automáticamente se deben usar los estilos
Titulo 1, Titulo 2 y Titulo 3. Posteriormente haz click sobre la tabla y selecciona actualizar
tabla.

Pág.Y
1. INTRODUCCIÓN 13
2. OBJETIVOS 14
2.1 OBJETIVO GENERAL 14
2.2 OBJETIVOS ESPECÍFICOS 14
3 PLANTEAMIENTO DEL PROBLEMA 15
3.1 DEFINICIÓN DEL PROBLEMA 15
3.2 JUSTIFICACIÓN 15
4. MARCO TEÓRICO 16
5.1 MATERIALES 17
5.2 METODOLOGÍA 17
6 DESARROLLO DEL PROYECTO 18
6.1 ANÁLISIS DEL DESARROLLO DEL PROYECTO 18
6.2 CRONOGRAMA 19
CONCLUSIONES 20
RECOMENDACIONES 21
BIBLIOGRAFÍA 22

3
LISTA DE TABLAS

Pág

Tabla 1. Nombre de la tabla-Autor de la tabla (si lo hay) 30

Tabla 2. Nombre de la tabla-Autor de la tabla 34

Tabla 3. Nombre de la tabla-Autor de la tabla 35

4
LISTA DE GRÁFICAS

Pág

Gráfica 1. Nombre de la gráfica 25

Gráfica 2. Nombre de la gráfica 28

Gráfica 3. Nombre de la gráfica 32

Gráfica 4. Nombre de la gráfica 37

LISTA DE FIGURAS
5
Pág

Figura 1. Nombre de la figura 21

Figura 2. Nombre de la figura 24

Figura 3. Nombre de la figura 31

Figura 4. Nombre de la figura 37

RESUMEN

6
Acá se debe poner un resumen de trabajo que no exceda las 250 palabras. Si es
un trabajo de grado este resumen puede contar hasta con 500 palabras.

PALABRAS CLAVE: En este espacio se debe poner las palabras claves


relacionadas con el trabajo, mínimo 3 y separadas por “,”. Ejemplo: Presentación
de trabajos, normas Icontec, otra palabra clave.

1. INTRODUCCIÓN

7
Actualmente el medio ambiente juega un papel fundamental en la sociedad, por
ende, es crucial la protección y los cuidados de los recursos naturales para la
industria, en consecuencia, esta tiene la necesidad no solo de optimizar procesos
sino a su vez asegurar que estos no causen efectos negativos en los recursos
naturales, como veremos a continuación muchos de estos fenómenos naturales
aceleran los procesos contaminantes del aire, por ejemplo el cual es consecuencia
en mayor parte del ser humano y sus invenciones, pero procesos tales como la
inversión térmica hacen que este sea mucho más peligroso para la salud, como
este ejemplo se ilustran otros fenómenos que son de vital importancia para
comprender el medio que nos rodea.

2. OBJETIVOS

8
2.1 OBJETIVO GENERAL

Conocer y explicar los diferentes fenómenos ambientales a través de la historia, la


influencia de la raza humana en ellos y sus posibles soluciones.

2.2 OBJETIVOS ESPECÍFICOS

● Establecer cómo afectan los fenómenos ambientales en los ecosistemas,


en la vida cotidiana y en los procesos industriales.
● Identificar las posibles causas y los factores predominantes en los
fenómenos ambientales.
● Detallar cifras precisas que nos dé a conocer el estado actual del mundo
con respecto a estos fenómenos.

FENOMENOS AMBIENTALES

9
LLUVIAS ACIDAS

Este término comprende tanto la precipitación, depósito, deposición húmeda de


sustancias ácidas disueltas en el agua lluvia, nieve y granizo; como a la
precipitación seca, depositados como hollín, cenizas o gases en el suelo, en los
árboles.

Estas partículas no son ácidas mientras están en la atmósfera, pero al entrar en


contacto con el agua superficial, se convierten en ácidos.

Cuando ciertas sustancias como los óxidos de azufre y nitrógeno entran en las
atmósfera pueden ser desplazados cientos de kilómetros por el viento, y su tiempo
de permanencia depende de la dispersión y deposición; entre más tiempo
permanezcan estos óxidos en la atmósfera es más posible que se transformen en
sustancias de carácter ácido; Estas sustancias pueden aparecer de forma natural
o antropogénico, las fuentes naturales son las emisiones volcánicas, tormentas
eléctricas y las fuentes antropogénicas son las emisiones de plantas industriales
de combustible fósil como el petróleo, representados en las emisiones de los
motores de combustión interna.2

El agua lluvia es ligeramente ácida porque el agua y el dióxido de carbono del aire
forman ácido carbónico y tiene un pH entre 5.7 y 7. En lugares contaminados por
ácido sulfúrico y ácido nítrico el pH de esa lluvia varía entre 5 y 3 1, 3.

Química de la lluvia ácida.

Los Óxidos de azufre han sido ampliamente estudiados.

Ellos incluyen seis compuestos gaseosos diferentes que son: monóxido de azufre
(SO), dióxido de azufre (SO2), trióxido (S03), tetraóxido (S04), sesquióxido (S2O3)
y heptóxido (S2O7). El SO2 y S03 son los dos óxidos de mayor interés en el
estudio de contaminación del aire4, 5.

El S02 es altamente soluble en agua y relativamente estable en la atmósfera. Se


estima que permanece en esta de 2 a 4 días, intervalo durante el cual puede ser
transportado a más de 1000 km del punto de emisión. Actúa como agente

10
oxidante o reductor y reacciona fotoquímicamente o catalíticamente con otros
componentes en la atmósfera.

El SO2 puede producir S03, H2S04 y sales del ácido sulfúrico como se presenta
en las reacciones 1 y 2, siendo uno de los mayores precursores de la lluvia ácida.

Las reacciones que se llevan a cabo son:

SO2 + CaCO3 + H2O → H2SO3 Reacción 1.

SO3 + H2O → H2SO4 Reacción 2.

Los dos óxidos de nitrógeno considerados como mayores contaminantes


atmosféricos primarios son el NO y el NO27.

El NO2 es fácilmente soluble en agua, más pesado que el aire, en el rango


ultravioleta el N02 es un buen absorbedor de energía.

Por lo tanto, juega un papel importante en la producción de contaminantes


secundarios y con el vapor de agua existente en el aire por la humedad forma
ácido nítrico, ácido nitroso y óxido nítrico como se indica en las reacciones:

2NO2 + H2O → HNO3 + HNO2 Reacción 4.

3NO2 + H2O → HNO3 +NO Reacción 5.

Ambos ácidos producen acidez en el agua lluvia.

Efectos de la lluvia ácida en la naturaleza3, 9, 10.

Lagos y Muerte de crustáceos, insectos acuáticos y moluscos y la


corrientes de desaparición del fitoplancton, causando con el tiempo la
agua imposibilidad de sobrevivencia del resto de la fauna por falta
de alimento
Suelo Penetra en la tierra y afecta las raíces, a las hojas las vuelve
11
amarillentas, generando un envenenamiento de la flora que
termina con la muerte de las plantas y árboles.
Edificios y las Serio compromiso al volver porosa la construcción y causar
construcciones la pérdida de resistencia de los materiales, por lo que deben
de hormigón ser continuamente restaurados.
Animales Pérdida de pelo y desgaste prematuro de mandíbulas
Seres humanos Incremento de las afecciones respiratorias (asma, bronquitis
crónica, síndrome de Krupp, entre otras) y un aumento de
los casos de cáncer
En todos los Disminución de las defensas y una mayor propensión a
organismos contraer enfermedades.

Causas de la lluvia ácida.

La lluvia ácida es causada por las actividades industriales, principalmente por las
emisiones de las centrales térmicas y por las producidas por la combustión de
hidrocarburos que llevan S, N y Cl.

También son responsables los procesos de desnitrificación de fertilizantes


añadidos a los suelos en dosis excesivas9, como los procesos naturales similares
que se producen en las zonas de manglares, arrozales y volcanes.

Lluvias en el mundo.

12
Comparación, entre 1990 y 2010, de la lluvia ácida recogida en Europa

En este primer gráfico vemos cómo la situación en Europa ha cambiado


drásticamente. Hacia 1990, prácticamente la totalidad de Europa Central se
encontraba bajo los efectos de los pH más ácidos. En cambio, hacia 2010 estos
valores más ácidos se concentran al este de Europa.

Distribución de la lluvia ácida en USA, en 1996

Distribución de la lluvia ácida en USA, en


2009.

En Norteamérica la evolución es parecida a la europea. La región del noreste


concentraba los pH más ácidos, por debajo de 4,5, a principios de los noventa. En
cambio, en 2009 son muy escasos los lugares donde el pH es ahora menor de 5,0.
13
El caso de China es tremendamente paradigmático. Es el país que más ha
incrementado sus emisiones, como consecuencia de su rapidísima
industrialización, articulada en poco más de 30 años. Sin embargo, las emisiones
de gases y la precipitación de estos no coinciden plenamente, debido al
movimiento de las masas de aire.

Distribución de lluvia ácida en China, en 2009.

En el siglo XX, en Sudbury (Ontario, Canadá) existía la minería de sulfuros más


grande del mundo (NiS, CuS, ZnS, CoS). La explotación se realizaba por métodos
tradicionales como la tostación, con lo que se emitía gran cantidad de SO2 a la
atmósfera. En 1920 la ciudad se torna de color amarilloso y las aguas del río
Sudbury presentan gran cantidad de metales pesados, sulfuros, Al, Fe, SH2
(tóxico en disolución).

Se perdieron grandes masas de vegetación, el medio se volvió abiótico y el suelo


sufrió fuertes erosiones. La superficie afectada superó el medio millón de
hectáreas. Se intentó su recuperación, pero los costos de recuperación fueron
mayores que los beneficios de la mina1.

14
2. SMOG FOTOQUÍMICO

Este argot viene de la combinación de las palabras en inglés “smoke” y “fog”,


humo y niebla, respectivamente. Es una expresión en inglés que se traduce
literalmente como niebla tóxica. El smog es un tipo de contaminación del aire que
se da cuando se combinan humo y niebla, con otras partículas contaminantes, que
se encuentran flotando en la atmósfera, y la luz solar, generando diversas
reacciones químicas y en cadena. [9] Este tipo de contaminación se caracteriza
por aparentar un ambiente lleno de humo, de olor extraño y tonos entre gris y
rojizo.

15
Capa visible de smog en el occidente de Bogotá.

Existen dos tipos de smog, smog sulfuroso o clásico: este es el resultado de la


descomposición de los gases de azufre en la atmósfera en presencia de niebla.

Y el smog fotoquímico, el cual es la producción de contaminantes secundarios,


como el ozono troposférico u ozono malo. Esto se forma cuando los fotones de la
luz solar impactan en moléculas de diversos tipos de componentes químicos en
suspensión, por ello se le denomina fotoquímico, como la mezcla de luz y química.

Este tipo de smog, está directamente relacionado a la acumulación de


contaminantes primarios y secundarios. Los contaminantes primarios son los
óxidos de nitrógeno, hidrocarburos volátiles y otras partículas en la atmósfera
emitidas principalmente por las industrias, quema de combustibles fósiles y tráfico
vehicular. [10] y los secundarios, tales como el ozono troposférico, peroxiacilio y
radicales hidroxilos.

De entre los procesos de formación de oxidantes fotoquímicos se puede resaltar la


formación de ozono a través del ciclo fotolítico del NO 2, la reacción del ozono y el
oxígeno con hidrocarburos produciendo radicales libres y la reacción de estos
radicales libres primarios entre sí, produciendo otros contaminantes fotoquímicos.
Particularmente el ozono se caracteriza por ser una molécula muy reactiva, esta
tiene una especie de cadena, en la que sigue reaccionando con otros
contaminantes, dando lugar a un conjunto de muchas sustancias tóxicas que
causan mayor contaminación química.

16
Pequeñas cantidades de NO2 son suficientes para producir la compleja serie de
reacciones que supone el smog fotoquímico, el NO 2 se forma generalmente a
partir del NO que se emite en los gases de combustión.

𝑁2 (𝑔)+𝑂2 (𝑔) ↔2𝑁𝑂 (𝑔)

En el aire, el NO es rápidamente oxidado a NO2 según la reacción:

2𝑁𝑂 (𝑔)+𝑂2 (𝑔) ↔2𝑁𝑂2 (𝑔)

La fotodisociación del NO2 inicia las reacciones asociadas con la formación del
smog fotoquímico. La luz solar es capaz de aportar la energía requerida para
producir esta reacción según la siguiente ecuación:

𝑁𝑂2 (𝑔)+ℎ𝑣 →𝑁𝑂 (𝑔)+𝑂 (𝑔)

El oxígeno atómico formado, es un radical y puede participar en la reacción de


producción de ozono.

𝑂 (𝑔)+𝑂2 (𝑔)+𝑀 (𝑔) →𝑂3 (𝑔)+𝑀 (𝑔)

El ozono es un contaminante indeseado en la baja atmósfera, debido a que es un


gas muy reactivo y tóxico. El ozono formado en la baja atmósfera puede
reaccionar con los óxidos de nitrógeno mediante la reacción:

𝑂3 (𝑔)+𝑁𝑂 (𝑔) →𝑁𝑂2 (𝑔)+𝑂2 (𝑔)

Además de los dióxidos de nitrógeno y monóxido de carbono, los motores de


combustión liberan hidrocarburos no quemados durante su funcionamiento,
cuando hay hidrocarburos en la atmósfera el ozono también reacciona con ellos
produciendo radicales orgánicos de tipo: 𝐶𝐻3𝑂 y 𝐻𝐶=𝑂.

La acumulación de los gases citados anteriormente es lo que causa la formación


de la “nube” que, cuando coincide con un período de alta presión, ocasiona un aire
estancado formando una niebla o bruma fotoquímica, la cual, en vez de estar
constituida por gotas de agua, está compuesta de aire contaminado. Este tipo de
smog se observa a simple vista como una bruma o niebla de color marrón, con
mucha más presencia durante el principio de la mañana, debido a la alta emisión
17
de contaminación por el tráfico característico de este horario. Algunas de las
consecuencias generales de esto, es la irritación ocular, daño en la vegetación y
producción de aerosoles con la consiguiente disminución de la transparencia del
aire.

Nube de smog fotoquímico a altas horas de la mañana.

2.1 Causas del smog fotoquímico:

 Actividad industrial de fábricas o plantas de generación de energía, que emiten


gases y humos de efecto invernadero, y contaminantes ambientales a los cuerpos
de agua, aire o suelos.
 La mala gestión de residuos contaminantes tanto urbanos como en el medio rural.
 Emisión de gases de los vehículos que funcionan con combustibles fósiles.

Prácticamente en todas las ciudades del mundo existe este tipo de contaminación,
sin embargo, es más prominente en aquellas de clima seco, cálido y soleado, o
alto flujo vehicular. Así como zonas costeras o cercanas a ella, o ciudades
situadas en valles amplios, con zonas con abundantes árboles.

2.2 Consecuencias del smog Fotoquímico en la salud.

Este tipo de contaminación es altamente nocivo para la salud de los seres


humanos, generando diversidad de enfermedades en las personas expuestas a
esta Nube tóxica; a continuación, se exponen algunas de estas enfermedades.

18
 Irritación ocular: es la consecuencia más obvia, las partículas de esta nube irritan la
visión limitando así la vista de los ciudadanos.
 Irritación del sistema respiratorio: puede producir desde tos y dificultades para
respirar, hasta bronquitis.
 Alergias: los contaminantes pueden multiplicar y resaltar el efecto alérgeno de otras
sustancias en el ambiente. Además de la capacidad de la piel para absorber el Smog
y sus agentes contaminantes.
 Anemia: El monóxido de carbono del smog evita que los pulmones y la
sangre renueven su oxígeno, lo que puede provocar una anemia.
 Gripe.
 Muerte.

2.3 Consecuencias del smog fotoquímico en el ambiente.

Otro tipo de consecuencias que genera esta contaminación se ve reflejada en el


entorno, en el medio ambiente que habitamos:

 Impacto en el paisaje: impide la visión de cielos despejados, noches estrelladas y la


presencia de nubes, solo un velo entre amarillo y gris sobre nosotros.
 Aumento de calor: debido a la espesa capa de bruma y gases, el calor generado en
la tierra no es capaz de ser expulsado al exterior, provocando un aumento de la
temperatura.
 Se alteran las precipitaciones: los contaminantes y el carbono en suspensión
disminuyen el nivel de lluvias considerablemente, así mismo afecta la eliminación
de la contaminación de forma natural.
 Afectación en los bosques y cultivos: la exposición de los tejidos de las plantas a
compuestos tales como azufre, puede paralizar el crecimiento de la vegetación.

2.3 Combatir el smog fotoquímico.

La manera más eficaz de combatir el smog fotoquímico es reducir la emisión de


los contaminantes que lo generan. De manera consecuente nos referimos a la
reducción de emisión de gases por los vehículos, los cuales son la fuente principal
de contaminación, como se mencionó anteriormente. Es deber de los gobiernos y
los ciudadanos tomar medidas preventivas.

19
Sin embargo, debido a que este es un problema de escala mundial, muchos
países alrededor del planeta desarrollan tecnologías y planes de acción para
reducir los niveles de contaminación por smog fotoquímico, tales como:

 Edificio purificante de aire: El hospital “Manuel Gea Gonzales” revistió una de sus
fachadas con una estructura plástica con celdas a modo de panal, cubierta con un
material que purifica la atmósfera.
 La “Smog Free Tower” en Inglaterra, que filtra el aire contaminado y lo purifica,
además de permitir fabricar objetos con el polvo de carbono que acumula tras el
filtrado.
 Tejas y calles que consumen el smog. En california se desarrolla un recubrimiento
de dióxido de titanio para recubrir tejas de arcilla, que permite eliminar
parcialmente los óxidos de nitrógeno del smog.
 Pavimento reductor. Proyecto de la universidad de tecnología de Eindhoven
(Holanda) que desarrolla un pavimento que reduzca entre un 25-45 % de los óxidos
de nitrógeno.
 Fábricas que reutilizan el CO2. Una central eléctrica canadiense encapsula e
inyecta su propio CO2 y así extraer petróleo.
 E-diésel. Audi y la compañía de energías alternativas “Sunfire” crearon diésel
fabricado a partir de dióxido de carbono. Este no contiene sulfuro ni hidrocarburos
aromáticos, y puede ser usado en cualquier automóvil que funcione con Diesel.

20
3.EFECTO INVERNADERO

3.1 ¿Qué es el efecto invernadero?

El efecto invernadero es un fenómeno natural que se da en nuestro planeta y


dificulta que una parte del calor del sol recibido por la tierra deje la atmósfera y
vuelva al espacio, produciendo un efecto similar al observado en un invernadero
(Greenpeace, www.greenpeace.org, 2010).

Este fenómeno no es exclusivo del planeta Tierra, es decir, podemos encontrar


planetas de nuestro sistema solar que tienen también efecto invernadero. El efecto
invernadero será más o menos intenso dependiendo de la densidad de la
atmosfera y su composición, notándose sus consecuencias en la temperatura
media del planeta en cuestión y en su oscilación térmica diaria. De esta forma,
tenemos planetas como Venus el cual posee una atmosfera muy densa con una
alta concentración de dióxido de carbono, provocando así que la temperatura de
dicho planeta sea mucho más elevada que la de Mercurio siendo este último el
más próximo al sol.

El efecto invernadero se produce de la siguiente manera: la radiación solar


procedente del sol llega a la Tierra, parte de esta energía es reflejada por la
atmosfera y devuelta al espacio, el resto atraviesa la atmosfera y llega hasta la
superficie de la Tierra. Allí, una parte de esta energía es reflejada, y la otra parte
es la encargada de calentar la superficie. Parte de este calor desprendido por la
superficie terrestre se “escapa” hacia el espacio, y el resto se refleja en la
atmosfera produciendo así que la temperatura del planeta alcance una
temperatura estable.

Figura 1: Esquema que representa


el proceso del que sigue el efecto
invernadero. Se observa la
diferencia entre la longitud de onda
que incide en la superficie terrestre
(visible y ultravioleta) y la que es
reflejada por la superficie

21
(infrarrojo). Imagen obtenida de “Efecto invernadero, calentamiento global y
cambio climático: una perspectiva desde las ciencias de la tierra”.

Este fenómeno natural es el responsable de que en nuestro planeta tengamos una


temperatura que permita el desarrollo de la vida. Esto se debe a la fina capa de
gases que recubre la superficie terrestre, la atmósfera.

La atmósfera cumple un papel fundamental para que en la Tierra se den las


condiciones óptimas para el desarrollo de la vida. Primero, la atmósfera es la
encargada de proteger a todos los seres vivos del planeta de la radiación ultra
violeta procedente del sol. A su vez, la atmosfera junto con la hidrosfera,
constituyen el sistema de capas fluidas superficiales del planeta, cuyos
movimientos dinámicos están estrechamente relacionados. Intervienen la
producción de las corrientes de aire, las cuales redistribuyen la temperatura por
todo el globo terráqueo, permitiendo así que el contraste de temperatura entre la
noche y el día no sea extremo.

La composición química de la atmósfera (que gases la forman y en


que proporciones) incluye mayoritariamente a solo dos gases, Nitrógeno (N2), en
un 79% y Oxígeno (O2) en un 20%. El 1% restante está formado por diversos
gases entre los que los más abundantes son el Argón (Ar) en un 0.9% y el dióxido
de carbono (CO2) en aproximadamente un 0.03% (Caballero, Lozano, & Ortega,
2007).

22
Gráfica 1: composición de la atmosfera (% en volumen de aire seco). Gráfica
obtenida de “educaplus.org”.

En lo referido a los gases de efecto invernadero podemos encontrarnos con una


gran variedad de ellos, de los cuales destacarían el dióxido de carbono (CO2), el
vapor de agua (H2O), el metano (CH4), el óxido de nitrógeno (N2O), los gases
industriales sintéticos fluorados (CFC, HFC, PFC, SF6, etc) y el propio ozono (O3).

Sin embargo, no todos estos gases tienen la misma capacidad de absorber la


radiación térmica. El metano (CH4), es veinte veces más efectivo como gas de
efecto invernadero, pero es el dióxido de carbono (CO2) el más relevante de todos
estos gases, ya que supone el 60% del total de todos los gases de efecto
invernadero (Greenpeace, www.greenpeace.org, 2010).

Este progresivo aumento de los niveles de dióxido de carbono (CO2) en la


atmosfera ha puesto al efecto invernadero y al consecuente calentamiento global
entre los puntos de mayor relevancia en todas las agendas de la política
internacional.

No fue hasta los inicios de los años setenta del siglo pasado cuando los científicos
y el Club de Roma comenzaron a llamar la atención de todo el panorama político
internacional con su informe “Los límites del crecimiento”, en el cual se alertaba de
las consecuencias que podría traer el calentamiento de la Tierra.

A pesar de que cada año el efecto invernadero toma una mayor importancia en
nuestro día a día, los esfuerzos llevados a cabo desde la comunidad internacional
no son suficientes, pues como podemos observar a continuación, los niveles de
CO2 han continuado incrementándose año a año.

23
Gráfica 2: Comparación aumento de la población mundial con el aumento de los

niveles de CO2. Obtenido del “informe planeta vivo 2016” de WWF.


3.2 Causas efecto invernadero.

Podemos distinguir entre dos tipos de efecto invernadero:

El efecto invernadero natural: La fuente energética elemental que influye en el


clima es la radiación solar (radiación de onda corta). Alrededor de un tercio de la
radiación solar entrante es reflejada de nuevo al espacio, en particular por las
nubes. El resto es absorbido por la atmósfera, tierra, océano y superficies heladas.
La Tierra y la atmósfera emiten radiación que sale en forma de ondas largas
infrarrojas. Una parte de esa radiación saliente queda atrapada por los GI
producidos de forma natural (vapor agua, dióxido de carbono, ozono, metano y
óxido nitroso) y por las nubes. (García, 1999)

Efecto invernadero antropogénico: es aquel que está directamente relacionado


con la acción del hombre. Actividades como la explotación de combustibles fósiles,
la deforestación, la agricultura, etc., han provocado que, desde comienzos de la
industrialización, el porcentaje de gases de efecto invernadero en la atmosfera
haya aumentado. La magnitud del efecto invernadero antropogénico, dependerá
de la proporción del aumento en la concentración de cada gas involucrado, y de
las concentraciones de otros GEI ya presentes en la atmósfera. Esta
intensificación del efecto invernadero natural, llevaría a un cambio asociado en el
clima mundial, lo que podría traer consecuencias insospechadas para la
humanidad. (ANAM, 2000)

Según el Panel Intergubernamental de Cambio Climático, las emisiones mundiales


de gases de efecto invernadero por efecto de actividades humanas han
24
aumentado, desde la era preindustrial, en un 70%. El dióxido de carbono (CO2),
aunque menos nocivo que otros, es el gas de efecto invernadero antropogénico
más importante, porque es el que más se emite. Sus emisiones anuales
aumentaron en torno a un 80% entre 1970 y 2004, (IPCC, 2007).

A continuación, pasaremos a analizar brevemente las principales causas y


actividades humanas que están relacionadas estrechamente con el aumento
progresivo de los gases de efecto invernadero.

La causa principal del aumento de los gases de efecto invernadero es la actividad


humana, ya sea directa o indirectamente. Las principales causas del aumento de
los gases de efecto invernadero son la quema, producción y extracción de
combustibles fósiles, la deforestación y algunos métodos agrícolas y ganaderos
(Fernández, 2011).

3.3 Combustibles fósiles

Los combustibles fósiles son aquellos que proceden de la biomasa producida hace
millones de años, la cual pasó por grandes procesos de transformación hasta la
formación de sustancias de gran contenido energético, como son el petróleo, el
carbón y el gas natural.

Gran parte de nuestra economía se basa en los combustibles fósiles como el


petróleo, el carbón o el gas natural. El petróleo es la base del sector del
transporte, y el carbón y el gas natural del sector eléctrico.

Los combustibles fósiles comprenden el 80% de la demanda actual de energía


primaria a nivel mundial y el sistema energético es la fuente de aproximadamente
dos tercios de las emisiones globales de CO2 (Foster, 2015).

Los países industrializados son los principales responsables de este consumo


energético. Estos países presentan un consumo tres veces mayor que aquellos
países en vías de desarrollo. Es decir, los países industrializados aportan la mayor
parte de los gases de efecto invernadero, y son los principales generadores del
cambio climático. De ahí decir que el cambio climático es una deuda ecológica de
los países industrializados (Roa, 2001).

25
A comienzos del siglo XXI, y ante la preocupación por el agotamiento de las
fuentes existentes de combustibles fósiles, hemos sido testigos de la explotación
de nuevas fuentes como la fracturación hidráulica o fracking, la perforación de la
corteza marina en busca de petróleo, o una de las prácticas más devastadoras
para el medio ambiente como son las arenas bituminosas o arenas alquitranadas.

La fracturación hidráulica o fracking consiste en una nueva técnica de explotación


de recursos energéticos caracterizada por la extracción de gas natural de
yacimientos no convencionales. Esta nueva técnica consiste en tratar de explotar
el gas acumulado en los poros y fisuras de ciertas rocas sedimentarias
estratificadas de grano fino o muy fino, generalmente arcillosas o margosas, cuya
poca permeabilidad impide la migración del metano a grandes bolsas de
hidrocarburos. Para ello es necesario realizar cientos de pozos ocupando amplias
áreas (la separación entre ellos ronda entre 0,6 a 2 km) e inyectar en ellos
millones de litros de agua cargados con un cóctel químico y tóxico para extraerlo
(Greenpeace, 2013).

La explotación de gas natural por medio de esta técnica conlleva un gran impacto
medioambiental. El principal problema de la fractura hidráulica sería la
contaminación de acuíferos existentes en la zona, debido a que entre un 15% y un
80% del fluido inyectado para realizar la fractura vuelve a la superficie, pero el
restante, con los consiguientes productos aditivos, queda atrapado bajo tierra
(Greenpeace, 2013).

A su vez, el fracking es productor de gases de efecto invernadero ya que durante


la extracción de la materia energética se produce una emisión de gases de efecto
invernadero como el metano (CH4). Mientras que desde la industria del fracking se
argumenta que estas pérdidas de metano no superan el 2% de las emisiones
totales, un reciente estudio de la NOAA y la universidad de Colorado cifran estas
emisiones entorno al 4% sin contar las perdidas adicionales del sistema de
tuberías y distribución (Greenpeace, 2013).

3.4 Deforestación.

Otra de las principales causas del aumento de los gases de efecto invernadero es
la progresiva destrucción de nuestros bosques. El planeta ha perdido el 80% de

26
los bosques originales que cubrían la tierra, según el Programa Nacional de las
Naciones Unidas para el Medio Ambiente (PNUMA). Los bosques más antiguos
que quedan se encuentran en su mayoría en la selva del Amazonas, en África
Central, en Asia del Sureste, en Canadá y en Rusia (Sanz, 2016).

Los bosques son un ecosistema fundamental para el funcionamiento del planeta.


Son los encargados de retener grandes cantidades de carbono a la par que liberan
grandes cantidades de oxígeno. A su vez, juegan un papel importante en las
precipitaciones ya que Influyen en las lluvias, filtran el agua dulce, evitan las
inundaciones y previenen la erosión del suelo.

Según la FAO (Organización de las Naciones Unidas para la Alimentación y la


Agricultura), los bosques almacenan enormes cantidades de carbono. En total, los
bosques del planeta y sus suelos actualmente almacenan más de un billón de
toneladas de carbono, el doble de la cantidad que flota libre en la atmósfera. La
destrucción de los bosques, por otra parte, libera en la atmósfera unos seis mil
millones de toneladas de bióxido de carbono al año, y para el equilibrio de este
elemento, así como para la conservación del medio ambiente, es importante evitar
que escape este carbono almacenado (FAO, 2006).

Los bosques son una gran fuente de recursos naturales, tanto de recursos
destinados a la producción de energía, como es la madera, como de recursos
alimenticios, medicinales u otros.

La principal causa de la deforestación es la agricultura, en la cual se enmarcan


actividades como por ejemplo la ganadería comercial, o las plantaciones
intensivas tales como las plantaciones de soja y aceite de palma (Gibbs et al.,
2010; Hosonuma et al., 2012; Kissinger et al., 2012).

Las plantaciones de palma han estado y siguen estando bajo un gran debate y
discusión debido a los efectos que tiene en el ser humano el consumo del aceite
de palma y derivados. Cada europeo consume una media de unos 60kg/año de
aceite de palma y España es el tercer país europeo en consumo (Greenpeace, El
Parlamento Europeo señala al aceite de palma como una de las principales
causas de deforestación del planeta, 2017).

27
Esta elevada demanda y consumo del producto, hace que cada vez se dediquen
más zonas para el cultivo de palma. En territorios como Sumatra, Borneo y Nueva
Guinea, amplias extensiones de selva tropical son destruidas para dejar paso a la
producción del aceite de palma.

Tabla 1: Frentes de deforestación y


proyecciones de pérdidas entre los
años 2010 y 2030. Tabla obtenida del
“WWF Living forest report: chapter 5”

Indonesia y Malasia, los principales


productores de aceite de palma en el
mundo, se cuentan también entre los
países más afectados por la deforestación. En muchas ocasiones, el crecimiento
ha sido acelerado: en el Sudeste asiático, por ejemplo, el 45% de las plantaciones
de palma aceitera analizadas en el año 2016 provenían de áreas que eran
bosques en 1989, según un estudio con imágenes de los satélites Landsat
publicado por investigadores de EEUU y Brasil (Madridejos, 2017).

Según el informe Bosques vivos “Living Forest Report” de WWF, el 80% de la


deforestación total del planeta hasta 2030 se concentrará únicamente en once
lugares. Estas zonas como hemos mencionado antes, son lugares de gran
riqueza natural debido a las numerosas especies de fauna y flora que poseen, de

28
las cuales una gran parte están en peligro de extinción, como son el orangután o
el tigre.

El informe se apoya en estudios anteriores de WWF que indican que, si no se


toman medidas, hasta el 2050 desaparecerán más de 230 millones de hectáreas
de bosque, y que la pérdida de bosques debe ser reducida a casi cero en 2020
para evitar los peores impactos del cambio climático y pérdidas económicas
severas (WWF, 2015).

3.5 Agricultura.

La agricultura y la ganadería son una de las actividades humanas que mayor


impacto tienen en nuestro entorno. Según un informe de la FAO de 2006, el sector
ganadero genera más gases de efecto invernadero que el sector del transporte.
Como hemos mencionado antes, uno de los principales causantes de la
producción de gases de efecto invernadero es la desforestación de nuestros
bosques para dar paso a tierras de cultivo o de explotación ganadera. El problema
es que durante este proceso de transformación del terreno se siguen produciendo
grandes cantidades de gases a la atmósfera.

La cadena agroalimentaria en su conjunto es parte del problema, dada la


importante emisión de gases de efecto invernadero vinculados a la deforestación,
producción de agroquímicos, agricultura y ganadería, procesado, transporte, venta
y consumo de alimentos y eliminación de residuos. Pero también es un sector
clave para combatir los efectos previstos del calentamiento global (WWF, 2017).

La ganadería también tiene su parte de responsabilidad en el aumento de gases


de efecto invernadero. Los animales en su proceso de digestión del alimento
generan grandes cantidades de metano (CH4), un gas de efecto invernadero que
como hemos mencionado antes es unas veinte veces más potente que el CO2.Las
ganaderías vacuna y ovina tienen un elevado impacto sobre el cambio climático.
Cada kilo de vacuno producido, por ejemplo, genera 13 kilos de emisiones
de carbono; en cuanto al kilo de cordero, genera 17 kilos de emisiones
(Greenpeace, 2008).

29
El problema no es solo la cantidad de gases que puedan producir estos animales,
sino que también influye la gran cantidad de agua y terrenos necesarios para
producir el pienso y los elementos necesarios para sustentar todas las cabezas de
ganado.

Los rebaños provocan al mismo tiempo daños en el suelo a gran escala, con cerca
del 20% de los pastizales degradados a causa del sobrepastoreo, la compactación
y la erosión. La actividad ganadera figura entre los sectores más perjudiciales para
los cada día más escasos recursos hídricos, contribuyendo entre otros aspectos a
la contaminación del agua. El sobrepastoreo afecta al ciclo del agua, e impide que
se renueven los recursos hídricos tanto de superficie como subterráneos. La
producción de forraje obliga a desviar importantes cantidades de agua (FAO,
2006).

3.6 Consecuencias efecto invernadero

Durante los últimos años hemos podido observar como las noticias relacionadas
con el cambio climático y el efecto invernadero han ido aumentando de forma
progresiva, a su vez, no es raro que todos los meses aparezca en los medios de
comunicación alguna noticia sobre algún tipo de catástrofe natural o fenómeno
relacionado con las consecuencias del calentamiento progresivo de nuestro
planeta.

Las consecuencias del efecto invernadero se están dejando notar cada vez con
más frecuencia y con más fuerza, dejando ver de forma clara que es necesario
que la sociedad plantee medidas urgentes para intentar disminuir lo máximo
posible los devastadores peligros a los que nos enfrentamos.

30
Como hemos mencionado anteriormente, el incremento de gases de efecto
invernadero están provocando que la temperatura del planeta vaya aumentando

paulatinamente. Este aumento progresivo de las temperaturas trae consigo una


serie de problemas que pueden poner en serio peligro la vida en sociedad tal y
como la conocemos.

Grafica 2: Grafica que muestra el progresivo aumento de las temperaturas entre


los años 1881 y 2010. Grafica extraída del informe the global climate 2001-2010
de la World Meteorogical Organization WMO).

Una de las principales consecuencias del aumento de gases de efecto


invernadero, y del consiguiente aumento de las temperaturas, es la gran pérdida
de superficie en los polos. Es deshielo en el ártico se ha convertido en una
realidad. Según estudios de WWF se estima que desde los años setenta la masa
de hielos perpetuos del ártico se ha visto reducida en un 14%.

31
La superficie polar ártica supone una importante “pieza” para mantener el
equilibrio natural, es decir, hay indicios que señalan la existencia de una relación
entre la pérdida del manto de hielo ártico y el cambio en los patrones de
circulación atmosférica (Greenpeace, 2017).
Gráfica 3: Gráfica que muestra la disminución del hielo marino entre 1980 y 2016.

Gráfica obtenida de la NOAA (National Oceanic and Atmospheric Administration)

La gran masa de hielo polar ártico funciona como un refrigerador de todo el


hemisferio norte, la desaparición de esta superficie supondría grandes cambios en
el comportamiento de las corrientes de aire procedentes del ártico, así como de
las corrientes marinas procedentes del mismo, provocando así una serie de
condiciones adversas para los seres vivos de esta zona.

El proceso de deshielo de la superficie ártica tiene consigo una retroalimentación


negativa, es decir, al fundirse la superficie ártica deja al descubierto una mayor
superficie marina, la cual es más oscura y, por tanto, absorbe mejor la radiación
solar, provocando así un mayor calentamiento y una aceleración mayor de dicho
proceso. Este deshielo de los casquetes polares está directamente relacionado
con otro problema provocado por el efecto invernadero, el aumento del nivel de
32
mar. La tasa de subida del nivel del mar ha aumentado en las últimas décadas,
debido principalmente a la dilatación térmica por el aumento de las temperaturas y
por la pérdida de las capas de nieve y hielo continental de glaciares, de
Groenlandia y de la Antártida (Greenpeace, 2014).

La dilatación térmica hace referencia a que cuando el agua se calienta aumenta su


volumen. Alrededor de la mitad del aumento del nivel del mar que se produjo a lo
largo del siglo pasado es atribuible al hecho de que los océanos, al calentarse,
ocupan más espacio (National Geographic, 2010).

Los océanos han respondido siempre con mayor lentitud al progresivo aumento de
la temperatura de la Tierra. Durante el siglo pasado, las actividades humanas
provocaron el aumento de 0,6º centígrados de la temperatura media del plantea,
mientras que es cambio en los océanos ha supuesto el aumento de 0,1º
centígrados de la temperatura del mar (National Geographic, 2010).

Hay que dejar claro que aunque el calentamiento de los océanos sea menor que el
de la superficie terrestre, la biodiversidad marina es mucho más sensible a los
cambios en la temperatura del agua. El ejemplo más claro de este problema lo
podemos encontrar en el coral.

Los corales son organismos vivos que albergan una gran cantidad de vida. Se
estima que el 25% de la vida marina del planeta depende directamente de los
corales. La gran barrera de coral supone la mayor estructura viva del planeta y da
hogar y alimento a más de mil quinientas especies de peces (National Geographic,
2017).

Durante los últimos años hemos sido testigos de cómo este gran organismo ha ido
perdiendo los numerosos colores que le caracterizaban dando paso a un color
blanquecino de toda su estructura. El blanqueamiento se da cuando las
temperaturas del mar aumentan por encima de los promedios habituales. Esto
hace que los corales expulsen pequeñas algas fotosintéticas llamadas
zooxanthellae que los blanquean y usualmente los matan. Si estos fenómenos
ocurren tan seguidos, los corales afectados no llegan a recuperarse y esto pone
en peligro a todo el arrecife (Greenpeace, 2017).

33
La consecuencia más inmediata del aumento de la temperatura del mar es la
consecuente subida del nivel del mismo. Según el IPCC, desde mediados del siglo
XIX el ritmo de la elevación del nivel del mar ha sido superior a la media de los dos
milenios anteriores. Durante el período 1901-2010, el nivel medio global del mar
se elevó 0,19 metros (Greenpeace, 2014).

Según el IPCC el nivel del mar se verá aumentado de unos 26 a 98 cm para el año
2100. Esta cifra es un tanto conservadora, ya que si se siguen manteniendo los
niveles de emisiones de CO2 a la atmósfera, y se continúa provocando un
calentamiento global durante un tiempo suficiente como para derretir el manto de
hielo de Groenlandia, el nivel del mar podría alcanzar una altura de unos 7 metros
más.

Esta subida y calentamiento del mar no solo tendrá repercusiones sobre la


biodiversidad marina, sino que millones de personas tendrán que verse obligadas
a abandonar sus lugares de origen.

Centrando este problema en nuestro país, podemos atender que según WWF en
este escenario de aumento del nivel del mar en 6 cm para 2040, los retrocesos de
la línea de costa serán de 3 metros en las costas cantábricas y gallegas, de 2
metros en el Golfo de Cádiz, y entre 1-2 metros en las islas Canarias y en la
fachada Mediterránea.

En España las zonas costeras son las que cuentan con una mayor densidad de
población y el peso socioeconómico de estas áreas, debido principalmente al
turismo, es de vital importancia para el conjunto del país. Una costa en mal estado
significa un aumento del riesgo para la población que vive en estas áreas y es una
pérdida constante de dinero público que se destina a restaurar playas, paseos
marítimos o infraestructuras costeras. Estos datos evidencian la importancia de
preservar el litoral, en un país que cuenta con más de 8.000 km de costa y donde
vive casi casi el 60% de la población española, es decir, unos 23 millones de
personas (WWF, 2015).

En otros rincones del mundo la situación es mucho más trágica. La republica de


Kiribati, un pequeño archipiélago del océano pacifico con algo más de cien mil
habitantes y en el que casi ningún punto de la isla supera los dos metros de altura,

34
está siendo testigo en primera persona de este aumento del nivel del mar. Desde
el propio país ya se están tomando las medidas necesarias para poder evacuar a
la población en caso de que se vean obligados a abandonar las islas por una
crecida en el nivel del mar.

El progresivo deshielo de los casquetes polares y los glaciares, así como el


paulatino aumento del nivel del mar, no es el único problema derivado del
aumento de las temperaturas.

El permafrost define a la capa del subsuelo de la corteza terrestre que se


encuentra permanentemente congelada. Cuando el permafrost se deshace, la
materia orgánica comienza a descomponerse, liberando gases de efecto
invernadero como el dióxido de carbono y el metano que aumentan las
temperaturas globales. Se estima que hay más carbono contenido en el
permafrost congelado que el que se encuentra actualmente en la atmósfera; por lo
que la descongelación del permafrost tiene consecuencias potencialmente
perjudiciales (Europa Press, 2017).Esta continua pérdida de superficie congelada
en el permafrost conlleva una retroalimentación positiva, es decir, la progresiva
descongelación del permafrost y la consecuente emisión de gases de efecto
invernadero a la atmosfera, supondría una “aceleración” del proceso, pues cuanta
más cantidad de gases de efecto invernadero posea la atmosfera mayor será el
aumento de las temperaturas y por consiguiente mayor será la velocidad a la que
se descongele la masa helada.

Los problemas derivados del efecto invernadero no tienen que ver únicamente con
el aumento del nivel del mar y la perdida de superficie en los polos, sino que
también está estrechamente relacionado con otro de los principales problemas de
nuestro siglo, como es la perdida de la cubierta forestal debido al aumento de los
incendios y el consiguiente aumento de la superficie desértica.

Según la Convención de la Naciones Unidas de Lucha contra la Desertificación


(CLD), las zonas susceptibles de sufrir desertificación son las áreas áridas,
semiáridas y subhúmedas secas, es decir, aquellas zonas en las que la proporción
entre la precipitación anual y la evapotranspiración potencial está comprendida
entre 0,05 y 0,65 (Ministerio de agricultura y pesca, alimentación y medio
ambiente, 2017).
35
España es el país más árido de Europa. Según la Organización de las Naciones
Unidas, un tercio de su superficie sufre un índice muy elevado de desertificación y
un 6% ya se ha degradado de forma irreversible. Las zonas más afectadas por
este fenómeno son la vertiente mediterránea y las islas canarias. La
sobreexplotación de los recursos hídricos, la tala indiscriminada de bosques, la
agricultura intensiva y el sobrepastoreo, los incendios y la ocupación del suelo
para el negocio inmobiliario resultan en gran parte responsables de esta situación
(Greenpeace, 2007).

Imagen 1: Imagen que muestra el riesgo de desertificación del territorio español.


Obtenida de la página del ministerio de agricultura y pesca, alimentación y medio
ambiente del gobierno español.

Desde la última década España ha sido testigo de cómo año tras año los
incendios han amenazado una masa forestal que de por sí ya es escasa. La
tendencia del número de siniestros en el periodo comprendido entre 1961 y 2010
es creciente. En el periodo 1991-2000 se dobla el número de siniestros respecto
del decenio anterior, alcanzándose una media de 19.097 siniestros al año,
disminuyendo ésta hasta 17.127 en el periodo 2001-2010, debido a los años 2007-
2010, periodo en el que se aprecia por primera vez una tendencia decreciente
(Ministerio de agricultura y pesca, alimentación y medio ambiente, 2012).
36
Gráfica 4: Gráfica que
recoge el número de
siniestros forestales en
España desde los años
1961 hasta 2010. Gráfica
obtenida del ministerio de
agricultura y pesca,
alimentación y medio
ambiente del gobierno
español.

Si continuamos agotando el suelo de esta manera pondremos en peligro, aún


más, el patrimonio natural y cultural que dejamos a las generaciones venideras.
Este agotamiento de los recursos naturales se traducirá en numerosas pérdidas
económicas como humanas. Según WWF, El dos de agosto de 2017 la población
terminó por consumir los recursos naturales que la tierra es capaz de producir en
un año, por lo que estaríamos viviendo a costa de los recursos de las
generaciones venideras.

La gravedad del problema requiere una respuesta rápida. Los países están
tomando medidas como la elaboración de legislaciones proteccionistas. A escala
internacional destaca el Convenio para la Diversidad Biológica, ratificado por
España en 1993, cuyo objetivo es la conservación máxima de la biodiversidad en
beneficio de las generaciones presentes y futuras, velando por el uso racional de
los recursos (principio básico del desarrollo sostenible).

3.7 Medidas internacionales tomadas al respecto.

En las agendas políticas de todos los países industrializados cada vez ha tomado
un mayor protagonismo las medidas encaminadas a frenar el calentamiento global

37
a través de la reducción de los gases de efecto invernadero. Sin embargo, muchas
de estas medidas no acaban por surtir efecto, ya sea por falta de compromiso por
parte de los estamentos políticos, o por presiones que reciben los estados de los
grandes poderes financieros. Dentro de los acuerdos internacionales más
importantes para la reducción de los gases de efecto invernadero destacan el
Protocolo de Kioto en 1997, y el acuerdo de París en 2015.

El Protocolo de Kioto fue estructurado de acuerdo a los principios de la


Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC)
con el objetivo de alentar a los países industrializados a reducir sus emisiones de
seis gases de efecto invernadero: CO2, CH4, N2O, HFC, PFC y SF6.

El protocolo fue inicialmente adoptado el 11 de diciembre de 1997 en Kioto, Japón,


pero no entró en vigor hasta el 16 de febrero de 2005. En noviembre de 2009,
eran 187 estados los que ratificaron el protocolo. Estados Unidos, mayor emisor
de gases de invernadero mundial, no ha ratificado el protocolo (Wikipedia, 2017).

Gráfica 5: Posición de los diversos países en 2011 respecto al protocolo de Kioto.


Imagen obtenida de Wikipedia.com.

En lo referido a la Unión Europea, los quince países europeos que se


comprometieron con el protocolo de Kioto lograron reducir conjuntamente sus
emisiones de CO2 en un 8% respecto a 1990. Tras varios años de descenso, en
38
2012 los registros mostraron una caída de las emisiones del 1,3% en toda la Unión
con respecto a 2011. Si se compara con dos décadas atrás (1990, el año base
para los cálculos de Kioto) Europa ha conseguido reducir un 19,2% sus emisiones
(Sevillano, 2014).

A pesar de que en su conjunto la Unión Europea, en su conjunto, si consiguiese

reducir sus emisiones, si nos centramos en los objetivos puestos por cada país
podremos comprobar que no todos los estados han conseguido realizar las
reducciones que tenían fijadas.

Tabla 2: Emisiones de CO2 de los distintos países de la Unión Europea que se


encuentran en el protocolo de Kioto. Tabla obtenida de la versión digital del diario
español “El País”.

En el caso de España, podemos observar cómo fue uno de los países de la Unión
Europea que no logró alcanzar los objetivos fijados para 2012. A pesar de no
haber logrado el objetivo el gobierno ratificó la llama “enmienda Doha” por la que
se prorroga el Protocolo de Kioto hasta 2020 con un nuevo periodo de
compromiso de reducción de emisiones de gases de efecto invernadero para
luchar contra el cambio climático. Este cumplimiento lo hará España
conjuntamente con los 28 países de la Unión Europea y con Islandia, y supone un
39
compromiso de reducción de emisiones de gases de efecto invernadero de un
20%, como promedio a lo largo de 2013-2020, respecto al año de referencia
(1990) (La Vanguardia, 2015).

Además del protocolo de Kioto hemos asistido recientemente al mayor acuerdo


internacional para intentar frenar el aumento de las temperaturas, el Acuerdo de
París. En diciembre de 2015 prácticamente la totalidad de los países del mundo, a
excepción de Siria y Nicaragua, se sumaron a un acuerdo internacional por el que
se comprometían a intentar reducir sus emisiones de CO2 para lograr así frenar el
progresivo aumento de las temperaturas.

La idea del Acuerdo de París es que cada país, desarrollado o no y sin importar su
PIB, establezca metas para reducir las emisiones de dióxido de carbono para
prevenir esos efectos (Plumer, 2017).

A diferencia del tratado anterior (el Protocolo de Kioto), el Acuerdo de París no es


vinculante; así, los países pueden cambiar sus planes según la situación interna.
No hay multas por quedar por debajo de las metas declaradas. La expectativa era
que las políticas y las metas fueran reforzadas con el tiempo por medio de la
diplomacia y de la presión social (Plumer, 2017).

El objetivo es lograr que la temperatura del planeta no se vea incrementada en 2º


Celsius respecto a la era preindustrial, e intentar seguir reduciendo ese aumento
hasta los 1,5º Celsius, lo que según los expertos se trata de un objetivo muy
ambicioso.

Para mejorar los resultados, el acuerdo de París crea un mecanismo de revisión


de los compromisos, también voluntario, para observar si el esfuerzo es suficiente
para limitar las emisiones globales y estabilizar las temperaturas. Para empezar,
se emplaza al IPCC a realizar un análisis de la situación en el 2018. Los países
deberán presentar un primer balance en el 2023 y, cada cinco años, endurecerlo
en función de la evolución del clima a su vez, los países más desarrollados del
acuerdo, se comprometen a realizar ayudas económicas para aquellos menos
desarrollados, con el fin de dotar a estos de las herramientas necesarias para
lograr un desarrollo sostenible.

40
Durante el gobierno de Barack Obama en los Estados Unidos, se prometió reducir
sus niveles de emisiones entre un 26 y 28 por ciento para el año 2025, respecto a
los niveles de 2005. Así mismo, la administración de Obama prometió destinar
veinte mil millones de euros en ayudas para aquellos países menos desarrollados
para que así puedan empezar a sentar las bases para reducir su dependencia de
los combustibles fósiles.

A pesar de que se trata de un acuerdo sin precedentes, existe una seria


preocupación por el reciente abandono de los Estados Unidos de este tratado. El
gobierno de Donald Trump invocaría el mecanismo formal de retiro, que tarda
cuatro años, aunque las autoridades estadounidenses pueden dejar de participar
en cumbres climáticas vinculadas al acuerdo desde este mismo momento. Claro
que, si así lo quisiera, un futuro gobierno estadounidense podría volver a sumarse.

3.8 Posibles soluciones

El problema del calentamiento global al que nos enfrentamos es de tales


dimensiones que difícilmente se podrá dar con una solución si se actúa de manera
individual, es decir, la crisis del medio ambiente exige la toma de decisiones
mundiales. Los acuerdos internacionales no son el único camino para poder
solucionar el progresivo calentamiento del planeta, a su vez se debe promover en
la sociedad una concienciación del problema al que nos enfrentamos. Para esto, la
mejor herramienta que podemos utilizar es la educación. La formación de las
futuras generaciones debe estar orientada hacia una conservación del patrimonio
natural que poseemos, enseñando las grandes posibilidades que ofrece, pero a su
vez mostrando el frágil equilibrio que gobierna los diferentes ecosistemas.

La educación es el “motor” de cambio de la sociedad. La construcción de un


pensamiento de tolerancia y respeto hacia el entorno que nos rodea difícilmente
puede ser adquirido si no se ha enseñado desde las edades más tempranas. La
formación de las personas debe estar más enfocada en el desarrollo de un
pensamiento crítico y reflexivo sobre todo aquello que lo rodea, para así poder
escoger en cada momento de manera libre y acorde a los principios de cada
persona.

41
Esta construcción de pensamiento debe ser el punto de partida inicial sobre el que
poder llevar a cabo medidas más “grandes”, como por ejemplo cambiar la manera
que tenemos de producir y consumir. La sociedad de mercado que hemos
construido está sustentada por una producción de “usar y tirar”, es decir, tenemos
que producir cosas que duren poco porque hay que vender mucho. Un ejemplo
muy claro de esto lo podemos observar en la industria de la telefonía móvil.

Con el paso de los años hemos podido observar como la gran cantidad de
elementos tecnológicos que producimos no poseen una vida útil mayor de unos
cinco años aproximadamente, el problema no es en sí mismo la corta durabilidad
de dichas herramientas, sino los problemas que derivan una vez estos han dejado
de ser útiles para la sociedad.

Gran parte de toda la “basura tecnológica” de los países desarrollados es


trasladada a países con menor capacidad de desarrollo, en los cuales no se trata
correctamente todos estos residuos provocando así la contaminación del entorno.
Uno de los ejemplos más claros lo podemos encontrar en Ghana.

A la zona en cuestión llegan a parar miles de toneladas de residuos tóxicos. Pues


Ghana importa cada año unas 215.000 toneladas de residuos tecnológicos,
principalmente desde Europa del Este. De esta cantidad, la mitad puede ser
reutilizada inmediatamente, o reparada y vendida; pero el resto del material es
“reciclado” de forma incorrecta, contaminando la tierra y perjudicando la salud
humana. Un ejemplo es el de los buscadores de cobre, que queman las fundas
que recubren los cables para conseguir el metal (Moreno, 2015).

Ante este problema la sociedad podría actuar de la siguiente manera: en vez de


seguir apostando por un sistema de producción que genera cada año millones de
residuos, podría comenzar a aportar por técnicas como la llamada economía
circular.

42
4. ISLA DE CALOR URBANA

El primer acercamiento a la ICU de la ciudad se realizó en 1996 a través de un


estudio que utilizó imágenes satelitales (NOAA AVHRR), y en el cual se
identificaron una serie de islotes de alta emisión térmica que coinciden con la
localización de zonas con actividad industrial de comercio y servicios, las cuales
constituyen zonas de alto grado de urbanización en la ciudad (Toudert, 1996).
Posteriormente García-Cueto et. al., (2007) utilizando imágenes NOAA AVHRR y
Landsat ETM+, así como mediciones de la temperatura del aire, analizaron tanto
la ICU atmosférica como la superficial y su relación con los usos del suelo. Los
resultados confirman la existencia de una ICU superficial al comparar la ciudad
con sus alrededores, además de identificar importantes contrastes térmicos al
interior de la ciudad y el desarrollo de una ICU nocturna. Los mayores contrastes
térmicos observados en este estudio son con valores superiores a los 40

°C entre el área urbana y el área agrícola circundante, esto en los meses de julio y
agosto. Dos años después García-Cueto et. al., (2009) utilizando una base de
datos de 1950 al año 2000, realizan un análisis temporal y espacial de la
temperatura del aire en el dosel urbano de la ciudad y sus alrededores; en este
estudio quedó de manifiesto la presencia de una masa de aire tibio nocturna en la
atmósfera urbana, donde la diferencia máxima entre la ciudad y sus alrededores
ocurre en invierno con un valor de 5.7°C.

Los resultados de estas investigaciones sugieren que el proceso de urbanización


experimentado en Mexicali ha modificado de manera importante el clima local; por
lo observado, se puede inferir que la ciudad genera suficiente calor sensible para
elevar la temperatura en su interior, y dado el reducido número de áreas verdes (la
cual favorece la evapotranspiración) se favorece la distribución del calor
almacenado en las diferentes estructuras de la ciudad, es decir, la causa de la ICU
está relacionada con las alteraciones en el balance de energía superficial causado
por la urbanización. Además de lo expuesto, estas investigaciones identifican
como zonas en las que se intensifica la ICU a una zona comercial cercana a la
frontera internacional, así como al corredor industrial al sureste de la ciudad, en el
cual cabe destacar se concentra la mayor parte del uso industrial en la ciudad.

43
4.1 Área de análisis en este estudio

Esta investigación se centra en el extremo noroeste del corredor industrial antes


mencionado; conformada por una variedad de usos del suelo, el área de estudio
cuenta con una superficie de 232.5232 hectáreas,

incluye áreas dedicadas a la industria, el comercio y los servicios, así como a la


vivienda (Figura 3 y Tabla 1). Dos vialidades de conexión regional cruzan el área
de estudio, paralela a una de ellas se encuentra la única área verde de la zona,
otra de las vialidades conecta el oriente con el poniente de la ciudad y el resto son
de menor jerarquía y son utilizadas para el tránsito local (Figura 2).

Fig. 2: Imagen aérea del área de estudio.

44
Tabla 1: Uso del suelo y su potencial en la aplicación de estrategias de mitigación
de ICU.
Potencial
Uso del Área % Estrategia de Cobertu
de
Suelo (ha) Mitigación ra de
Aplicación
Mitigació
por Uso
n (ha)
(%)
Azotea Verde
HABITACIONAL 28.84 12. Azotea Fresca 2 7.4989
18 4% 6
%
Azotea Verde
Azotea Fresca 1 0.2342
EQUIPAMI 1.23 0.5
9
ENTO 26 %
%
EDUCATI
VO Reforestación 6 0.73
0
% 95
Azotea Fresca 3 36.9
INDUSTRIAL 119.0 51. 1
% 029
415 2%
Reforestación 3 3.57
%
12
COMERCIAL 41.81 18. Azotea Fresca 3 12.5
0
88 0% % 456
MIXTO Azotea Fresca 4 4.62
11.55 5.0 0
(Almacenes, % 13
32 %
Comercial) Reforestación 3 0.34
%
66
INFRAESTRUC
TURA
(Calle, Canal, 30.03 12. Reforestación 8 24.0
Derecho de 53 9% 0 282
Vía) %

Área de Estudio (ha) = Área de Aplicación de Estrategias (ha)=90.4885


232.5232 100
%

45
La importancia de acotar un área de estudio en esta investigación radica en los
siguientes argumentos: a) permite analizar puntualmente una de las zonas
identificadas como críticas en el desarrollo de la ICU en la ciudad, b) el área
propuesta ofrece una mezcla de usos del suelo que son representativos al resto
del corredor industrial, así como de la ciudad, y c) facilita la evaluación e

interpretación de resultados obtenidos mediante la aplicación del modelo, lo cual


contribuye al conocimiento necesario para ampliar el estudio a escala de ciudad.

Fig. 3: Uso del suelo en el área de estudio.

4.2 Metodología.

Para determinar el potencial de mitigación que ofrece la estructura urbana del área
de estudio, fue necesario caracterizar y analizar las condiciones de cobertura y
uso del suelo, así como establecer las posibilidades de implementar cada
estrategia de mitigación. Con base en lo anterior, son tres las estrategias de

46
mitigación que se utilizaron para esta investigación: Reforestación Urbana,
Azoteas Frescas y, Azoteas Verdes. La reforestación urbana contribuye a mitigar
la ICU al modificar las condiciones microclimáticas en espacios abiertos al regular
la temperatura y humedad, además de mejorar la calidad del aire al capturar el
dióxido de carbono (Pena-Salmon y Rojas-Caldelas, 2009; Bochaca y Puliafito,
2009). Las azoteas frescas o reflexivas son aquellas que utilizan materiales que
tienen dos importantes propiedades un albedo alto y una emitancia térmica.
Ambas estrategias son identificadas por Lynn, et. al., (2009) como las de mayor
eficacia para mitigar la ICU. En cuanto a las azoteas verdes, éstas se refieren al
tratamiento mediante el cual se crea una superficie vegetal inducida en la cubierta
de una edificación, proporcionan sombra y disminuyen la temperatura del aire
circundante a través de la evapotranspiración; además de reducir la carga térmica
de la edificación.

Un ejemplo de lo anterior son las azoteas convencionales, las cuales tienen una
baja reflectancia y baja emitancia térmica, provocando que sus temperaturas
oscilen entre los 66°C y 8°C. Por su parte, las azoteas metálicas tienen una alta
reflectancia y una emitancia térmica baja, alcanzando temperaturas entre 60°C y
77°C. Mientras que las azoteas con alta reflectancia y emitancia pueden alcanzar
temperaturas entre 37°C y 49°C en el verano (Meredith, 2004), ello se traduce en
la aseveración establecida anteriormente como una posible solución que no es
difícil de llevar a cabo y tiene costos económicos bajos: las azoteas verdes y
reflexivas. Más aún, la misma autora menciona que un aumento del albedo en
0.07 en azoteas y pavimentos puede llegar a reducir la temperatura ambiente
hasta los 30 ºC, enriqueciendo este estudio, las aportaciones de Pomerantz et. al.,
(2002) estiman, que, si la radiación solar absorbida por pavimentos y
estacionamientos se reduce de un 90 a un 65%, la temperatura máxima del aire
puede reducirse hasta en 18 ºC.

4.3 Modelación dinámica.

La modelación dinámica es una herramienta útil para describir, analizar y evaluar


sistemas complejos, ésta ha sido utilizada en diferentes disciplinas de la ciencia
entre ellas la planeación urbana. Por definición, los modelos son una simplificación
de la realidad, esto es, son una descripción de los aspectos esenciales de un

47
sistema, los cuales representan el conocimiento de ese sistema en una forma
utilizable. Esto refleja que

Los modelos no incluyen todo y que esta simplificación de la realidad hace que los
modelos sean de utilidad (Meadows, 2001).

En el caso de esta investigación, se utilizó modelación dinámica con la finalidad de


simular la aplicación de estrategias de mitigación y sus efectos en el área de
estudio. El modelo desarrollado retoma por una parte la aproximación estadística
hecha por Akbari et. al., (2009); Akbari et. jal., (1999); Akbari y Rose (2001a);
Akbari y Rose (2001b). Dicha modelación (Fig. 4) se caracteriza con base en el
tipo de superficie, su distribución y su porcentaje en la ciudad, con el fin de estimar
el impacto sobre la temperatura y la calidad del aire. Así como lo propuesto por
Jusuf y Wong (2009), quienes para predecir la temperatura del aire en la ciudad de
Singapur proponen un modelo que relaciona: la temperatura (mínima, promedio y
máxima), la radiación solar diaria, el porcentaje de superficies pavimentadas, la
altura promedio de construcción, la superficie total de muros, la superficie de área
verde, así como el factor de apertura de cielo y el albedo promedio de superficie.

Estos estudios se basan en la composición física del espacio urbano y en su


temperatura de superficie. De manera similar el modelo propuesto en esta
investigación utilizó la estructura que presenta los usos y cobertura del suelo, su
temperatura de superficie, así como el potencial de implementación de estrategias
de mitigación. Al igual que los estudios antes mencionados, en esta investigación
se estimó la temperatura de superficie bajo diferentes condiciones de cobertura
del suelo de la siguiente manera:

Tvegetación x Avegetación + Tpavimento x Apavimento + Tazotea x Aazotea +


Tmisceláneo x Amisceláneo

Dónde: T es la temperatura y A es la fracción de la superficie total. Dado que el


perfil de la ICU depende de cómo el aire es calentado por las diferentes
superficies que conforman la ciudad, al utilizar recubrimientos o materiales que
permitan temperaturas de superficie más bajas, se tendrán efectos significativos
en la temperatura de la ciudad.

48
Fig. 4:
Estructura
general del
modelo.

El modelo fue desarrollado en STELLA® con el objetivo de simular el potencial de


mitigación de la ICU, a través de la aplicación de estrategias de mitigación. Este
se conceptualizó de forma modular, esto es, cada módulo representa las
características y dinámica de cada uso del suelo, así como su potencial de
mitigación, de tal manera que la integración de varios módulos constituye en este
caso la estructura de usos del suelo del área de estudio (Fig. 4). Los elementos
principales del modelo son:

 Uso y cobertura del suelo. Estrategias de mitigación ante ICU.


 Escenarios de cambio climático local (PEACCBC, 2010). Incremento de la
temperatura por ICU (Torok, et. al., 2001).
 Balance de temperatura, en relación con el uso y cobertura del suelo (enfocado a
la implementación de estrategias).

49
4.4 Simulación de escenarios.

La construcción de escenarios de mitigación se realizó tanto de manera individual


como por combinación de estrategias con el fin de conocer las posibilidades de
mitigación y su relación con cada uso del suelo. De manera global se puede decir
que solo el 37% del área de estudio tiene potencial para aplicarle alguna de las
estrategias de mitigación y que son las azoteas las que ofrecen mayor superficie
para la aplicación de estrategias. En cuanto a la simulación de escenarios se
realizó a través de la interface de simulación, la cual permite hacer combinaciones
entre uso del suelo, estrategia de mitigación y el establecimiento del porcentaje de
superficie en la cual se desea aplicar cada estrategia (Fig. 5).

Fig. 5: Interface de simulación en STELLA®.


50
5. LA CAPA DE OZONO

5.1 ¿Qué es el ozono?

El ozono es un gas compuesto de moléculas de ozono (O3), que consiste de tres


átomos de oxígeno. Las moléculas de oxígeno (O) en el aire que respiramos están
formadas de sólo dos átomos de oxígeno. Las moléculas se crean en una reacción
fotoquímica, que puede describirse del siguiente modo simple: Las moléculas de
oxígeno reaccionan para formar moléculas de ozono, y, al mismo tiempo, las
moléculas de ozono reaccionan para formar moléculas de oxígeno. Si el número
de moléculas que se crean es el mismo que el de moléculas de ozono que se
destruyen, la reacción entra en un equilibrio dinámico. Como este equilibrio es
muy frágil, cualquier intervención puede dañar el proceso natural de formación y
destrucción del ozono, lo que a su vez tiene serias consecuencias para la vida en
la Tierra.

CAPA DE OZONO (Foto: The European Space Agency)

5.2 ¿Qué es la capa de ozono?

Es la zona de mayor concentración de moléculas de ozono de la estratosfera, esta


capa tiene un grosor de 10-20Km. Envuelve todo el planeta como una burbuja y
51
actúa como filtro contra la dañina radiación ultravioleta producida por el sol, la
estratosfera es la parte de la atmosfera que se encuentra arriba de la troposfera y
el ozono estratosférico difiere del ozono superficial, el ozono superficial se produce
por la industria y las emisiones vehiculares en combinación con ciertas
condiciones climáticas. Esta es parte del smog fotoquímico.

Esta capa es un escudo protector de la radiación ultravioleta proveniente del sol, si


la cantidad de radiación ultravioleta que llega a la tierra es alta pueden generarse
importantes problemas tanto en seres humanos como en la biodiversidad, el
agotamiento de la capa de ozono se ha enfrentado como un problema global y la
capa de ozono es vital para la Tierra porque actúa como filtro de la radiación UV
que puede tener impactos severos sobre la salud humana y el medio ambiente del
planeta si las moléculas de ozono se reducen más rápido de lo que pueden
recuperarse por las nuevas moléculas de ozono que la naturaleza produce, el
resultado es un déficit de ozono. El agotamiento de la capa de ozono resulta en
una reducción de su capacidad protectora y por ende en una mayor exposición de
la superficie terrestre a la radiación ultravioleta, los científicos han clasificado a la
radiación UV en tres tipos o bandas: UV-A, UV-B y UV-C y la radiación UV-C; no
llega a la superficie de la Tierra, la UV-B; es parcialmente filtrada por la capa de
ozono; la UV-A; no es de ninguna forma filtrada
por la capa de ozono Sin embargo, la UV-B es la
radiación que ha provocado los mayores daños a
la salud humana y al ambiente.

Capa de ozono de la radiación ultravioleta.

52
5.3 Agujero de la capa de ozono

En 2006 este agujero en la Antártida alcanzó un récord cercano a 29 millones de


kilómetros cuadrados, el agujero crece a finales de invierno y a principios de
primavera a causa de las variaciones estacionales de temperatura, lo que provoca
condiciones ambientales propicias para la destrucción del ozono en las regiones
soleadas. Aún no ha aparecido en el Ártico un agujero tan grande y recurrente
similar al descubierto en la estratosfera de la Antártida. Sin embargo, de acuerdo
con observaciones recientes, las condiciones de la atmósfera superior en el
hemisferio norte se están asemejando a las de la Antártida. La pérdida de ozono y
el efecto invernadero están provocando que la atmósfera superior se enfríe, y con
ello se facilite la destrucción de ozono. El resultado podría ser la formación de un
agujero en el Ártico o un “evento de disminución de ozono” en los próximos 20
años. Los científicos han observado una disminución en las concentraciones de
ozono en todo el planeta.

Imagen del agujero de ozono más


grande en la Antártida registrado
en septiembre de 2000. Datos
obtenidos por el instrumento Total
Ozone Mapping Spectrometer
(TOMS) a bordo de un satélite de
la NASA.

53
5.4 Destrucción de la capa de ozono

Las moléculas de ozono son muy sensibles y se destruyen ante la presencia de


átomos de cloro o bromuro que al reaccionar con el ozono forman moléculas de
Monóxido de Cloro o Bromo y quedan libres para atacar mediante “reacción en
cadena” destruyendo un átomo de oxígeno a la molécula de Ozono y
convirtiéndola en oxigeno molecular. En promedio un átomo de cloro es capaz de
destruir hasta 100,000 moléculas de ozono, razón por la cual cantidades
pequeñas pueden descomponer suficiente ozono para disminuir de manera
significativa la capa de ozono.

5.5 Sustancias agotadores de la capa de ozono

Las sustancias agotadoras del ozono (SAO) son sustancias químicas básicamente
hidrocarburos clorados, fluorados o brominizados, que tienen el potencial para
reaccionar con las moléculas de ozono en la estratosfera. Si una sustancia solo
está fluorada (no contiene cloro y/o bromuro), no es una sustancia agotadora del
ozono. Una SAO incluye:

 Clorofluorocarbonos (CFC).
 Hidrofluorcarbonos (HCFC).
 Halones.
 Hidrobromofluorocarbonos (HBFC).
 Bromoclorometano.
 Tetracloruro de carbono.
 Bromuro de metilo.

La capacidad de estos químicos de destruir la capa de ozono es llamado potencial


de agotamiento del ozono (PAO) y A cada sustancia le es asignado un PAO en
relación al CFC-11, cuyo PAO se define como 1 unidad, la mayoría de las SAO
también son potentes gases de efecto invernadero con un alto potencial de
calentamiento global (PCG). De este modo, el hecho de eliminar las SAO no sólo
protege la capa de ozono, sino que también contribuye a proteger el clima.

El potencial de calentamiento global (PCG) es la contribución de cada gas de


efecto invernadero (un gas que atrapa el calor en la atmósfera terrestre) al

54
calentamiento global relacionado con el dióxido de carbono, cuyo PCG se define
como 1 unidad. El PCG generalmente se refiere a un lapso de tiempo de 100 años
(PCG 100).

5.5 ¿Cuáles son los usos más comunes del sao?

En la mayoría de los países en desarrollo, el sector en el que se utilizan más las


SAO es el de refrigeración y aire acondicionado. Los CFC y HCFC son usados
como refrigerantes en los circuitos de enfriamiento. La producción y el consumo de
los CFC ha sido eliminado desde 2010. Los HCFC son sustancias de transición,
están siendo eliminados en todo el mundo bajo el Protocolo de Montreal

Las SAO son utilizadas como agentes espumantes, solventes de limpieza en la


industria electrónica y en el lavado en seco, como propulsor en aerosoles y en
inhaladores con dosificador para uso médico (ID) en el tratamiento de
enfermedades pulmonares, así como esterilizantes en hospitales, como agentes
contra incendios, como fumigantes para control de plagas y para cuarentenas y
preembarques y en productos químicos para usos como materia prima en la
industria manufacturera química.

Usos de las SAO (https://utopiavital.wordpress.com/2019/05/31/agujero-en-la-


capa-de-ozono/)

55
5.6 Efectos de la salud humana y el medio ambiente

En la salud humana una exposición creciente a la radiación UV-B puede reprimir el


sistema inmunológico al dañar el ADN y los resultados son incidencias mayores a
enfermedades infecciosas, así como los efectos adversos a programas de
inoculación. La radiación UV-B causa también cáncer de piel tanto el no
melanoma (menos riesgoso) como el melanoma cutáneo, violentamente maligno,
un aumento de la radiación UV-B daña los ojos también, y el resultado común son
las cataratas, principales causantes de la ceguera en muchos países.

En las Plantas y animales el agotamiento de la capa de ozono tiene efectos


adversos severos en las cosechas y en los bosques, la radiación ultravioleta
cambia la composición química de diversas especies de plantas. Entre las
cosechas más vulnerables a la radiación UV-B se encuentran los melones. El
aumento de la radiación UV-B también disminuye la calidad de ciertos tipos de
tomates, papas, remolachas y frijol de soya.

En los Organismos acuáticos la radiación UV-B daña a los organismos acuáticos,


especialmente a los pequeños como el plancton, las plantas marinas y las larvas
de peces, camarón y cangrejos, todos estos forman la base esencial de la cadena
alimenticia acuática y marina y de esta forma, las pesquerías también se ven
afectadas.

En los materiales comunes de construcción tales como la pintura, el caucho, la


madera y el plástico se degradan a causa de la radiación UV-B, particularmente
los plásticos y cauchos utilizados en la intemperie. En las regiones tropicales el
daño puede ser severo debido a que el efecto de la radiación UV-B aumenta con
las altas temperaturas y niveles de resplandor solar. Estos daños pueden
representar miles de millones de dólares anuales.

Smog a nivel superficial la radiación UV-B incrementa el nivel del smog superficial,
especialmente en las ciudades en donde las emisiones vehiculares y de la
industria son la base de las reacciones fotoquímicas.

Estas reacciones tienen de por sí un efecto adverso sobre la salud humana y el


medio ambiente, en el 2020 el agujero de la capa de ozono vuelve a ser noticia, El

56
hueco, que está ubicado sobre la Antártida, creció en los últimos dos meses a su
"tamaño máximo" en la última década. Eso sucede sólo un año después de que
los investigadores informaron que estaba en su nivel más reducido desde su
descubrimiento, a mediados de 1985. Y no es solo que el agujero sea el más
grande registrado, sino que también es el más profundo de los últimos años,
informó la Organización Meteorológica Mundial (OMM) en un reciente
comunicado.

El agujero de ozono de este 2020 creció rápidamente desde mediados de agosto y


alcanzó un máximo de alrededor de 24 millones de kilómetros cuadrados a
principios de octubre. Esta longitud se ubica por encima del promedio de los
últimos 10 años y se extiende por la mayor parte del continente antártico.

5.7 ¿Por qué se registra su aumento de tamaño?

El programa de Observación de Atmósfera Global de la OMM junto al Servicio de


Monitoreo Atmosférico Copérnico del Centro Europeo de Previsiones
Meteorológicas a Plazo Medio (ECMWF por sus siglas en inglés), la NASA, el
ministerio de Medioambiente y Cambio Climático de Canadá y otros socios, son
los encargados de monitorear la capa de ozono de la Tierra y advirtieron que el
agujero de 2020 parece haber alcanzado su máxima extensión.

Según el director de servicio de monitoreo de la atmosfera Copérnico Vicent-henri


“El agujero de ozono de 2020 se parece al de 2018, que también fue un agujero
bastante grande, y definitivamente está entre los de mayor tamaño de los Últimos
quince años más o menos", añadió en un comunicado de prensa.

57
El gran hueco de este año no estaría potenciado por los gases que contaminan
sino por cuestiones climáticas, El agujero de ozono está impulsado por un vórtice
polar que es un ciclón persistente a gran escala fuerte y estable, que mantuvo la
temperatura de la capa de ozono sobre la Antártida constantemente fría durante
los últimos meses. El agotamiento del ozono está directamente relacionado con la
temperatura en la estratosfera que es la capa de la atmósfera entre unos 10 km y
unos 50 km de altitud. Esto se debe a que las nubes estratosféricas polares, que
tienen un papel importante en la destrucción química del ozono, solo se forman a
temperaturas inferiores a -78 °C.

Estas nubes estratosféricas polares contienen cristales de hielo que pueden


convertir compuestos no reactivos en reactivos, que luego pueden destruir
rápidamente el ozono tan pronto como la luz del Sol esté disponible para iniciar las
reacciones químicas. Está dependencia de las nubes estratosféricas polares y la
radiación solar es la razón principal por la que el agujero de ozono solo se ve a
fines del invierno o principios de la primavera, explica la OMM.

58
6. TSUNAMI

La palabra tsunami viene del japonés y significa “ola de puerto”. Este término
alude a una serie de olas causadas por el desplazamiento de un gran volumen de
agua, generalmente en el océano o un gran lago. Estas olas pueden generarse
por multitud de fenómenos como son los terremotos, erupciones volcánicas,
deslizamientos del terreno, ruptura de glaciares en contacto con el agua, impacto
de meteoritos, explosiones submarinas o incluso cuando la presión atmosférica
cambia rápidamente. A diferencia de las olas marinas que acostumbramos a ver,
generadas por el viento y producidas en la superficie del agua, en las olas de
tsunami se produce el movimiento de toda una columna de agua, desde la
superficie hasta el fondo, y en una extensión horizontal mucho más grande. Por
tanto, transportan muchísima más energía que las olas generadas por el viento,
puesto que el volumen de agua desplazado es considerablemente mayor.

El término español “maremoto” que según la Real Academia es la “agitación


violenta de las aguas del mar a consecuencia de una sacudida del fondo, que a
veces se propaga hasta las costas dando lugar a inundaciones” puede aludir al
mismo concepto. Sin embargo, el término tsunami es más general, tanto en el
origen de la ola (sacudida del fondo, volcán, deslizamiento de tierra, caída de
asteroide...) como en el medio donde se propaga.

6.1 Física de los tsunamis.

En la figura 1 podemos ver un ejemplo esquemático de la generación de un


tsunami a consecuencia de un terremoto. En el dibujo 1b se muestra un gran
sismo que ocurre a poca profundidad, bajo el fondo oceánico, produciendo una
deformación vertical del terreno. Esta deformación genera, a su vez, el
desplazamiento en esa dirección de la columna de agua situada sobre el terreno
deformado. En el siguiente dibujo 1c se observa cómo ese movimiento vertical de
la columna de agua se propaga como una onda de forma horizontal. Por último, en
el esquema 1d se muestra el efecto que produce la disminución de la profundidad
del fondo oceánico. La distancia entre las crestas de las olas disminuye y la altura
de la ola aumenta considerablemente, inundando zonas próximas a la costa. Un
terremoto con las características mencionadas en el párrafo anterior (gran

59
magnitud, bajo el agua, a poca profundidad, y que produzca una importante
deformación vertical en el fondo oceánico), puede llegar a generar un ascenso del
agua en torno a un metro de amplitud en un círculo de cientos de kilómetros de
radio. De la misma manera que provocamos una perturbación en las aguas
tranquilas de un lago al tirar una piedra, la ola inicial de un tsunami se propagará
horizontalmente. Sin embargo, a diferencia de las pequeñas olas que
generaríamos en el lago, las olas
producidas por un terremoto tienen
una longitud de onda (distancia
entre las crestas de dos olas
consecutivas) de unos 500
kilómetros y un periodo (tiempo
entre dos olas consecutivas) del
orden de una hora. Estas grandes
longitudes de onda y periodos, las
hacen imperceptibles en alta mar
por los barcos y las engloban
dentro del grupo de “olas en aguas
someras”. Sin embargo, las olas
generadas por el viento, con
longitudes de onda de unos 100
metros y periodos de unos 10
segundos, pertenecen al tipo de
“olas en aguas profundas”. Dado
que la pérdida de energía de una
ola es inversamente proporcional a su longitud de onda, las olas de tsunami
pierden muy poca energía en su propagación y por lo tanto pueden atravesar
océanos y afectar a zonas de otros continentes.

Figura 1: Esquema de la generación de un tsunami por un terremoto en una zona


de subducción, a) representación de los movimientos convergentes de las dos
placas tectónicas, b) ocurrencia de un terremoto en la zona intraplaca
acompañado de la deformación vertical del terreno de la columna de agua, c)
propagación horizontal en el mar de la perturbación inicial, d) llegada de la ola de
tsunami a la costa.

60
Para las olas en aguas someras, como las de los tsunamis, la velocidad de
propagación horizontal depende únicamente de la profundidad del fondo oceánico,
siendo proporcional a este valor. Cuanto más profundas son las aguas, más rápido
van estas olas. Por ejemplo, en alta mar, donde la profundidad puede ser de unos
cuatro kilómetros, se propagan a una velocidad de unos 700 kilómetros por hora.
Sin embargo, cuando estas olas se acercan a la costa la profundidad disminuye, y
por lo tanto, también la velocidad. Lo que ocurre en el momento de aproximación
de la primera de las olas a la costa es que esta se va frenando, reduciéndose la
distancia hasta la siguiente ola. Por otro lado, la disminución de la velocidad se ve
compensada con el aumento de la altura de la ola. De este modo las olas que en
alta mar tienen amplitudes de un metro, pueden llegar a tener amplitudes de veinte
metros cerca de la orilla. Finalmente, al llegar la ola a la costa, el agua continúa su
avance con gran fuerza por las zonas secas. Normalmente estas olas se observan
en la costa como una marea que evoluciona rápidamente, pudiendo repetirse este
fenómeno varias veces. Se llama altura de la inundación o “run-up” a la máxima
altura sobre el nivel medio del mar que alcanza el agua. Si la parte de la primera
ola que llega a la costa no es la cresta sino el “valle”, entonces se observará que
las aguas se retraen, dejando al descubierto zonas normalmente inundadas y a
continuación, el avance del agua tierra a dentro.

6.2 Terremotos y deslizamientos.

La causa más frecuente El origen más común de un tsunami son los terremotos y
los lugares donde más terremotos se producen son las zonas de subducción.
Estas zonas son límites convergentes de placas tectónicas, donde la placa más
densa se introduce bajo la menos densa. La intersección de estos límites de
placas con la superficie terrestre ocurre bajo el mar, en las llamadas fosas
oceánicas, allá donde el fondo marino presenta las mayores profundidades del
planeta. En esta región interplaca, cerca de las fosas oceánicas, es donde con
mayor frecuencia se dan los terremotos con las características necesarias para
generar un tsunami: situados bajo el agua, con una magnitud elevada -en general
mayor de 7,5-, a poca profundidad -normalmente menor de unos 30 kilómetros-, y
con movimiento hacia arriba o hacia abajo. Estas zonas de subducción son
principalmente el cinturón de fuego del Pacífico (afectando a la costa pacífica de
todo Sudamérica y Centroamérica, México, parte de los Estados Unidos y de

61
Canadá, las Islas Aleutianas y costa pacífica de Rusia, norte de Japón, Papúa
Nueva Guinea y Nueva Zelanda) y las existentes en la costa índica de Indonesia,
costa pacífica de Filipinas, Taiwán y sur de Japón, sureste del Caribe, y
Mediterráneo (afectando principalmente a Italia, Grecia y Turquía).

Figura 2: Mapa con las zonas de


subducción.

Sin embargo, como ya hemos


mencionado anteriormente, los
terremotos no son el único origen de
los tsunamis. Dentro de las causas
más frecuentes, los deslizamientos
de tierra ocupan el segundo lugar,
aunque hay que decir que muchas
veces estos deslizamientos son
provocados por un terremoto. Los
corrimientos de tierra que generan
tsunamis pueden consistir en una
parte de terreno emergido que se
desploma dentro del agua o ser
totalmente submarinos. En cualquier
caso, al igual que con los terremotos,
el deslizamiento produce en el agua
una perturbación vertical de una
enorme masa de agua, de modo que
esta perturbación se propaga en
dirección horizontal llegando a la
orilla como una ola de gran energía.

62
6.3 ¿Colombia está preparada para un Tsunami?

Actualmente en Colombia existe el Sistema Nacional de Detección y Alerta por


Tsunami el cual está conformado por 5 entidades y se encarga de determinar la
afectación en Colombia por tsunami en caso de presentarse un sismo que active
el protocolo nacional. En el mes de diciembre del año 2016 se firmó el protocolo
nacional de detección y alerta por tsunami y a través de diferentes medios se
busca que el país conozca cómo funciona el sistema y cuáles son las fuentes
oficiales de información.

En el país se conformó el Sistema Nacional de Detección y Alerta por Tsunami –


SNDAT, como una instancia del Sistema Nacional de Gestión del Riesgo de
Desastres, responsable de la detección y evaluación de eventos con potencial
tsunamigénico, así como definir y diseminar alertas de tsunami para las costas de
Colombia.  Este sistema está compuesto por el Servicio Geológico Colombiano
(SGC), la Dirección General Marítima (DIMAR), el Instituto de Hidrología,
Meteorología y Estudios Ambientales de Colombia (IDEAM), la Unidad Nacional
para la Gestión del Riesgo de Desastres (UNGRD) y la Corporación OSSO.

6.4 Tsunami del Océano Índico de 2004.

Probablemente el tsunami más catastrófico conocido. El 26 de diciembre de 2004


a las 00:58:53 UTC, bajo el mar y cerca de la costa oeste de Sumatra y de las
islas de Nicobar y Andamán, tuvo lugar el tercer mayor terremoto nunca registrado
por un sismómetro (magnitud 9,1- 9,3). Este terremoto ocurrió en un segmento de
unos 1 300 km dentro del límite convergente de las placas Indo-australiana al
oeste y Euroasiática5 al este, de modo que la placa Euroasiática se levantó y
desplazó hacia el oeste una distancia que llegó a alcanzar los 20 metros en
algunos puntos. Esto supuso la ascensión hasta 2 metros del fondo marino sobre
esta falla. La perturbación en el agua generada por esta ascensión dio lugar a una
serie de olas que se propagaron por todo el Océano Índico y acabó con la vida de
más de 280 000 personas, causando una de las catástrofes naturales más
mortíferas de toda la historia. Se sabe que la primera de las olas llegó a Sumatra
25 minutos después del inicio del terremoto y a Tailandia, Sri Lanka y la costa este
de la India 2 horas después. Por imágenes de radar, obtenidas dos horas después
del terremoto es posible saber que la altura máxima de las olas en alta mar en ese
63
momento no superó los 80 centímetros. Sin embargo, al llegar a la costa las olas
alcanzaron alturas sobre el nivel del mar de 50 metros en Banda Aceh, 16 metros
en las costas tailandesas, 12 metros en Sri Lanka y la India o de 9 metros en
Somalia, y el agua inundó zonas a más de dos kilómetros tierra adentro.

6.5 Tsunamis por deslizamientos.

Ya hemos mencionado que los deslizamientos constituyen la segunda causa más


frecuente del origen de un tsunami. Quizá el ejemplo más llamativo y claro de este
tipo sea el tsunami ocurrido en la bahía Lituya (Alaska) en 1958. El 9 de julio de
este año un terremoto de magnitud 8,3 provocó un deslizamiento de tierra que
supuso la caída de 30 millones de metros cúbicos de rocas y hielo del glaciar
Lituya a un fiordo, conocido como la bahía Lituya, a unas trece millas del epicentro
del terremoto. Debido a la forma tan cerrada de esta bahía, de 15 km por 3 km, se
produjo un gran tsunami con olas de entre 30 y 90 metros de altura que llegaron a
destruir los árboles de la costa opuesta a la avalancha y que se situaban a una
altitud de 520 metros, siendo esta la máxima altura de run-up alcanzada en la
historia. No obstante, los efectos de este tsunami estuvieron localizados en una
zona muy reducida.

64
7. INVERSIÓN TÉRMICA

7.1 ¿Qué es la inversión térmica?

Antes de hablar de inversión térmica es necesario mencionar que un líquido o un


gas flotará si es menos denso que el líquido en el que se coloca y a pesar que
tanto el aire como los mares y ríos tienden a tener una misma composición la
densidad en cada punto no será la misma ya que esta varía con la temperatura y
la presión (provocada por el nivel en el que se encuentre un líquido o gas) a pesar
de esto hay un fenómeno que pareciera contradecir la teoría de la densidad
conocido como las inversiones de temperatura en la atmósfera real que son
conocidas comúnmente como inversiones térmicas. La inversión térmica es una
derivación del cambio normal de las propiedades de la atmósfera con el aumento
de la altitud. Usualmente corresponde a un incremento de la temperatura con la
altura, o bien a una capa de inversión donde ocurre el incremento. En efecto, el
aire no puede elevarse en una zona de inversión, puesto que es más frío y, por
tanto, más denso en la zona inferior.

Como también la inversión térmica es un fenómeno natural que, en principio, se


puede presentar cualquier día del año y cualquier hora del día y que, debido a su
carácter natural, por sí misma no presenta ningún riesgo para la salud humana.
Solamente se vuelve peligrosa cuando, en la capa atmosférica se encuentra
inmersa, se extienden altas concentraciones de contaminantes ya que una
inversión térmica es sinónimo de estabilidad atmosférica, al menos temporal, por
lo que no permite la dispersión de los mencionados contaminantes mientras dure.

A condiciones normales la temperatura decrece cuando la altitud aumenta, de tal


forma que por cada 100 metros de altitud la temperatura disminuye un grado
centígrado, la ciudad de Guadalajara se encuentra a una altitud sobre el nivel del
mar de 1550 a 1600 (Metros sobre el nivel del mar) con una presión de 636 mm de
Hg. y su temperatura promedio es de 22 ºC, la ciudad de México se localiza a una
altitud sobre el nivel del mar de 2240 (Metros sobre el nivel del mar) con una
presión de 585 mm de Hg. y su temperatura promedio es de 16 ºC.

65
7.2 ¿Cómo afecta esto a la contaminación?

Sabemos que por el proceso de difusión los gases tienden a esparcirse por toda la
atmósfera, sin embargo, cuando ocurre una inversión térmica se genera una capa
de estabilidad atmosférica en la superficie terrestre. Esta capa está formada por
aire más frío que es más denso que se mantiene en la capa más baja. Esto hace
que no se puedan mezclar las dos capas de aire que tienen diferente densidad al
tener diferente temperatura. Por ello, se hace bastante fácil concluir que uno de
los principales efectos que puede ocasionar la inversión térmica es que la
contaminación quede atrapada en la superficie terrestre sin posibilidad de
dispersarse en la atmósfera.

Normalmente, el aire tiende a ascender y nos deja dispersar la contaminación


atmosférica de la zona más bajas. Sin embargo, en la inversión térmica, el estrato
que tienen mayor temperatura actúa como una tapadera sobre el aire más frío que
está en contacto con la superficie del suelo. Es aquí donde se almacenan gran
cantidad de contaminantes. Una de las consecuencias inmediatas es el smog.
Esta capa de contaminación se puede visualizar a varios kilómetros de distancia y
suele llevar aparejado un descenso en los niveles de calidad del aire.

Las consecuencias sobre la salud humana de este fenómeno se traducen en un


incremento de consultas médicas a causa de problemas respiratorios y
cardiovasculares. Hay que tener en cuenta que respirar aire contaminado ataca
especialmente a los grupos de riesgo como lo son aquellas personas enfermas,
mayores o niños. Y es que los niveles de dióxido de nitrógeno y dióxido de azufre
se almacenan durante los periodos de inversión térmica. Además, las partículas
de un tamaño de 10 y 2.5 micras se concentran y llegan a penetrar los alveolos
pulmonares.

66
Figura 7.2.1 Esquema del efecto de la inversión.

7.3 ¿Qué lo provoca?

Radiación: Enfriamiento rápido de la superficie terrestre durante las noches sin


nubes principalmente.

Advección: Transporte de aire frío hacia las zonas frías, superficies acuosas,
principalmente.

Subsidencia: Descenso de grandes masas de aire normalmente frío, provocado


por los sistemas de altas presiones.

Los fenómenos frontales: Estos fenómenos meteorológicos propician advección.

7.4 Estudio y seguimiento de la inversión térmica en Colombia.

Ver una espesa capa gris cubriendo Bogotá ya hace varios años ya no se está
haciendo anormal, normalmente desde los cerros orientales y otras partes altas de
la ciudad se aprecia con mayor claridad este fenómeno.

El Centro de Investigaciones del Clima de Colombia, en colaboración con el Grupo


de Oceanografía e Ingeniería Costera de la Universidad Nacional, utiliza las
cámaras como instrumentos de observación y medición.

67
Además, se está pensando en cuantificar variables como la altura de la capa de
inversión, su grosor, a qué horas comienza, a qué horas termina, cuál es el
mecanismo de destrucción, su frecuencia de ocurrencia, su relación con el
fenómeno del Niño, entre otros aspectos, para esto, se está contado con la ayuda
del grupo Oceánicos de la UN en Medellín que ya tiene experiencia con el
monitoreo con cámaras en ingeniería de costas. Este sistema que está
completamente montado y que funciona en tiempo real, permite que se pueda
mirar en cualquier momento cuál es el estado de la atmósfera.

68
8. CUÑAS MARINAS

8.1 Los acuíferos costeros.

De forma sencilla, se puede definir un acuífero costero como aquella formación


geológica capaz de almacenar agua y transmitirla, es decir que puede moverse a
través del mismo, pero con la característica particular de que está conectado
hidráulicamente con el mar, y en una mayoría de casos alguno de sus límites
puede estar a su vez relacionado hidráulicamente con otros acuíferos del interior.
De esta forma se pueden considerar como el último eslabón en el ciclo natural del
agua, en su variante subterránea, puesto que reciben agua de otros acuíferos, de
aguas superficiales o de lluvia directamente, para devolverla finalmente al mar.

Considerando la naturaleza de estas formaciones puede hacerse una primera


clasificación básica de acuíferos costeros en dos tipos principales: detríticos y
carbonatados. Hay otro tipo de acuíferos menos frecuente, constituido por
plataformas volcánicas, consistentes en rocas efusivas porosas y permeables con
una morfología sensiblemente llana. Entre los acuíferos detríticos costeros
podemos distinguir, atendiendo a su morfología, los siguientes (Custodio, 1981):
deltas, aluviales costeros, llanuras costeras y piedemontes costeros. Todos ellos
están constituidos principalmente por capas alternantes de gravas, arenas, limos y
arcillas, con diferente geometría y continuidad espacial.

Un modelo hidrogeológico habitual en los deltas y aluviales costeros consiste en la


posibilidad de distinción de dos conjuntos acuíferos, uno superior libre y otro
inferior confinado, separados por un paquete arcilloso de media o baja
permeabilidad. El espesor de esta capa arcillosa normalmente disminuye hacia los
bordes de la cubeta llegando a desaparecer, lo que origina el contacto entre
ambas formaciones acuíferas.

Por su parte las llanuras detríticas costeras suelen dan lugar a acuíferos
multicapa, libres y/o semiconfinados que yacen, bien sobre materiales de baja
permeabilidad que aíslan hidráulicamente el conjunto superior, o bien sobre otras
formaciones acuíferas más competentes (acuíferos carbonatados) de las que
reciben un aporte de recursos. Éstas a menudo afloran hacia el interior a modo de

69
orla montañosa que limita la llanura y pueden continuar por debajo de la formación
detrítica hasta entrar en contacto directo con el mar.

Acuífero multicapa, con diferentes estados de intrusión salina (Custodio y Llamas,


1983. Modificado)

8.2 El fenómeno de la intrusión marina.

En un acuífero costero, existe una relación de equilibrio natural entre el agua


subterránea dulce del acuífero que descarga al mar y el agua salada de origen
marino que pugna por penetrar tierra adentro (Custodio, 1995 y 2004), y que
usualmente lo hace en forma de cuña apoyada en la base del acuífero dada su
mayor densidad. La penetración de esta cuña dependerá de las características del
acuífero: geometría, propiedades hidráulicas (permeabilidad, nivel piezométrico,
etc.) y será función inversa del flujo de agua dulce que a lo largo de la costa
descarga al mar. La intrusión marina es un proceso dinámico, donde el frente de
agua salada avanza tierra adentro en los periodos de menor recarga del acuífero y
retrocede hacia el mar cuando la recarga es mayor.

70
Equilibrio agua dulce –
agua salada.

Este equilibrio natural


puede verse alterado por la acción humana al modificar la descarga de agua dulce
al mar, fundamentalmente debido a extracciones por bombeos del acuífero,
provocando un des- censo de la superficie piezométrica y en consecuencia la
penetración de la cuña de agua marina tierra adentro. Otras modificaciones del
ciclo hidrogeológico, que alteren las entradas en el acuífero, como por ejemplo la
construcción de presas en el cauce de un río que alimente un acuífero, pueden
también alterar el equilibrio agua dulce - agua salada. Se puede definir, por tanto,
la intrusión marina, como el movimiento permanente o temporal del agua salada
tierra adentro, desplazando al agua dulce, como consecuencia de una disminución
del flujo de agua dulce hacia el mar debido a la intervención humana. Esta
intrusión provocará el aumento de la salinidad en las aguas subterráneas con la
consiguiente contaminación del acuífero costero y la limitación de su
aprovechamiento para determinados usos.

Cono de intrusión producido por bombeo puntual en una captación.

71
Cono de intrusión producido por bombeo puntual en una captación.

8.3 Estudio de la intrusión marina.

El estudio de la intrusión marina se puede abordar de forma simplificada,


considerando al agua salada y al agua dulce como dos fluidos inmiscibles en
contacto mediante una superficie de separación neta o brusca entre las dos
aguas. Esta superficie teórica se denomina interfase. Esta simplificación permite
calcular la posición teórica del contacto agua dulce agua salada de forma sencilla.

La forma más realista de abordar este estudio es la de considerar el agua dulce y


el agua salada como dos fluidos miscibles, de tal forma que el paso de un fluido a
otro se produce a través de una “zona de mezcla” o “zona de transición”. Las
características químicas y físicas de esta zona dependerán del grado de mezcla
en cada punto y los procesos químicos que se produzcan con la matriz del
acuífero; la anchura de la zona de mezcla de- penderá de las características
hidrodinámicas del medio y de la difusividad y dispersividad del acuífero, y en
función del grado de explotación se producirá un mayor o menor avance de la
interfase. Por tanto, podemos considerar la posición de la interfase como una
variable de decisión a tener en cuenta a la hora de gestionar los recursos del
acuífero.

72
Zona de transición y flujo del agua subterránea en un proceso de intrusión
(Custodio y Llamas,1983.
Modificado).

Fueron Ghyben (1889) y


Herzberg (1901) los
primeros que establecieron
una fórmula para estimar la profundidad de la interfase salina. Para ello
consideraban al agua dulce y salada como dos fluidos de diferente densidad
separados por una interfase neta. Para su cálculo se consideran las siguientes
simplificaciones:

1º. Existencia de un equilibrio hidrostático entre los fluidos.

2º. La superficie de separación entre el agua dulce-salada es plana.

3º. No existen gradientes verticales de carga.

4º. No existen pérdidas de carga del agua de mar en su avance tierra adentro.
Con estos condicionantes, el equilibrio entre los dos fluidos se produce cuando:
d (H+z) = s z
siendo:

d = densidad del agua dulce (Aprox. 1,000 gr/cm3).

s = densidad del agua salada (Aprox. 1,025 gr/cm3).


H = altura del nivel piezométrico sobre el nivel del mar.
73
z = profundidad de la interfaz respecto al nivel del mar.

Por tanto:

z = 1 / 0,025 · H z = 40 H

Posición de equilibrio
de la interfase según
Ghyben-Herzberg.

Es decir, por cada metro de agua dulce (representados por la superficie


piezométrica) sobre el nivel de mar en un determinado punto, la interfase se sitúa
a una profundidad de 40 metros. Este valor es aproximado y varía entre 50 y 33
metros para densidades del agua de mar comprendidas entre 1,020 y 1,030. Esta
ley de Ghyben Herzberg se cumple de forma más satisfactoria en las zonas
alejadas de la costa. En las zonas cercanas a la costa se obtienen profundidades
menores a las reales.

Posteriormente Hubbert (1940 y 1953) considera el fenómeno de intrusión desde


el punto de vista dinámico. No considera al flujo horizontal como Ghyben
Herzberg, debido a que en las proximidades de la costa existe un estrechamiento
de la descarga de agua dulce al mar (morfología de cuña), que produce un
incremento de la velocidad y por tanto un gradiente en cota superior al deducido
para el flujo horizontal.

74
Flujo del agua en la zona próxima al con- tacto con el mar (Custodio y Llamas
1983. Modificado)

En cuanto a la calidad del agua, la mezcla de agua dulce y agua de mar produce
un incremento en la salinidad del agua subterránea. Por otro lado, esta agua de
mezcla reaccionará con la matriz del acuífero. Estos procesos modificarán la
composición química del agua. Existen también otros procesos de salinización que
pueden acompañar a la intrusión marina, siendo interesante discriminar en qué
medida actúa cada proceso.

Por otra parte, se pueden producir en los acuíferos otros procesos de salinización
diferentes a la intrusión marina. Aguas salinas de diferentes orígenes pueden
mezclarse con el agua dulce. Estas aguas pueden ser salmueras provenientes de
la evaporación directa del agua del mar, aguas connatas o de formación, aguas
fósiles, aguas volcánicas y aguas terma- les con unas facies químicas
características, que también pueden aumentar la salinidad del acuífero.

75
9. HUELLA DE CARBONO

La huella de carbono nace como una medida para cuantificar y generar un


indicador del impacto que una actividad o proceso tiene sobre el cambio climático,
más allá de los grandes emisores. Este indicador es la suma del conjunto de
emisiones de gases de efecto invernadero producidas, directa o indirectamente,
por personas, organizaciones, productos, eventos o regiones geográficas, en
términos de CO2 equivalentes, y sirve como una útil herramienta de gestión para
conocer las conductas o acciones que están contribuyendo a aumentar nuestras
emisiones, cómo podemos mejorarlas y realizar un uso más eficiente de los
recursos.

9.1 Consecuencia de la huella de carbono.

La huella de carbono hace referencia a la cantidad de emisiones de gases de


efecto invernadero que produce el ser humano al fabricar un producto o durante la
realización de sus actividades cotidianas. Estos gases de efecto invernadero son,
entre otros, los causantes del calentamiento de la Tierra lo que ocasiona
incremento del nivel del mar, tormentas más intensas, aumento de sequías, entre
otros. y se producen en la mayoría de las actividades habituales que
desarrollamos en nuestro día a día. En definitiva, es el impacto medioambiental
que generamos en el planeta y se mide en toneladas de CO2 emitidas.

9.2 Control de la huella de carbono.

Este impacto ambiental se controla a través de unas mediciones en las emisiones


durante todo el ciclo de vida. Hay normativas internacionales como ISO 14064,
ISO 14069, ISO 14067, PAS 2050 o GHG Protocolo entre otras, que recogen este
tipo de puntos. La huella de carbono se mide en masa de CO2 equivalente. Según
el tamaño de la huella, es posible implementar una estrategia de gestión de
emisiones, a través de diferentes programas.

9.3 Calcular la Huella de Carbono de una Organización.

La huella de carbono de una organización se obtiene mediante el análisis de sus


emisiones de Gases de Efecto Invernadero durante un periodo

76
predeterminado. Existen tres niveles o clases de alcances de mediciones para las
empresas.

El Inventario de Gases de Efecto Invernadero de una organización, es un informe


donde se indican las emisiones realizadas, las cuales se analizan en un
determinado periodo. Este inventario se realiza siguiendo estándares
internacionales, principalmente GHG Protocolo y la norma ISO 14064-1.2. Para las
organizaciones se diferencian tres tipos de emisiones:

Figura. Tipos de emisiones.

Emisiones Directas: También conocidas como emisiones de Alcance 1. Son los


gases emitidos de forma directa, por ejemplo, por el uso de combustibles fósiles
en maquinaria o vehículos, por pérdidas de gases refrigerantes, o por reacciones
químicas durante los procesos productivos de la organización.

Emisiones Indirectas: Son los gases de efecto invernadero emitidos por el


productor de la energía requerida por la organización. Dependen tanto de la
cantidad de energía requerida por la organización como del origen energético de
la red que provee a la organización.

Otras Emisiones Indirectas: Son las atribuibles a los productos y servicios


adquiridos por la organización, que a su vez habrán generado emisiones
previamente para ser producidos. Son las más difíciles de contabilizar debido a la
gran cantidad de productos y servicios utilizados por las organizaciones y a la

77
dificultad en conocer las emisiones de estos productos o servicios si no son
aportadas por el propio productor.

Absorciones: También se deben contabilizar las absorciones de CO2, que la


organización realiza de forma directa y contrarresta las emisiones generadas. No
se deben contabilizar dentro de un inventario, aunque la organización sí puede
informar de sus compensaciones si las ha realizado.

9.4 Beneficios de calcular la huella de carbono.

El cálculo de la Huella de Carbono, constituye hoy en día una ventaja competitiva


entre las empresas. Ha adquirido mucha importancia en los últimos años, por ser
un indicador fácil de entender por los ciudadanos y absolutamente relacionado con
el Calentamiento Global, además se estima que tres de cada cuatro personas
afirman querer pagar extra por productos o servicios que provengan de compañías
que estén comprometidas con la sostenibilidad. Estos datos demuestran que ser
una empresa ambientalmente amigable repercute en el índice de ventas y el
desarrollo económico de las empresas, suponiendo una ventaja tangible frente a
los competidores.

Otro de los aspectos destacados es la posibilidad de analizar y optimizar


procesos, lo que quiere decir que al ser conscientes de la producción de Co2, las
compañías estarán en plena capacidad de estructurar planes de acción que
permitan mejorar el impacto negativo y al tiempo optimizar su producción y
ganancias en favor del bienestar ambiental.

78
10. HUELLA HÍDRICA

La huella hídrica es un indicador del uso de agua dulce que hace referencia tanto
al uso directo del agua de un consumidor o productor, como a su uso indirecto. La
huella hídrica puede considerarse como un indicador integral de la apropiación de
los recursos de agua dulce, ya que se utiliza para medir el volumen total de agua
dulce usado para producir los bienes y servicios producidos por una empresa, o
consumidos por un individuo o comunidad. El uso de agua se mide en el volumen
de agua consumida, evaporada o contaminada, ya sea por unidad de tiempo para
individuos y comunidades, o por unidad de masa para empresas. La huella hídrica
evalúa tanto el uso de agua directo como el indirecto y se puede calcular para
cualquier grupo definido de consumidores (por ejemplo, individuos, familias,
pueblos, ciudades, provincias, estados o naciones) o productores (por ejemplo,
organismos públicos, empresas privadas o el sector económico).

10.1. Dimensiones de la huella hídrica.

La huella hídrica tiene necesariamente una dimensión temporal y una dimensión


espacial. Se debe calcular con datos recogidos en un período de tiempo concreto
(habitualmente los datos utilizados son anuales) y en un lugar geográfico
perfectamente delimitado (como pueden ser una planta industrial, una cuenca de
un río, o una región). La huella de agua es un indicador geográficamente explícito,
que no sólo muestra volúmenes de uso y contaminación de agua, sino también las
ubicaciones.4 Sin embargo, la huella de agua no proporciona información sobre
cómo el agua consumida afecta positiva o negativamente a los recursos locales de
agua, los ecosistemas y los medios de subsistencia.

El consumo directo para la fabricación de un producto incluye el agua utilizada y/o


contaminada durante el proceso de fabricación y el agua incorporada en el propio
producto como ingrediente. Por su parte, el consumo indirecto corresponde a toda
el agua necesaria para producir las diferentes materias primas utilizadas en el
proceso (productos de la cadena de suministro).

La huella hídrica se puede expresar también en colores, en función del tipo de


agua que se considere:

79
1. Huella hídrica verde: relacionada con el agua de lluvia incorporada en el
producto

2. Huella hídrica azul: relacionada con el uso consuntivo de agua dulce


(superficial o subterránea) evaporada

3. Huella hídrica gris: relacionada con la calidad del agua y su posible


contaminación debido a los vertidos

Figura 3.10.1. Huella hídrica azul, verde y gris, nacional per cápita (1996-2005).

80
10.2. Método de cálculo

La Norma Internacional ISO 14046:2014 define “Evaluación de huella hídrica:


recopilación y evaluación de las entradas, salidas y potenciales impactos
ambientales relacionados con el agua utilizada o afectados por un producto,
proceso u organización” y presenta un método basado en Análisis de Ciclo de
Vida (ACV) definido por la Norma Internacional ISO 14044.

La huella hídrica o huella del agua a diferencia del agua virtual, y la Water
Footprint Network clasifica las fuentes de agua, es decir, distingue entre tres
componentes: el agua azul, el agua verde y el agua gris. Esta clasificación,
especialmente el agua gris, ha sufrido críticas y no está contemplada en la Norma
Internacional ISO 14046:2014. La huella de agua azul es el volumen de agua
dulce consumida de los recursos hídricos del planeta (aguas superficiales y
subterráneas). La huella del agua verde es el volumen de agua evaporada de los
recursos hídricos del planeta (agua de lluvia almacenada en el suelo como
humedad). La huella de agua gris es el volumen de agua contaminada que se
asocia con la producción de los bienes y servicios. Este último puede ser estimado
como el volumen de agua que se requiere para diluir los contaminantes hasta el
punto de que la calidad del agua se mantiene en o por encima de las normas
acordadas de calidad del agua. Las unidades en las que trabajan estos
indicadores dependen del tipo de sector al que se le mide la huella hídrica. Así,
por ejemplo, la huella hídrica de un producto de carne X puede medirse en
[m3/kg], representando la cantidad de agua necesaria para producir un kilo de
carne X en toda la cadena de suministro. Por otro lado, la huella hídrica de un
individuo puede medirse en [m3/año], representando la cantidad de agua
consumida a lo largo del tiempo. Este indicador puede apoyar mejoras eficientes
en las gestiones de agua y ser un buen soporte para tomar conciencia acerca de
nuestros consumos hídricos.

10.3. Como se puede reducir la huella hídrica en la parte de consumidores y


productores

Productores: Aplicar medidas eficientes de aprovechamiento de aguas, empleando


la tecnología a nuestro alcance. “Consiste en producir la máxima cantidad de

81
alimentos con la mínima cantidad de agua gracias a sistemas de riego localizado,
teledetección, sensores, etc.”, señala Ignasi Servià.

Adaptar las cadenas de productos manufacturados, escogiendo materias primas


locales para reducir la huella hídrica y la virtual, la derivada de los
desplazamientos: importaciones y exportaciones

Impulsar una verdadera economía circular en las empresas e industrias


devolviendo un alto porcentaje del agua empleada en la fabricación en perfectas
condiciones al medio ambiente. Esto implica utilizar las cantidades imprescindibles
de agua y reducir la contaminación en el proceso para evitar la llamada huella gris.

Consumidores: Consumir productos de proximidad con el fin de evitar la huella


hídrica virtual. Basta con fijarse en el etiquetado para saber la procedencia de
estos productos o prendas, como en el caso de la ropa.

Reducir el consumo de determinados alimentos más demandantes de agua, como


son la carne o los procesados y potenciar el consumo de frutas y verduras.
Asimismo, realizar una compra responsable para evitar el desperdicio alimentario,
pues contribuirá a reducir la huella hídrica.

Asumir la economía circular para reducir el consumo (alargando la vida útil de los
productos que utilizamos), reusar y reciclar.

Concienciar sobre un uso responsable del agua en nuestro día a día, como
pueden ser utilizar lavavajillas, en lugar de fregar a mano, reutilizar el agua de
hervir alimentos para regar plantas, usar la lavadora completamente llena,
dosificar el agua de la cisterna o emplear la ducha en lugar de la bañera para
lavarnos.

82
11. FENÓMENO DEL NIÑO Y DE LA NIÑA.

El ciclo conocido como "el Niño" y su fase opuesta "la Niña" son la causa de la
mayor señal de variabilidad climática en la franja tropical del océano Pacífico, en la
escala interanual. Son las componentes oceánicas del ENOS (Oscilación del Sur)
que corresponde a la aparición, de tiempo en tiempo, de aguas superficiales
relativamente más cálidas (El Niño) o más frías (La Niña) que lo normal en el
Pacífico tropical central y oriental, frente a las costas del norte de Perú, Ecuador y
sur de Colombia.

Figura 3.9.1. Representación del fenómeno del niño y de la niña.

11.1 Fenómeno del Niño.

El Niño es uno de los varios ciclos climáticos irregulares que se producen por la
interacción entre el océano y la atmósfera. Es un fenómeno propio de la
variabilidad climática (no del cambio climático), que se manifiesta mediante
cambios en los patrones normales de comportamiento de:

83
 las corrientes oceánicas
 los flujos de viento
 la distribución de la precipitación y la temperatura.

El fenómeno de El Niño - Oscilación Sur (ENOS) es un patrón climático recurrente


que implica cambios en la temperatura de las aguas en la parte central y oriental
del Pacífico tropical. En períodos que van de tres a siete años, las aguas
superficiales de una gran franja del Océano Pacífico tropical, se calientan o enfrían
entre 1 ° C y 3 ° C, en comparación a la normal. Este calentamiento oscilante y el
patrón de enfriamiento, es conocido como el ciclo ENOS (o ENSO por sus siglas
en Inglés), afectando directamente a la distribución de las precipitaciones en las
zonas tropicales y puede tener una fuerte influencia sobre el clima en los otras
partes del mundo. El Niño y La Niña son las fases extremas del ciclo ENOS; entre
estas dos fases existe una tercera fase llamada Neutral.

A pesar de que hoy en día resulta evidente la estrecha relación entre el evento
oceánico (El Niño) y el atmosférico (La Oscilación del Sur), no fue sino hasta
finales de los años sesentas cuando el meteorólogo Jacob Bjerknes estableció
que la Oscilación del Sur y la corriente El Niño son parte de un mismo fenómeno
climático que involucra interacciones entre la atmósfera y el océano Pacífico
Tropical. De esta forma se ha combinado el nombre en ENOS: El Niño-Oscilación
del Sur. Posteriormente, se encontró que las señales de la ocurrencia del ENOS
no se limitan a las regiones tropicales del océano Pacífico, sino que afectan
lugares distantes.

El ciclo ENOS entero dura generalmente entre 3 y 7 años, y con frecuencia incluye
una fase fría (La Niña) que puede ser igualmente fuerte, así como algunos años
que no son anormalmente fríos ni cálidos. Sin embargo, el ciclo no es una
oscilación regular como el cambio de estaciones, pudiendo ser muy variable en
tanto en la intensidad como en su duración. En la actualidad, aún no se entiende
completamente cuáles son las causas de estos cambios en el ciclo ENOS.

El nombre de ‘’El Niño’’ se debe a la asociación de este fenómeno con la llamada


corriente del Niño, anomalía conocida por los pescadores del puerto de Paita, en
el norte de Perú, quienes observaron que las aguas aumentaban su temperatura
durante «la época de las fiestas navideñas» y los cardúmenes o bancos de peces
84
desaparecían de la superficie oceánica, deduciendo que dicha anormalidad era
debida a una corriente de aire caliente procedente del golfo de Guayaquil
(Ecuador).

Günther D. Roth lo define como una irrupción ocasional de aguas superficiales


cálidas, ubicadas en el océano Pacífico junto a la costa de los territorios de Perú y
Ecuador, debido a inestabilidades en la presión atmosférica localizada entre las
secciones Oriental y Occidental del océano Pacífico cercanas a la línea del
ecuador. El fenómeno del Niño es el supuesto causante de más de una anomalía
climática en el mundo.

Los primeros registros oficiales del fenómeno fueron reportados por el capitán
peruano Camilo Carrillo en 1892, quien notó la existencia periódica de una
corriente marina cálida en las costas de Perú y de aguas normalmente muy frías,
que se repiten cada cierto tiempo y ahora se ha comprobado que son cíclicas, con
repeticiones de diferente intensidad cada 8 años.

En su manifestación oceánica, El Niño constituye el aumento en la temperatura de


las aguas del océano Pacífico en la zona ecuatorial. En su manifestación
atmosférica, el efecto de El Niño es un cambio, también en el Pacífico ecuatorial,
en la posición de las zonas de alta presión (desde donde sopla el viento) y las
zonas de baja presión (hacia donde sopla el viento). El fenómeno, pues, ocurre
exclusivamente en el océano Pacífico, aunque sus repercusiones se sienten en
gran parte del mundo.[29]

11.1.1 ¿Qué sucede en el océano y la atmósfera en este fenómeno?

En general, la situación normal de las temperaturas de la superficie del mar en el


océano Pacífico tropical es la siguiente:

En los alrededores de Australia el mar está caliente (aproximadamente a unos


30°C), mientras que en la costa suramericana se encuentra a unos 20°C.

El nivel del mar en condiciones normales está unos 40 cm más altos en Australia
que en la costa suramericana.

85
La corriente oceanográfica de Humboldt (fría) fluye desde el polo sur hacia el
Ecuador.

La corriente oceanográfica ecuatorial (cálida) fluye desde la costa suramericana


hacia Australia.

Durante todo el año soplan vientos, denominados alisios, desde la costa


suramericana hacia Australia.

Tanto la corriente ecuatorial como los vientos alisios desplazan el agua de la


superficie del mar desde América hacia Australia, lo que explica por qué el nivel
del mar está más alto en esa zona. Estos dos factores hacen que se acumule y
mantenga gran cantidad de agua caliente frente a Australia (llamada justamente
"la piscina de agua caliente", que se encuentra a unos 100 metros de profundidad
con el agua a más de 20°C).

Aproximadamente cada tres a cuatro años, la temperatura de la "piscina caliente"


aumenta más de lo normal, a la vez que los vientos alisios se debilitan. Entonces
tenemos que:

Existe una zona de agua más caliente de lo normal y, por lo tanto, menos densa,
que tiende a moverse más fácilmente.

La fuerza que mantiene la zona de agua caliente en su lugar normal cerca de


Australia es el viento alisio; si éste se debilita, se genera un desplazamiento de la
masa de agua caliente desde Australia hacia Suramérica; es decir, un movimiento
contrario al de la situación normal. Estamos, entonces, en presencia de un evento
de "El Niño".

11.1.2 Efectos.

Los países que más sufren son los de la cuenca del Pacífico y en general los
mayores efectos se notan en el período diciembre-abril. Entre sus efectos resaltan
los siguientes:

Sequías al este de Australia e Indonesia, que se extienden hasta las Filipinas.

86
Aumento de las precipitaciones en la costa pacífica de América, especialmente en
Perú y Ecuador. • Incremento de la incidencia de tormentas tropicales y de
huracanes en el Pacífico.

Tendencia a inviernos astronómicos en el hemisferio norte (diciembre) más cálidos


de lo normal en la costa pacífica de Estados Unidos y Alaska.

Para los países que no pertenecen a la cuenca del Pacífico, describir la alteración
climática es más difícil, y aún los científicos no conocen realmente la respuesta.
Sin embargo, en algunas zonas del mundo se han notado estos efectos, que se
pueden relacionar con El Niño:

 Sequías en el Sahel (la zona al sur del desierto del Sahara).


 Sequías en el Nordeste de Brasil (temporada lluviosa de febrero a mayo).
 Disminución de las lluvias provocadas por los vientos monzones de verano (julio-
septiembre)
 Sobre India.
 Disminución de las tormentas tropicales y de los huracanes en el Atlántico.
 Aumento de las precipitaciones en la zona del Golfo de México, el sur de Brasil,
Uruguay, Paraguay y el norte y centro de Argentina.
 Disminución de las precipitaciones en el sureste de Venezuela.

Estos impactos muchas veces repercuten en los planos sociales y económicos.


Algunos efectos de El Niño 1997-98 fueron:

 $500 millones en daños a la propiedad en California.


 400,000 hectáreas de bosques quemados debido a la sequía en México.
 300,000 desplazados en Perú.
 $3 billones en pérdidas en Argentina.
 Incremento de malaria y cólera en Ecuador, Perú y Brasil.
 Disminución del 30% de la producción cafetalera de El Salvador.

El fenómeno del niño en Colombia causa una disminución pronunciada en la


cantidad de precipitaciones y en la humedad en las regiones Caribe y Andina
mayormente, con las siguientes consecuencias: afectación al sector agrícola,
posibles limitaciones de la cantidad de energía eléctrica que se puede generar

87
(que puede incrementar la probabilidad de llevar a cabo racionamientos de agua
para el consumo humano y animal), aumento en la cantidad de incendios
forestales y disminución de los niveles y los caudales de los ríos.

Como principal efecto económico del fenómeno de El Niño en Colombia se


encuentran las repercusiones negativas sobre el sector agropecuario: las
variaciones en los rendimientos de los diferentes cultivos. Según el Ministerio de
Agricultura de Colombia, el fenómeno de El Niño significa una reducción del 5 %
del rendimiento agrícola.

Los cultivos más afectados históricamente han sido el fique, la yuca, la palma
africana, la cebada, el arroz y la papa. En el caso de la producción de la leche, se
han tenido reducciones en su producción cercanas al 5 %.

11.2 Fenómeno de la Niña.

La Niña es un fenómeno climático que forma parte de un ciclo natural-global del


clima conocido como El Niño-Oscilación del Sur (ENOS, El Niño-Southern
Oscillation, ENSO por sus siglas en inglés). Este ciclo global tiene dos extremos:
una fase cálida conocida como El Niño y una fase fría, precisamente conocida
como La Niña. Cuando existe un régimen de vientos alisios fuertes desde el oeste,
las temperaturas ecuatoriales disminuyen y comienza la fase fría o La Niña.
Cuando la intensidad de los alisios disminuye, las temperaturas superficiales del
mar aumentan y comienza la fase cálida, El Niño

La Niña se caracteriza por tener temperaturas frías y perdurables, si se le compara


con El Niño, ya que este se caracteriza por temperaturas oceánicas inusualmente
calientes sobre la zona ecuatorial del océano Pacífico.

Los episodios de La Niña, al igual que el fenómeno de El Niño, producen cambios


a gran escala en los vientos atmosféricos sobre el océano Pacífico, incluyendo un
incremento en la intensidad de los vientos alisios del Este (Este-Oeste) en la
atmósfera baja sobre la parte oriental del océano Pacífico en Sudamérica, y de los
vientos del oeste en la atmósfera superior. Estas condiciones reflejan cambios
significativos en la circulación ecuatorial de Walker.

88
Al igual que el fenómeno del Niño, la Niña hace presencia en gran parte del
planeta tierra en ciertos meses del año, dejando grandes desastres en la
naturaleza y en la vida del ser humano.

En el caso del fenómeno de la Niña, los vientos alisios, (vientos que soplan de
manera prácticamente constante en verano y menos en invierno) la Niña suele ir
acompañada de bajas temperaturas y provoca fuertes sequías en las zonas
costeras del Pacífico.

11.2.1 Desarrollo.

El fenómeno de la Niña se desarrolla cuando la fase positiva de la Oscilación del


Sur, alcanza niveles significativos y se prolonga por varios meses, teniendo un
debilitamiento de la corriente contra-ecuatorial, es decir, que las aguas cálidas
provenientes de las costas asiáticas, afecten poco las aguas del pacífico de
América.

Como resultado de la aparición de aguas relativamente frías a lo largo del


Ecuador, la temperatura superficial del mar disminuye sustancialmente el nivel del
clima. Esto constituye la evidencia más directa de la presencia del fenómeno La
Niña. Durante los eventos de La Niña las aguas calientes en el Pacífico ecuatorial,
se concentran en la región junto a Oceanía y es sobre esta región, donde se
desarrolla la nubosidad y las lluvias más intensas.

Se disminuye la presión del nivel del mar en la región de Oceanía, y se presenta


un aumento en el Pacífico tropical junto a las costas de América del Sur y América
Central. Esto provoca el aumento de la diferencia de presión que existe entre
ambos extremos del Pacífico ecuatorial y con ello el nivel del mar disminuye en las
costas de Colombia, Ecuador, Perú y norte de Chile, y aumenta en Oceanía.

Durante los eventos de La Niña, las aguas calientes en el Pacífico ecuatorial, se


concentran en la región junto a Oceanía y es sobre esta región, donde se
desarrolla la nubosidad y la precipitación más intensa.

11.2.2 Efectos.
89
En América Central, se presentan condiciones más húmedas que lo normal,
especialmente sobre las zonas costeras del mar Caribe. En países como México,
provoca lluvias excesivas en el centro y sur del país, sequías y lluvias en el norte
de México, e inviernos con marcada ausencia de lluvias.

En el Pacífico centro-oriental, La Niña se caracteriza por presiones más altas de lo


normal. Esto hace que haya menos formaciones de nubes y en consecuencia
menos lluvias en esa región en particular. La costa occidental tropical de América
28 del Sur, las regiones bajas de Sudamérica y la costa del Golfo de Estados
Unidos experimentan condiciones más secas de lo normal. Este fenómeno
también causa condiciones más secas a lo largo de la zona ecuatorial de África
oriental entre diciembre y febrero. Sin embargo, este periodo puede ser más largo
o más corto dependiendo de la severidad de La Niña.

En épocas recientes, el clima se ha vuelto impredecible en la mayoría de estas


áreas, pues cuando se esperan condiciones secas, a veces caen fuertes lluvias.
Esto demuestra lo impredecible e irregular que puede ser La Niña

La duración y frecuencia del fenómeno la Niña puede durar de 9 meses a 3 años,


y según su intensidad se clasifica en débil, moderado y fuerte. Por lo general
comienza desde mediados de año, alcanza su intensidad máxima a finales y se
debilita a mediados del año siguiente. Sin embargo, la Niña se presenta con
menos frecuencia que el Niño.

90
12. EL CONCEPTO DE HUELLA ECOLÓGICA.

La huella ecológica es una importante herramienta para establecer tanto el


impacto de las actividades humanas sobre el ecosistema, como las medidas
correctoras para paliar dichos impactos.

La huella ecológica transforma todos los consumos de materiales y energía a


hectáreas de terreno productivo (cultivos, pastos, bosques, mar, suelo construido
o absorción de CO2) dándonos una idea clara y precisa del impacto de nuestras
actividades sobre el ecosistema. Bajo nuestro punto de vista, es el indicador "final"
porque transforma cualquier tipo de unidad de consumo (toneladas, kilowatios,
litros, etc.), así como los desechos producidos, en un único número totalmente
significativo.

Los autores del método, Mathis Wackernagel y William Rees (1996) consideraron
aplicar el mismo a varias escalas: individuos, vivienda familiar, ciudades, regiones,
naciones y el mundo en su conjunto, sin que hasta la fecha se haya aplicada a la
empresa. Sin embargo, como ya hemos sugerido con anterioridad (Doménech,
2004), aunque el consumo suele referirse al ciudadano como consumidor final, la
huella ecológica es perfectamente aplicable a la empresa, y a cualquier tipo de
organización (como personas jurídicas), ya que éstas también son consumidoras
de bienes y
servicios
(figura 1).

Figura 1. La
huella
ecológica

91
aplicada a la empresa permite reducir las emisiones de CO2 y combatir el cambio
climático.

Cualquier producto que llega al consumidor final ha atravesado toda una cadena
de valor, más o menos larga, desde la extracción de las materias primas
(minerales, madera, pescado, etc.) hasta el producto acabado, pasando por el
diseño, la transformación, la promoción, la distribución y el transporte o la
comercialización. En cada uno de esos pasos o eslabones de la cadena se va
añadiendo algo más de huella ecológica hasta llegar a aquel consumidor final.

Así, por ejemplo, una empresa pesquera que explota un recurso, genera los
siguientes impactos: a) el espacio que utilizó para la pesca; b) el consumo de
combustible del buque; c) el consumo de materiales utilizados (redes, cajas,
anzuelos, etc.); d) el consumo de otros recursos (papel, agua, comida, etc.); e) las
emisiones, vertidos y desechos producidos. Supongamos que todos estos
impactos, una vez convertidos a espacio mediante la metodología que vamos a
describir, producen una huella ecológica de unas 10 hectáreas por tonelada de
pescado extraído (es decir, cada tonelada de pescado equivale a todos los
recursos que producen 10 hectáreas de ecosistemas bioproductivos).

Las operaciones de la lonja, donde se gasta energía eléctrica, se fabrica hielo, se


consumen materiales de oficina, etc., añaden nueva huella a esa tonelada de
pescado. El transporte hasta la fábrica de conservas y la propia transformación,
enlatado, etc., añaden nueva huella a ese pescado. La posterior venta y
transporte, a veces hasta lugares sumamente alejados, añade más huella.
Finalmente, el producto es servido en un restaurante, donde también se consume
luz, agua, gas, combustible para la calefacción, materiales, espacio y otros, y
donde también se generan nuevos residuos. Al final de toda esa cadena, la huella
de aquella tonelada de pescado podría pasar de las iniciales 10 hectáreas a las
1000 hectáreas finales (exagerando el ejemplo a efectos descriptivos) que
observamos en la figura 2.

El receptor de toda esa huella que se ha ido acumulando es el consumidor final, el


cliente que está sentado en la mesa del restaurante. Pero, todos los eslabones del
proceso han sido consumidores intermedios (como poseedores temporales) del
producto “de flujo” que ha ido pasando por todos ellos (el pescado), así como
92
consumidores finales de muchísimos otros productos (desde un bolígrafo hasta un
anzuelo) que ya no pasan al siguiente eslabón. Podemos considerar que esos
productos o consumos finales (como la energía o el combustible) quedan
incorporados, como insumos, en el producto de flujo, y considerar así que todo es
consumo intermedio, pero lo cierto es que, llamémoslo como lo llamemos, todos y
cada uno de los eslabones adquieren huella a partir de los eslabones anteriores y

generan nueva huella por medio de sus propios procesos. Unos y otros productos
quedan registrados en la contabilidad de la empresa y todos ellos podrán ser
registrados como huella.

Figura 2. La aplicación de la huella ecológica a la empresa propicia el “efecto


dominó”, pues a toda empresa le interesará adquirir productos libres de huella,
para lo cual deberá buscar los proveedores más ecoeficientes. La huella como
ecoetiqueta facilita una fácil y comprensible identificación ambiental de productos y
empresas.

La cadena del pescado descrita (como las actuales cadenas del petróleo, del
acero, del gas, del vidrio o cualquier otra) es una cadena no sostenible. Sin
embargo, si una empresa determinada –cualquier eslabón de la cadena- opta por
la sostenibilidad, podrá y deberá adquirir productos sin huella o con poca huella
(los denominados productos “verdes” o certificados) y, a su vez, deberá implantar
procesos productivos propios que no añadan nueva huella a ese producto
adquirido (utilizando, por ejemplo, biocombustibles, comprando energía “verde” o
implantando energías alternativas propias). Si esta práctica se extiende por toda la

93
cadena se producirá un “efecto dominó”, de modo que todos los proveedores
tenderán a hacerse cada vez más sostenibles con el fin de ser cada vez más
competitivos.

Por lo tanto, toda empresa, como depositaria o poseedora de la huella de los


productos que hereda o adquiere y como generadora de nueva huella, debido a
sus propios procesos, puede aplicar con total propiedad el concepto de huella
ecológica como indicador de sostenibilidad. Es más, podríamos asumir que toda la
huella de una empresa queda incorporada en el producto de flujo que va a pasar
al siguiente intermediario, como dijimos más arriba, y que, por lo tanto, todo es
consumo intermedio, en el sentido que le dan los economistas (todo son productos
“de flujo” hacia el siguiente eslabón); pero, en el sentido que le damos aquí,
también podemos asumir lo contrario, es decir, que todo consumidor intermedio es
en realidad un consumidor final provisional, tanto en cuanto no se produzca la
transferencia de sus productos al siguiente eslabón de la cadena, ya que es
posible que tales productos no salgan de la empresa poseedora. Así, por ejemplo,
si se produce un incendio o cualquier otra catástrofe natural o artificial, o si el
producto queda almacenado indefinidamente por la razón que sea, o si los
productos perecederos se echan a perder por los motivos que fuera, ese
consumidor intermedio pasaría automáticamente a ser el consumidor final de tales
productos. Creemos, en consecuencia, que el concepto de huella ecológica
aplicado a la empresa está totalmente justificado.

Probablemente un concesionario de coches, dedicado a la simple e inocente


compra y venta de vehículos (producto “de flujo”), se sorprenda al saber que los
automóviles que pasan por su comercio, y que él no va a usar directamente, le
producen una considerable huella. Pero, lo cierto es que, desde el momento en
que es depositario del vehículo es poseedor también de la huella asociada al
mismo, y, si en ese preciso momento, el vehículo se destruye por cualquier motivo
(incendio, derrumbe o cualquier otra catástrofe), el depositario ¡es el consumidor
final del mismo!. La posesión de un vehículo con huella ecológica no es, por tanto,
tan inocente, ya que el poseedor es el único responsable de comerciar con tales
vehículos y no con otros sin huella o con menos huella, existentes en el mercado.
También sería responsable de añadir a sus vehículos nueva huella con su propio
consumo eléctrico, con el consumo de materiales de oficina o de mobiliario, con la

94
calefacción de sus locales, o con el combustible utilizado en las pruebas de
vehículos. En cualquier caso, la hoja de cálculo desarrollada permite diferenciar
claramente la huella provocada por los productos que designemos como "de flujo"
(los vehículos en este caso) y los consumos que consideremos "finales" o
"añadidos" (el resto de consumos).

Obviamente, si se deseara calcular la huella total de toda la cadena de valor, esta


no sería igual a la suma de todas las empresas que la componen, ya que se
incurriría en doble contabilidad, sino que sería igual a la huella acumulada en el
último eslabón de la cadena. En el ejemplo mostrado más arriba, la huella total no
sería 10+100+1000 hectáreas, sino la del receptor final, esto es 1000 hectáreas.

Así pues, sabiendo que el poseedor de un producto es el poseedor provisional de


su huella total acumulada, definimos huella ecológica corporativa, como el impacto
ambiental (en hectáreas) de cualquier organización, provocado por: a) la compra
de todo tipo de productos y servicios claramente reflejados en sus cuentas
contables; b) la venta de productos procedentes de la producción primaria de
alimentos y otros recursos forestales o bióticos, es decir, cuando hortalizas, frutas
o carnes, entran por primera vez en la cadena de mercado; c) la ocupación de
espacio; y d) la generación de desechos claramente reflejados en su memoria
ambiental. Todos los impactos considerados en la huella ecológica corporativa son
perfectamente controlables y auditables, y, por lo tanto, objetivos y transparentes.

Es importante destacar que prácticamente todos los datos de cálculo de la huella


ecológica corporativa se pueden obtener de la contabilidad de la organización2,
motivo por el cual se puede aplicar a cualquier organismo y a cualquier escala;
elimina cualquier tipo de arbitrariedad; y facilita la comparación. La huella
ecológica corporativa es un rastreador de la huella ecológica habitual (basada en
el ciudadano, como consumidor final), pues analiza el impacto de cualquier
producto, a lo largo de todo su ciclo de vida.

Los trabajos de huella ecológica corporativa comenzaron en el año 2001 (Alba et


al., 2003; Doménech, 2004a, 2004b) y hemos creído conveniente ampliar los
mismos con nuevas mejoras, las cuales, indudablemente, deberán seguir siendo
enriquecidas con nuevas aportaciones. Se reflejan, además, las diferentes

95
técnicas empleadas en diferentes cálculos de otros autores con el fin de ofrecer un
método estándar y útil para cualquier tipo de organización.

13. CIELOMOTOS

Los cielomotos o terremotos en el cielo son perturbaciones acústicas que ocurren


por una compresión del aire que nos rodea y que viajan a través de la atmósfera.

Entre las causas de los cielomotos están:

 Fragmentos de asteroides que se transforman en perturbaciones acústicas,


 Expulsiones de gases de los volcanes
 Terremotos fuertes
 Avalanchas
 Un trueno lejano que traiga ruidos intensos
 Choques de aire frío y caliente. 

A pesar de que estas perturbaciones acústicas pueden ser captados por animales
con oídos capaces de escuchar infrasonidos como elefantes, ballenas o
rinocerontes, los seres humanos pueden llegar a percibirlos, pero no en su
totalidad.

“En medio de una situación de confinamiento o cuarentena, disminuye la


contaminación auditiva y los humanos son más sensibles a los ruidos y a percibir
cambios en su entorno

Durante los meses de marzo y abril se han presentado diversos cielomotos


-también llamados “trompetas en el cielo”- en países como Estados Unidos, Chile,
España, Brasil y Argentina.

13.1 Ejemplos recientes.

Recientemente comenzaron a circular videos de extraños de ruidos en el cielo,


mismos que se escuchan en varias partes del mundo durante las noches o
madrugadas. Algunas personas equipararon los inexplicables sonidos con el ruido
que hacen las trompetas, por lo que rápidamente se comenzó a decir que tal vez
96
se trataba del anuncio del apocalipsis bíblico. Pará fortuna de todos no se trata de
eso y científicos de la NASA ya se han dado a la tarea de explicar de dónde
provienen esos ruidos y cuál es el fenómeno que los produce.

Las “trompetas en el cielo” en realidad son “cielo motos”, una especie de


terremotos sucedidos en el cielo. El estruendo se produce cuando las masas de
aire calientes y frías choca en el cielo, a diferencia de los terremotos en la tierra
que son causados por el movimiento de las placas tectónicas.

David Hill, especialista del Servicio Meteorológico de Estados Unidos (NWS, por
sus siglas en inglés), detalló que los “cielo motos” pueden suceder en cualquier
parte del mundo y son causados por fenómenos tan diversos como el golpe de las
olas en los acantilados o la caída de un meteorito. Esté suceso es más frecuente
de lo que pensamos, pero en las grandes ciudades llenas de ruidos por lo general
no se alcanza a escuchar. Esto ha cambiado debido a la cuarentena por el
coronavirus COVID-19, pues la contaminación sonora ha disminuido bastante en
las ciudades y eso ha permitido que percibamos ruidos que antes no notábamos.

13.2 ¿Con que frecuencia ocurren?

La explicación científica que concentra más apoyo, incluso por expertos de la


NASA, tiene que ver con el choque de masas en la atmósfera. El aire, al estar
formado por una mezcla de gases que se calientan y cuyas partículas se dilatan,
aumenta su volumen, y desplaza hacia afuera a los demás gases. Cómo el
aumento de temperatura es tan grande en tan poco tiempo, el movimiento del aire
resulta extremadamente violento, generando una onda de choque. Lo que en
definitiva provoca esos llamativos sonidos provenientes del cielo

Los cielomotos se pueden formar en cualquier parte del mundo, pero América del
Sur, Australia y Estados Unidos han sido los últimos en poder vivirlos. Al tratarse
de regiones costeras, comienza a sumar puntos otra explicación del cambio
atmosférico, y que tiene más que ver con el choque de las olas contra los
acantilados. ¿Qué argumenta esta versión? "El ruido que genera se puede deber
al metano que liberan unos cristales del fondo del océano. Con la combustión,
este es un gas que podría producir un gran estruendo", sentencia el portal
Meteorología en la Red.

97
Además, surgen otras teorías del origen, que incluso podrían pensarse como
disparatadas, como aviones supersónicos que rompen la barrera del sonido o el
estallido de un meteorito en la atmósfera. Ambas, sin embargo, han sido
desestimadas sistemáticamente por los expertos. Por un lado, niegan que el
sonido de los cielo-motos sea parecido al de los mencionados aviones. Y por el
otro, cuando los meteoritos procedentes del espacio exterior ingresan en la
atmósfera dejan un destello de luz brillante. Los cielo-motos no desprenden ningún
tipo de luz.

Irlanda ha manifestado su inquietud por este fenómeno por haberlo atravesado en


reiteradas oportunidades. Y en la década del '70 los cielos motos incluso pasaron
a ser un tema tan importante en Estados Unidos, que el presidente Jimmy Carter
ordenó una investigación. Pero aparecen más registros: el 9 de febrero de 1994,
uno se dejó sentir en Pittsburgh (Estados Unidos). Y el 12 de enero de 2004, otro
hizo estremecerse a Dover (estado de Delaware). Y también el 20 de octubre del
2006, los pueblos entre Cornualles y Devon (Reino Unido), se conmovieron con
unas “misteriosas explosiones”.

98
14. MAREMOTOS

El termino maremoto proviene del latín “mare”, que traducido quiere


decir mar y “motus” que traducido propone que existe un movimiento, a veces
este fenómeno climático se confunde con lo que es el tsunami por sus similitudes,
sin embargo, aunque se comparen y se confundan ambos fenómenos climáticos
se diferencian bastante.

Generalmente se definen a los maremotos como una agitación violenta de las


corrientes del mar, o más específicamente de sus olas, generalmente se producen
por desplazamientos de las capas tectónicas, por algún plegamiento, por una
erupción, o pueden muy bien ser causa de terremotos o, en menos posibilidades
impactos de meteoritos, no obstante, eso no se descarta, este fenómeno
ambiental cuando tiene lugar envían grandes cantidades de aguas turbias y
movidas, en forma de olas descarriladas, de tamaño promedio, a lo que son
las costas, afectando moderada y severamente estas zonas y la población que
habita en ella. Su punto de inicio tiene lugar en lo que es el epicentro del suelo del
mar, al verse el subsuelo del océano comprometido de manera severa, las placas
tectónicas pasaran a tener un movimiento agresivo, planteando esto a las
profundidades del mar, si transferimos eso hacia allí, el océano empieza
levemente a desequilibrarse hasta llegar al punto en el que parece incontrolable, y
es posible que no simplemente lo parezca, sino que lo sea, estos movimientos
descontrolados empiezan a llevar en un vaivén al mar, ocasionando olas
de grandes densidades, la resaca marina, que generalmente va a un sentido
contrario se encuentra totalmente inestable, lo que hace al agua marina más
violenta cuando esta tenga que arremeter sobre cualquier tipo de costa, que es
donde obligatoriamente pararía.

Una de las causas más comunes de la formación de estos fenómenos


naturales, más que la contaminación, son los desplazamientos de tierra, sea
marítima, o no, un mínimo desnivel en el terreno del océano puede ocasionarlo,
hasta un mal movimiento de traslación, lo que inmediatamente causaría el
agresivo movimiento de la marea; aunado a ello, se dice que la principal causa de
estos fenómenos son los terremotos, ya que al moverse tan violentamente las
capas tectónicas afectan inmediatamente lo que es el subsuelo del mar. Los
99
maremotos como tal, no cuentan con etapas que determinen su proceso paso a
paso, ya que no es un fenómeno fácil de medir o cuantificar, por su acción rápida y
violenta no se puede tener a ciencia cierta si posee o no etapas de formación, de
lo que se tiene conocimiento que tiene etapas es del tsunami. La única manera de
que un maremoto se propague es que exista más de un desplazamiento de la
placa tectónica, lo que quiere decir, que debe haber varios terremotos o
temblores, ya que esta no se puede propagar teniendo un solo epicentro.

Los maremotos constantemente son temidos por la capacidad que poseen y los


graves daños que pueden ocasionar, obviamente, estos no ocasionan tanto daño
como el que ocasionan los tsunamis, sin embargo, estos son sumamente graves,
los maremotos pueden pasar de inundar y arremeter con una simple costa sin
nada, a destrozar aldeas, casas y, aunado a ello, dejar personas heridas y
muertas debido a ello. Se posee la hipótesis que pueden atravesar con
fuerza miles de kilómetros rápidamente, y aunque no se posee una medición
exacta de la altitud que llegan a tener las olas que se generan gracias a este
fenómeno, se puede decir que cada una de ellas se encuentra separada por
intervalos de 10 a 45 minutos, aunado a ello, mientras la placa tectónica siga
sensible, se seguirán dando lo que son
las olas erráticas.

Figura 1. Maremoto. Fuente:


https://deconceptos.com/ciencias-
naturales/maremoto

100
14.1 Los maremotos más devastadores de la historia.

Valdivia (1960)

El Gran Terremoto de Chile tuvo lugar el 22 de mayo y es el mayor terremoto


registrado hasta la fecha. Con un 9,5 en la escala de Richter, causó un maremoto
en el Pacífico que arrasó Hilo y las costas de Sudamérica. Se estima que murieron
3000 personas por el terremoto y el tsunami. También murieron 142 en Japón, 61
en Hawái y 32 en Filipinas.

Océano Indico (2004)

Este es el maremoto más devastador hasta la fecha. Ocurrido el 26 de diciembre,


se le atribuyen 280000 víctimas en todo el mundo. Afectó a Indonesia, Tailandia,
Malasia, Bangladés, India, Sri Lanka, las Malvidas y Somalia. El terremoto que lo
provocó llegó a 9,1 grados y las olas alcanzaron entre 10 y 18 metros y penetraron
1 o 3 kilómetros hasta el interior.

Japón (2011)

Ocurrido el 11 de marzo, este maremoto causado por un terremoto de 9,0 en la


escala de Richter alcanzó a más de una decena de países. Los mayores daños se
ocasionaron en Japón, donde se observaron olas de 10 metros de altura. El
tsunami provocó incendios en la planta nuclear de Fukushima, lo que provocó una
alerta máxima nuclear. Sus efectos aún se pueden percibir hoy y el peligro nuclear
ha obligado a evacuar a miles de personas de sus hogares.

101
15. TERREMOTOS

La primera cuestión -dónde- encuentra una respuesta en el marco de la Tectónica


de Placas, teoría según la cual la corteza terrestre está compuesta por grandes
placas tectónicas que están en continuo movimiento entre sí. La mayor parte de
los epicentros de terremotos en todo el mundo están distribuidos en los márgenes
de dichas placas, donde tienden a concentrarse los esfuerzos debidos al
movimiento de las mismas, y donde se localizan las fallas geológicas (Figura 1).
Estas son zonas frágiles de la corteza cuya ruptura produce el movimiento
sísmico, por lo que constituyen la fuente u origen del terremoto.

Figura 1.
Principales placas
tectónicas que
configuran la
corteza terrestre
(arriba)

La segunda cuestión -cómo- es hoy satisfactoriamente explicada por la teoría del


Rebote Elástico (Reid, 1910). Según ésta, los esfuerzos se van acumulando en
una falla geológica, hasta que se supera el límite de resistencia del material y se
produce la ruptura, rebotando un lado frente al otro de la falla hacia posiciones de
menor esfuerzo (Figura 2). La energía acumulada durante años se libera
bruscamente en cuestión de segundos, y en el proceso se genera una radiación
que se propaga en forma de ondas elásticas desde el foco hasta la superficie de la

102
tierra. En los lugares alcanzados con suficiente energía se produce la vibración o
sacudida sísmica.

Figura 2. Explicación del mecanismo de generación de


terremotos, según la teoría del Rebote Elástico (Reid, 1910).
Debido a las fuerzas que actúan sobre la corteza, ésta se
deforma, acumulando esfuerzo dentro de las rocas (b).
Cuando el esfuerzo alcanza la máxima resistencia del
material, provoca la ruptura y los dos lados de la fractura
rebotan hacia posiciones de menor esfuerzo (c).

La última cuestión -cuándo- es más difícil de responder. En la mayor parte de las


fallas los movimientos de producen siguiendo un cierto ciclo sísmico, pero éste no
responde a un intervalo de tiempo exacto y es difícil de precisar. Además, hay
muchas fallas ciegas que no rompen en superficie y no son bien conocidas. Con
todo ello, hoy por hoy no es posible determinar cuál será el momento de
ocurrencia del próximo evento en una cierta zona, ni su tamaño.

Tras las cuestiones previas referentes a la explicación geológica y física del


terremoto, nos centramos ahora en otras dirigidas a considerar las principales
causas del daño que generan, su posible predicción y cómo mitigar el riesgo
asociado.

15.1 Principales causas del daño causado.

Los terremotos pueden causar daños directos en las estructuras e infraestructuras,


debido al impacto de las ondas sísmicas en las poblaciones afectadas. Los daños

103
en infraestructuras, como cortes de carreteras, colapso de puentes o
descarrilamiento de trenes en líneas de ferrocarril pueden dificultar seriamente la
actuación de los servicios de emergencia, contribuyendo a un aumento de las
víctimas.

Además de los daños directos que produce el propio movimiento sísmico en


estructuras y edificaciones, frecuentemente se producen daños derivados de otros
fenómenos inducidos por el sismo, como son la licuefacción, los deslizamientos de
laderas y los tsunamis. Estos generan muchas veces un número de pérdidas muy
superior a las producidas directamente por el sismo. El deslizamiento ocurrido en
Las Colinas de Santa Tecla tras el terremoto del 13 de enero de 2001 en El
Salvador, con 600 víctimas mortales, el tsunami de diciembre de 2004 en el
Sudeste Asiático, con 200.000 víctimas, o el generado tras el terremoto de 2011
en Japón, que afectó a la central nuclear de Fukushima, son algunos ejemplos del
potencial destructor de estos fenómenos derivados.

La licuefacción es un fenómeno que se produce en ocasiones en suelos blandos,


poco cohesionados. La fuerza de la sacudida anula la fuerza de cohesión entre
sus granos y el suelo se comporta como un líquido, hundiéndose todo lo que esté
situado sobre él. Para entendernos, es algo así como lo que sucede con la arena
de la playa. Cuando está mojada, hay una fuerza de cohesión que la mantiene
compactada y es posible, por ejemplo, hacer un castillo de arena. Pero cuando se
seca pierde la cohesión y deja de tener consistencia. Lo mismo sucede con ciertos
suelos ante la fuerza de la sacudida sísmica.

Otro fenómeno derivado es el deslizamiento de laderas, que a veces se produce


en relieves escarpados, con suelos poco consolidados, ante la fuerza lateral
impuesta por la sacudida sísmica. Esta produce una reducción en la resistencia
del material disparando el deslizamiento del talud. El potencial del deslizamiento
depende de: la litología, el relieve, la humedad relativa y la intensidad del
movimiento.

El tercer fenómeno derivado del sismo, capaz de generar grandes pérdidas


humanas y materiales es el tsunami, una gran ola que se puede producir cuando
el hipocentro del terremoto se localiza en el mar, causando un movimiento vertical
del suelo oceánico. Una gran masa de agua es arrastrada y como consecuencia
104
se genera una ola que al llegar a la costa puede alcanzar alturas de hasta 30
metros, inundando las zonas costeras afectadas. El tsunami causado por el
terremoto de Sumatra del 26 de diciembre de 2004 pone de manifiesto el enorme
potencial destructor de este fenómeno.

15.2 ¿Se pueden predecir los terremotos? Estado actual


de la predicción.

En la década de los 80 la comunidad internacional dedicó enormes esfuerzos en la


línea de predicción de terremotos, considerada entonces como la medida más
eficaz para evitar, al menos, que se produjeran víctimas humanas. La predicción
se concebía como la determinación del lugar y el momento de ocurrencia del
terremoto con un margen suficientemente estrecho de tiempo como para tomar
acciones a corto plazo, que consistían esencialmente en evacuar a la población.
En esta línea, hubo algunos casos de predicción satisfactoria, como la del sismo
de Haicheng-Yingkou (China) el 4 de febrero de 1974, que permitió evacuar tres
grandes ciudades dos días antes del terremoto, con la consiguiente salvaguardia
de vidas humanas. Sin embargo, poco después de este sismo ocurrió otro también
en China que no se logró predecir, donde fallecieron 250.000 personas. Y también
hubo casos de predicción fallida, en los que se evacuó la población y el terremoto
no llegó. Estos casos hicieron derivar los esfuerzos hacia una línea de prevención
de daños, ligada a la predicción a mediano y largo plazo.

Actualmente la predicción se concibe asociada a tres escalas temporales,


orientadas cada una con un propósito diferente. El siguiente cuadro resume lo que
se entiende por cada escala de predicción:

ESCALA TIEMPO APLICACIÓN

 A corto Horas y Evacuación


plazo días

 A medio Semanas Planes de emergencia


plazo

 A largo Años Diseño sismorresistente y planificación

105
plazo urbanística. (Prevención de daños)

La predicción a corto plazo con fines de evacuación sería sin duda deseable, pero
actualmente no es posible de forma satisfactoria. Es cierto que algunos terremotos
van precedidos de señales precursoras, como el aumento de Radom, la
ocurrencia de microterremotos e incluso el comportamiento anómalo de los
animales. Sin embargo, no hay una relación causa- efecto directa e inmediata, que
permita establecer con certeza que va a ocurrir un terremoto tras detectar alguna
de estas señales. Es más, en la mayor parte de los casos éstas se presentan sin
que el terremoto suceda después. Si nos basamos en ellas para dar la alerta
sísmica, el porcentaje de errores sería mucho mayor que el porcentaje de aciertos.

15.3 Peligrosidad y riesgo sísmico. Medidas preventivas.

Ante la imposibilidad de predecir el terremoto con un margen de tiempo


suficientemente estrecho como para tomar acciones a corto plazo, la línea de
predicción a largo plazo es la que actualmente está dando resultados más
satisfactorios, y hacia la que se canaliza una buena parte de la investigación en
sismología e ingeniería sísmica. Cuando hablamos de este tipo de predicción
entramos en lo que se conoce también como evaluación de la peligrosidad
sísmica.

La peligrosidad se define como la probabilidad de que ocurran movimientos de


una cierta intensidad en una zona, durante un periodo de tiempo t definido, que
puede ser de años, a veces cientos e incluso miles de años. Para entender la
utilidad de conocer el movimiento a tan largo plazo es importante entender primero
la diferencia entre peligrosidad y riesgo sísmico, Según la definición de la UNDRO
(1979) el riesgo sísmico (R) se establece como el siguiente producto:

R= H* V* E* C

donde: H, es el término que representa la peligrosidad (del término inglés Hazard)

106
V, es la vulnerabilidad de las estructuras, es decir su capacidad para experimentar
daño ante una cierta acción sísmica. Las estructuras más débiles son las más
vulnerables.

E, es la exposición, que representa la densidad de personas y estructuras en la


zona. C, es el coste de reparación de daños.

Esta combinación de factores involucrados en el riesgo, hace que éste no


dependa sólo del nivel de movimiento que cabe esperar en una zona
(peligrosidad), sino también, y de forma decisiva, del número de edificios en la
misma (exposición), de su mayor o menor vulnerabilidad y de cuanto cueste
reparar las pérdidas. Una zona de baja-moderada peligrosidad, pero con alta
vulnerabilidad, resultaría entonces con alto riesgo. Y viceversa, una zona de alta
peligrosidad con vulnerabilidad reducida sería de bajo riesgo.

En definitiva, la peligrosidad es inherente al fenómeno y no se puede controlar ni


reducir, tan sólo se puede llegar a conocer de forma más o menos precisa. Pero la
vulnerabilidad sí se puede reducir, y por tanto el riesgo sísmico se puede controlar.
Algunas cuestiones inmediatas que cabe plantearse en esta línea de prevención
son: ¿Cómo se puede reducir la vulnerabilidad? ¿Cómo se pueden diseñar las
estructuras más resistentes frente a cargas sísmicas? ¿cómo puede contribuir el
conocimiento de la peligrosidad a mitigar el riesgo?

El diseño sismorresistente es la primera respuesta a estas cuestiones. Su


fundamento radica en diseñar éstas de forma que resistan los máximos
movimientos esperados durante su tiempo de vida útil. Ello requiere, en primer
lugar, la evaluación de la peligrosidad sísmica para determinar cuales son esos
máximos movimientos, cómo se caracterizan y cuál es su recurrencia. Tras ello, el
movimiento esperado se introduce en los cálculos dinámicos de la estructura a
diseñar, dotando a la misma de capacidad de resistencia ante las
correspondientes cargas sísmicas. Esta es la esencia de las normativas
sismorresistentes, que establecen una serie de criterios para el diseño de las
construcciones, considerando un movimiento probable en función de la ubicación
del emplazamiento. El diseño sismorresistente constituye, hoy por hoy, una de las
medidas más eficaces para disminuir la vulnerabilidad y por tanto para reducir el
riesgo sísmico.
107
Además, dentro del potencial destructor de los terremotos hay que considerar,
como hemos visto, los posibles daños asociados a fenómenos indirectos como
licuefacción, deslizamientos y tsunamis. El riesgo asociado a éstos puede
reducirse mediante una adecuada planificación urbanística, adoptando sistemas
de alerta y empleando medidas correctoras.

A parte de las citadas medidas pre-evento es importante el diseño de planes de


emergencia que contribuyan a mejorar la intervención durante y después del
evento. La actuación inmediata tras la ocurrencia de un sismo puede salvar
muchas vidas y facilitar decisivamente la recuperación de las poblaciones
afectadas. En esta línea también se dedican esfuerzos hacia un mayor
conocimiento del riesgo sísmico que sirva de base para la elaboración de planes
de emergencia.

108
CONCLUSIONES

 La lluvia ácida es un fenómeno que, aunque se da de manera natural por


erupciones volcánicas, es el ser humano su principal causa actualmente.

 La lluvia ácida es considerada un fenómeno impredecible, ya que es


transfronterizo y afecta directamente ecosistemas que tienen emisiones
contaminantes mínimas y se encuentran alejados a las fuentes precursoras
de lluvia ácida.

 La capa de ozono sin duda alguna siempre ha estado presente en la


cotidianidad, como uno de esos temas de interés a lo largo de la historia.
Teniendo en cuenta que, aunque no es algo que podamos ver o percibir
automáticamente, aun así, se constituye una idea que no es puesta en
duda desde su descubrimiento. Sin embargo, poco se nos ha enseñado de
la importancia de cuidar la capa de ozono y que a pesar de los tratados
para que se maximice los intentos de minimización de gases contaminantes
de las grandes fábricas a nivel mundial, todavía sigue en deterioro, dando a
entender que esto no es suficiente teniendo en cuenta que todo lo existente
tiene un fin y que con el paso del tiempo desaparecerá.

 La capa de ozono no es ajena a esto, ya que el deterioro que ha sufrido es


prácticamente irreversible, y aunque se haya hecho tiempos estimados es
claro que se necesitan cambios urgentes. Sin embargo, en la actualidad, a
raíz del COVID-19 y el cierre de muchas empresas por motivos de
cuarentena, se ha logrado una reducción notable en contaminación, y el
cierre de varios agujeros en esta capa, como la del Ártico, revela cómo
funciona la naturaleza, se trata de equilibrio, lo cual tiende a recuperarse y
a su vez le da un nuevo aire, una nueva luz de esperanza para poder
solucionar y preservar esta, y podamos seguir con nuestras vidas.

 La exposición de partículas de contaminantes suspendidos en el ambiente


a la luz solar, produce el fenómeno ambiental conocido como smog
fotoquímico, que visualizamos como una gran pared de niebla marrón.

109
 El generador principal de smog fotoquímico es la alta contaminación de
gases emitidos por los vehículos que funcionan quemando combustibles
fósiles.

 La huella de carbono es un fenómeno que se hace mayor a medida que los


años pasan, por lo cual necesita ser controlada tanto industrialmente como
en los hogares.

 La medición de la huella de carbono es indispensable ya que ayuda a


controlarla y disminuirla.

 En conclusión, la cuña salina se produce por la descarga de agua salada


que se impregna en el agua dulce, este proceso se detiene sólo si la
columna de agua dulce se hace mayor, la presión aumenta y consigue
igualar a la intrusión del agua de mar, de otra manera resulta muy difícil de
recuperar.

 La presencia de cuña salina conlleva a una gran acumulación de materia


orgánica lo que implica un gran consumo de oxígeno.

 La creciente urbanización, es decir, el desarrollo humano en las zonas


naturales, como edificios, carreteras, ha generado aún más absorción del
sol durante el día, emitiendo el calor de regreso al aire por la noche
ocasionando ciudades más cálidas. Denominado, islas de calor.

 El fenómeno natural conocido como tsunami, son una representación de lo


poderosa que puede llegar a ser la naturaleza. Esta gran ola puede acabar
con la vida de muchas personas y dejar muchos daños materiales. Sin
embargo, este fenómeno es parte de la naturaleza, por lo tanto, no
podemos oponernos a ella y hacerlo sería muy difícil. Si es cierto que
muchos tsunamis se forman ya sea por movimiento de las placas
tectónicas, erupciones volcánicas y por el descontrol natural que el hombre
ha provocado, un tsunami no es más que una respuesta de la naturaleza la
cual debemos soportar y comprender, es algo que se debe tomar con
cautela y seguir estudiando, desde sus procedencias hasta cálculos de una
posible devastación y, además, sus consecuencias a lo largo de la historia.
110
No es más que mirar las noticias o leer artículos para ver la magnitud de los
desastres generados por ella, como lo hizo en Indonesia en 2004 o el del
11 de marzo del 2011 en Japón que dejó miles de fallecidos.

 La historia ha evidenciado que los fenómenos El Niño y La Niña afectan de


manera importante los regímenes de temperatura del aire y precipitación en
los territorios en que se presentan.

 El Niño no sigue un patrón común, por cuanto las deficiencias son más
acusadas en algunas áreas, menos en otras y en algunas ni siquiera se
perciben.

 Como se ha expresado anteriormente, lo que mejor se puede hacer es


estudiar y crear artefactos que nos ayuden a prever o anticipar este hecho y
salvaguardar la vida de todos los presentes del lugar para reducir o evitar
tragedias, como lo han hecho en países que tienen de al lado al gran
océano Pacífico. También, sistemas de evacuación temprana y sistemas de
monitoreo satelital que son un gran complemento para su prevención y
estudio, que en cuyo caso no deja de lado lo que el ser humano también
puede evitar hacer cosas para que no se generen estas respuestas, como
también las amenazas post-tsunamis por desechos y contaminantes que
dejen resultados desastrosos para un reintegro en esa zona. Como todo
fenómeno natural es de tener respeto y solo queda aprender de ello, porque
sabemos que el medio ambiente o la naturaleza en sí, tiene un límite y este
tipo de reacciones será muestra de que se están haciendo las cosas como
no se debieran, perjudicando al planeta y perjudicando a nosotros.

 En conclusión, el deterioro progresivo del medio ambiente tiene que ver en


gran parte con la mala implementación y la no erradicación de prácticas
insostenibles que perjudican a la tierra día con día. El efecto invernadero es
solamente una de las muchas consecuencias de estas prácticas
provenientes de los sistemas capitalistas de producción que se han
perpetrado a lo largo de la historia y que benefician la explotación de los
recursos naturales sobre la sostenibilidad ambiental.

 También podemos concluir que todos los habitantes de la tierra, estamos


obligados a tomar medidas para detener el cambio climático y el aumento
111
del efecto invernadero. Aunque las grandes decisiones, tomadas por los
gobiernos de los países, son fundamentales, hay muchas formas de ayudar
a la descontaminación que están a nuestro alcance.

 Los terremotos son fenómenos naturales que se producen por la


acumulación de fuerzas en zonas frágiles de la corteza terrestre,
denominadas fallas geológicas, que tienden a romperse cuando se supera
su límite de resistencia. En la ruptura se genera una energía que se
propaga en forma de ondas elásticas y cuando éstas alcanzan la superficie
terrestre producen el terremoto o sacudida sísmica.

 Los terremotos no se pueden evitar ni predecir a corto plazo, pero sí se


pueden estimar los movimientos esperados en una cierta zona a largo
plazo, lo que se conoce como peligrosidad sísmica. Esto permite el diseño
sismorresistente de las edificaciones y estructuras expuestas, de modo que
puedan resistir esos movimientos, lo que supone reducir su vulnerabilidad.
De esta forma el riesgo sísmico, concebido como el producto de la
peligrosidad por la vulnerabilidad y exposición, puede ser reducido o
mitigado. En esto se basa la línea de prevención de daños a la que
actualmente se dedican los mayores esfuerzos para evitar que terremotos
futuros sean catastróficos.

112
BIBLIOGRAFÍA

113

También podría gustarte