Complejidad y Auto-Organización de Patrones Naturales PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 168

Complejidad y auto-organización

de patrones naturales
Profesor Dr. A. Alzola
In memoriam
Complejidad y auto-organización
de patrones naturales
José Manuel Nieto-Villar
(coord.)
d
Elena Izquierdo-Kulich
d
Juvencio A. Betancourt-Mar
d
Eduardo Tejera Puente
540
Com
C Complejidad y auto-organización de patrones naturales /
coordinador José Manuel Nieto-Villar; pról. Jacques Rieumont
Briones.- La Habana: Editorial UH, 2013.
168 p.; 23 cm

ISBN: 978-959-7211-25-9

1. QUÍMICA I. Rieumont Briones, Jacques; pról.


II. Nieto-Villar, José Manuel, 1957; coord.

premio editorial uh 2013

jurado categoría Ciencias NATURALES Y EXACTAS

Dr. María Sánchez Colina


Dr. María Eugenia Alonso
MSc. Haydée Arango Milián

edición Loisi Sainz Padrón


diseño de perfil de la colección Alexis Manuel Rodríguez Diezcabezas de Armada
Diseño interior Jennifer Jiménez Rico / Norberto Molina Martínez
ILustración de cubierta Mónica Nieto Díaz
control de la calidad Haydée Arango
composición Cecilia Sosa Díaz

sobre la presente edición © José Manuel Nieto-Villar, 2013


© Elena Izquierdo-Kulich, 2013
© Juvencio A. Betancourt-Mar, 2013
© Eduardo Tejera Puente, 2013
© Editorial UH, 2013

isbn 978-959-7211-25-9

editorial UH Facultad de Artes y Letras, Universidad de La Habana


Edificio Dihigo, Zapata y G, Plaza de la Revolución,
La Habana, Cuba. CP 10400.
Correo electrónico: [email protected]
Índice
Prefacio 9
Jacques Rieumont Briones

Palabras preliminares 13

Introducción 15

1. Termodinámica y complejidad 27
José Manuel Nieto-Villar
1.1. Entropía, información y complejidad 27
1.2. Termodinámica de procesos irreversibles  32
1.3. Extensión a los sistemas químicos y biológicos 38
Palabras finales 49
Bibliografía 49

2. Aspectos deterministas de la complejidad 54


Juvencio A. Betancourt-Mar
2.1. Teoría cualitativa 54
2.1.1. Puntos fijos 58
2.1.2. Órbitas periódicas 59
2.1.3. Variedades estables, inestables y sillas 61
2.1.4. La función de Lyapunov 62
2.2. Bifurcaciones 62
2.3. Caos e hipercaos 66
2.4. Geometría fractal 72
2.5. Control y sincronización del caos 79
2.5.1. Control del caos: métodos de control externo y su aplicación
a la cronoterapia 79
2.5.2. Métodos de control interno 87
2.5.3. Sincronización del caos 87
Bibliografía 88

3. Aspectos estocásticos de la complejidad 91


Elena Izquierdo-Kulich
3.1. Fundamentos generales 92
3.2. Ecuación maestra y fluctuaciones internas: modelo mesoscópico97
3.3. Cálculo de Ito-Stratonovich y fluctuaciones externas: modelo
estocástico 103
3.4. Fundamentos de la termodinámica mesoscópica 108
3.5. Comportamiento de las fluctuaciones internas en procesos
químicos y biológicos 110
Bibliografía 124

4. Series temporales 127


Eduardo Tejera Puente
4.1. Sistemas no lineales 129
4.1.1. Test de no linealidad 130
4.1.2. Test de estacionariedad 132
4.2. Métodos de caracterización en series temporales 136
4.2.1. Métodos de representación del espacio de fases 137
4.3. La complejidad de las series temporales 140
4.3.1. Exponentes de Lyapunov 142
4.3.2. Análisis fractal y multifractal 143
4.3.3. Dinámica simbólica 147
4.3.4. Índices entrópicos 150
Bibliografía 157

Sobre los autores 165

g
Prefacio
El presente libro es el resultado del trabajo científico de los auto-
res en los últimos quince años. Felizmente se han conjugado aquí
diversas temáticas dentro del aspecto general de la complejidad y
auto-organización. Con los métodos de la ciencia de la complejidad,
se abarcan el análisis fractal, las fluctuaciones, el método estocástico
y la termodinámica, que apuntan tanto a procesos químicos como
biológicos: entre los primeros, se abordan la producción de entropía,
las perturbaciones en sistemas oscilantes y caóticos, y las bifurcacio-
nes; como parte de los procesos biológicos, el envejecimiento, la hi-
pertensión, la pre-eclampsia y los modelos de crecimiento tumoral.
A pesar de su carácter especializado, este volumen podría incen-
tivar a cualquier profesional al estudio e indagación de los fenómenos
que se mencionan. Sus cuatro capítulos constan de materiales
abarcadores, apoyados en una extensa bibliografía que incluye libros,
artículos científicos de carácter básico y aplicaciones concretas, todo
lo cual será de gran utilidad para el lector.
El primer capítulo, titulado «Termodinámica y complejidad»,
trata sobre todo los fundamentos termodinámicos de la Teoría de
la Complejidad. En él se establece el nexo entre entropía e infor-
mación, se discute la incompatibilidad entre la irreversibilidad ma-
croscópica y la reversibilidad microscópica, así como el principio de
producción de entropía y sus diferentes enunciados, muchas veces
contradictorios. El tratamiento que se le da a la velocidad de pro-
ducción de entropía se enlaza adecuadamente con el envejecimiento
y el cáncer.
En «Aspectos determinísticos de la complejidad», el segundo
capítulo, se especifican conceptos fundamentales para entender la
dinámica de un sistema, como bifurcación, crisis, caos e hipercaos,
que son aplicados a la dimensión fractal y a los atractores extraños.
10 complejidad y auto-organización de patrones naturales

Este capítulo culmina con la mención al control del caos y su relación


con la cronoterapia y la sincronización de los sistemas caóticos.
Ya en el tercer capítulo, «Aspectos estocásticos de la complejidad»,
es introducida la descripción de la dinámica de sistemas complejos
con comportamiento markoviano mediante variables estocásticas
y queda establecida la relación entre fluctuación y complejidad.
Se tratan profusamente los aspectos relacionados con el modelo
mesoscópico, las fluctuaciones internas y el modelo estocástico
en su relación con fluctuaciones externas. Esta parte cierra con el
análisis del comportamiento de la dimensión fractal en el proceso de
electrodeposición de zinc y en la proliferación de células tumorales.
El último capítulo, titulado «Series temporales», presenta las
pruebas que se emplean para analizar la no linealidad y la estacio-
naridad y también los métodos válidos para caracterizar y repre-
sentar las series temporales; incluso se mencionan las herramientas
de la dinámica simbólica. Mediante los índices entrópicos se explica
extensamente la complejidad fisiológica en la pre-eclampsia y la
hipertensión.
Por sus valores, por la importancia de sus temáticas, por la amplia
revisión de fuentes bibliográficas que se incorpora, así como por
la exhaustiva investigación de la que es resultado, doy la bienvenida
a este libro y le auguro una excelente acogida.

Dr. Jacques Rieumont Briones


Profesor de Mérito, Facultad de Química, Universidad de La Habana

g
Complejidad y auto-organización
de patrones naturales
Palabras preliminares
La presente obra científica es resultado –parafraseando a Prigogi-
ne– de una suerte de azar y necesidad de investigación lúdica por
parte de los autores a lo largo de más de quince años, en el apasionado
campo que genéricamente se conoce como los sistemas complejos.
Testimonio del empeño de estos años ha quedado en tesis doctora-
les, maestrías, trabajos de diploma, publicaciones seriadas en revistas
especializadas en la temática y, además, en las conferencias dictadas
durante la docencia de pregrado y posgrado sobre termodinámica,
métodos estocásticos y sistemas complejos.
Este libro está dividido en cuatro capítulos y cuenta además con
una introducción, en la que se expone el estado actual de las aproxi-
maciones teóricas a la temática abordada. Como toda investigación,
la que se propone aquí está sesgada por la visión de los autores, por
lo que podría considerarse no acabada y, por tanto, perfectible. Sin
embargo, se consideró prudente ponerla en manos de un público
diverso y ansioso por incorporar la ciencia como parte de su acervo
cultural.
Los estudiantes –componente imprescindible de la academia– han
sido nuestra principal fuente de inspiración, el móvil perpetum que
trasciende cualquier teoría termodinámica. Para ellos, en primer
lugar, nuestro agradecimiento. Son muchas las personas que con-
tribuyeron, a lo largo de estos años, a que los resultados obtenidos
llegaran a un noble fin. Por ello sería imperdonable omitir a alguien
que haya contribuido a lograr este empeño. No obstante, es obligación
y deber hacer mención a los profesores de la Facultad de Química de
la Universidad de La Habana –especialmente a A. Alzola (a quien se le
dedica el frontispicio del presente volumen), Jacques Rieumont Brio-
nes, R. Quintana, Luis Montero y Carlos Núñez Valdés–; a nuestros
colegas del Departamento de Química-Física de la propia Facultad de
14 Complejidad y auto-organización de patrones naturales

Química; a Carlos Rodríguez y Baldomero Valiño, de las facultades de


Física y de Matemáticas de la Universidad de La Habana, respectiva-
mente; a los profesores Karo Michelian y Germinal Cocho; a Ricardo
Mansilla y a Rosalio Rodríguez, del Instituto de Física de la UNAM; a
los profesores Manuel García Velarde, del Instituto Pluridisciplinar de
la Universidad Complutense de Madrid, y Francisco Montero, de esa
misma universidad; al profesor Thor A. Bak, del H.C. Oersted Institute,
en Copenhagen, Dinamarca; a I. Rebelo, de la Facultad de Farmacia
de la Universidad de Oporto; y a M. Amigó de Quesada, del Instituto de
Oncología y Radiobiología de Cuba. Finalmente queremos agradecer a
nuestros familiares presentes y ausentes que han sufrido con paciencia
el tiempo infinito que hemos dedicado a la escritura de este material,
descuidando a veces los deberes que impone la cotidianidad.
Finalmente, queremos expresar nuestro agradecimiento a nuestra
querida Alma Mater de la Universidad de La Habana. Las investi-
gaciones que conforman este libro han sido financiadas por el Mi-
nisterio de Educación Superior de Cuba (MES), el proyecto AECID
–D/023653/09 y D/030752/10–, Geo Estratos S.A. de C.V., el Mexican
Institute of Complex Systems, la Fundação para a Ciência e a Tecnolo-
gia (FCT) de Portugal (SFRH/BD/25167/2005), la Facultad de Farma-
cia de la Universidad de Oporto y el Instituto de Biología Molecular
y Celular (IBMC), de Portugal. Asimismo, fueron reconocidas por
el Premio Nacional de la Academia de Ciencias de Cuba, en febrero
de 2012.

g
Introducción
The scientist does not study nature because it is useful;
he studies it because he delights in it, and he delight
in it because it is beautiful. If nature were not beauti-
ful, it would not be worth knowing, and if nature were
not worth knowing, life would not be worth living.
H. Poincaré

En la naturaleza se observan bellas estructuras, diferentes en cuanto a


forma, tamaño y colores, y cuya complejidad no depende de las propie-
dades particulares de sus elementos;1 por ejemplo, los copos de nieve,
las formaciones nubosas como el cumulonimbo, el brócoli romanesco
y las dunas del desierto (figura 1).
Pero, ¿qué se entiende por complejidad? El físico Seth Lloyd (2001)
recopiló una extensa lista, incompleta aún, de definiciones de com-
plejidad. Entre ellas, las que serán enunciadas en este libro son las
siguientes: información de Shannon, entropía de Gibbs-Boltzmann,
entropía de Renyi, entropía de Tsallis, entropía de Kolmogorov,
dimensión fractal, Complejidad de Lempel-Zip, informacion mutua,
entre otras.
El término «complejo» no debe verse como sinónimo de compli-
cado, porque un sistema descrito por pocos grados de libertad puede
exhibir una alta complejidad durante su evolución; por el contrario,
un sistema que necesite de muchos grados de libertad para poder
describirse y que, por tanto, sea complicado, no tiene que exhibir un
comportamiento complejo.

Para comprender el origen de los patrones naturales se deben investigar sus


1

mecanismos morfogenéticos.
16 Complejidad y auto-organización de patrones naturales

a. b.

c. d.
Figura 1. Patrones naturales: a. copos de nieve, b. cumulonimbo, c. brócoli romanesco y
d. dunas del desierto.

Por ejemplo, al calentar la base de una placa Petri que contiene una
película líquida de aceite de silicona en contacto con el ambiente,
se observan bellas celdas hexagonales, conocidas como celdas de
Bénard-Marangoni, las cuales se muestran en la figura 2 (incisos a
y b).
Estas celdas se forman como resultado del movimiento del lí-
quido debido a la diferencia de temperatura y a la influencia de esta
sobre la tensión superficial. En la figura 2 (incisos c y d) se muestran
las celdas hexagonales que exhiben los panales de abejas y el salar de
Uyuni en Bolivia. Obsérvese la similitud que hay entre las últimas
mencionadas y las celdas de Bénard a pesar de que la naturaleza
y los grados de libertad de los fenómenos que les dan origen son
diferentes.
Como las propuestas para definir la complejidad varían según el
tipo de fenómeno que se desee caracterizar, es importante precisar
que aquí se hace referencia a la complejidad de los patrones espacio/
temporales.
Introducción 17

a. b. c.

d.

Figura 2. Celdas de Bénard: a. placa Petri, b. vista ampliada de la placa Petri, c. panal
de abejas y d. salar de Uyuni en Bolivia.
Fuente: Cortesía del Prof. M. García Velarde (celdas de Bénard) y del Dr. Pio Callejas (salar de Uyuni).

Entre los aspectos generales de los sistemas complejos están:

•  La complejidad se manifiesta a través de propiedades que no


aparecen en las partes que integran el sistema, sino como
resultado de la interacción entre ellas. Tal y como planteó Von
Bertalanffy, en su célebre Teoría de los Sistemas, «el todo es
más que la suma de las partes» (1950).
•  Se dice que los patrones temporales y espaciales pueden ser
fractales y en estos casos su dimensión fractal generalmente
es un número no entero. Este aporte se le debe al matemático
francés B.B. Mandelbrot (1982).
•  Las ecuaciones que describen los sistemas complejos cumplen
dos requisitos fundamentales: el operador Tt que caracteriza
al sistema dinámico no es lineal –condición necesaria–, y
existen lazos de retroalimentación denominados feedback
–condición suficiente.
18 Complejidad y auto-organización de patrones naturales

•  El mecanismo fundamental de aparición de las propiedades


emergentes y la complejidad de un sistema se basa en la
ocurrencia de bifurcaciones que se deben a la existencia de
fluctuaciones microscópicas y que conducen a la auto-organi-
zación espacio/temporal fuera del equilibrio termodinámico.
Las bifurcaciones en los sistemas dinámicos desempeñan
el mismo papel que las transiciones de fase en la vecindad
del equilibrio termodinámico.

La Teoría de los Sistemas Complejos constituye la base teórica y la


herramienta práctica para explicar la complejidad que exhiben las
estructuras ordenadas cuya formación se debe a la naturaleza no lineal
de las interacciones de la colectividad y de los procesos de retroali-
mentación –feedback– internos. Dicha teoría, aún en pleno desarrollo,
integra varias disciplinas; entre ellas: la termodinámica de los procesos
irreversibles, la dinámica no-lineal y los métodos estocásticos.
La caracterización de los sistemas complejos se puede efectuar
mediante tres vías fundamentales:

1.  el estudio de la dinámica del sistema a través de la modelación


determinista o estocástica,
2.  la reconstrucción de la dinámica del sistema a través de las
series temporales, y
3.  la caracterización geométrica de los patrones espaciales y/o
temporales a través de la geometría fractal.

A diferencia de la termodinámica clásica, cuyo formalismo está


elaborado para sistemas que se encuentran en equilibrio termodiná-
mico, la Teoría de la Complejidad aborda el estudio de la dinámica de
los sistemas. Se puede decir que un sistema dinámico se representa
matemáticamente mediante un par ordenado (E, Tt), donde E es un
espacio apropiado, Tt es una familia de operadores –que pueden ser
continuos o discretos– y t es el tiempo. Si T posee la propiedad de su-
perposición, se está en presencia de un operador lineal, y viceversa.
El estudio de la dinámica de un sistema se puede realizar de diferen-
tes maneras:

1.  La evolución de los patrones temporales se obtiene a partir de


la solución de sistemas de ecuaciones diferenciales ordinarias
Introducción 19

(EDO) de primer orden donde las variables y los parámetros


son números reales:
dX
= F x (X , µ ). (1)
dt

En la ecuación (1) el vector X representa las m variables que


describen al sistema; por ejemplo, las concentraciones de las
especies químicas, una propiedad física específica. Fx es un
operador disipativo típicamente no lineal en X y µ es el vector
de los parámetros de control cuyo valor determina la cualidad de
la dinámica y por ende de la complejidad que exhibe el sistema.
La complejidad se caracteriza a partir del comportamiento
de las soluciones de la ecuación (1) en el espacio de fases ℜm de
dimensión m.
2.  Para el estudio de los patrones espaciales se emplean sistemas
de ecuaciones en derivadas parciales (EDP), también conocidos
como sistemas de reacción-difusión:
∂x
= F x ( x, µ ) + D
∆ 2
x. (2)
∂t

El primer término del miembro derecho de la ecuación (2)


representa la componente temporal y el segundo, la espacial.
D es el coeficiente de difusión y 2 es el operador de Laplace.
El trabajo seminal de Turing en 1952 estableció –como bases
de la morfogénesis– que la emergencia de los patrones en la
naturaleza se debe a la aparición de una bifurcación como
consecuencia del acoplamiento de los mecanismos de reacción-
difusión, lo que conduce a la ruptura de la simetría.
3.  La evolución de patrones temporales puede estudiarse de forma
discreta a través de las ecuaciones en diferencias o mapas; por
ejemplo, la parábola logística propuesta por R. May en 1976
para el estudio de la dinámica de poblaciones:

X n + 1 = rX n (1 − X n ). (3)

r es el parámetro de control que se asocia a las características del


sistema. En la figura 3a se muestra el diagrama de bifurcación
20 Complejidad y auto-organización de patrones naturales

que describe la dependencia de la solución de la ecuación (3)


en función del parámetro de control r. Según aparece en la
figura 3, la dinámica del sistema exhibe diferentes niveles de
complejidad: estado estacionario, oscilaciones periódicas y
oscilaciones aperiódicas. Este último es un comportamiento
conocido como caos determinista.

a. caos
1

0,8 bifurcación

0,6
X*

0,4 d. osilaciones aperiódicas (caos)

0,9
0,2
X 0,6

0 0,3
0 1,5 2 2,5 3 3,5 4 950 975 1 000
r tiempo

b. estado estacionario c. oscilaciones periódicas (ciclo límite)


1
0,5 0,75
X 0 X
-0,5 0,6
-1
500 1 000 950 975 1 000
tiempo tiempo

Figura 3. Detalles de la parábola logística: a. diagrama de bifurcación, b. estado


estacionario, c. oscilaciones periódicas y d. oscilaciones aperiódicas (caos determinista).
Fuente: elaboración propia.

4.  Cuando en una serie de procesos –fundamentalmente en


los biológicos– se retarda la respuesta dinámica del sistema,
para modelarlos se emplean las ecuaciones funcionales o con
retardo:
dx
= P ( x(t −τ )) − α x(t ). (4)
dt
Introducción 21

P y α son parámetros del sistema y τ es el tiempo de retardo


que habitualmente se selecciona como parámetro de control.
Por ejemplo, en estudios de inmunoterapia del cáncer, τ repre-
senta el tiempo de respuesta del sistema inmune.
5.  Como las fluctuaciones tienen un papel fundamental en la apa-
rición de la complejidad, para conocer la influencia de estas en
la dinámica del sistema se emplean los métodos estocásticos
para describirlas. Según estos, la variable que describe el es-
tado del sistema puede tomar un conjunto de valores posibles
con una determinada probabilidad que se asocia a cada uno
de ellos.2
6.  Generalmente no se dispone de primeros principios que hagan
posible la descripción de la dinámica del sistema mediante
ecuaciones matemáticas, según se ha visto en los numerales
anteriores, por lo que se hace necesario el uso de un conjunto
de métodos que permitan caracterizar la complejidad del siste-
ma y reconstruir su dinámica a partir de un comportamiento
temporal observado.3

Ilya Prigogine, quien obtuvo el Premio Nobel de Química en 1977, de-


mostró –sobre bases termodinámicas– que la formación de patrones,
es decir, la auto-organización espacio/temporal fuera del equilibrio
termodinámico, aparece debido a una bifurcación; y denominó a estos
patrones «estructuras disipativas».
Matemáticamente un sistema disipativo se caracteriza por que
la divergencia del flujo es menor que cero. Esto significa que el flujo
t
Φ se contrae en el espacio de fases de tal forma que, para t → ∞,
el volumen inicial V de ℜm se contrae al sub-espacio A de volumen
finito –comúnmente conocido como dimensión de Lebesgue– y cuya
dimensión D es menor; es decir, D es menor que m.

.Φ t < 0. (5)

Para un sistema que exhiba una dinámica del tipo caos determinista,
D es un número no entero que representa una dimensión fractal DF .
Es oportuno señalar que lo contrario no siempre es cierto; es decir,
2
Los detalles en relación a los mismos se ofrecen en el capítulo 3, «Aspectos esto-
casticos de la complejidad».
3
Este tema se aborda en detalle en el capítulo 4, «Series temporales».
22 Complejidad y auto-organización de patrones naturales

un patrón espacial cuya dimensión es fractal no necesariamente está


asociado a una dinámica caótica. No todos los patrones espaciales
considerados fractales o multifractales tienen una dimensión fractal
que no es entera.4 Lo común de todos ellos es que obedecen a leyes
de escala.
El carácter fractal de una estructura es el resultado de la com-
plejidad de los patrones formados y es equivalente a «congelar» la
dinámica en el tiempo. Por esta razón, la geometría fractal desarro-
llada por B.B. Mandelbrot en 1982 constituye una vía para estudiar
los patrones espacio/temporales.
Cuando el tiempo tiende a infinito el valor medio de la ecuación
(5) está dado por:
n
∇ .Φ ∞ = ∑λ i < 0. (6)
i =1

En la ecuación, λi representa los exponentes de Lyapunov y el


miembro derecho se conoce como el espectro de los exponentes de
Lyapunov. Estos miden la complejidad de la dinámica del sistema.
Si λi es negativo, dos trayectorias ligeramente separadas tienden a
converger; si λi es igual a cero, las trayectorias divergen linealmente;
y si λi es positivo, las trayectorias divergen exponencialmente. De
acuerdo con las expresiones (5) y (6), en un sistema disipativo el
espectro de los exponentes de Lyapunov es menor que cero y se
cumple que las trayectorias con condición inicial X0 son atraídas a
una región específica A del espacio de fase, como se muestra en la
figura 4.
Un sistema que exhiba caos o hipercaos se caracteriza por tener,
al menos, un exponente de Lyapunov positivo –caos– o dos expo-
nentes positivos –hipercaos–. El subespacio A es llamado atractor si
la trayectoria con condición inicial X0 puede ser atraída a un conjun-
to compacto Α en el espacio de fases. El equilibrio termodinámico
constituye un caso particular de atractor. La emergencia de los pa-
trones temporales puede exhibir diferentes niveles de complejidad,
desde oscilaciones periódicas hasta caos.

Se profundizará este tema en el capítulo 2, «Aspectos deterministas de la com-


4

plejidad».
Introducción 23

a. b. c.

d. e. f.

g. h. i.

Figura 4. Detalles de la complejidad de un sistema dinámico. Series temporales: a.


caos determinista, b. oscilaciones cuasiperiódicas, c. oscilaciones periódicas. Espacio
de fase, atractores: d. caótico, e. toro, f. ciclo límite. Espectro de potencias: g. múltiples
frecuencias, h. dos frecuencias de oscilación, i. una frecuencia de oscilación.
Fuente: elaboración propia.

Es una suerte que la complejidad emerja en las matemáticas y se ma-


nifieste en el arte. A través de relaciones matemáticas muy simples se
generan bellos patrones fractales como el conjunto de Julia (figura 5).
Este conjunto fue desarrollado a principios del siglo xx, durante el
estudio de las iteraciones de funciones complejas, por el matemático
al cual debe su nombre, y fue integrado por B.B. Mandelbrot en los
años ochenta dentro de lo que se conoce como geometría fractal.
24 Complejidad y auto-organización de patrones naturales

Figura 5. Conjunto de Julia.


Fuente: elaboración propia.

Por otra parte, la complejidad ha sido fuente de inspiración en la obra


creativa de figuras como Leonardo da Vinci o Katsushika Hokusai. El
propio Mandelbrot señaló que «Hokusai pintaba fractales». Ejemplos
de ambos artistas pueden encontrarse en la figura 6.

a. b.

Figura 6. a. Leonardo da Vinci: Tormenta (1513); b. Katsushika Hokusai: La gran ola en


Kanagawa (1823-1829).

También a través de la química se pueden generar hermosos patrones


complejos que exhiben un alto grado de artisticidad. Por ejemplo, al
Introducción 25

dejar evaporar una solución saturada de CuCl2.2H2O o de Na2SO4,


mezclada con agar agar al 2 % (P/V), se obtienen los patrones que
ilustran las obras de arte de la figura 7.

a. b.

Figura 7. a. Metamorfosis, solución saturada de CuCl2.2H2O mezclada con agar agar al 2


% (P/V) en proporción 1:1; b. Embelleciendo, solución saturada de Na2SO4 mezclada con
agar agar al 2 % (P/V) en proporción 1:1.
Fuente: Adaptado de Suárez-Domínguez (2009).

Para concluir, es necesario formular las siguientes consideraciones


epistemológicas relacionadas con el fenómeno de la complejidad:

1.  Surgió como un nuevo paradigma, con un carácter multidiscipli-


nar y unificador de las ciencias, desde las matemáticas hasta otras
manifestaciones de la sociedad.
2.  Nos indica que la ciencia, como una propiedad emergente de la
manifestación del arte, es parte inalienable de la cultura.

Literatura recomendada para un acercamiento al tema


Anishchenko, V.S. et al. (2007): Nonlinear Dynamics of Chaotic and Sto-
chastic Systems, Springer-Verlag, Berlin Heidelberg.
Barabási, A.L. y H.E. Stanley (1995): Fractal Concepts in Surface Growth,
Cambridge University Press.
Beck, C. y F. Schlögl (1993): Thermodynamics of Chaotic Systems: An
Introduction, Cambridge University Press.
Lloyd, S. (2001): «Measures of complexity: a nonexhaustive list», IEEE,
Control Systems, vol. 21, n.º 4, pp. 7-8.
Mandelbrot, B.B. (1982): The Fractal Geometry of Nature, W.H. Freeman
and Company, New York.
26 Complejidad y auto-organización de patrones naturales

Montero, F. y F. Morán (1992): Biofísica. Procesos de auto-organización en


Biología, EUDEMA S.A., Madrid.
Nicolis, G. (1995): Introduction to Nonlinear Science, Cambridge University
Press.
Nicolis, G. y C. Nicolis (2007): Foundations of Complex Systems. Nonlin-
ear Dynamics. Statistical Physics. Information and Prediction, World
Scientific Publishing Co. Pte. Ltd, Singapore.
Nicolis, G. y I. Prigogine (1977): Self-Organization in Nonequilibrium
systems, Wiley, New York.
__________ (1987): La estructura de lo complejo, Alianza Editorial, Madrid.
Prigogine, I. e I. Stengers (1994): La nueva alianza: metamorfosis de la
ciencia, Alianza Editorial, Madrid.
Ruelas, E.; R. Mansilla y J. Rosado (coords.) (2006): Las ciencias de la
complejidad y la innovación médica. Ensayos y modelos, Grama
Editora, México D.F.
Schuster, H.G. y W. Just (2006): Deterministic Chaos: An Introduction,
Wiley-VCH, Weinheim.
Suárez-Domínguez, E.J. (2009): «Embelleciendo» (fotografía), Ciencia y
Desarrollo, vol. 35, p. 39.
Volkenshtein, M.V. (1985): Biofísica, Editorial Mir, Moscú.
Von Bertalanffy, L. (1950): «An Outline of General System Theory»,
British Journal for the Philosophy of Science, vol. 1, pp. 134-165.

g
1. Termodinámica y complejidad
José Manuel Nieto-Villar

A theory is all the more remarkable the simpler it’s premi-


ses, the greater the diversity of the arguments to which it re-
fers and the wider and more varied its field of application.
For this reason I get the deepest impression from classical
thermodynamics. It is the only theory with a universal
content that I firmly believe will never be disproved.
A. Einstein

La complejidad que exhibe un sistema dinámico se debe a la auto-


organización espacial y/o temporal que se produce fuera del equilibrio
termodinámico que resulta de una bifurcación. Las bifurcaciones en
los sistemas dinámicos constituyen el análogo de las transiciones de
fase en la vecindad del equilibrio y son consecuencia de fluctuaciones
microscópicas que crecen y se amplifican a nivel macroscópico, por
lo que representan el mecanismo fundamental del origen de la auto-
organización fuera del equilibrio (Nicolis y Prigogine, 1977) y por ende
de la complejidad a nivel macroscópico (Nicolis y Daems, 1998).
De esta forma la termodinámica constituye el fundamento teórico
y una herramienta esencial en el estudio de la complejidad.

1.1. Entropía, información y complejidad


En 1948 Shannon formuló la entropía S-Shannon,1 y utilizó H
para simbolizar un proceso de Markov discreto, con probabilidades
«My greatest concern was what to call it. I thought of calling it “information”, but
1

the word was overly used, so I decided to call it “uncertainty”. When I discussed
it with John von Neumann, he had a better idea. Von Neumann told me, “You
should call it entropy, for two reasons. In the first place your uncertainty func-
28 Complejidad y auto-organización de patrones naturales

p1, p2, ..., pn. La ecuación resultante es la que se muestra en la expre-


sión (1.1).

S = -k ∑ p ln p .
i
i i
(1.1)

En la ecuación k es la constante de Boltzmann k B = 1,3806 x10 −23 J


K
y determina las unidades de la entropía. Si se elige k = 1 la unidad
ln 2
es el bit –binary digit– y se suele hablar de información promedio I.
La expresión (1.1) es estructuralmente semejante a la entropía de
Gibbs-Boltzmann, definida en la mecánica estadística (Rodríguez
Castellanos y Pérez Maldonado, 2002).
Las bases teóricas de dicha ecuación fueron desarrolladas de
forma independiente por Khinchin (1957). Si se considera que todos
los eventos tienen igual probabilidad a priori, ( pi = 1 ), entonces la
ecuación se rescribe: Ω

S = k ln Ω. (1.2)

Aunque esta otra ecuación (1.2) realmente fue obtenida por Planck, se
le conoce como la ecuación de Boltzmann y fue esculpida en su tumba
en Viena en 1906 (Terlietski, 1971; Gallavotti et al., 2008). La variable
Ω se conoce como complexiones o probabilidad termodinámica y re-
presenta el número de microestados compatibles con un macroestado
dado del sistema. A través de la ecuación (1.2) se verifica que en el
equilibrio termodinámico la entropía es máxima.
En 1976 Renyi (Jizba y Arimitsu, 2001) realizó una generalización
de la ecuación de Shannon conocida como la entropía de Renyi:
1  n q
S q (R ) =
(1 − q )
log2  ∑ p k .
 k =1 
(1.3)

q es un parámetro que está asociado con las características específi-


cas del sistema bajo estudio. Por ejemplo, en la dinámica de fluidos

tion has been used in statistical mechanics under that name, so it already has a
name. In the second place, and more important, nobody knows what entropy
really is, so in a debate you will always have the advantage”» (Tribus y McIrvine,
1971, p. 180).
1. Termodinámica y complejidad 29

q está relacionado con el número de Reynolds y, en los clusters de


percolación, con el umbral de percolación. La entropía de Renyi tiene
especial interés para la caracterización de patrones que exhiben
multifractalidad, como se verá en el próximo capítulo. Se puede
demostrar que en el límite, cuando q tiende a 1, la entropía de Renyi
se reduce a la de Shannon.
En 1967 Havrda y Charvat (Jizba y Arimitsu, 2001) obtuvieron una
expresión análoga a la ecuación (1.3) que fue popularizada por Tsallis
en 1988 (Tsallis, 1999):
 n
( p k )q − 1 .
1
S q (T ) = 
(1 − q )  k = 1 ∑ 
(1.4)

Sq(T) se conoce como la entropía de Tsallis. A pesar de que se puede


demostrar que para q(+) la entropía de Renyi es aproximadamente
igual a la de Tsallis, esta última no es aditiva. Ambas fórmulas –(1.3)
y (1.4)– son de especial interés en sistemas donde las interacciones a
largo alcance son significativas.
La entropía mutua promedio o redundancia Sxy (información Ixy)
(Abarbanel, 1996) es empleada para el estudio de la formación de patro-
nes temporales. Para una serie temporal de m variables (x1, ..., xm) con
sus correspondientes distribuciones de probabilidad Sxy , la entropía se
evalúa mediante la ecuación:

 pi , j ( xy ) 
S xy = k ∑p
i, j
i, j ( xy ) ln  .
 pi ( x ) p j ( y ) 
(1.5)

Sxy= 0 cuando los eventos son independientes. En 1986 Fraser y Swin-


ney sugirieron el uso de la información mutua para elegir el tiempo
de retardo τ –time delay– y reconstruir la dinámica del sistema a
partir de la serie temporal. Como señaló Farmer (Eubank y Farmer,
1989), la entropía mutua representa un test no lineal de independencia,
a diferencia de la función de correlación, que solo es válida en casos
lineales.
En 1959 Kolmogorov y Sinai (Kolmogorov, 1987) extendieron el
formalismo de Shannon a partir de considerar la variación temporal
de (1.1) en un proceso de Markov discreto, donde se realiza una par-
tición finita ζ ={ w1 , w2 , . . . , wn } del espacio de fases M. La entropía
30 Complejidad y auto-organización de patrones naturales

de Kolmogorov-Sinai hKS se evalúa considerando el supremum de la


variación de entropía por unidad de tiempo con respecto a todas las
posibles particiones ζ en el espacio de fases M, de tal forma que:

hKS = sup lim − 1 ∑p w1 , w2 , ... , wn ln pw1, w2 , ... , wn . (1.6)


ζ n ∞ n∆t
w1, w2 , ... ,wn

En 1977 Pensin (Schuster y Just, 2006) demostró que la entropía por


unidad de tiempo de Kolmogorov-Sinai hKS es igual a la suma de los
exponentes positivos de Lyapunov λ i :

hKS = ∑λ .
λi > 0
i (1.7)

Esta ecuación es conocida como la igualdad de Pensin y se utiliza para


caracterizar la complejidad de la dinámica de un sistema.
En 1976 Schnakenberg propuso una expresión equivalente a la
entropía de Kolmogorov-Sinai hKS. Si se toma en cuenta la variación
temporal de (1.1), se obtiene la velocidad de entropía para un proceso
de Markov mediante la ecuación:

 
∂  ∑ pi ln pi 
dS  i 
= -k , (1.8)
dt ∂t

donde ∂pi se relaciona con la siguiente ecuación maestra (Anishchenko


∂t
et al., 2007):

∑ [W (X−ν |X) p (X−ν , t )−W (X|X+ν ) p(X , t )].


∂p i
≡ ∂t p(X, t)= ρ ρ ρ -ρ -ρ
(1.9)
∂t ρ

Wρ ( A | B ) es la probabilidad de transición –por unidad de tiempo–


que determina que el estado del sistema cambie de A a B; p (A) es la
probabilidad de que el sistema se encuentre en el estado A al tiempo
t; ρ representa los procesos elementales que ocurren en el sistema y
ν ρ es el cambio en el vector de estado X que tiene lugar debido a la
1. Termodinámica y complejidad 31

ocurrencia del proceso ρ. Nótese que la ecuación maestra (1.9) se ha


escrito considerando que para cada proceso elemental ρ existe su in-
verso, -ρ , de tal modo que ν -ρ = -νρ . En el equilibrio termodinámico
se cumple el principio del balance detallado (Rodríguez Castellanos y
Pérez Maldonado, 2002), que se expresa de la forma:

( ) ( ) ( )
Wρeq. X − ν ρ | X p eq . X − ν ρ , t = W -eqρ . X | X + ν - ρ p eq . ( X , t ).

Al sustituir la ecuación (1.9) en la ecuación (1.8) se obtiene:


(
p X −νρ ,t )
∑ [Wρ (X−νρ|X)p (X−νρ ,t)−W-ρ(X |X+ν-ρ)p (X ,t)]ln
dS 1
= . (1.10)
dt 2 X, ρ p (X ,t)

Las ecuaciones (1.6) y (1.10) son formas equivalentes de la variación


temporal de la entropía fuera del equilibrio termodinámico y constitu-
yen una extensión del Teorema H de Boltzmann, válido en la vecindad
del equilibrio y desarrollado por L. Boltzmann en 1872 (Terlietski,
1971; Rodríguez Castellanos y Pérez Maldonado, 2002) para el estudio
de un gas diluido en términos de la función de distribución de las
coordenadas y velocidades de las moléculas.
El Teorema H de Boltzmann marcó un punto de viraje en la historia
de la física porque en él subyace la posible explicación de la irreversi-
bilidad de los procesos naturales. Como la ecuación varía cuando se
invierte el tiempo t, es decir, hay un cambio de t por -t (Terlietski, 1971),
el teorema representa la asimetría que se manifiesta en la naturaleza.
La explicación de la irreversibilidad sigue siendo un problema no
resuelto, que está relacionado con la dicotomía que existe entre la
irreversibilidad que se manifiesta a nivel macroscópico y la reversi-
bilidad a nivel microscópico. Ha transcurrido más de un siglo desde
que L. Boltzmann (1844-1906) se suicidara debido a la imposibilidad
de dar una respuesta coherente a este problema frente a los ataques de
Loschtmidt –paradoja de inversión de las velocidades– y de Zermelo-
Poincaré –teorema de recurrencia– (Terlietski, 1971). Una discusión
filosófica sobre el tema puede verse en Entropía y complejidad: el
problema de la irreversibilidad (Nieto-Villar y Quintana, 2004).
Quizás un camino intermedio para encontrar una explicación de
la relación entre la reversibilidad microscópica y la irreversibilidad ma-
croscópica es el que ha seguido la escuela de Bélgica de Th. de Donder
e I. Prigogine con los trabajos recientes de P. Gaspard y G. Nicolis sobre
32 Complejidad y auto-organización de patrones naturales

termodinámica mesoscópica (Gaspard, 2008; Nicolis, 2011), que será


brevemente expuesto en el acápite 3.4 del capítulo 3.
La entropía de un sistema –ecuaciones (1) y (3)– y la velocidad
total de entropía –ecuaciones (6), (7) y (10)– son utilizadas para ca-
racterizar la complejidad de los patrones espacio/temporales que se
observan en la naturaleza.

1.2. Termodinámica de procesos irreversibles


Th. de Donder (1872-1957) (Prigogine y Defay, 1967) estableció que
durante la evolución de un sistema la entropía dSs puede variar por
dos causas: el intercambio de entropía del sistema con los alrededores
(δ Se ) o el flujo y la creación de entropía (δSi ) que tiene lugar durante la
evolución del sistema, de tal manera que la Segunda Ley de la Termo-
dinámica se escribe:

dS S = δS e + δS i , (1.11)

donde el flujo de entropía se puede determinar mediante la ecuación:

δΦ
δS e = . (1.12)
T

donde δΦ es el flujo de calor y/o de sustancia, y(δ Se )puede ser positivo


si el sistema recibe entropía desde los alrededores; negativo, si cede
entropía; y cero, si está aislado. Por lo tanto, el postulado fundamen-
tal de la Segunda Ley se formula como δS i ≥ 0 y expresa el criterio
evolutivo de que los sistemas naturales crean entropía durante
su evolución (Prigogine, 1947). De este postulado se derivan los si-
guientes corolarios sobre la entropía, considerada como información:

1.  es diferente de la energía y se crea durante la evolución de un


sistema;
2.  tiene un carácter probabilístico;
3.  le impone un carácter irreversible a los procesos naturales ya
que se crea pero no se destruye;
4.  permite medir la complejidad de un sistema; y
5.  proporciona un sentido físico al tiempo.
1. Termodinámica y complejidad 33

Tal y como se planteó en el acápite anterior, todos los fenómenos a


nivel macroscópico son de naturaleza irreversible, porque durante
su evolución crean entropía o información que no se destruye. La
termodinámica de los procesos irreversibles (Kondepudi y Prigogine,
1998) se divide en dos grandes grupos: la termodinámica lineal (TL)
y la termodinámica no lineal (TNL); y se asienta sobre dos hipótesis
fundamentales: el equilibrio local y el cumplimiento de la ecuación de
Gibbs (De Groot y Mazur, 1962).
El sistema al que se hace referencia no está en equilibrio y es abier-
to porque intercambia energía, sustancia, información y sentido con
los alrededores (Quintana et al., 2005).
Para extender el formalismo termodinámico se debe introducir
como variable el tiempo t, de tal manera que la variación temporal
correspondiente a la ecuación de De Donder (Prigogine, 1955) se
escribe:

dS S δS e δS i
= + . (1.13)
dt dt dt

dS S . δS .
≡ S S es la velocidad de entropía del sistema, e ≡ S e es la velo-
dt dt
δS i .
cidad del flujo de entropía y ≡ S i es la velocidad de producción de
entropía. dt
El criterio evolutivo se reformula y generaliza con la expresión:

δS i .
≡ Si ≥ 0 . (1.14)
dt

En el equilibrio termodinámico,
. que es un caso particular de atractor,
se cumple que S i = 0 .
El objetivo fundamental de la termodinámica de los procesos
irreversibles es establecer un formalismo para evaluar .la velocidad
de producción de entropía (De Groot y Mazur, 1962). S i puede ser
calculada mediante la ecuación:
.
Si = ∑ Jk X k . (1.15)
k
34 Complejidad y auto-organización de patrones naturales

J k son los flujos generalizados y X k son las fuerzas generalizadas,


causa de la aparición de los flujos. Por ejemplo, una diferencia de
temperatura o de concentración –fuerzas– provoca un flujo de calor
o de sustancia, respectivamente. A partir del comportamiento de los
flujos y las fuerzas se establecen leyes causales conocidas como leyes
fenomenológicas que tienen un carácter lineal:

Jk = L kk X k . (1.16)

Los procesos en los que se cumple la dependencia lineal que aparece en


la expresión (1.16) se estudian a través del formalismo de la termodi-
námica lineal, de ahí su nombre. Nótese que el empleo de los términos
termodinámica lineal (TL) o termodinámica no lineal (TNL) está de-
terminado por la existencia de la igualdad (1.16) y no debe confundirse
con la linealidad o no linealidad de un sistema dinámico. Es decir, un
sistema dinámico no lineal puede describirse a través del formalismo
de la termodinámica lineal.
El coeficiente de proporcionalidad L kk se conoce como coeficiente
fenomenológico directo. Es interesante destacar que las leyes feno-
menológicas se establecieron mucho antes de que se formalizara la
estructura de la termodinámica lineal. En el cuadro 1.1 se resumen las
principales leyes fenomenológicas.

Cuadro 1.1. Resumen de las principales leyes fenomenológicas.


Ley Carácter
fenomenológica
Jk Lkk Xk 1 tensorial
Α
grad T Vector
Fourier: conducción Conductividad
Flujo de calor: Jq
del calor térmica: λ
Coeficiente de
Fick: difusión Flujo de sustancia: Jm grad C Vector
difusión: D
Ohm: conducción Conductividad
Flujo eléctrico: Ji grad V Vector
eléctrica eléctrica:
Newton: dinámica Flujo de cantidad Coeficiente de Tensor de
grad ϑ
de fluidos de movimiento: JP viscosidad: η segundo grado
1
Acción de masas: Velocidad de reacción No existe una
. Α
A Escalar
reacciones químicas ( ): Jchem relación lineal T
ξ
Fuente: Elaboración propia.
1. Termodinámica y complejidad 35

~
En la tabla, T , C , V , ϑ y A Α son temperatura, concentración, potencial
eléctrico, velocidad hidrodinámica y afinidad, respectivamente.
En un sistema puede que se acoplen procesos diferentes, de tal ma-
nera que es posible que algunos no ocurran de forma individual –lo
que no está permitido. por la Segunda Ley–. Por ejemplo, la síntesis
de la urea en el hígado S i ( U ) < 0 es un proceso que.ocurre en virtud de
su
. acoplamiento
. . la combustión de la glucosa S i ( Gla ) > 0 , ya que
con
S i (T ) = S i ( U ) + S i ( Gla ) > 0 . Esto ilustra una de las características
de los sistemas complejos: la emergencia de propiedades que no se
cumplen a nivel de las partes que los componen.
Para que dos o más procesos se acoplen deben cumplir con el Teo-
rema de Curie, que plantea que solo se pueden acoplar los procesos
que ocurren en la misma micro-región del espacio y según los cuales
las causas macroscópicas siempre tienen los mismos elementos de
simetría que los efectos que producen, lo que conduce a que en un
medio isotrópico fuerzas y flujos con diferente carácter tensorial no
se puedan acoplar (Onsager, 1931a, 1931b). Durante el acoplamiento,
la fuerza Xk provoca un flujo Jk y un flujo Jj debido a la aparición de un
efecto cruzado. Por lo tanto, la igualdad (1.16) se rescribe como:

Jj = ∑L
k
jk Xk . (1.17)

Para dos procesos hipotéticos que pueden ser descritos a través de


leyes fenomenológicas lineales y que se acoplan en virtud del Teorema
de Curie, se cumple que:

J 1 = L 11 X1 + L12 X 2
(1.18)
J 2 = L 21 X1 + L22 X 2 .

L11 y L22 son los coeficientes fenomenológicos directos y L12 y L21 se co-
nocen como los coeficientes fenomenológicos cruzados. En 1931 Lars
Onsager (De Groot y Mazur, 1962) demostró el Teorema de Onsager
a través del formalismo de la mecánica estadística: la matriz de los
coeficientes fenomenológicos es simétrica para una elección apropiada
de los flujos Jk y las fuerzas Xk:

L12 = L 21 . (1.19)
36 Complejidad y auto-organización de patrones naturales

La igualdad (1.19) se conoce como las relaciones recíprocas de Onsager.


A partir de las ecuaciones (1.15), (1.17),
. (1.18) y (1.19) se obtiene la
velocidad de producción de entropía S i :
.
S i = L11 X 12 + 2 L12 X 1 X 2 + L 22 X 22 ≥ 0 . (1.20)

La ecuación (1.20) representa una forma cuadrática para la velocidad


de producción de entropía, que es definida como positiva en virtud de
la Segunda Ley de la Termodinámica. Consecuentemente, de acuerdo
con el álgebra lineal, el valor de los coeficientes fenomenológicos se
encuentra restringido para que se cumpla la ecuación (1.20), en este
caso:

L11 > 0, L 22 > 0


(1.21)
4 L11 L 22 ≥ ( L12 + L 21 ) .
2

La condición (1.21) expresa que los coeficientes fenomenológicos di-


rectos siempre han de ser positivos, mientras que los cruzados pueden
tomar cualquier valor.
En los sistemas biológicos se verifican procesos en contra de los
gradientes; por ejemplo, el transporte activo que ocurre en contra de
los gradientes de concentración y de potencial eléctrico (Katchalsky
y Curran, 1965).
El caso característico es la bomba sodio-potasio, donde el flujo de
los iones de sodio está acoplado con la hidrólisis del ATP (trisfosfato
de adenosina). En este sistema el transporte de iones sodio tiene ca-
rácter vectorial, en el sentido de que es necesario especificar la direc-
ción del flujo. Así, se plantea que el flujo del ion sodio es de 5 mM por
minuto en una dirección perpendicular a la membrana celular y en
un sentido que va desde el interior de la célula al citoplasma, mientras
que la hidrólisis tiene carácter escalar; por lo que el acoplamiento de
estos procesos no debería ocurrir de acuerdo al Teorema de Curie.
Lo peculiar radica en el hecho de que la hidrólisis del ATP ocurre
con una cierta anisotropía asociada a la disposición anisótropa de
las membranas biológicas, de donde se deriva el principio de Curie-
Prigogine (Katchalsky y Curran, 1965): el acoplamiento entre proce-
sos de diferente carácter tensorial es posible si existe anisotropía del
medio.
1. Termodinámica y complejidad 37

La evolución de los sistemas dinámicos y, en especial, de los


sistemas biológicos, transcurre a través de estados estacionarios
(Katchalsky y Curran, 1965). Desde el punto de vista termodinámico,
un sistema que se encuentre en estado estacionario se caracteriza por
tener variables de estado que permanecen invariantes en el tiempo;
pero, a diferencia de cuando se encuentra en estado de equilibrio
termodinámico, se verifican flujos disipativos, lo que significa que la
velocidad de creación de entropía es mayor que cero. Otra caracte-
rística fundamental es que el sistema cede entropía al medio con la
misma velocidad con que esta se crea, de tal manera que:
. . .
S S = Se + Si = 0
. . (1.22)
S i ( ss ) = - S e ( ss ) .

Si en el sistema dinámico hipotético descrito por la ecuación


. (1.20) se
dejan variar libremente ambas fuerzas, se cumple que S i = 0 , lo que
se corresponde con el estado de equilibrio. Sin embargo, si mante-
nemos una de las fuerzas, por ejemplo X2, en un valor constante, el
sistema alcanza un estado correspondiente. a un valor mínimo de la
velocidad de producción de entropía S i ( ss ) ≠ 0 que se corresponde
con el estado estacionario. En este caso, se plantea que el estado
estacionario es de primer orden (De Groot y Mazur, 1962) porque
solo se mantiene constante una de las fuerzas. El orden de un estado
estacionario está definido por el número de fuerzas Xk que se conside-
ran constantes. De acuerdo con lo descrito, el Teorema de Prigogine
plantea que la velocidad de producción de entropía es mínima en el
estado estacionario (Glansdorff y Prigogine, 1971)..
Para X2= const, la condición de extremo para S i ( ss ) es obtenida a
partir de la expresión (1.20) y está dada por la igualdad:
.
(
∂ S i ( ss ) ) = 2L + 2 L12 X 2 = 0 . (1.23)
11 X 1
∂X 1
Aplicando la condición de mínimo a dicha igualdad se obtiene:
.
(
∂ 2 S i ( ss ) ) = 2L >0. (1.24)
11
∂ X 12
38 Complejidad y auto-organización de patrones naturales

La condición (1.24) demuestra la validez del Teorema de Prigogine


como principio extremal y, al mismo tiempo, asegura la estabilidad
del estado estacionario. Este teorema se conoce, junto con la con-
dición (1.21), como principio de producción mínima de entropía y
solamente es válido si se cumplen las relaciones lineales entre los
flujos y las fuerzas (1.16) y (1.17) (Prigogine, 1978) o, como se suele
decir también, cerca del equilibrio (Nicolis y Prigogine, 1977).
Gaspard (2007) demostró que la velocidad de producción de en-
tropía es igual a la suma de los exponentes de Lyapunov con signo
opuesto:
dS i
dt
=- ∑λ
k
k >0. (1.25)

De forma semejante a la igualdad de Pensin, la ecuación (1.25) consti-


tuye una generalización del formalismo termodinámico en la Teoría
de los Sistemas Complejos, porque lo relaciona con la dinámica no
lineal.

1.3. Extensión a los sistemas químicos y biológicos


En la actualidad existe gran controversia en relación al principio de
producción de entropía. De acuerdo con Bruers (2007), se pueden
mencionar, al menos, seis principios:

1.  Principio de mínima disipación cerca del equilibrio,


2.  Principio de producción mínima de entropía cerca del equi-
librio,
3.  Principio de producción máxima de entropía cerca del equili-
brio,
4.  Principio no variacional lejos del equilibrio de máxima produc-
ción de entropía,
5.  Principio variacional lejos del equilibrio de máxima producción
de entropía, y
6.  Optimización del principio de producción mínima de entropía.

A primera vista, seis principios parecen demasiados en una cien-


cia, más aún en la termodinámica, que ha conservado su prístina
pureza basada en dos principios fundamentales y cuando estos, al
parecer, presentan contradicciones entre sí. Sin pretender dilucidar
1. Termodinámica y complejidad 39

al detalle la validez de estos o las contradicciones esenciales o de


nomenclatura, se exponen de forma sucinta e ilustrando con ejem-
plos de aplicación a redes de reacciones químicas, algunas ideas que
podrían ayudar a entender el tema tratado.
Lo primero que hay que precisar es qué quiere decir cerca o lejos
del equilibrio. Cuando se emplea la expresión cerca del equilibrio, se
hace referencia a que es posible obtener relaciones lineales del tipo
que muestra la expresión (1.16), mediante un desarrollo en series
de Taylor en la vecindad del equilibrio, donde se desprecian los
términos superiores de la serie. Las reacciones químicas constituyen
un ejemplo ideal porque pueden ocurrir cerca o lejos del equilibrio
termodinámico.
. No existen relaciones lineales entre el flujo genera-
lizado ξ y la fuerza generalizada 1 A (cuadro 1.1); ambas exhiben
Α
T
una amplia gama de complejidad temporal espacial. Este formalismo
puede aplicarse también a los sistemas biológicos
.En este sentido, hay que recordar que las leyes fenomenológicas son
resultado de la experiencia y que no se pueden suponer porque el siste-
ma se encuentre cerca del equilibrio. En segundo lugar, el Principio de
Prigogine o de producción mínima de entropía se cumple ya que existe
una dependencia lineal entre los flujos y las fuerzas generalizadas, lo
que es independiente de que el sistema se encuentre lejos o cerca del
equilibrio.
En una red de reacciones químicas, a temperatura y presión
constantes, la producción de entropía (Moreno et al., 2009) se calcula
mediante la expresión:
1
δ Si = - dGTp . (1.26)
T
dGTp representa la variación de la energía libre de Gibbs a temperatura
y presión constantes. La variación temporal de la expresión (1.26)
representa la velocidad de producción de entropía:
. 1 dGTp
Si = - . (1.27)
T dt

Si el miembro derecho de la igualdad (1.27) se desarrolla aplicando


la regla de la cadena en función del grado de avance de la reacción ξ ;
entonces la ecuación (1.27) se rescribe:
40 Complejidad y auto-organización de patrones naturales

. 1 dGTp 1  ∂ GTp  dξ
Si = - =-   . (1.28)
T dt T  ∂ ξ  dt
 ∂G 
De acuerdo con De Donder y Van Rysselberghe (1936),  
 ∂ ξ  TP
representa la afinidad de la reacción
. A con signo opuesto y el término
dξ es la velocidad de reacción ξ .
dt
Por lo tanto, la expresión (1.28) se puede rescribir como:
. 1 .
S i = Aξ . (1.29)
T

La ecuación (1.29) permite evaluar la velocidad de producción. de entropía


en reacciones químicas en las que la velocidad de reacción ξ aparece en
calidad de flujo Jchem y la afinidad sobre la temperatura, 1 Α A, como
T
fuerza Xchem. La velocidad de producción de entropía tiene una gran
importancia teórica porque logra unificar el formalismo de la termodi-
námica clásica con el de la cinética química.
La afinidad puede ser evaluada a partir de la isoterma de la reacción
(Quintana et al., 2005) mediante la ecuación:
k
Α = RT ln K C − RT ∑ ν (k ) lnC
i =1
k

(1.30)
 KC 
= RT ln  ν (k )  .

 ∏ Ck 

kf
KC = es la constante de Guldberg-Waage; k f y kb son las constan-
kb
tes de velocidad específica de los pasos de reacción directo f e inver-
so b, respectivamente; Ck es la concentración de la especie k- ésima;
y v(k) son los coeficientes estequiométricos que se toman, por
convenio, como positivos para los productos y negativos para los
reaccionantes.
1. Termodinámica y complejidad 41

La fórmula (1.30) se puede expresar como:

 k f ∏ Cνk ((kf )) 
Α = RT ln  ; (1.31)
 k ∏ Cν (k ) 
 b k (b ) 

y la velocidad de reacción:
. . .
(
ξ = ξ f − ξb = kf) ∏
C νk (( kf )) − k b ∏ C (( )) .
ν k
k b (1.32)

. .
ξ f y ξ b son las velocidades del paso de reacción directo e inverso,
respectivamente. Sustituyendo las expresiones (1.31) y (1.32) en (1.29)
se obtiene:
.
. . . ξf
( )
S i = R ξ f − ξ b ln . ≥ 0 . (1.33)
ξb

La expresión (1.33) (Quintana et al., 2005) pone fin a la polémica


relacionada con el divorcio entre la termodinámica y la cinética.
Los viejos cánones aceptados planteaban que la termodinámica
solo se debía ocupar del equilibrio de la reacción y la cinética de su
velocidad. Para el caso de redes no lineales de reacciones químicas
–por ejemplo, reacciones oscilantes y caóticas–, se utiliza el valor
promedio de la ecuación (1.33) (Nieto-Villar et al., 1995, p. 30; García
et al., 1996, p. 643).
Si se retoma lo concerniente al principio de producción de entropía
se puede afirmar que la expresión (1.33) se cumple independientemen-
te de si la red de reacciones químicas está cerca o no del equilibrio,
y se demuestra que la expresión es una función de Lyapunov. Sobre esta
se ampliará en el siguiente capítulo (Nieto-Villar et al., 2003; Nieto-
Villar, 2006, p. 310). Si la velocidad de producción de entropía no se
utiliza como un principio extremal, entonces se verifica el principio de
máxima producción de entropía (Martyushev, 2010, pp. 1333-1334).
Para ilustrar las ideas relacionadas con la velocidad de producción
de entropía (1.33) como principio extremal o variacional, se tomarán
como ejemplos cuatro modelos de redes químicas complejas que
exhiben diferentes niveles de complejidad: estados estacionarios (ss),
oscilaciones periódicas –ciclo límite–, oscilaciones cuasi-periódicas,
42 Complejidad y auto-organización de patrones naturales

oscilaciones aperiódicas –caos– y el fenómeno conocido como crisis


(Kantz y Schreiber, 1997), según se muestra a continuación:2

•  Autocatalator (A) (Scott, 1991):


A x (A-1)
X y (A-2)
x + 2y 3y (A-3)
y B (A-4)
•  Brusselator (B) (Prigogine y Lefever, 1968, p. 1095):

A x (B-1)
B + x y + D (B-2)
y + 2x 3x (B-3)
x E (B-4)

•  Oregonator (O) desarrollado para la célebre reacción de


Belousov-Zhabotinsky (Field y Burger, 1985):

A + Y x + P (O-1)
x + Y 2P (O-2)
A + X 2x + z (O-3)
2y A + P (O-4)
Z ƒy (O-5)

•  Rössler (R) (Willamoswski y Rössler, 1980, pp. 317-318):


A + X 2x (R-1)
x + Y 2y (R-2)
B + Z 2z (R-3)
C + Y D (R-4)
x + Z E (R-5)

En la tabla 1.2 se muestran los resultados del cálculo de la velocidad de


producción de entropía para los modelos que exhiben diferentes grados
de complejidad.

Los detalles de las constantes de velocidad y los parámetros de control se pueden


2

ver en Nieto-Villar et al.,1995; García et al., 1996.


1. Termodinámica y complejidad 43
.
Tabla 1.2. Dependencia de Si en función de los parámetros de control (A y B).
Estado Autocatalator (A) Brusselator (B) Oregonator (O)
. . . .Rössler (R)
Si A Si A B Si A Si A
¹SSi 1,4 E-4 1,0 E-1 --------- --------- --------- 1,2 E-2 1,0 E-3 9,9 E + 3 75
CL 2,2 E-5 1,9 E-2 10 10 1,0E + 3 7,5 E-4 7,0 E-3 7,7 E + 3 54
Caos --------- --------- --------- --------- --------- --------- --------- 3,4 E + 3 30,5
Crisis --------- --------- --------- --------- --------- --------- --------- 1,6 E + 2 29
SSf 3,7 E-6 2,0 E-3 3,0 E-2 7,0 E-1 913 2,6 E-6 2,2 E-2 2,5 E + 1 15,7

Fuente: elaboración propia.


.
Según se observa, S i es la función de los parámetros de control, lo cual
se puede generalizar planteando que:
. .
Si = Si (µ ) ≥ 0 . (1.34)

μ representa el vector de los parámetros de control del sistema que


determinan la cualidad de la dinámica del sistema, es decir, de la com-
plejidad observada. La desigualdad (1.34) cumple con las condiciones
requeridas para ser una función de Lyapunov (Nieto-Villar, 1997, p. 93)
y, como condición suficiente, la derivada euleriana de (1.34) cumple
que:
. .
dS i ∂S i dµ
= ≤0. (1.35)
dt ∂µ dt

Por ejemplo, se observa que, para el caso del modelo de Rössler (tabla
1.2), el parámetro de control A es la concentración de una especie
reaccionante; por lo cual, durante el transcurso de la reacción,
dA
< 0 . Para que
.
se verifique la condición (1.35) debe cumplirse
dt
entonces que ∂S i > 0 .
∂A
En una serie de trabajos anteriores (Nieto-Villar, 1997; Nieto-
Villar et al., 2003; Nieto-Villar, 2006) se demostró formalmente que
la velocidad de producción de entropía es una función de Lyapunov.
Por otra parte, la expresión (1.35) está estrechamente vinculada con
la (1.25), ya que el espectro de los exponentes de Lyapunov depende
de los parámetros de control del sistema dinámico.
44 Complejidad y auto-organización de patrones naturales

En resumen, la extensión natural del Principio de Prigogine como


principio extremal o variacional para los sistemas complejos es posible
si se prueba la dependencia funcional de la velocidad de producción
de entropía con respecto a los parámetros de control del sistema.
Cuando no se utiliza el principio de producción de entropía como
un principio extremal, se verifica el principio de máxima producción
de entropía (Martyushev, 2010, pp. 1333-1334), para ilustrarlo
utilizaremos la célebre reacción de Belousov-Zhabotinsky. Este pro-
cedimiento lo extenderemos para el estudio del envejecimiento y
del crecimiento tumoral.
La reacción de Belousov-Zhabotinsky (BZ) constituye un ejem-
plo paradigmático de la auto-organización fuera del equilibrio
termodinámico (Field y Burger, 1985) y genera patrones temporales
y espaciales que exhiben una alta complejidad (figura 1.1). El meca-
nismo de dicha reacción fue inicialmente propuesto por Field (Field
et al., 1972; Edelson et al., 1975, p. 417) y posteriormente por Gyorgy
(Gyorgy et al., 1990), quienes lo extendieron a una red compleja
de 80 reacciones y 26 especies, conocida como modelo GTF. Me-
diante el análisis de sensibilidad de ecuaciones diferenciales estos
autores lograron reducir el mecanismo GTF de 80 a 42 reacciones
(Turanyi et al., 1993).

Figura 1.1. Patrones espaciales de la reacción de Belousov-Zhabotinsky.


Fuente: elaboración propia.
1. Termodinámica y complejidad 45

Aplicando el formalismo antes expuesto, en la fórmula (1.33), se logra


una mayor reducción del modelo GTF de 80 a 26 reacciones. Se postula
entonces que esas 26 reacciones constituyen los pasos dominantes de
la red, ya que exhiben la máxima producción de entropía (Rieumont
et al., 1997). De hecho, este mecanismo reducido no solo logra repro-
ducir los resultados experimentales de dicha reacción en un reactor
tipo batch, sino que predice la formación de patrones con una alta
complejidad –tipo hipercaos– y el fenómeno de crisis, no reportados
hasta ese momento para la reacción BZ (Nieto-Villar y Velarde, 2000,
p. 269) (figura 1.2).

a. b.

10
8x10 7

10 7x10 7
log Ce (IV)

6x10 7

10
Ce (IV)

5x10 7

10 4x10 7

3x10 7

10 2x10 7

1x10 7

0,00 400,oo 800,oo 800 850 900 950 1 000


t/s t/s

c. d.
3,0x10 4

2,5x10 4

2,0x10 4 1,5 E - 3
Ce (IV)

Ce (IV)

1,5x10 4
1,0 E - 3
1,0x10 4

5,0 E - 4
5,0x10 5

0,0 0,0 E + 0
0 500 1 000 1 500 6 000 12 000 20 000
t/s t/s
Figura 1.2. Series temporales de la reacción de Belousov-Zhabotinsky: a. estado estaciona-
rio, b. oscilaciones periódicas –ciclo límite–, c. oscilaciones aperiódicas –hipercaos–, y d. crisis.
Fuente: elaboración propia.

El formalismo termodinámico también puede aplicarse al estudio


de la complejidad de los sistemas biológicos, como por ejemplo a la
46 Complejidad y auto-organización de patrones naturales

comprensión del problema del envejecimiento (Nieto-Villar et al.


2003). El envejecimiento biológico –no referido a los aspectos sociales,
condiciones de vida, etcétera– es un proceso que per se exhibe una
alta complejidad y está asociado a la acción cooperada de múltiples
factores (Kirwood, 2011). De forma general, significa la aparición de
enfermedades degenerativas, tales como el cáncer, la ateroesclerosis,
las cerebro-vasculares y la demencia senil de Alzheimer.
De acuerdo con Zotin (1988), la velocidad de producción de entro-
pía en un sistema biológico puede ser evaluada mediante la ecuación:
. .
. qO + q Gl
Si = 2 . (1.36)
T
.
qO es la velocidad de consumo de oxígeno –tasa metabólica– y está
2 .
relacionada con los procesos metabólicos; y qGl representa la velocidad
de los procesos de glicólisis, que en el caso de los organismos aeróbicos,
excepto en las células tumorales (Gatenby y Gillies, 2004), puede ser
despreciable. De acuerdo con lo dicho, (1.36) se puede rescribir como:
.
. qO
Si ≈ 2 . (1.37)
T

En la figura 1.3 se muestra la dependencia de la velocidad de pro-


ducción de entropía en relación con la edad de la especie humana,
calculada a partir de los datos de la tasa metabólica basal (Nieto-Villar
et al., 2003, pp. 149-157). Se aprecia un comportamiento logístico y,
según se observa, la complejidad decrece con la edad, lo que demues-
tra que está asociada al envejecimiento (Tejera et al., 2007). Esta con-
clusión permite afirmar que la velocidad de producción de entropía
constituye una magnitud esencial, no solo para la determinación de
la complejidad de los patrones naturales, sino también para entender
su esencia.
El estudio del cáncer también ha sido abordado a través de la
Teoría de los Sistemas Complejos. En el capítulo 3 de este volumen
se verá un enfoque estocástico para describir los patrones espacio/
temporales que muestra esta enfermedad degenerativa. En general,
el cáncer es una forma genérica de denominar a un grupo de células
1. Termodinámica y complejidad 47

malignas que han perdido su especialización y control en relación


con las células normales. Este grupo de células malignas exhibe una
dinámica no lineal acompañada por múltiples procesos de retroali-
mentación que muestran una alta complejidad (Deisboeck et al., 2001),
robustez (Kitano, 2007, p. 137) y adaptabilidad (Rockmore, 2005)
que les permite auto-organizarse espacial y temporalmente lejos del
equilibrio termodinámico.
0,23
0,21
0,19
dSi/dt

0,18
0,16
0,14
0,12
0 10 20 30 40 50 60
edad/años
Figura 1.3. Dependencia de la velocidad de producción de entropía (1.37) en relación con
la edad de la especie humana.
Fuente: elaboración propia.

Luo (2009) demostró que la velocidad de producción de entropía de


las células tumorales es mayor que la de las células normales. El pro-
nóstico de la evolución de un cáncer resulta complicado ya que está
relacionado con la capacidad de proliferación de las células (o la agre-
.
sividad) –velocidad de crecimiento ξ –, la malignidad o la capacidad
de invasión, que, al parecer, está relacionada con la dimensión fractal
df del contorno rugoso (Norton, 2005).
Consecuentemente, considerando . la velocidad de crecimiento del
tumor que expresa la ecuación ξ = ψ − η (Brú et al., 2003), donde
ψ y η [L.t-1] son las velocidades
. de mitosis y apoptosis respectivamen-
te, y sustituyendo ξ en la fórmula (1.33), se obtiene que:
. ψ
S i ≈ R ( ψ − η ) ln . (1.38)
η

En un trabajo anterior (Izquierdo-Kulich y Nieto-Villar, 2007) se


demostró que la dimensión fractal df del contorno rugoso de las
48 Complejidad y auto-organización de patrones naturales

células tumorales está relacionada con las velocidades de mitosis ψ


y apoptosis η:

 ψ 
5−η 
df =  . (1.39)
 ψ 
1+ η 
 

Al sustituir (1.39) en (1.38) se obtiene:

. 5 −df 
S i = R ( ψ − η ) ln  . (1.40)
1+d 
 f 

La fórmula (1.40), destinada al cálculo de la velocidad de producción


de entropía de células tumorales, toma en cuenta las propiedades
fundamentales del cáncer que fueron mencionadas anteriormente.
Utilizando dicha fórmula se puede determinar la velocidad de pro-
ducción de entropía (Izquierdo-Kulich et al., 2011) de catorce líneas de
células tumorales in vitro (figura 1.4).

50

40

30
dS i /dt

20

10

0
Mv1Lu
AT5
B16
C-33a
VERO C
MCA3D
C6
HT-29
Car B
HT-29M6
3T3K-ras
HeLa
3T3
Saos-2

células tumorales

Figura 1.4. Velocidad de producción de entropía de catorce líneas de células tumorales.


Fuente: Adaptación de Izquierdo-Kulich et al. (2011).
1. Termodinámica y complejidad 49

La velocidad de producción de entropía, como principio no variacional


de máxima entropía, aparece como un indicador –hallmark– de la
robustez del cáncer que está asociado con la capacidad de pronóstico,
factor clave para perfeccionar las terapias del cáncer.

Palabras finales
So pena de haber omitido algún aspecto esencial de la termodiná-
mica y, por otra parte, debido a que por el propio alcance de este
volumen no es posible abordarlo todo, se reafirmó la sabia aserción de
Albert Einstein que sirve de epígrafe a este primer capítulo, dedicado
al estudio de la validez y solidez de los principios de la termodinámica.
A través de esta apretada síntesis se demostró que la termodinámi-
ca –que tuvo su origen en las máquinas térmicas– ha trascendido
hasta nuestros días, en que han cambiado los paradigmas y los retos
en campos tan diversos del saber como la química, la biología, la
medicina, la biotecnología y las nanociencias son aún mayores.
Aún queda mucho por hacer para entender la complejidad de
nuestra naturaleza, que nos ofrece en su esencia un paradójico esce-
nario a través de premisas muy sencillas. Según el profesor Germinal
Cocho –del Departamento de Sistemas Complejos del Instituto de
Física de la UNAM (México)–, la naturaleza elige las vías óptimas
y más simples para la realización de sus procesos esenciales, lo cual
conduce a la tesis de que para descubrir lo complejo, hay que buscar
en lo simple.

Bibliografía
Abarbanel, H.D.I. (1996): Analysis of Observed Chaotic Data, Springer-
Verlag, New York.
Anishchenko, V.S. et al. (2007): Nonlinear Dynamics of Chaotic and Sto-
chastic Systems, Springer-Verlag, Berlin Heidelberg.
Bruers, S. (2007): Classification and Discussion of Macroscopic Entropy
Production Principles, <http://arxiv.org/abs/cond-mat/0604482>
[3/5/2013].
Brú, A. et al. (2003): «The Universal Dynamics of Tumour Growth», Biophy-
sical Journal, vol. 85, pp. 2948-2961.
De Donder, Th. y P. Van Rysselberghe (1936): Thermodynamic Theory of
Affinity, Oxford University Press, London.
De Groot, S.R. y P. Mazur (1962): Non-Equilibrium Thermodynamics,
North-Holland Publishing Company, Amsterdam.
50 Complejidad y auto-organización de patrones naturales

Deisboeck, T.S. et al. (2001): «Pattern of Self-organization in Tumour


Systems: Complex Growth Dynamics in a Novel Brain Tumour
Spheroid Model», Cell Proliferation, vol. 34, pp. 115-134.
Edelson, D.; R.J. Field y R.M. Noyes (1975): «Mechanistic Details of the
Belousov-Zhabotinskii Oscillations», International Journal of Chemi-
cal Kinetics, vol. 7, p. 417.
Eubank, S. y J.D. Farmer (1989): «An Introduction to Chaos and Random-
ness», Lectures in the Sciences of Complexity, vol. II. E. Jen., Santa Fe
Institute Studies in the Sciences of Complexity, Redwood City, CA:
Addison-Wesley, 1990, pp. 75-190.
Field, R.J.; E. Koros y R.M. Noyes (1972): «Oscillations in Chemical Systems.
II. Thorough Analysis of Temporal Oscillation in the Bromated-cerium-
malonic acid System», Journal of the American Chemical Society, vol.
94, pp. 8649-8674.
Field, R.J. y M. Burger (1985): Oscillations and Traveling Waves in Chemi-
cal Systems, Wiley-Interscience, New York.
Fraser, A.M. y H.L. Swinney (1986): «Independent Coordinates for Stran-
ge Attractors From Mutual Information», Physical Review, vol. 33,
pp. 1134-1140.
Gallavotti, G.; W.L. Reiter y J. Yngvason (eds.) (2008): Boltzmann’s
Legacy, European Mathematical Society, Zürich.
Gaspard, P. (2007): «Time Asymmetry in Nonequilibrium Statistical Me-
chanics», en Special Volume in Memory of Ilya Prigogine: Advances in
Chemical Physics, vol. 135, Wiley, New York, pp. 83-133.
_________ (2011): «Fluctuation Theorem, Nonequilibrium Work, and Mo-
lecular Machines», en From Non-covalent Assemblies to Molecular
Machines, Wiley-VCH, Weinheim, pp. 307-311.
García, J.M.; J.M. Nieto-Villar y J. Rieumont (1996): «Entropy Produc-
tion Rate as an Evolutive Criteria in Chemical Systems. II. Chaotic
Reactions», Physica Scripta, vol. 53, p. 643.
Gatenby, R.A. y R.J. Gillies (2004): «Why do Cancer have High Aerobic
Glycolysis?», Nature Reviews Cancer, vol. 4, pp. 891-899.
Glansdorff, P. y I. Prigogine (1971): Thermodynamics of structure stabil-
ity and fluctuations, Wiley, New York.
Gyorgy, L.; T. Turanyi y R.J. Field (1990): «Mechanistic Details of the
Oscillatory Belousov-Zhabotinsky Reaction», The Journal of Physical
Chemistry, vol. 94, pp. 7162-7170.
Izquierdo-Kulich, E.; E. Alonso-Becerra y J.M. Nieto-Villar (2011):
«Entropy Production Rate for a Vascular Tumor Growth», Journal of
1. Termodinámica y complejidad 51

Modern Physics, n.o 2, pp. 615-620, <http://www.SciRP.org/journal/


jmp> [3/5/2013].
Izquierdo-Kulich, E. y J.M. Nieto-Villar (2007): «Mesoscopic Model
for Tumor Growth», Mathematical Biosciences and Engineering, vol.
4, pp. 687-698.
Jizba, P. y T. Arimitsu (2001): «The World According to Rényi: Thermody-
namics of Fractal Systems», Cornell University Library, <http://www.
arxiv.org/abs/cond-mat/0108184v1> [3/5/2013].
Kantz, H. y T. Schreiber (1997): Nonlinear Time Series Analysis, Cam-
bridge University Press.
Katchalsky, A. y P. Curran (1965): Non-Equilibrium Thermodynamics in
Biophysics, Harvard University Press, Cambridge.
Khinchin, A.I. (1957): Mathematical Foundations of Information Theory,
Dover Publications, Inc., New York.
Kirkwood, T.B.L. (2011): «Systems Biology of Ageing and Longevity»,
Philosophical Transactions of Royal Society, vol. 366, pp. 64-70.
Kitano, H. (2007): «Towards a Theory of Biological Robustness», Molecular
Systems Biology, vol. 3, January, <http://www.ncbi.nlm.nih.gov/pmc/
articles/PMC2013924/> [3/5/2013].
Kolmogorov, A.N. (1987): Teoría de la información y teoría de algoritmos,
Nauka, Moscú.
Kondepudi, D. y I. Prigogine (1998): Modern Thermodynamics, from Heat
Engines to Dissipative Structures, Wiley, New York.
Luo, L.F. (2009): «Entropy Production in a Cell and Reversal of Entropy Flow as
an Anticancer Therapy», Frontier of Physics in China, vol. 4, pp. 122-136.
Martyushev, L.M. (2010): «The Maximum Entropy Production Principle:
Two Basic Questions», Philosophical Transactions of Royal Society,
vol. 365, pp. 1333-1334.
Moreno, J.; L. Giraldo Gutiérrez y J.M. Nieto-Villar (2009): «Con-
ceptual Aspect of Chemical Thermodynamics», Physical Chemistry:
An India Journal, vol. 4, <http://tsijournals.com/pcaij/Vol4Issue2/
Abs03.htm> [3/5/2013].
Nicolis, G. (2011): «Transformation Properties of Entropy Produc-
tion», Physical Review, vol. 83, <http://link.aps.org/doi/10.1103/
PhysRevE.83.011112> [3/5/2013].
Nicolis, G. y D. Daems (1998): «Probabilistic and Thermodynamics Aspects
of Dynamical Systems», Chaos, vol. 8, pp. 311-320.
Nicolis, G. y I. Prigogine (1977): Self-Organization in Non-equilibrium
Systems, Wiley, New York.
52 Complejidad y auto-organización de patrones naturales

Nieto-Villar, J.M. (1997): «The Lyapunov Function in Chemical Systems»,


Anales de Química, n.o 4, pp. 215-218.
__________ (2006): «Toward a thermodynamic Theory of Complex Chemical
Reactions», Revista Cubana de Química, vol. 18, n.o 1, p. 310.
Nieto-Villar, J.M.; J.M. García y J. Rieumont (1995): «Entropy Produc-
tion Rate as an Evolutive Criteria in Chemical Systems. I. Oscillating
Reactions», Physica Scripta, vol. 5, p. 30.
Nieto-Villar, J.M. y R. Quintana (2004): «Entropía y complejidad: el
problema de la irreversibilidad», El Búho. Revista Electrónica de la
Asociación Andaluza de Filosofía, época II, año 2, n.o 2, enero-junio,
<http://www.aafi.filosofia.net/revista/el_buho/elbuho2/elbuho2.
htm> [3/5/2013].
Nieto-Villar, J.M., R. Quintana, J. Miquel y J. Rieumont (2003): «Ther-
modynamic Approach to the Aging Process of Biological Systems»,
Revista CENIC, vol. 34, pp. 149-157.
Nieto-Villar, J.M.; R. Quintana y J. Rieumont (2003): «Entropy Pro-
duction Rate as a Lyapunov Function in Chemical Systems: Proof»,
Physica Scripta, vol. 68, n.o 3, pp. 163-165.
Nieto-Villar, J.M. y M.G. Velarde (2000): «Chaos and Hyperchaos in a
Model of the Belousov-Zhabotinsky Reaction in a Batch Reactor»,
Journal of Non-Equilibrium Thermodynamics, vol. 25, p. 269.
Norton, L. (2005): «Conceptual and Practical Implications of Breast Tis-
sue Geometry: Toward a More Effective, Less Toxic Therapy», The
Oncologist, vol. 10, pp. 370-381.
Onsager, L. (1931a): «Reciprocal Relations in Irreversible Processes I», Physi-
cal Review, vol. 37, pp. 405-426.
__________ (1931b): «Reciprocal Relations in Irreversible Processes II», Physical
Review, vol. 38, pp. 2265-2279.
Prigogine, I. (1947): Etude Thermodynamique des Phenomènes irreversibles,
Thèses d´agregation de l´Enseignement supérieur de l´Université
Libre de Bruxelles, Dunod, Editeurs Paris y Editions Desoer Liège.
_________ (1955): Introduction to the Thermodynamics of Irreversible Pro-
cesses, Charles C. Thomas Publisher, Springfield.
_________ (1978): «Time, Structure, and Fluctuation», Science, vol. 201, pp.
777-785.
Prigogine, I. y R. Defay (1967): Chemical Thermodynamics, Longman, Lon-
don.
Prigogine, I. y R. Lefeve (1968): «Symmetry Breaking Instabilities in Dis-
sipative Systems II», The Journal of Chemical Physics, vol. 48, p. 1095.
1. Termodinámica y complejidad 53

Quintana González, R.; L. Giraldo Gutiérrez; J.C. Moreno Piraján


y J.M. Nieto-Villar (2005): Termodinámica, Ediciones Uniandes,
Universidad de Los Andes, Bogotá.
Rieumont, J.; J.M. Nieto-Villar y J.M. García (1997): «Rate of Entropy
Production as a Mean to Determine the Most Important Reactions
Steps in Belousov-Zhabotinsky Reaction», Anales de Química, vol.
93, pp. 147-152.
Rodríguez Castellanos, C. y M.T. Pérez Maldonado (2002): Introduc-
ción a la Física Estadística, Editorial Félix Varela, La Habana.
Rockmore, D. (2005): «Cancer Complex Nature», SFI Bulletin, n.o 20, pp. 18-
21.
Shannon, C.E. (1948): «A Mathematical Theory of Communication», The
Bell System Technical Journal, vol. 27, pp. 623-656.
Schuster, H.G. y W. Just (2006): Deterministic Chaos: an Introduction,
Wiley-VCH, Weinheim.
Schnakenberg, J. (1976): «Network Theory of Microscopic and Macro-
scopic Behavior of Master Equation Systems», Reviews of Modern
Physics, vol. 48, pp. 571-585.
Scott, S.K. (1991): Chemical Chaos, Clarendon Press, Oxford.
Tejera, E. et al. (2007): «Heart Rate Variability Complexity in the Aging
Process», Computational and Mathematical Methods in Medicine,
vol. 8, n.o 4, pp. 287-296.
Terlietski, Y.P. (1971): Física estadística, Editorial Científico Técnica, La
Habana.
Tribus, M. y E.C. McIrvine (1971): «Energy and Information», Scientific
American, n.o 224, September, pp. 178-184.
Tsallis, C. (1999): «Nonextensive Statistics: Theoretical, Experimental and
Computational Evidences and Connections», Brazilian Journal of
Physics, vol. 29, pp. 1-35.
Turanyi, T.; L. Gyorgy y R.J. Field (1993): «Analysis and Simplification of
GTF Model of the Belousov-Zhabotinsky Reaction», The Journal of
Physical Chemistry, vol. 97, pp. 1931-1941.
Willamoswski, K.D. y O.E. Rössler (1980): «Irregular Oscillations in a Re-
alistic Quadratic Mass Action System», Zeitschrift für Naturforschung,
n.o 35, pp. 317-318.
Zotin, A.I. (1988): Thermodynamic Principles and Reaction of Organisms,
Nauka, Moscú.

g
2. Aspectos deterministas de la complejidad
Juvencio A. Betancourt-Mar

Los modelos para describir los sistemas dinámicos pueden ser de dos
tipos: discretos y continuos. El modelo continuo es aquel que puede
representarse por medio de sistemas de ecuaciones diferenciales –o
flujo–. En estos sistemas dinámicos el tiempo puede subdividirse sin
límite y puede determinarse otro estado intermedio entre dos estados
cualesquiera. El modelo discreto se representa mediante mapas –o
ecuaciones en diferencias– en los que el tiempo entre dos estados
inmediatos es una constante y no puede subdividirse; no puede obte-
nerse un estado intermedio.
Un sistema dinámico continuo puede transformarse en uno discre-
to por medio de un mapa de Poincaré (Kuznetsov, 1998). Un sistema
discreto puede transformarse en un sistema continuo por medio del
método llamado «suspensión de un mapa» (Tufillaro et al., 1992).

2.1. Teoría cualitativa


La teoría cualitativa de ecuaciones diferenciales, desarrollada por H.
Poincaré a finales del siglo xix, permite conocer la estabilidad local
de los estados estacionarios de un sistema dinámico, y constituye per
se una extensión natural de la teoría de la estabilidad termodinámica
de estados fuera del equilibrio (Nicolis y Prigogine, 1977; Nicolis, 1995).
Una serie de estados consecutivos en un sistema dinámico recibe
el nombre de órbita o trayectoria. La órbita se puede representar como
una serie temporal por cada variable o grado de libertad, pero la mejor
forma de hacerlo es mediante el espacio fase. El espacio fase es la expre-
sión gráfica de los estados posibles de un sistema dinámico y para su
representación se toman como coordenadas las variables dependientes
o sus derivadas y se deja implícito el tiempo. En la figura 2.1 se muestra
56 Complejidad y auto-organización de patrones naturales

un ejemplo de una serie temporal y el espacio fase correspondiente


a una sola trayectoria.
a. b.
y
10 10
x
y

5
5

0
-5

-10
0 2 4 6 -10 -5 0 5 10
t x

Figura 2.1. Serie temporal y espacio fase: a. series temporales de las dos variables
dependientes de un sistema, b. espacio fase. La flecha indica la dirección temporal.
Fuente: elaboración propia.

En las figuras 2.2 y 2.3 hay otros ejemplos. Las dos representaciones de
la figura 2.4 son más completas porque muestran varias trayectorias.
a. b.
y
10 10

5 5
x

0 0

-5 -5
y

-10 -10
0 1 2 3 4 -10 -5 0 5 10
t X

Figura 2.2. Serie temporal y espacio fase: a. series temporales de las dos variables
dependientes de un sistema, b. espacio fase. En el centro aparece un punto fijo inestable.
Fuente: elaboración propia.
2. Aspectos deterministas de la complejidad 57

a. b.
y
10 10

x
5 y 5

0 0

-5 -5

-10 -10
0 2 4 6 8 10 12 14 -10 -5 0 5 10
t X

Figura 2.3. Serie temporal y espacio fase de una órbita periódica: a. series temporales
de las dos variables dependientes de un sistema, b. espacio fase.
Fuente: elaboración propia.

a. b.
y y
10 5

4
5

3
0
2

-5
1

-10 0
-10 -5 0 5 10 0 1 2 3 4 5
x x

Figura 2.4. Representaciones del espacio fase de dos sistemas con varias trayectorias. En
a. hay un punto fijo atractor en el centro; en b. hay un ciclo límite, estable, que rodea a un
punto fijo inestable.
Fuente: elaboración propia.

Mediante el espacio fase se pueden representar todas las órbitas, pero es


difícil. Por eso se acude a una forma simplificada. En los ejemplos se tuvo
en cuenta dos dimensiones; para tres se pueden usar proyecciones.
58 Complejidad y auto-organización de patrones naturales

Los sistemas dinámicos pueden tener comportamientos diferentes a


largo plazo, o sea, distintos niveles de complejidad; por ejemplo, puntos
fijos, órbitas periódicas, cuasiperiódicas, caos (Schuster y Just, 2006).

2.1.1. Puntos fijos


Los puntos fijos representan los estados estacionarios del sistema diná-
mico y se encuentran en los mapas al resolver la siguiente ecuación:

x = f (x). (2.1)

f(x) es la función que representa el mapa. En los sistemas continuos o


flujos los puntos fijos se obtienen cuando:

f (x)= 0. (2.2)

Según Lyapunov (Strogatz, 1994) los puntos fijos pueden ser estables
o inestables. Un punto fijo p es estable según Lyapunov si las órbitas
que inician en una vecindad A de p permanecen en la vecindad B de p,
donde A → B; si estas condiciones no se cumplen, p es inestable.
Un punto fijo p es asintóticamente estable en un mapa si, además
de cumplir el requisito de estabilidad, las órbitas parten de A:

f n ( x ) → p cuando n → ∞. (2.3)

La estabilidad de los flujos viene dada de forma equivalente a los mapas


cuando se cumple que:

F (x,t) → p cuando t → ∞. (2.4)

A los puntos fijos asintóticamente estables se les conoce como


atractores. Al conjunto de puntos x que cumplen la condi-
ción f n ( x ) → p cuando n → ∞ para un mapa, o la condición
F (x,t) → p cuando t → ∞ para un flujo, se les conoce como cuenca
de atractor.
La estabilidad de los puntos fijos puede obtenerse del siguiente
modo:

1.  Se evalúan en los mapas los autovalores de la matriz jacobiana de


f(x). Si el valor absoluto de todos los autovalores es estrictamente
2. Aspectos deterministas de la complejidad 59

menor que la unidad, el punto fijo es estable; si el valor absoluto


de algún autovalor es exactamente la unidad –sistema no hiper-
bólico–, este criterio no es útil para determinar la estabilidad.
2.  En el caso de los flujos se utiliza la matriz jacobiana de f(x). Si
las partes reales de los autovalores son estrictamente negati-
vas, el punto fijo es estable; si la parte real de algún autovalor
es exactamente cero –sistema no hiperbólico–, este criterio
no es válido para determinar la estabilidad.

2.1.2. Órbitas periódicas


La órbita de un sistema dinámico es periódica cuando tiene dos
estados idénticos en dos tiempos diferentes. Este comportamiento se
repite cuando se trata de un sistema determinista.
Una órbita periódica en un mapa se define mediante la igualdad:

f n (p ) = p. (2.5)

n es el menor número natural que cumple la ecuación y se conoce


como el período de la órbita. Eso quiere decir que, en la igualdad ante-
rior, la órbita es de período n. Si n = 1, se trata de un punto fijo.
Cuando se analiza un flujo, la definición se expresa mediante la
igualdad:

F(x,t) = F(x,t + T ). (2.6)

T es el menor número real positivo que cumple la ecuación anterior


y se le conoce como el período de la órbita, aunque su significado es
distinto en los mapas. El inverso 1/T es llamado frecuencia y común-
mente se representa como ω.
La órbita de un flujo puede convertirse en la órbita de un mapa por
medio de una sección de Poincaré. Un mapa de Poincaré (Strogatz,
1994) o sección de Poincaré es el producto de la reducción de la
dimensionalidad de un flujo por medio de una superficie de corte.
El conjunto de puntos de cruce de esta superficie, en una dirección
positiva o negativa, es el mapa de Poincaré. Para que este mapa sea
útil, la superficie de corte debe localizarse de modo que se maximice
el número de puntos de cruce; de manera que lo obtenido es la re-
ducción en una dimensión, al pasar de un flujo a un mapa, según se
muestra en la figura 2.5.
60 Complejidad y auto-organización de patrones naturales

x3

f(A)=B

A
S A
B

x1 Espacio fase x2

Figura 2.5. Mapa de Poincaré. La trayectoria cruza la superficie S en tres puntos en la


gráfica. Para confeccionar el mapa de Poincaré se seleccionan los puntos de cruce que
están en una misma dirección (A y B) –de arriba hacia abajo.
Fuente: elaboración propia.

Existen otros métodos para obtener mapas de los flujos; por ejemplo,
el mapa estroboscópico que se obtiene cuando se toman puntos para
tiempos iguales.
Un punto fijo de un flujo no tiene, de modo genérico, un mapa
de Poincaré. Una órbita periódica se transforma en un punto fijo –o
período-1– en el mapa de Poincaré; pero, si la órbita es más compleja,
puede resultar una órbita de período-2, período-3, y así sucesivamente.
Se puede evaluar la estabilidad según Lyapunov de las órbitas
periódicas en un mapa por medio de las matrices jacobinas de la
órbita si se calculan las matrices de cada estado de órbita –punto de
la trayectoria o alguna permutación cíclica– y se multiplican en ese
orden. Los valores absolutos de los autovalores de este producto son
el criterio a utilizar para determinar la estabilidad, exactamente igual
a como se procede cuando se trata de puntos fijos.
La estabilidad de los flujos se puede obtener por medio de los
multiplicadores de Floquet, que son los autovalores de la matriz ja-
cobiana del mapa del flujo de Poincaré (Kuznetsov, 1998). El criterio
de estabilidad que se adopta es el mismo que se usa cuando se trata de
los puntos fijos de los flujos. Las órbitas periódicas asintóticamente
estables son conocidas como ciclos límite (figura 2.4b). Para deter-
minar la estabilidad se puede emplear un método menos complejo:
2. Aspectos deterministas de la complejidad 61

el mapa de Poincaré. El procedimiento para el uso de este mapa es


igual al que se emplea para trabajar con otro cualquiera.

2.1.3. Variedades estables, inestables y sillas


Los autovalores de la matriz jacobiana de f(p), donde p es el punto fijo
de un mapa en ℜn, tienen asociados unos autovectores. El valor abso-
luto de algunos autovalores puede ser menor que la unidad y mayor
que la unidad. El conjunto de todos los autovectores asociados a un
autovalor, cuyo valor absoluto sea de alguno de los tres tipos mencio-
nados, constituye un subconjunto de ℜn, que se comporta como un
subespacio euclidiano; a este subespacio se le llama variedad. En el
caso de los mapas lineales, si la variedad corresponde a autovalores de
valor absoluto menores que la unidad, se habla de variedad estable; si
corresponde a los autovalores de valor absoluto mayores que la unidad,
se habla de variedad inestable. Una órbita que está situada dentro de
una variedad jamás sale de la variedad, es invariante.
En los mapas no lineales el espacio barrido por los autovectores
de los autovalores estables o inestables generalmente no constituye
la variedad estable o la inestable porque las trayectorias dentro de
los vectores pueden no permanecer en el conjunto de estos. Pero tales
variedades existen, sus direcciones en un punto fijo vienen indicadas
por los subespacios vectoriales marcados por los autovectores y tienen
la misma dimensión que dichos subespacios.
Las variedades pueden definirse en un mapa invertible –uno a
uno–: dado un mapa f(x): ℜn → ℜn, con un punto fijo p, la variedad
estable de este punto p es el conjunto de puntos x tales que f n (x) → p
cuando n → ∞. La variedad inestable de este punto p es el conjunto de
puntos x tales que f -n (x) → p cuando n → -∞.
En un sistema dinámico continuo también hay variedades estables e
inestables. Estas se definen de modo semejante a los mapas, y se deno-
minan separatrices porque separan grupos de trayectorias. Pero, como
se verá, es más interesante el estudio de las variedades de un mapa.1
Existen tres clases de puntos fijos: los que tienen variedades estables
–llamados puntos atractores o sumideros–, los que solo tienen varie-
dades inestables y son fuentes, y los que tienen variedades estables e
inestables. Cuando esos puntos tienen una variedad inestable, son con-
siderados inestables: no todos sus autovalores tienen un valor absoluto

No debe olvidarse que los flujos pueden reducirse a mapas.


1
62 Complejidad y auto-organización de patrones naturales

menor que la unidad. Sin embargo, cuando una dirección es estable, no


se consideran fuentes, sino sillas –como las sillas de montar.

2.1.4. La función de Lyapunov


A finales del siglo xix, Lyapunov –paralelamente a Poincaré– desa-
rrolló un método conocido como función de Lyapunov, que permite
conocer la estabilidad global de la dinámica de un sistema (Kuznetsov,
1998).
. Siendo p un punto fijo –estado estacionario– de un flujo
x = f (x), una función V(x) es llamada función de Lyapunov de p si
para alguna vecindad N de p se cumplen las siguientes condiciones:

a.  V(x)
. > 0 para toda x ≠ p en N y V(p) = 0; y
b.  V(x) ≤ 0 para toda x en N.
.
En una función estricta de Lyapunov se cumple que V(x)< 0 para toda
x en N. Si la función es estricta, es asintóticamente estable. No existe
una forma sistemática para encontrar una función de Lyapunov; esto
debe hacerse por tanteos, a partir de la experiencia. Por otro lado, en
sistemas físicos conservativos, la función de Lyapunov es equivalente
a la energía total del sistema.
Como se vio en el primer capítulo, la velocidad de producción de
entropía representa, de forma natural, desde la física, una función
de Lyapunov cuyo uso permite elaborar consideraciones sobre la
estabilidad global de un sistema dinámico y su carácter direccional; en
otras palabras, aporta criterios para valorar la evolución de un sistema.

2.2. Bifurcaciones
Desde la introducción de este volumen se ha insistido en que las bi-
furcaciones, como análogas de las transiciones de fase, constituyen el
origen de la complejidad. Formalmente una bifurcación (Strogatz, 1994;
Kuznetsov, 1998) es el cambio cualitativo de la dinámica de un sistema
al modificarse el valor del parámetro de control, lo que puede provocar
la aparición de un punto fijo o una órbita caótica y la transformación de
un punto fijo estable en uno inestable o en una órbita periódica.
A diferencia de las crisis –que son cambios bruscos (apariciones,
cambios de tamaño o desapariciones de atractores), que ocurren cuan-
do algunos atractores colisionan (Alligood et al., 1996)–, las bifurca-
ciones son cambios graduales en apariencia. Las bifurcaciones suelen
representarse en diagramas donde se muestra: 1) una variable contra
2. Aspectos deterministas de la complejidad 63

el parámetro de control, o 2) un parámetro de control contra otro. En


las figuras 2.7, 2.9, 2.10 y 2.11, aparecen diagramas del primer tipo;
en las figuras 2.25, 2.29 y 2.30, del segundo tipo.
Las bifurcaciones no genéricas son aquellas en las que una pertur-
bación cualquiera elimina la bifurcación. En los mapas hay dos tipos de
bifurcaciones genéricas:

1.  Bifurcación silla-nodo o bifurcación tangente: aparece o desapa-


rece un par de puntos fijos, uno de los cuales es una silla y el otro,
un nodo. En un mapa unidimensional no se ve una silla sino que
hay un punto inestable (figuras 2.6 y 2.7).
a. b. c.

Figura 2.6. Mecanismo de una bifurcación tangente en un mapa unidimensional. La


recta corresponde a y = x, mientras que la curva es f(x,a). El parámetro a varía continuamente.
En a. no hay punto fijo aún, en b. ocurre la bifurcación y aparece un punto fijo que atrae
órbitas que se inician a valores superiores. Finalmente, en c. el punto fijo se separa en
dos puntos: uno estable –punto relleno– y uno inestable –punto vacío.
Fuente: elaboración propia.

Figura 2.7. Ejemplo de un diagrama de bifurcaciones con bifurcación tangente: a es el


parámetro y x es la variable. Se observa que para algunos valores de a –valor crítico–
aparecen dos puntos: uno estable –línea sólida– y uno inestable –línea punteada.
Fuente: elaboración propia.
64 Complejidad y auto-organización de patrones naturales

2.  Duplicación de período: un punto fijo estable pierde estabilidad


y aparece una órbita periódica estable de período-2. De manera
similar puede ocurrir con la órbita de período-2: puede perder
estabilidad, hacer que aparezca una órbita de período-4 y así
sucesivamente (figuras 2.8 y 2.9).
a. b. c.

Figura 2.8. Mecanismo de bifurcación de duplicación de período en un mapa unidimensional.


La recta corresponde a y = x, mientras que la curva es f2(x,a). El parámetro a varía
continuamente. En a. hay un punto fijo estable, en b. ocurre la bifurcación y en c. tras
la bifurcación, el punto inicial es inestable, mientras que hay dos puntos fijos estables
nuevos. Estos dos puntos fijos estables de f2(x,a) constituyen una órbita de período-2
de f(x,a).
Fuente: elaboración propia.

Figura 2.9. Ejemplo de un diagrama de bifurcaciones con bifurcación de duplicación


de período: a es el parámetro y x es la variable. Se observa que, para algunos valores de
a –valor crítico–, aparecen dos puntos estables –líneas sólidas– que son una órbita
de período-2, y que un punto estable pasa a ser inestable –línea punteada.
Fuente: elaboración propia.
2. Aspectos deterministas de la complejidad 65

Estas bifurcaciones pueden ocurrir a la inversa; por ejemplo, puede


desaparecer una órbita de período-2 y un punto fijo inestable con-
vertirse en estable. No hay una dirección preferente de la variación
del parámetro de control para definir la bifurcación. Si al aumentar
el parámetro de control en una bifurcación desaparece una órbita
estable de período 2, entonces la disminución del parámetro hará que
aparezca la órbita estable. Pero los flujos también pueden mostrar tipos
de bifurcaciones iguales a los de los mapas. Hay que recordar que un
flujo puede reducirse a un mapa por medio de una sección de Poincaré
o algún otro método semejante, y que este tipo de bifurcaciones solo
puede estudiarse si se representa en mapas.
Los flujos pueden presentar otro tipo de bifurcación genérica; por
ejemplo, la de Andronov-Hopf (Murray, 2002), en la cual un punto fijo
se bifurca en órbitas periódicas. Este tipo de bifurcación se presenta
en dos modalidades:

1.  Bifurcación de Andronov-Hopf supercrítica: un punto fijo es-


table se vuelve inestable y aparece una órbita periódica estable
(figura 2.10).

Figura 2.10. Bifurcación de Andronov-Hopf supercrítica.


Fuente: elaboración propia.

2.  Bifurcación de Andronov-Hopf subcrítica: un punto fijo ines-


table se vuelve estable y aparece una órbita periódica inestable.
Esta órbita periódica puede sufrir una bifurcación silla-nodo
66 Complejidad y auto-organización de patrones naturales

en el otro extremo y, de esa manera, coexistir con una órbita


periódica estable.

2.3. Caos e hipercaos


Las bifurcaciones de período se dan de manera sucesiva y lo pueden
hacer geométricamente respecto al cambio del parámetro de control.
En el diagrama de bifurcaciones que aparece en la figura 2.11 se
muestra un ejemplo.

Figura 2.11. Ejemplo de un diagrama de bifurcaciones con una cascada de


bifurcaciones de duplicación de período.
Fuente: elaboración propia.

En este caso, se trata de la familia de mapas logísticos pero el com-


portamiento que se representa es común a muchos mapas y flujos.
Como se ve, las bifurcaciones se suceden con cambios cada vez más
pequeños del parámetro de control. De hecho, existe una constante
–la δ de Feigenbaum–, que es una razón que describe cómo disminu-
ye la distancia entre los valores del parámetro de control en una serie
de bifurcaciones de duplicación de período (Feigenbaum, 1980):
∧n+1 − ∧n
δ = lim .
(2.7)
n→∞ ∧ n+2 − ∧ n+1
2. Aspectos deterministas de la complejidad 67

Λi corresponde a los valores del parámetro de control en los cuales


ocurre cada una de las bifurcaciones en orden consecutivo. δ se puede
encontrar en familias de mapas unidimensionales y unimodales y en
flujos, con un mapa de Poincaré o uno equivalente que sea unimodal.
Las bifurcaciones de la figura 2.11 se suceden en correspondencia
con la razón que se muestra; rápidamente la órbita llega a ser de perío-
do infinito, es decir, es aperiódica. La aperiodicidad puede presentarse
en las llamadas órbitas cuasiperiódicas, en las cuales el espectro de
potencia muestra, al menos, dos frecuencias inconmensurables. Sin
embargo, las cascadas de duplicaciones de período no conducen a
este tipo de órbitas, sino a otro tipo llamadas caóticas. Una órbita
caótica, aunque es aperiódica, se distingue de una cuasiperiódica por
la sensibilidad a las condiciones iniciales en cada punto de la órbita.
Aunque dos trayectorias se inicien con condiciones iniciales cercanas,
se separan rápidamente con velocidad exponencial, y eso impide que se
puedan hacer predicciones después de cierto tiempo.
δ0 es la distancia entre los puntos x1 y x2. Trascurrido un tiempo
t, en la órbita de cada uno de estos puntos aparecen unos nuevos
puntos y la distancia entre ellos es δt. La separación exponencial entre
estos puntos está dada por la ecuación:

δ t ≈ δ 0 e λt . (2.8)

La constante λ es una medida de la separación exponencial y es cono-


cida como exponente de Lyapunov. Según el número de dimensiones
de un sistema, hay un número de exponentes de Lyapunov: uno para
cada dirección del espacio en la trayectoria. Los exponentes de Lyapu-
nov para un mapa se definen como (Ott, 1997):
1
λ ( x 0 , u 0 ) = lim ln Df n (x 0 ) . u 0 , (2.9)
n→∞ n
donde:

Df n ( x 0 ) = Df ( x n −1 ) . Df ( x n − 2 ) ... Df ( x 0 ). (2.10)

Df(xi) es la matriz jacobiana del mapa en el punto xi, y u0 es el vector


unitario de la dirección de desplazamiento de x0. Los exponentes de
Lyapunov para un flujo son los del mapa de tiempo-1 asociado –mapa
estroboscópico.
68 Complejidad y auto-organización de patrones naturales

Para un punto fijo, todos los exponentes de Lyapunov son negativos,


lo que implica que las órbitas se acercan exponencialmente. Si se trata
de la órbita periódica y estable de un flujo –un ciclo límite– el sistema
tiene que ser, al menos, de dos dimensiones, tener un exponente con
valor cero y los demás negativos para ser determinístico.
Los exponentes negativos son de la dirección normal a la órbita,
mientras que el exponente nulo es de la dirección tangencial a la ór-
bita. Cuando una órbita es perturbada momentáneamente, de modo
que se aleja del ciclo límite, tiende a regresar a él; cuando es pertur-
bada en dirección tangencial, de modo que se adelanta o se atrasa,
permanece así, y se dice que cambia su fase.
Nótese en la figura 2.12 que las direcciones no son fijas sino que
cambian a lo largo de la trayectoria.

a. b.

Figura 2.12. Direcciones del movimiento en un ciclo límite. En a. se muestra la dirección


normal que dan los exponentes de Lyapunov negativos y en b. está la dirección
tangencial al ciclo límite que da un exponente de Lyapunov con valor cero.
Fuente: elaboración propia.

Cuando se trata de una órbita caótica en un flujo disipativo, un ex-


ponente de Lyapunov es positivo, otro nulo y los demás negativos.
El exponente positivo corresponde a la dirección de la expansión y
los negativos hacen que la órbita sea un atractor. Es muy conocido que se
necesitan, al menos, tres dimensiones para que haya un flujo porque,
según el Teorema de Poincaré-Bendixson, con menos dimensiones
los comportamientos dinámicos son de puntos fijos y ciclos límite
únicamente.
Dos ejemplos muy conocidos de atractores caóticos son el atractor
de Rössler y el atractor de Lorenz. El sistema de Lorenz se representa
mediante las igualdades siguientes (Lorenz, 1963):
2. Aspectos deterministas de la complejidad 69

.
x = σ ( y − x)
.
y = - x z+r x − y
.
z = x y− b z . (2.11)

Los valores de los parámetros que se muestran en la figura 2.13b son:


σ = 10, b = 8/3 y r = 27.
El sistema de Rössler (1976) es el que representan las igualdades
siguientes:
.
x = -y − z
.
y = x+ay
.
z = b + (x −c)z . (2.12)

El atractor se muestra en la figura 2.13a. Los valores de los parámetros


son: a = 0,1; b = 0,1 y c = 18.
a. b.

Figura 2.13. Atractores extraños: a. atractor de Rössler y b. atractor de Lorenz.


Fuente: elaboración propia.

Si hay más de una dirección de expansión, hay más de un exponente


positivo y, en ese caso, se habla de hipercaos. En un flujo debe haber al
menos cuatro dimensiones para que exista el hipercaos.
En cuanto a los mapas, no existe una dirección neutra en las órbitas
caóticas y el exponente de Lyapunov no es nulo. Si se hace una sección
de Poincaré del atractor de Rössler, se obtiene un conjunto de puntos.
En el gráfico fue eliminada la dirección tangencial que existía en el
flujo y solo quedó una dirección donde hay expansión y otra donde hay
70 Complejidad y auto-organización de patrones naturales

contracción. La de contracción es ahora la normal y la de expansión es


tangencial (figura 2.14).
-0,0
-0,2
-0,4
-0,6
-0,8
-1,0
-1,2
-1,4
-1,6
-1,8
-2,0
-4,5 -4,0 -3,5 -3,0 -2,5 -2,0 -1,5 -1,0

Figura 2.14. Mapa de Poincaré del sistema Rössler. Con 400 000 puntos de la integra-
ción numérica del flujo se obtuvieron casi 6 500 puntos del mapa de Poincaré.2
Fuente: elaboración propia.

Una dinámica caótica puede ser caracterizada por medio de algunos


parámetros; son definitivos los exponentes de Lyapunov y la consta-
tación de aperiodicidad. Si una órbita aperiódica tiene un exponente
positivo, se trata de una dinámica caótica; si tiene más de un expo-
nente positivo, se considera una dinámica hipercaótica.
H. Poincaré fue el primero en reconocer la existencia de la dinámica
caótica. Durante su estudio del problema de los tres cuerpos en mecá-
nica celestial –las soluciones de la interacción gravitacional entre tres
cuerpos– se dio cuenta de que existían los puntos de cruce entre una
variedad estable y una inestable. Las variedades estables e inestables
se presentan tanto en los flujos como en los mapas. Sin embargo, hay
una diferencia esencial: en los flujos no es posible que una variedad
se cruce con otra porque rompería el determinismo. En cambio, en
los mapas un punto cruce de las variedades no significa el cruce de
dos trayectorias. Debe tomarse en cuenta que un flujo puede trans-

Como se explicará más adelante, se hizo una reconstrucción del espacio fase por
2

medio de coordenadas de retardo.


2. Aspectos deterministas de la complejidad 71

formarse en un mapa y que, desde el punto de vista de los sistemas


dinámicos, es más fácil estudiarlo así porque se elimina información
innecesaria.
Las variedades van orientando las trayectorias próximas a ellas.
Una variedad estable se acerca al punto u órbita estable, mientras que
una inestable se aleja. ¿Qué pasa si hay un punto en que se cruzan
estas variedades? Supóngase que se tiene un punto fijo silla de un
mapa y la variedad estable se cruza con la inestable. Por definición,
estas variedades son invariantes: si una trayectoria está dentro de
una variedad, permanecerá en ella siempre. Se deduce que: 1) si una
variedad estable se cruza en un punto con una inestable –en este
caso un punto homoclínico porque ambas variedades pertenecen a
la misma silla–, lo hará en un infinito de puntos más, hasta formar
una estructura llamada enredo homoclínico; 2) una trayectoria que
pase por un punto homoclínico deberá seguir hacia adelante o hacia
atrás en puntos homoclínicos, y 3) si un punto de una trayectoria se
encuentra en las dos variedades, la trayectoria entera debe estar en las
dos variedades (Ott, 1997).
Este enredo homoclínico conduce a un comportamiento de alar-
gamiento y doblado de las trayectorias. S. Smale demostró (Hirsch
y Smale, 1974) que la existencia de puntos homoclínicos implica la
existencia de una herradura. El mapa de la herradura de Smale, cuya
etapa básica se muestra en la figura 2.15, tiene la peculiaridad de hacer
un mezclado. Dos puntos cercanos pueden ser separados rápidamente
después de unas etapas.
a. b. c. d.

Figura 2.15. Mapa de la herradura de Smale. Se inicia con un cuadrado en ℜ2: a. el


cuadrado se alarga en una dirección y se estrecha en otra, b. el cuadrado se dobla por la
parte central, c. el cuadrado se empalma sobre el cuadrado original, y d. la intersección
entre el cuadrado y la herradura es el resultado del mapeo.
Fuente: elaboración propia.
72 Complejidad y auto-organización de patrones naturales

En la figura 2.16 se puede ver el mecanismo de este mapa en una silla y


un punto homoclínico. Recuérdese que, como hay un número infinito
de puntos homoclínicos, debe haber un número infinito de estas herra-
duras y su efecto se reparte por todo el espacio cubierto por el enredo
homoclínico. Este mecanismo es la causa del comportamiento caótico.

Figura 2.16. Mapa de la herradura en una silla y un punto homoclínico. El punto


fijo es el punto relleno, el vacío es el homoclínico. Hay un rectángulo que engloba al
punto homoclínico y que, debido a la variedad estable, es comprimido y estirado por
la variedad inestable para formar un cuadrado alrededor del punto fijo. El cuadrado es
alargado en la dirección de la variedad inestable y comprimido en la dirección de
la estable hasta que una de sus partes queda sobre el punto homoclínico. Se ve el
mismo efecto de la herradura de Smale.
Fuente: elaboración propia.

El mapa de la herradura que se mostró en la figura 2.16 tiene una es-


tructura geométricamente complicada. Para describir esta estructura
y sus propiedades hace falta auxiliarse de la geometría espacial y de la
geometría fractal que fue desarrollada por B.B. Mandelbrot (1983).

2.4. Geometría fractal


Para definir lo que es un fractal es necesario conocer el concepto de
dimensión fractal y su diferencia con la dimensión topológica. Un
punto no puede ser dividido de ningún modo porque tiene dimensión
topológica cero. Una curva puede ser cortada en dos con un solo punto
situado en ella. Una curva es de dimensión 1 cuando basta un objeto de
dimensión cero para cortarla en dos partes (figura 2.17).
2. Aspectos deterministas de la complejidad 73

a. b.

Figura 2.17. Dimensión topológica. La curva que se representa en el inciso a. es de


dimensión 1 porque un punto de dimensión 0 puede dividirla en casi cualquier posición,
excepto en los extremos (el punto se ha exagerado para que sea visible). De manera similar
ocurre en el inciso b. para el conjunto plano, porque una curva puede dividirlo en dos.
Fuente: elaboración propia.

Un objeto plano solo puede ser dividido en dos por una curva, nunca
por un punto. Si la curva que lo divide es de dimensión 1, el objeto
plano es de dimensión topológica 2. Si una esfera puede dividirse
en dos con un cuadrado –plano–, pero no con una curva, entonces
es de dimensión topológica 3, y así sucesivamente. Las dimensiones
topológicas son números enteros no negativos.
La dimensión fractal es también llamada de Hausdorff-Besicovitch,
puede ser fraccionaria y es difícil de calcular. Sin embargo, hay otras
definiciones de dimensión fractal más sencillas de comprender y
calcular cuyos valores son semejantes a las de Hausdorff-Besicovitch.
Una de ellas es la de conteo de caja o dimensión capacidad.
La curva presentada en la figura anterior puede ser medida si se
compara con segmentos de recta que sean de la misma dimensión
topológica (figura 2.18).
Regla

Figura 2.18. Medición de una curva con segmentos de recta.


Fuente: elaboración propia.
74 Complejidad y auto-organización de patrones naturales

El procedimiento consiste en determinar cuántas veces N cabe el seg-


mento básico en la curva. Si el segmento es la unidad, la medida sería:

M≈ N ε . (2.13)

Para lograr que la medida sea mejor, es necesario que ε sea menor. El
proceso se puede llevar al límite para tener la medida exacta:

M = lim Nε . (2.14)
ε→0

Para medir un conjunto bidimensional con un segmento de recta hay


que usar un número infinito de segmentos que cubran el conjunto.
Esta medida no es satisfactoria para un conjunto bidimensional por-
que en esos casos es más apropiado usar como unidad de medida un
conjunto que tenga igual dimensión topológica.
En este caso la medida se puede obtener si se compara con un
cuadrado (figura 2.19).
Regla

Figura 2.19. Medición de un conjunto bidimensional con cuadrados.


Fuente: elaboración propia.

Como el cuadrado es bidimensional, su magnitud natural –el área–


es ε 2. La medida sería:

M = l i m Nε 2. (2.15)
ε →0

Si para medir en la curva se hubiese utilizado un cuadrado, la medida


sería cero. Si se seleccionara un conjunto tridimensional se obtendría
un resultado semejante: hay que ocupar un objeto básico de igual di-
mensión tipológica, quizás un cubo, y la medida unitaria es ε3, donde
ε es la arista del cubo.
2. Aspectos deterministas de la complejidad 75

M = l i m Nε 3. (2.16)
ε→0

Si se usara un cuadrado o una regla lineal, se obtendría una medida


infinita, que no es válida. Si se hubieran usado cubos para medir el
conjunto bidimensional, la medida sería cero. De aquí se deduce que
la medida de cualquier conjunto puede ser:

M = lim Nε D 0. (2.17)
ε→0

D0 es la dimensión fractal. Si despejamos D0 y consideramos los límites,


la dimensión de conteo de caja es:

ln( N )
D 0 = lim . (2.18)
ε→0 ln( 1/ ε )

La definición dada por Mandelbrot plantea que un fractal es un con-


junto cuya dimensión fractal es estrictamente mayor que su dimensión
topológica (Mandelbrot, 1983).
El conjunto de Cantor es, quizás, el conjunto fractal más sencillo y
el más antiguamente conocido (figura 2.20).

a. Inicio con un segmento de recta

b. Se elimina el tercio medio del segmento

c. Se repite el proceso con los segmentos residuales

d. El proceso continúa indefinidamente

Figura 2.20. Construcción del conjunto de Cantor del tercio medio. Se ven delineadas las
primeras etapas de la construcción. El conjunto de Cantor es el límite de este proceso.
Fuente: elaboración propia.

La dimensión fractal del conjunto de Cantor es fácil de calcular. Si en


el conjunto de Cantor el segmento original mide 1 –suponiendo que
se escoge como unidad de medición un segmento de 1/3–, se obtiene
una medición del conjunto de Cantor de 2 x (1/3). En la figura 2.21
se ilustra lo dicho: se empalmó dos veces sobre la primera iteración
76 Complejidad y auto-organización de patrones naturales

del conjunto de Cantor pero puede hacerse de manera similar en


cualquier otra etapa del proceso.

Figura 2.21. Medición del conjunto de Cantor con ε = 1/3. El resultado sería 2/3.
Fuente: elaboración propia.

Por lo tanto, N = 2 cuando ε = 1/3. Si ε = 1/9, entonces N = 4, y así sucesi-


vamente: N = 2a cuando ε = 1/3a. La expresión que se obtiene es:

D 0 = lim
( ) = lim ln(2 )
ln 2 a a
= lim
a ln(2 )
ε→0 1 ε ln(3 )
→0 a ε→0 a ln(3)
ln 
 1a 
3 
ln(2 )
D0 = ≈ 0 ,6309
ln(3)

La dimensión fractal es un número real y, en este caso, no es un núme-


ro racional. Cuando se trata de un conjunto de puntos, la dimensión
topológica es cero; por lo que la dimensión fractal, como era de espe-
rarse, es mayor que la topológica.
El más famoso de los fractales simples es el triángulo de Koch. En
la figura 2.22 se muestran las primeras seis etapas de lo que sería un
proceso infinito para generarlo.
1. 2. 3.

4. 5. 6.

Figura 2.22. Primeras seis etapas de construcción del triángulo de Koch.


Fuente: elaboración propia.
2. Aspectos deterministas de la complejidad 77

Este fractal sirvió a Mandelbrot de modelo para una costa porque


el triángulo de Koch es una curva unidimensional. Sin embargo, no
se puede hacer uso de un segmento de recta para medir su longitud
porque el tamaño y la longitud del segmento son inversamente propor-
cionales. La dimensión fractal de este conjunto no es 1 y eso se puede
demostrar mediante un cálculo simple.
Para los fractales que se construyen recursivamente puede utili-
zarse una versión simplificada de la fórmula de la dimensión fractal, la
llamada dimensión similaridad (Mandelbrot, 1983):

ln(N )
D= . (2.19)
1 
ln  
r 
N es el número de partes similares y r es la razón de similaridad.
Para utilizar la fórmula se deben tener en cuenta las etapas de
construcción del fractal. Al pasar de una etapa a otra, una sección del
conjunto aparece multiplicada varias veces, pero en tamaño más pe-
queño. Obsérvese en el triángulo de Koch que cada lado del triángulo
sufre la misma transformación (figura 2.23).

Figura 2.23. Generación del triángulo de Koch. Cada lado del triángulo sufre
consecutivamente una transformación.
Fuente: elaboración propia.

El segmento original se transforma en una figura que, en realidad,


consta de cuatro segmentos de recta unidos; cada uno mide un tercio
del tamaño del segmento original. En todos ocurren los mismos cam-
bios, de una etapa a otra, de manera que N = 4 y r = 1/3. Por lo tanto, la
dimensión fractal del triángulo de Koch queda definida por:
ln (4 ) ln( 4 )
D0 = = ≈ 1 ,2319 .
1 ln( 3)
ln 1 
3
78 Complejidad y auto-organización de patrones naturales

Al tratarse de una curva la dimensión tipológica es 1.


Otro fractal interesante es la arandela de Sierpinski –o triángulo
de Sierpinski–. La dimensión topológica de este fractal es 1 porque
se trata de una curva; la dimensión fractal es de aproximadamente
1,5850 y puede construirse como se muestra en la figura 2.24.
1. 2. 3.

4. 5. 6.

Figura 2.24. Primeras etapas de construcción de la arandela –o triángulo– de Sierpinski.


Fuente: elaboración propia.

El triángulo de Sierpinski Este fractal tiene una conexión curiosa


con el de Pascal: si a este último se le eliminan los números pares, la
semejanza con el de Sierpinski es obvia.
En todos los ejemplos descritos se hizo mención a fractales re-
gulares: si se toma un subconjunto de ellos se encuentra el conjunto
original, lo que se conoce como autosimilaridad. No todos los fractales
son así, pero todos tienen la propiedad de que su dimensión fractal
es mayor que la topológica, conservan cierta autosemejanza y tienen la
misma complejidad a un infinito número de escalas.
Los atractores de Rössler y Lorenz también son fractales –por esto
se les llama atractores extraños–. Los resultados del cálculo de su
dimensión fractal fueron los siguientes: 2,05 (Lorenz) y 1,97 (Rössler)
(Alligood et al., 1996). Los métodos de cálculo que se pueden usar son
diversos. Se puede aplicar directamente la definición de dimensión
de conteo de caja en los algoritmos de cálculo o en imágenes bidi-
mensionales. Este método resulta demasiado ineficiente para sistemas
2. Aspectos deterministas de la complejidad 79

dinámicos, por lo que normalmente se utiliza la dimensión correlación


de Grassberger y Procaccia (1983):
ln C(ε )
D 2 = lim . (2.20)
ε →0 ln ε

C es la correlación integral y se define como:

∑ ∑ U (ε − x − x ),
n n
1
C (ε ) = lim i j (2.21)
n→∞ n2 i j= i

donde U(z) = 1 si z > 0 y U(z) = 0 si z ≤ 0.


Grassberger propuso una generalización de la dimensión fractal
(Grassberger y Procaccia, 1983) que es de especial interés para el estu-
dio de los multifractales.3 En resumen, la dimensión generalizada Dq
viene dada por la ecuación:

Sq ( R )
Dq = lim . (2.22)
ε →0
( ε)
ln 1

Sq (R) es la entropía de Renyi.4 A partir de la fórmula (2.22) se obtie-


nen, como casos particulares, tres dimensiones básicas: D0, D1 y D2
(Grassberger, 1983); cada una de ellas representa la dimensión fractal o
de conteo de caja D0 –fórmula (2.18)–, la dimensión informacional D1
( lim q→ 1 Dq ) y la dimensión de correlación D2 –fórmula (2.20)–. En el
caso de los fractales, las tres dimensiones son aproximadamente iguales,
mientras que en los multifractales se cumple que: D0 > D1 > D2.

2.5. Control y sincronización del caos


2.5.1. Control del caos: métodos de control externo y su aplicación
a la cronoterapia
El caos puede controlarse de varios modos conocidos, ya sea mediante
un control interno –con retroalimentación– o a través de un control
externo –sin retroalimentación–. En este último no se tienen en cuenta
los resultados de la aplicación del control, sino que la perturbación del

3
Al respecto, consúltese el capítulo 4, titulado «Series temporales».
4
Véase la fórmula (1.3) del capítulo 1.
80 Complejidad y auto-organización de patrones naturales

sistema, de cierto modo, se aplica a ciegas. Para emplear el otro tipo


de control –interno– es necesario observar la trayectoria del sistema
(Bocalleti et al., 2000; Andrievskii y Fradkov, 2003; 2004).
Un ejemplo de control externo sin retroalimentación es la aplicación
de una perturbación periódica al modelo de Rössler. Como resultado,
se obtiene un sistema no autónomo –el miembro derecho depende
explícitamente del tiempo– de ecuaciones diferenciales ordinarias
(EDO).
El sistema representado en (2.23) puede ser usado como modelo
teórico en la simulación de la cronoterapia (Betancourt-Mar et al.,
2005). Esta consiste en el acoplamiento del tratamiento médico a los
ritmos biológicos –cronobiología– y se ha usado con éxito para aten-
der diferentes tipos de patologías y, en especial, para tratar el cáncer
(Lévi, 2006).
En el sistema que representa la ecuación (2.23) la amplitud de la
perturbación d representa la dosis de un tratamiento y el período
T es el tiempo entre dosis; por tanto, 2πt/ T es la frecuencia de la
aplicación.
.
x = - (y + z )
2π t
y = x + ay + d s i n (2.23)
T
.
z = b + z( x − c ) .

Para decidir que T es más conveniente se determinó la frecuencia


fundamental por medio del espectro de potencia del sistema Rössler.
A pesar de que la dinámica caótica se puede observar que las os-
cilaciones tienen cierta regularidad promedio y que el espectro de
potencia muestra un pico principal. Usando la frecuencia funda-
mental (T0 = 6,066) se busca entonces una amplitud donde ocurra
un cambio en la dinámica (Betancourt-Mar et al., 2005).
Para construir un diagrama de bifurcaciones (Betancourt-Mar et
al., 2006; Betancourt-Mar y Nieto-Villar, 2006, p. 309) es mejor variar
T alrededor de T0 . Este tipo de enfoque fue utilizado anteriormente
para presentar las redes químicas que exhiben un comportamiento
oscilatorio (Salazar et al., 1998; 2003), y se comprobó que el sistema
se hace más robusto ante perturbaciones externas cuando aumenta
su complejidad.
2. Aspectos deterministas de la complejidad 81

En las áreas de tonos grises señaladas en la figura 2.25 se pueden


ver comportamientos periódicos.
18
17
16
15
14 D
13
12
11
C
10
9
8
7
6 B
5
4
3
A
2
1
0
0,25 0,50 0,75 1,00 1,25 1,50 1,75 2,00 2,25 2,50 2,75 3,00

period-1 period-2 period-3 period>3 chaos

Figura 2.25. Diagrama de bifurcaciones del sistema Rössler perturbado. Se varía la


amplitud d de 0 a 18 y el período T/T0 de 0,16 a 3,02. Los parámetros de control son
a = 0,1; b = 0,1 y c = 18.
Fuente: elaboración propia.

Como se muestra en la figura 2.26, el caso más drástico es el paso de


caos a período-1.5 Hay varias áreas de período-1 y de ellas B es la mayor.
Si se pretende un cambio en una enfermedad dinámica, por ejemplo, se

La periodicidad-k se determina con el mapa de Poincaré del sistema o con el


5

espectro de potencia.
82 Complejidad y auto-organización de patrones naturales

pasa de caos a período-1. El área B es la más apropiada porque permite


una mayor tolerancia de amplitud –dosis– y de frecuencia.
a.
Z
56

28
27,8
0,o
22,.8 1,6
-1,9
-26,7 -24,6 X
Y

b.
Z
157

78

0 32,9
14,1 7,6
-8,1
-30,2 -17,8
Y X

Figura 2.26. Control del caos externo. Mediante la aplicación de una perturbación
periódica de la frecuencia y amplitud apropiada una dinámica caótica (a.) puede
reducirse a una periódica (b.).
Fuente: elaboración propia.

Este tipo de caos en el sistema Rössler –llamado caos espiral– es más


sencillo de controlar por medio de este control externo, debido a la
regularidad de su dinámica, que es muy similar en sus propiedades
espectrales y de correlación a un oscilador armónico en presencia de
ruido (Anishchenko et al., 2003; 2004; 2005, p. 76). La trayectoria del
atractor espiral rota con gran regularidad alrededor de un punto fijo
silla y su espectro exhibe un pico estrecho que corresponde a la media
de la frecuencia de rotación.
Si se varía el parámetro a haciéndolo crecer, el comportamiento
caótico del atractor de Rössler cambia, en un valor crítico, a otro tipo
2. Aspectos deterministas de la complejidad 83

de caos –el embudo o tornillo–, que se asemeja a un proceso alea-


torio. La trayectoria del atractor embudo hace complicados bucles
alrededor de un punto fijo silla. Obsérvese que en la figura 2.27b
el comportamiento rotatorio es irregular y el espectro de potencia
no contiene picos agudos (figura 2.28b) (Anishchenko et al., 2003,
2004).

a. Espacio fase

Z
57,3

28,6

0,0 27,9
22,3 1,6
-2,0 X
Y -26,7 -24,6
b. Espacio fase
Z
327

163

0 39
27 3
Y -8 -44 -34 X

Figura 2.27. Dos tipos de caos: a. caos espiral; y b. caos embudo en el sistema Rössler.
Fuente: elaboración propia.

Como se muestra en el figura 2.27b, el atractor parece tener un embu-


do lateral. Este tipo de caos es más difícil de controlar pues, a medida
que aumenta el carácter embudo, se hace más resistente a cambiar su
dinámica (Betancourt-Mar y Nieto-Villar, 2007).
La dinámica del caos embudo se analizó de forma similar a como
se hizo para el caso del caos espiral, pero el período T0 se obtuvo del
espectro de potencia promediando secciones. A medida que crece a, las
áreas periódicas disminuyen hasta desaparecer del todo (figura 2.29).
84 Complejidad y auto-organización de patrones naturales

a. Espectro de potencia
amp
1,8
1,6
1,4
1,2
1,0
0,8
0,6
0,4
0,2 freq
0,0
0,00 0,01 0,02 0,03 0,04 0,05
b. amp Espectro de potencia
0,32
0,28
0,24
0,20
0,16
0,12
0,8
0,4 freq
0,0
0,00 0,01 0,02 0,03 0,04 0,05

Figura 2.28. Espectros de potencia de dos tipos de caos: a. caos espiral y b. caos
embudo en el sistema Rössler.
Fuente: elaboración propia.

El grupo de sistemas que se representa en (2.24) (Baier y Sahle, 1994)


constituye una generalización del sistema de Rössler:
.
x1 = - x2 + a x1
.
xi = xi − 1 − xi +1 (2.24)
.
x N = e + bx N ( x N − 1− d ) .

Estos sistemas tienen la particularidad de que, para N ≥ 4, con los


valores apropiados de los parámetros, tienen un comportamiento
hipercáotico; es decir, tienen N – 2 exponentes de Lyapunov positivos.
Se analizó un sistema de dimensión N = 5 para tratar de controlarlo
(Betancourt-Mar et al., 2010).
2. Aspectos deterministas de la complejidad 85

a. b. c.
22 22
21 21
20 20
19 19
5,7
18 18
5,4
17 17
5,1
16 16
4,8
15 15
4,5
14 14
4,2
13 13
3,9
12 12
3,6
11 11
3,3
10 10 3,0
9 9 2,7
8 8 2,4
7 7 2,1
6 6 1,8
5 5 1,5
4 4 1,2
3 3 0,9
2 2 0,6
1 1 0,3
0 0 0,0
0,25 0,25 0,25 0,25 0,25 0,25 5,51 5,91 6,31 6,71 7,11 7,51 6,04 6,71 7,39 8,07 8,74

period-1 period-2 period-3 period>3 chaos no attractor

Figura 2.29. Diagramas de bifucaciones del Rössler perturbado y con variación en un


parámetro. Se varía la amplitud d y el período T. Los parámetros de control son: b = 0,1
y c = 18. Los valores de cada régimen son los siguientes: para la primera imagen, a = 0,1
(régimen de caos espiral); para la segunda, a = 0,2 (régimen de caos embudo) y para la
tercera, a = 0,3 (régimen de caos embudo).
Fuente: elaboración propia.

Para un sistema de cinco dimensiones se cumple que, si a > 0,115,


la dinámica sin perturbar presenta dos exponentes positivos de
Lyapunov con dimensión de correlación de alrededor de 3; y, si
a ≈ 0,17, el sistema exhibe tres exponentes de Lyapunov positivos
(Meyer et al., 1997) y una correlación de alrededor de 4. Si a = 0,14,
el caso hipercaótico con dos exponentes positivos muestra una venta-
na periódica similar a las obtenidas en el sistema Rössler, aunque más
pequeña. Esta ventana existe todavía cuando a = 0,20 –el caso con
tres exponentes de Lyapunov positivos–, pero el área es una fracción
de la anterior.
86 Complejidad y auto-organización de patrones naturales

Aunque el control del hipercaos a órbitas periódicas fue más limitado,


el cambio de caos a hipercaos fue más fructífero. En la figura 2.30 se
muestra cómo, en una dinámica caótica de Baier de cinco dimensiones
–solo un exponente de Lyapunov positivo– se puede pasar, mediante
perturbaciones apropiadas, a una dinámica con dos exponentes de Lya-
punov positivos –hipercaótica– en un amplio espectro de amplitudes
y períodos. Estos estudios muestran que, cuando aumenta la comple-
jidad del sistema –oscilaciones periódicas, caos espiral, caos embudo
e hipercaos–, aumenta su robustez, en el sentido de que es más difícil
ejercer un control sobre el sistema y este mantiene su funcionalidad.
7,00

2,67

2,33

2,00
2,52 8,48 14,40 20,34 26,28 32,22

periodic chaos hyperchaos no attractor

Figura 2.30. Diagrama de bifurcaciones del sistema Baier de cinco dimensiones. Se


varía la amplitud M y el período T. El parámetro de control es a = 0,10. Se muestra el
número de exponentes de Lyapunov positivos: las órbitas periódicas dan 0, el caos da
1 y el hipercaos da 2. La zona blanca indica que hay un atractor y que las trayectorias
aparentemente se van al infinito.
Fuente: elaboración propia.
2. Aspectos deterministas de la complejidad 87

2.5.2. Métodos de control interno


Los métodos de control interno aprovechan el hecho de que dentro
de un atractor caótico existe un número infinito de órbitas periódicas
inestables incrustadas. Véase, por ejemplo, la figura 2.11 del diagrama
de bifurcaciones del mapa unimodal y la sensibilidad a las condiciones
iniciales: una pequeña perturbación puede hacer grandes cambios en
la trayectoria. Por último, debido a que la órbita caótica es una que no
es periódica y que está confinada a una región en el espacio, deberá
pasar tan cerca como se quiera de alguna de las órbitas periódicas
inestables, tan solo esperando un tiempo suficiente.
El más antiguo de los métodos de control interno es el de Ott-
Greborgi-Yorke (1990). Según este método, donde es esencial la ob-
servación de la dinámica del sistema, primero se deben determinar las
órbitas periódicas inestables que están incrustadas entre el conjunto
caótico; después se examina la localización y estabilidad de estas órbi-
tas y, por último, se elige la más apropiada para el control. Finalmente,
se aplica un pequeño control para estabilizar la órbita periódica. Este
consiste en modificar ligeramente el parámetro de control, de modo
que la trayectoria actual confluya a la variedad estable de la órbita pe-
riódica deseada. Dicho método ha sido aplicado tanto numérica como
experimentalmente (Bocalleti et al., 2000; Andrievskii y Fradkov,
2003; 2004).

2.5.3. Sincronización del caos


Los sistemas caóticos pueden sincronizarse del mismo modo que
dos relojes de péndulo ubicados en una pared común, a través de la
transmisión de información de un sistema a otro; es decir, por un aco-
plamiento entre los dos sistemas (Rosenblum et al., 1996; Rosenblum
y Pikovsky, 2003). Por ejemplo, los siguientes sistemas están acoplados
por medio de un parámetro ε:
.
x = F (x ) + ε (y − x )
. (2.25)
y = F (y ) + ε (x − y )

La fuerza de acoplamiento entre dos sistemas se determina con el


valor de ε. Dos sistemas acoplados se perturban uno al otro pero
las perturbaciones tienen efectos distintos en las direcciones del
movimiento de las órbitas; por lo que en las direcciones normales al
88 Complejidad y auto-organización de patrones naturales

movimiento estas perturbaciones se magnifican o se minimizan de


acuerdo con el exponente de Lyapunov de la dirección.
Si se trata de una dinámica periódica, solo se minimizarán las
perturbaciones y, si se trata de una órbita caótica, aunque puede mag-
nificarse la perturbación, el comportamiento caótico permanece y el
atractor no varía. En cambio, el efecto en la dirección tangencial es
neutral –ni se minimiza ni se magnifica– y se acumula perturbación
tras perturbación. Como el efecto es en la dirección tangencial, esta
se adelantará o se atrasará; pero, como la órbita está confinada a un
espacio, en las ecuaciones anteriores se minimiza la diferencia entre
los estados de los dos sistemas.
Sin embargo, si los sistemas son caóticos, la sensibilidad a las con-
diciones iniciales tiende a aumentar la diferencia entre sus estados.
Según el grado de acoplamiento ε, puede tenerse una sincronización
débil, fuerte e incluso completa. La sincronización de fase –no com-
pleta– se muestra en los dos sistemas como un ajuste del ritmo. Los
sistemas caóticos no son periódicos y tampoco tienen una frecuencia
como tal; sin embargo, se puede obtener una frecuencia promedio ω0:


ω 0 = lim 2π , (2.26)
τ →∞ τ

donde Nτ es el número de ciclos en el intervalo de tiempo τ.


Si hay sincronización de fase, los sistemas tendrán una frecuencia
común, racionalmente relacionada con la inicial; sin embargo, los
sistemas siguen siendo caóticos y sus trayectorias en el tiempo son
distintas. Si el acoplamiento es muy fuerte, puede llegarse al caso de
que la tendencia de igualación del acoplamiento domine a la tendencia
de separación de la sensibilidad a las condiciones iniciales y las trayec-
torias de los dos sistemas se vuelvan idénticas, lo cual es un caso de
sincronización completa.

Bibliografía
Alligood, K.T.; T.D. Sauer y J.A. Yorke (1996): Chaos. An Introduction to
Dynamical Systems, Springer-Verlag, New York.
Andrievskii, B.R. y A.L. Fradkov (2003): «Control of Chaos: Methods
and Applications. I. Methods», Automation and Remote Control, vol.
64, pp. 679-713.
2. Aspectos deterministas de la complejidad 89

__________ (2004): «Control of Chaos: Methods and Applications. II. Ap-


plications», Automation and Remote Control, vol. 65, pp. 505-533.
Anishchenko, V.S.; T.E. Vadivasova; G.A. Okrokvertskhov y G.I.
Strelkova (2003): «Correlation Analysis of Dynamical Chaos», Physica,
vol. 325, pp. 199-212.
__________ (2004): «Statistical Properties of Dynamical Chaos», Mathemati-
cal Biosciences and Engineering, vol. 1, pp. 161-184.
__________ (2005): «Mixing and Spectral-Correlation Properties of Cha-
otic and Stochastic Systems: Numerical and Physical Experiments», New
Journal of Physics, vol. 7, <www.njp.org>.
Anishchenko, V.S. et al. (2003): «Spectral and Correlation Analysis of
Spiral Chaos», Fluctuations and Noise Letters, vol. 3, pp. 213-221.
Baier, G. y S. Sahle (1994): «Hyperchaos and Chaotic Hierarchy in Low-
dimensional Chemical Systems», The Journal of Chemical Physics, vol.
100, pp. 8907-8911.
Betancourt-Mar, J.A.; I.S. Alarcón-Montelongo y J.M. Nieto-Villar
(2005): «The Rössler System as a Model for Chronotherapy», Journal of
Physics: Conference Series, vol. 23, pp. 53-61.
__________ (2006): «Theoretical Models in Chronotherapy: II. Periodic Per-
turbations in a Chaotic Chemical Reaction», Biological Rhythm Research,
vol. 37, pp. 131-136.
Betancourt-Mar, J.A.; V.A. Méndez-Guerrero, C. Hernández
Rodríguez y J.M. Nieto-Villar (2010): «Theoretical Models for
Chronotherapy: Periodic Perturbations in Hyperchaos», Mathematical
Biosciences and Engineering, vol. 13, pp. 553-560.
Betancourt-Mar, J.A. y J.M. Nieto-Villar (2006): «Periodic Perturba-
tions in a Chaotic Chemical Reaction», Revista Cubana de Química, vol.
18, n.o 1, p. 309.
__________ (2007): «Theoretical Models for Chronotherapy: Periodic
Perturbations in Funnel Chaos Type», Mathematical Biosciences and
Engineering, vol. 4, pp. 177-86.
Bocalleti, S. et al. (2000): «The Control of Chaos: Theory and Applica-
tions», Physics Reports, vol. 329, pp. 103-197.
Feigenbaum, M.J. (1980): «Universal Behavior in Nonlinear System», Los
Alamos Science, vol. 1, pp. 4-27.
Grassberger, P. y I. Procaccia (1983): «Characterization of Strange At-
tractors», Physical Review Letters, vol. 50, pp. 346-349.
Hirsch, M.W. y S. Smale (1974): Differential Equations, Dynamical Systems,
and Linear Algebra, Academic Press, Amsterdam.
90 Complejidad y auto-organización de patrones naturales

Kuznetsov, Y.A. (1998): Element of Applied Bifurcation Theory, Springer-


Verlag, New York.
Lévi, F. (2006): «Chronotherapeutics: The Relevance of Timing in Cancer
Therapy», Cancer Causes & Control, vol. 17, pp. 611-621.
Lorenz, E.N. (1963): «Deterministic Nonperiodic Flow», Journal of the
Atmospheric Sciences, vol. 20, pp. 130-141.
Mandelbrot, B.B. (1983): The Fractal Geometry of Nature, W.H. Freeman
and Company, New York.
Meyer, T.; M.J. Brünner, A. Kittel y J. Parisi (1997): «Hyperchaos in the
Generalized Rössler System», Physical Review, vol. 56, pp. 5069-5082.
Murray, J.D. (2002): Mathematical Biology I. An Introduction, Springer-
Verlag, Berlin Heidelberg.
Ott, E. (1997): Chaos in Dynamical Systems, Cambridge University Press.
Ott, E.; C. Grebogi y J.A. Yorke (1990): «Controlling Chaos», Physical
Review Letters, vol. 64, pp. 1196-1199.
Rosenblum, M.G. y A. Pikovsky (2003): «Synchronization from Pendulum
Clock to Chaotic Lasers and Chemical Oscillators», Contemporary Phy-
sics, vol. 44, pp. 401-416.
Rosenblum, M.G.; A.S. Pikovsky y J. Kurths (1996): «Phase Synchronization
of Chaotic Oscillators», Physical Review Letters, vol. 76, pp. 1804-1807.
Rössler, O.E. (1976): «An Equation for Continuous Chaos», Physics Letters,
vol. 57, pp. 397-398.
Schuster, H.G. y W. Just (2006): Deterministic Chaos: An Introduction,
Wiley-VCH, Weinheim.
Strogatz, S.H. (1994): Nonlinear Dynamics and Chaos, Westview Press,
Cambridge.
Tufillaro, N.B.; T. Abbott y J. Reilly (1992): An Experimental Approach
to Nonlinear Dynamics and Chaos, Addison-Wesley, Boston.
Salazar, C. et al. (1998): «Efecto de perturbaciones periódicas en sistemas
químicos autoorganizados: reacciones oscilantes y modelos de evolución
y selección», Revista Cubana de Química, vol. 10, <http://ojs.uo.edu.cu/
index.php/cq> [3/5/2013].
Salazar, C. et al. (2003): «Theoretical Models of Chronotherapy: I. Periodic
Perturbations in Oscillating Chemical Reactions», Biological Rhythm
Research, vol. 34, pp. 241-249.

g
3. Aspectos estocásticos de la complejidad
Elena Izquierdo-Kulich

Para la modelación de los sistemas dinámicos tradicionalmente se


tenían en cuenta las ecuaciones simples deterministas derivadas de
las leyes fundamentales de la conservación de la masa y la energía, así
como los procesos fundamentales desencadenados en el sistema bajo
estudio. Cuando no se conoce exactamente cuáles son estos procesos,
se establecen ad hoc. Por otra parte, una descripción puramente deter-
minista de un sistema dinámico que esté sometido a perturbaciones
aleatorias e imposibles de predecir con exactitud resulta incompleta,
por lo que es necesaria la aplicación de métodos que tomen en cuenta
esta incertidumbre, entre ellos, los métodos estocásticos.
Hasta hace poco tiempo el enfoque determinista y el estocástico
se veían de forma separada y eran dicotómicos. Después de la apari-
ción del caos determinista se unieron, debido a que se comprobó que
un sistema determinista, con pocos grados de libertad, puede dar ori-
gen a un comportamiento dinámico altamente complejo que exhibe
una componente aleatoria significativa; lo que provoca que no sea
posible hacer predicciones a largo alcance aunque se conozcan con
exactitud las condiciones iniciales.1
Se ha insistido en que las fluctuaciones influyen en la aparición de
la complejidad. Debido a la no linealidad de un sistema y a la existencia
de lazos de retroalimentación –feedback–, las fluctuaciones que tienen
un origen microscópico se amplifican y crecen hasta alcanzar el nivel
macroscópico, lo que se manifiesta a través de una bifurcación. Este
proceso conduce a la auto-organización espacio/temporal del sistema,
que manifiesta entonces su complejidad.

Este tema fue tratado en el capítulo anterior.


1
92 Complejidad y auto-organización de patrones naturales

Como se señaló en el primer capítulo, la implementación de un


formalismo termodinámico mesoscópico constituye una interfase
entre el micromundo –donde rige la reversibilidad– y el macromundo
–donde se manifiesta la irreversibilidad como fuente de la comple-
jidad–. Es importante mencionar que el enfoque estocástico es una
base teórica con amplia aplicación en el campo de las nanociencias
y las nanotecnologías, que han alcanzado un significativo desarrollo
en los últimos años.

3.1. Fundamentos generales


En el enfoque clásico la trayectoria de un sistema determinista está
definida de forma unívoca para una condición inicial dada. Sin em-
bargo, los sistemas que exhiben una alta complejidad, como es el caso
del caos o el hipercaos o los sistemas que evolucionan en presencia
de ruido –interno o externo–, pueden exhibir diferentes trayectorias
posibles. El comportamiento de estas trayectorias solo se puede des-
cribir a corto alcance (Anishchenko et al., 2007). La diferencia entre el
valor promedio o esperado y el valor real que toma la variable aleatoria
se denomina fluctuación. El objetivo principal de los métodos esto-
cásticos es describir dicha fluctuación en términos matemáticos (Van
Kampen, 1992; Gardiner, 2004).
Para caracterizar la dinámica estocástica se emplean las variables
aleatorias.2 Cuando un proceso depende de una variable aleatoria e
implícitamente del tiempo, se denomina proceso estocástico. Las fluc-
tuaciones de la temperatura y la presión ambiental, el movimiento de
una partícula que flota en el aire, el número de automóviles que pasan
durante una hora por un lugar determinado son algunos ejemplos
de estos procesos. De hecho, los actos cotidianos poseen siempre un
componente de aleatoriedad e incertidumbre con el cual convivimos
diariamente.
Los procesos estocásticos se pueden describir en su totalidad a
través de la función P(Xn, tn|Xn – 1, tn – 1; ...; x0, t0), que expresa la pro-
babilidad condicional de que la variable x tome un valor xn al tiempo
tn cuando ha obtenido los valores xn – 1, ..., x0 en los tiempos tn – 1, ..., t0,
donde tn > tn – 1. Los intervalos Δt = tn – tn – 1 pueden ser tan pequeños
como se quiera debido al carácter continuo del tiempo. Eso quiere

Las variables aleatorias toman un conjunto de valores posibles con una probabi-
2

lidad asociada a cada valor.


3. Aspectos estocásticos de la complejidad 93

decir que, en principio, esta función de probabilidad condicional in-


volucra a un infinito número de variables, lo cual es intratable desde
el punto de vista matemático. El desarrollo de un formalismo mate-
mático para describir este tipo de proceso se basa en la propiedad de
Markov (Van Kampen, 1992; Gardiner, 2004), que se expresa como:

( ) ( )
P xn , tn xn − 1 , tn − 1 ;...; x0 , t0 = P xn , tn xn − 1 , tn − 1 . (3.1)

Los procesos estocásticos que cumplen con la propiedad de Markov


se denominan procesos markovianos. La propiedad de Markov consi-
dera que el estado futuro de un sistema depende del estado presente
y no de cómo este fue alcanzado. La ruptura entre presente, pasado y
futuro no se corresponde con la realidad física; es una propiedad del
modelo matemático que describe al sistema bajo estudio. Para que esta
propiedad se cumpla se deben seleccionar con cuidado las variables y
parámetros que describen el sistema y representar matemáticamente
los procesos fundamentales que ocurren, de tal forma que la consi-
deración del proceso markoviano pueda establecerse sin que conlleve
grandes errores en las predicciones del modelo (Van Kampen, 1992).
Un proceso estocástico es estrictamente estacionario cuando la
función de distribución de probabilidad conjunta P(Xn, tn; Xn – 1, tn – 1)
–que representa la probabilidad de que el sistema se encuentre en
los estados Xn – 1 y Xn en los tiempos tn – 1 y tn, respectivamente– solo
depende del intervalo de tiempo Δt = tn – tn – 1; lo cual es equivalente
a expresar que el comportamiento del proceso es independiente de
la condición inicial (Anishchenko et al., 2007). Aunque el compor-
tamiento real del estado del sistema cambia temporalmente debido
a la existencia de las fluctuaciones, en estado estacionario la función
de probabilidad P(Xss) y los momentos asociados a ella no varían en
el tiempo.
Los procesos estocásticos estacionarios presentan la propiedad de
ergodicidad (Gardiner, 2004; Van Kampen, 1992). Esta propiedad esta-
blece la equivalencia entre los promedios temporales –que se obtienen
al observar un mismo sistema durante N intervalos de tiempo ΔT– y
los promedios que se obtienen al observar un conjunto de N sistemas
al unísono.
El concepto de derivada que se utiliza en el cálculo diferencial
ordinario no puede emplearse en los procesos estocásticos debido
94 Complejidad y auto-organización de patrones naturales

a la naturaleza aleatoria de las fluctuaciones, por lo que no es posible


reproducir el comportamiento de una variable estocástica a partir de
una ecuación diferencial ordinaria. Sin embargo, se puede describir el
comportamiento de la función de probabilidad del proceso estocástico
utilizando ecuaciones diferenciales deterministas mediante el desarro-
llo de un formalismo apropiado. Este parte de la consideración de que
el proceso estocástico cumple con la propiedad de Markov e incluye
las etapas que se mencionan a continuación:

1.  Establecer una determinada probabilidad a priori.


2.  Aplicar un conjunto de técnicas matemáticas para obtener
la probabilidad a posteriori P(N; t) o los momentos de orden
v asociados a la probabilidad P(N; t), donde N es el vector de
estado del sistema y t es el tiempo. Un proceso estocástico
puede describirse a través de su función de probabilidad o de
sus momentos correspondientes:

Nv = ∫ N P (N ; t ) d N
N
v

(3.2)
= ∑ N P (N ; t ) .
v

3.  Comparar los resultados teóricos con los experimentales para


verificar la validez del modelo. En caso de que no exista corres-
pondencia entre ambos, es necesario redefinir las probabilidades
establecidas a priori y obtener un nuevo modelo cuya veracidad
debe ser comprobada.

Como se puede observar, esta estrategia presenta el inconveniente


de que está basada en suposiciones que deben ser verificadas poste-
riormente. A pesar de los esfuerzos realizados y del éxito de la física
estadística para describir los procesos en las escalas mesoscópica y
macroscópica, hasta el momento el fundamento para la descripción
de las fluctuaciones se basa en el establecimiento de probabilidades a
priori. En este sentido, la pérdida de información sobre lo que ocurre
realmente en el sistema se expresa a través de suposiciones probabilís-
ticas (Anishchenko et al., 2007). El éxito en la obtención de un modelo
válido dependerá significativamente del grado de conocimiento que se
tenga sobre los procesos fundamentales que tienen lugar en el sistema
bajo estudio y de la intuición y el grado de experiencia del investigador
3. Aspectos estocásticos de la complejidad 95

para representarlos apropiadamente a través de ecuaciones matemá-


ticas. Aunque cada sistema tiene sus propias características, resulta
conveniente tomar en cuenta las recomendaciones que se detallan
a continuación:

a.  Para establecer las probabilidades a priori es muy útil definir


cuál es el origen de las fluctuaciones observadas. En este caso,
cuando el comportamiento del sistema emerge como resul-
tado de los procesos elementales que ocurren a nivel de las
partículas microscópicas que lo forman y que interaccionan
entre sí, el carácter aleatorio de estos procesos microscópicos
se manifiesta a través de fluctuaciones en las variables con
respecto al promedio o valor determinista. Debido a que estas
fluctuaciones constituyen una característica intrínseca de
los sistemas formados por muchas partículas, se denominan
fluctuaciones internas y las probabilidades que se establecen
a priori son las probabilidades de transición por unidad de
tiempo, asociadas a cada uno de los procesos que tienen lugar
a nivel microscópico y que causan un cambio en el número de
partículas.
En los sistemas formados por muchas partículas la mag-
nitud de las fluctuaciones internas disminuye en correspon-
dencia con el tamaño del sistema. El número de partículas
que pueden estar contenidas en un sistema depende del
tamaño de este, por lo que, en sistemas muy grandes, las
fluctuaciones son prácticamente despreciables; excepto en
el caso de los sistemas dinámicos no lineales que exhiben
un comportamiento complejo. En estos se observa que, para
ciertos valores del parámetro de control que se correspon-
den con la vecindad del punto de bifurcación, la varianza es
del mismo orden de magnitud que el valor medio, lo cual
refleja que los efectos de las fluctuaciones se refuerzan a nivel
macroscópico y que deja de cumplirse el teorema del límite
central y el escalado.
En los sistemas abiertos se pueden presentar, además,
fluctuaciones externas, que constituyen una manifestación
de la interacción entre el sistema y los alrededores. Esto se puede
expresar matemáticamente si se considera que los parámetros
que reflejan la relación entre el sistema y su entorno son en
96 Complejidad y auto-organización de patrones naturales

realidad parámetros estocásticos, cuyas funciones de proba-


bilidad se establecen a priori. A diferencia de las fluctuaciones
internas, la magnitud de las externas no depende del tamaño
del sistema, sino de la magnitud de las fluctuaciones en los
parámetros estocásticos.
b.  Las transformaciones matemáticas que se han desarrollado
para la obtención de la probabilidad a posteriori dependen
del tipo de fluctuaciones –internas o externas–. En el caso
de las fluctuaciones internas, el formalismo que se emplea se
basa en la obtención de la ecuación maestra, la cual describe
el comportamiento de la probabilidad asociada a las variables
extensivas relacionadas con el número total de partículas
microscópicas. A partir de la ecuación maestra se obtiene
el modelo mesoscópico que predice el comportamiento de los
valores esperados de las variables macroscópicas intensivas y
de las fluctuaciones internas. El comportamiento de los valores
esperados, predicho por el modelo mesoscópico, se correspon-
de con la descripción determinista del sistema.
El formalismo para las fluctuaciones externas se basa en la
obtención de un sistema de ecuaciones diferenciales esto-
cásticas para cuya solución se aplica el cálculo diferencial de
Ito-Stratonovich. La solución obtenida es entonces el modelo
estocástico del sistema. A diferencia de las fluctuaciones in-
ternas, donde existe correspondencia entre el valor esperado y
el determinista, el comportamiento del valor promedio puede
afectarse por la magnitud y la naturaleza de las fluctuaciones
externas.
La elección del tipo de fluctuaciones que se va a describir
depende de las características particulares del sistema bajo
estudio. Las fluctuaciones internas suelen considerarse cuando
la escala de observación es intermedia entre la macroscópica
y la microscópica o cuando la propiedad de escalado deja de
cumplirse como resultado de la complejidad; lo cual lleva a la
emergencia de la auto-organización temporal y espacial. Las
fluctuaciones externas se toman en cuenta cuando las que se
producen en el ambiente son más significativas que las internas.
El desarrollo de un formalismo general que permita considerar
la descripción simultánea de ambos tipos de fluctuaciones es
una tarea pendiente en la teoría de los procesos estocásticos.
3. Aspectos estocásticos de la complejidad 97

c.  La comparación entre los resultados experimentales y los


teóricos resulta clave para corroborar que las probabilidades
establecidas a priori son apropiadas. Hay que tomar en cuen-
ta que, físicamente, no es posible observar una distribución
de probabilidad como tal, sino que solo es posible observar
el comportamiento temporal de las variables que describen
al sistema, lo que se conoce como realización del proceso
estocástico.
Como un proceso estocástico se describe totalmente a tra-
vés de su función de probabilidad o de los momentos asociados
a esta, lo que usualmente se hace es comparar el comporta-
miento temporal de los momentos –calculado a partir de las
diferentes realizaciones observadas– con el comportamiento
teórico predicho. Es importante tener presente que siempre
existirá un margen de error debido a la precisión de los instru-
mentos de medición y a las limitaciones del modelo.

3.2. Ecuación maestra y fluctuaciones internas: modelo mesoscópico


Debido a que en los procesos markovianos el estado futuro queda
determinado por el estado presente, sin importar cómo este fue al-
canzado, se cumple la siguiente propiedad:

∫( ) ( )
P (N3, t3; N1, t1) = P (N1, t1) P N2, t2 N1, t1 P N3 , t3 N2, t2 d N2
(3.3)
t3 > t2 > t1 .

P(Ni, ti) es la función de probabilidad del sistema, P(Ni + 2, ti + 2; Ni, ti) es la


probabilidad conjunta y P(Ni, ti|Ni – 1, ti – 1) es la condicional.
Si ambos lados de la ecuación (3.3) se dividen por P(N1, t1), se obtie-
ne la ecuación de Chapmann-Kolmogorov (Anishchenko et al., 2007).
La ecuación expresa la posibilidad de que un proceso que se encuentra
inicialmente en el estado N1 alcance el estado N3 a través de uno de los
valores posibles que puede tomar el estado del sistema en un tiempo t2
intermedio entre t1 y t3:

( ) ∫ ( ) ( )
P N 3, t3 N 1, t1 = P N 2 , t2 N1, t1 P N3 , t3 N 2 , t2 d N 2 . (3.4)

Es posible reconstruir teóricamente el comportamiento de un


proceso markoviano si se conocen la probabilidad condicional y la
98 Complejidad y auto-organización de patrones naturales

probabilidad de que el sistema se encuentre al inicio en un estado dado.


Estas dos probabilidades no pueden seleccionarse de forma arbitraria
porque deben cumplir la ecuación de Chapmann-Kolmogorov (3.4) y
la condición necesaria:

∫ ( )
P (N 2 , t2 ) = P N 2, t2 N 1, t1 P (N 1, t1 ) d N1 . (3.5)

Las ecuaciones (3.4) y (3.5) representan las propiedades matemáticas


que deben cumplir las probabilidades; pero no expresan restricciones
en relación con la naturaleza particular de los procesos que ocurren en la
realidad. Por esta razón, es conveniente trabajar con la forma diferencial
de la ecuación de Chapmann-Kolmogorov, que se obtiene derivando
con respecto al tiempo ambos lados de la ecuación (3.4). Como re-
sultado de esa operación, las probabilidades condicionales quedan
expresadas como probabilidades de transición por unidad de tiempo,
las que son relativamente fáciles de escribir a priori si se conocen las
características de los procesos que tienen lugar en el sistema. La forma
diferencial de la ecuación de Chapmann-Kolmogorov se conoce como
ecuación maestra o ecuación de Pauli y se aplica a los sistemas cuyo
estado se describe a través del número total de partículas que los
componen.
Como las fluctuaciones internas se encuentran relacionadas con el
comportamiento de los j tipos de partículas microscópicas que com-
ponen el sistema, el vector de estado N tiene como componentes las
variables discretas que se relacionan con el número total de cada tipo
de partícula. La ecuación maestra se escribe:

∂P ( N , t )
∂t
= ∑W (N−∆
ρ
ρ
ρ
) ( ) ( )
, rρ P N −∆ρ ; t −Wρ N, rρ P (N , t )

 
= ∑ ∏ E
-∆ρj
−1 Wρ (N, rρ ) P (N , t ) (3.6)
j 
ρ  j 
P ( N 0 , 0 ) =1.

P(N, t) es la función de probabilidad asociada a las fluctuaciones


internas; Wρ(N, rρ) es la probabilidad de transición por unidad de
tiempo asociada al proceso individual ρ –la cual es expresada en
3. Aspectos estocásticos de la complejidad 99

función de las variables de estado y los r parámetros del sistema–;


Δρj es el cambio que ocurre en el número total de elementos de tipo
[ ( )] (
j como resultado de la ocurrencia del proceso ρ; E aj f nj = f nj + a )
es el operador de ascenso-descenso que actúa sobre las funciones de
variables discretas; y t es el tiempo observado macroscópicamente.
Las probabilidades de transición por unidad de tiempo se pueden
obtener al representar los procesos de interacción y cambio que
ocurren a nivel de las partículas microscópicas de forma semejante a
como se representa la estequiometría de las reacciones químicas. Así,
para cada proceso individual ρ se escribe:

∑ Aρj n j → ∑B
J
ρ
j nj . (3.7)
J

A ρj es el número de elementos de tipo j que interaccionan cuando


ρ
tiene lugar el proceso ρ; B j es el número de elementos de tipo j que
quedan como resultado de esta interacción y rρ representa la cons-
tante de velocidad de ocurrencia del proceso; por lo que sus unidades
involucran al inverso del tiempo. Estas constantes de velocidad se
identifican con los parámetros del sistema y pueden suponerse como
funciones de las variables de estado bajo determinadas condiciones.
El vector de cambio Δρ de cada proceso se determina mediante la
ecuación:

∆ρ = B ρ− A ρ . (3.8)

Tomando en cuenta la descripción de los procesos microscópicos de


acuerdo con la ecuación (3.7) se obtienen las probabilidades de transi-
ción por unidad de tiempo:

1 n j!
≅ rρ 1
ρ

∏( ∏
q
Wρ = rρ nj j


j
ρ
n j − Aj ! )m
Ω ρ j
(3.9)
 
mρ = ∑ q ρj  − 1.
 
 j 

Ω es el factor de escalado de las fluctuaciones internas y depende del


tamaño del sistema. Por definición, las probabilidades de transición
100 Complejidad y auto-organización de patrones naturales

por unidad de tiempo toman valores positivos y mayores que cero; por
lo que, de acuerdo con la ecuación (3.9), los parámetros del sistema
solo pueden tomar valores mayores que cero.
La ecuación maestra (3.6) es una ecuación diferencial que solo tiene
solución analítica exacta cuando las probabilidades Wρ son funciones
lineales de las variables de estado. En esos casos se ha podido demos-
trar que la solución es una función de distribución de Poisson (Van
Kampen, 1992; Gardiner, 2004; Anishchenko et al., 2007):

n -µ j
µjj e
P (N ; t ) = ∏ j nj !
. (3.10)

En la ecuación µj es el valor esperado de nj. Cuando el valor de N es


lo suficientemente grande como para poder considerar a N como una
variable continua, la solución de la ecuación maestra (3.9) para un
proceso lineal es una función de probabilidad gaussiana.
En el caso de funciones no lineales –en el sentido de las proba-
bilidades de transición por unidad de tiempo– la situación es más
complicada porque no existe solución analítica exacta. Por esta razón,
una de las cuestiones más estudiadas dentro del contexto de los mé-
todos estocásticos es el desarrollo de métodos analíticos aproximados
que permitan encontrar la solución de la ecuación no lineal (3.6) (Van
Kampen, 1992; Gardiner, 2004).
Uno de los métodos de solución aproximada se basa en considerar
que el cambio Δρ que ocurre cuando tiene lugar el proceso individual
ρ es despreciable en comparación con el número total de partículas; de
tal forma que las variables extensivas puedan ser consideradas como
continuas. Expresando el operador paso en su forma diferencial y
sustituyéndolo en la ecuación maestra (3.6), se obtiene la ecuación de
Fokker-Planck (Gardiner, 2004):

∂P ( N , t ) ∂
∂t
= ∑ − ∂n α
j
j (N ) P (N , t)
j

1 ∂2
+
2
∑ ∂n ∂n
j,k
β j , k (N ) P (N , t) (3.11)
j k

P (N 0 , 0 ) = 1.
3. Aspectos estocásticos de la complejidad 101

α(N) es el primer momento de las probabilidades de transición por


unidad de tiempo:

α (N ) = ∑ ∆ W ( N ).
ρ
ρ
ρ (3.12)

y β(N) es el segundo momento de las probabilidades de transición por


unidad de tiempo:

β (N ) = ∑ ∆ (∆ ) W (N ).
ρ
ρ ρ T
ρ (3.13)

La condición inicial establecida en (3.11) expresa que el estado del


sistema se conoce con absoluta certeza para un tiempo igual a cero.
El modelo mesoscópico se corresponde con la solución exacta
cuando el sistema se encuentra en un estado estacionario estable o en
las cercanías de este. Se ha demostrado que para esas condiciones la
función de probabilidad es gaussiana (Van Kampen, 1992; Gardiner,
2004; Anishchenko et al., 2007).
Para obtener el modelo mesoscópico se define la relación entre el
vector de estado extensivo N y el vector de estado X asociado a las
variables intensivas observadas. En general:

X = f (N , Ω ). (3.14)

A partir de la ecuación (3.14) y, tomando en cuenta que debe cumplir-


se (Van Kampen, 1992)

P ( X , t)∂x1, ... , ∂x j = P (N, t)∂n1, ... , ∂nj , (3.15)

se efectúa un cambio de variables de tal forma que la ecuación de


Fokker-Planck (3.11) se rescribe como:
∂P ( X , t ) ∂
∂t
= ∑− ∂x j
( )
α j X , rρ P ( X , t)
j

1 1 ∂2
+
2
∑ Ω ∂x ∂x ( )
β j , k X , rρ P ( X , t) (3.16)
j, k j k

P ( X 0 ; 0 ) = 1.
102 Complejidad y auto-organización de patrones naturales

A partir de la ecuación (3.16) se obtiene el valor esperado o promedio:

d X
dt
(
= α X , rρ ) (3.17)
X t=0 = X 0 ,

T T
y la matriz σ = XX − X X de las covarianzas:


dt
[(
= J α X , rρ )] σ + σ J [α ( X, r )] + Ω1 β ( X, r )
T
ρ ρ
(3.18)
σ t= 0 = 0 .

[(
J α X , rρ )] es la matriz jacobiana del vector α ( X , r ) . ρ

Las ecuaciones diferenciales (3.17) y (3.18) constituyen el modelo


mesoscópico del sistema. En este caso el comportamiento promedio
está definido por el primer momento de las probabilidades de tran-
sición por unidad de tiempo Wρ (N, rρ ) y la magnitud de las fluctua-
ciones internas con el segundo momento de Wρ (N, rρ ) . Este modelo
tiene la ventaja de que permite predecir el comportamiento de las
fluctuaciones internas a partir del comportamiento determinista sin
la necesidad de detallar los complicados procesos que existen a escala
microscópica y que constituyen la causa de estas fluctuaciones.
Es importante señalar que, aunque se aplica un método analítico
aproximado para obtener el modelo mesoscópico, este modelo no siem-
pre tiene una solución analítica exacta. De hecho, en el caso no lineal
usualmente es necesario aplicar métodos numéricos de solución.
En un estado estacionario estable, o en las cercanías a este, la fun-
ción de probabilidad P(X; t) se escribe:

(det σss )− 2 exp − )


1
−1
(X− X ) (
1
Pss(X) =(2π)
T
2J
ss
σss−1 X− X ss . (3.19)
 2 
La forma particular de la ecuación (3.19) para un proceso dado puede ob-
tenerse si se iguala a cero el lado izquierdo correspondiente a la derivada
temporal en las ecuaciones (3.17) y (3.18); de forma que la ecuación (3.19)
3. Aspectos estocásticos de la complejidad 103

queda expresada en función de los parámetros rρ. Para que el estado


calculado a través de la solución del sistema de ecuaciones algebraicas
resultante sea un estado estacionario estable, debe cumplirse que:

σ ii > 0 . (3.20)

Esta condición se deduce al considerar que, físicamente, la raíz cua-


drada de la varianza representa la magnitud de las fluctuaciones, que
siempre es un número real positivo. Una varianza negativa carece
de significado físico y refleja que el estado considerado es inestable.
Otra situación ocurre en el caso de las covarianzas, que expresan una
correlación entre las fluctuaciones que no siempre es positiva.

3.3. Cálculo de Ito-Stratonovich y fluctuaciones externas:


modelo estocástico
Para modelar las fluctuaciones externas se parte del modelo determi-
nista del sistema:
dX
dt
(
= α X , rρ ) (3.21)
X t= 0 = X 0 .

El modelo determinista se obtiene a partir del modelo mesoscópico


si se considera que las fluctuaciones internas tienen una magnitud
despreciable en comparación con el valor esperado. En este mode-
*
lo se identifican los parámetros r ρ a través de los que se expresa la
aleatoriedad del ambiente, vinculados con la interacción del sistema y
su entorno. Estos parámetros se representan como la suma del valor
*
esperado r ρ y un término aleatorio ξ, que representa las fluctuacio-
nes externas alrededor del promedio:

r ρ* = r ρ* + Γρ ξ ρ . (3.22)

Γρ representa la varianza de las fluctuaciones. A partir de esta conside-


ración la ecuación (3.21) se rescribe como:
dX
dt
(
= α X , r ρ* ) + ∑ α~ ρ (X )ξ ρ
ρ (3.23)
Xt =0 = X 0 .
104 Complejidad y auto-organización de patrones naturales

El concepto de derivada no está definido en presencia de términos alea-


torios, por lo que la ecuación (3.23) no puede resolverse mediante la
aplicación del cálculo ordinario. Por esta razón el problema se reformula
y consiste en encontrar una solución a la integral (Gardiner, 2004):

Q = ξ ( t ) dt .
∫ (3.24)

La integral puede ser definida y escrita mediante la expresión:

Q= ∑ξ (t ) ∆t .
i
i (3.25)

Para resolver la ecuación (3.25) se debe establecer para qué valor de


t dentro del intervalo [ ti , ti +1 ] se evalúa ξ, lo cual da origen a los dos
formalismos que se aplican para la modelación de las fluctuaciones
externas: el formalismo de Ito y el de Stratonovich.
Ito consideró que:

Q= ∑ξ (t ) ∆t .
i
i i (3.26)

Según esta ecuación, el tiempo de autocorrelación temporal de las


fluctuaciones es igual a cero, idealización que se conoce como ruido
blanco. En este caso (Gardiner, 2004) se puede demostrar que:

∑ξ (t ) d∆t =∑ ∆ω .
i
i i
i
i (3.27)

ω es una variable estocástica, conocida como proceso de Weinier, cuya


función de distribución de probabilidad es gaussiana y tiene un valor
esperado igual a cero y varianza Δt. Las fluctuaciones que pueden
llamarse ruido blanco cumplen las siguientes propiedades:

ξ ρ (t) = 0 . (3.28)

2 ξ ρ (t + ∆t ) ξ ρ (t ) dt = 2 Γρ δ (∆t ) dW. (3.29)

2 ξ ρ (t + ∆t ) ξ q (t ) dt = λ ρ , q 2 Γρ Γq δ (∆t ) dt; ρ ≠ q . (3.30)


3. Aspectos estocásticos de la complejidad 105

Γρ es la varianza asociada a las fluctuaciones en el parámetro r ρ* y λρ,q


es el coeficiente de correlación entre las fluctuaciones en los paráme-
tros r ρ* y r q* . Si se toman en cuenta las ecuaciones de la (3.28) a la
(3.30), entonces la ecuación (3.23) se escribe como:

( )
dX = α X , rρ dt + B ( X ) d W. (3.31)

B(X) es una matriz ortogonal cuyos elementos se determinan median-


te la ecuación:

B (X ) = δ j , i 2 λ ρ , q ∑ α~ (X , j, ρ ) (
r ρ α~ j , q X , r q ) 2 Γρ Γ q
ρ,q (3.32)
λρ , q = ρ = 1 .

La ecuación (3.31) representa la ecuación diferencial estocástica de


Ito. La ecuación de Fokker-Planck correspondiente a (3.31), que descri-
be el comportamiento de la función de probabilidad P(X, t) asociada a
las fluctuaciones externas, está dada por:

∂P ( X , t ) ∂
∂t
= ∑ − ∂x (
α j X , r ρ* ) P (X , t )
j j

1 ∂2
+
2
∑ ∂x ∂x ( )
C i, j X , Γρ P (X , t ) (3.33)
j,k j j

P (X 0 , 0 ) = 1 ,

( )
donde C X , Γ ρ = B X , Γ ρ B T X , Γρ ( ) ( )
De forma semejante a como se hace para el caso de la determinación
del modelo mesoscópico, el modelo estocástico se obtiene a partir de
la ecuación de Fokker-Planck (3.33). En este caso, el comportamiento
temporal del vector de estado está dado por:

d X
dt
= α X , rρ ( ) (3.34)
X t=0 = X 0 ;
106 Complejidad y auto-organización de patrones naturales

y el de la matriz de las covarianzas por:


dt
[(
= J α X , rρ )]Γ + Γ J [α (X , T
rρ )] + C (X , Γ ).
ρ (3.35)

Las ecuaciones (3.34) y (3.35) representan el modelo estocástico de


Ito y describen el comportamiento del sistema de manera parcial
porque solamente se considera el comportamiento de los dos prime-
ros momentos de la función de distribución de probabilidad.
Para resolver la integral (3.25) Stratonovich consideró que:

 ti + t i + 1 
Q= ∑ ξ 
i 2 
 ∆ti . (3.36)

Esta expresión toma en cuenta que el ruido externo puede tener aso-
ciado un tiempo de autocorrelación temporal diferente de cero. Bajo
esta condición la ecuación diferencial estocástica (3.23) (Van Kampen,
1992; Gardiner, 2004) se escribe como:

dX = α s X , r ρ ( ) dt + B (X , Γ )d W, ρ (3.37)

donde:

1 2 2 ∂C ji
α sj = α j −
2
∑∑C
i = 1 k =1
ki
∂x k (3.38)
( )
C X , Γρ = B X , Γρ B ( ) (X , Γ ).
T
ρ

La ecuación (3.37) se conoce como ecuación diferencial estocástica de


Stratonovich y su ecuación de Fokker-Planck correspondiente es:

∂P (X , t ) ∂
∂t
= ∑ − ∂x α s
j (X , r ρ* ) P (X , t )
j j

1 ∂2
+
2
∑ ∂x ∂x ( )
C i, j X , Γρ P (X , t ) (3.39)
j,k j j

P (X 0 , 0 ) = 1 .
3. Aspectos estocásticos de la complejidad 107

A partir de (3.39) se obtiene el modelo estocástico de Stratonovich,


cuya estructura es similar a la del modelo de Ito –(3.34) y (3.35)–.
En el modelo de Stratonovich la determinación del comportamiento
del valor esperado debe acompañarse de una corrección que tome en
cuenta la influencia de las fluctuaciones externas sobre el promedio y
se corresponda con el segundo término del lado derecho de la ecuación
(3.38).
Para un mismo sistema se obtienen distintos resultados en depen-
dencia de si se considera la ecuación diferencial estocástica de Ito (3.31)
o la de Stratonovich (3.37). La diferencia entre los resultados predichos
por ambos formalismos se conoce como el dilema Ito-Stratonovich.
Este es un tema que permanece abierto y sujeto a discusión en la
teoría de los métodos estocásticos. Actualmente, la comparación entre
los resultados predichos y los resultados experimentales observados
es la única vía para corroborar cuál de los formalismos resulta más
apropiado para la descripción de un proceso estocástico en particu-
lar; aunque generalmente se admite que, si se considera un tiempo
de autocorrelación diferente de cero para la descripción de los procesos
reales (Van Kampen, 1992; Anishchenko et al., 2007), es más apropiado
el formalismo de Stratonovich.
El formalismo de Stratonovich predice que las fluctuaciones ex-
ternas no influyen sobre el valor esperado en el caso de los sistemas
lineales, de tal forma que este se corresponde con el determinista. Sin
embargo, en los sistemas no lineales, el ruido externo puede modificar
significativamente la cualidad dinámica del sistema e incluso pueden
propiciar la aparición de oscilaciones estocásticas auto-sostenidas que
indiquen la emergencia de una auto-organización temporal causada
por fluctuaciones que aparentemente deberían incrementar el grado
de desorden (Anishchenko et al., 2007).
En la resonancia estocástica se observan comportamientos dinámi-
cos inducidos por el ruido externo en sistemas sometidos a perturba-
ciones periódicas. Aunque, en principio, cualquier dinámica –incluso
la lineal– responde periódicamente ante una perturbación periódica, el
aspecto distintivo entre una dinámica y otra es la respuesta no monóto-
na del sistema. Para algunos valores de la intensidad de las fluctuaciones
externas puede emerger una nueva dinámica. La cuantificación y aun la
propia definición de la resonancia estocástica dependen de la situación
física estudiada, el carácter de la perturbación, el ruido externo y las
características del sistema no lineal.
108 Complejidad y auto-organización de patrones naturales

( )
Para el caso unidimensional, si se considera que C X , Γρ = C Γρ ( )
la ecuación de Fokker-Planck correspondiente es la siguiente:

∂P ( x , t ) ∂
=- α ( x ) P (x , t )
dt ∂x

− A sin (wt ) P (x , t ) (3.40)
∂x
∂2
+Γ P ( x , t ).
∂x 2

El primer término asociado a la derivada parcial de primer orden de-


fine el comportamiento determinista, el segundo término representa
la perturbación periódica que se establece sobre el comportamiento
determinista y el tercero, asociado a la derivada temporal de segundo
orden, define la magnitud de las fluctuaciones.

3.4. Fundamentos de la termodinámica mesoscópica


En el primer capítulo se comentó que un camino intermedio con
vistas a encontrar una explicación de la relación entre la reversibilidad
microscópica y la irreversibilidad macroscópica es el que ha seguido la
escuela de Bélgica de Th. de Donder e I. Prigogine con los trabajos re-
cientes de P. Gaspard y G. Nicolis relacionados con la termodinámica
mesoscópica (Gaspard, 2008; Nicolis, 2011).
Para un proceso de Markov se cumple que la velocidad de entropía
de un sistema –ecuación (1.10)– es igual a:

dS 1 p (X −ν , t)
=
dt 2
∑ [W (X−ν |X )p (X−ν ,t)−W (X|X+ν )p (X ,t)]ln p (X , t) .
ρ ρ ρ -ρ -ρ
ρ
(3.41)
X ,ρ

De acuerdo con Schnakenberg (1976), la ecuación (3.41) se puede


separar en dos partes, de manera equivalente a la formulación de De
Donder –ecuación (1.13)–, si se adiciona o se sustrae el término:

ln
(
Wρ X − ν ρ | X ). (3.42)
W- ρ (X | X + ν ) -ρ
3. Aspectos estocásticos de la complejidad 109

La velocidad de producción de entropía del sistema (1.10) se expresa:

dS S δS e δS i
= + . (3.43)
dt dt dt

El término correspondiente a la velocidad de producción de entropía


estocástica es:
δS i
∑ [ℑ ( X , t ) Aρ ( X , t )] .
1
= ρ (3.44)
dt 2 X ,ρ

En la ecuación (3.44) ℑ ρ ( X , t ) y A ρ ( X , t ) expresan las represen-


taciones probabilísticas del flujo y la fuerza, respectivamente, y se
determinan mediante las expresiones:

ℑρ(X , t) = ∑ [W (X−ν |X) p (X−ν , t)−W (X|X+ν ) p(X , t)] .


X ,ρ
ρ ρ ρ -ρ -ρ (3.45)

A ρ ( X , t ) = ln
( ) (
Wρ X − ν ρ | X p X − ν ρ , t ). (3.46)
W- ρ (X | X + ν ) p( X , t )

δ Se
Por otra parte, la velocidad de flujo de entropía estocástica se
define mediante la ecuación: dt

δ Se (
Wρ X − ν ρ | X ).
∑ [ℑ ( X , t )]ln
1
=- (3.47)
dt 2 X ,ρ
ρ
W- ρ (X | X + ν ) -ρ

La fórmula (3.44) de la velocidad de producción de entropía estocástica


es válida para sistemas lineales donde la distribución de probabilidades
puede ser descrita por la distribución de Poisson (Mou et al., 1986) y
coincide con la expresión macroscópica –ecuaciones (1.29) y (1.33)–;
conocida como la relación de Gibbs  δS i  .
 
 dt  Gibbs
Sin embargo, la no linealidad conduce a que la distribución de
Poisson deje de ser válida, lo cual implica que la ecuación (3.44) debe
110 Complejidad y auto-organización de patrones naturales

ser corregida (Luo et al., 1984; Mou et al., 1986) y se expresa mediante
la igualdad:
δS i  δS i   δS 
=  + i  (3.48)
dt  dt Gibbs  dt  fluct .

La ecuación (3.48) describe explícitamente cómo en redes no lineales


de reacciones químicas, como por ejemplo en reacciones oscilantes y
caóticas, las fluctuaciones contribuyen a la velocidad de producción
de entropía (Esposito y Van den Broeck, 2010); mientras que, desde el
punto de vista macroscópico, lo que se considera es el valor medio de la
ecuación (1.33) (Nieto-Villar et al., 1995; García et al. 1996, p. 643).

3.5. Comportamiento de las fluctuaciones internas en procesos


químicos y biológicos
Si se analiza un sistema donde evoluciona una comunidad formada
por dos especies de microorganismos y se establecen relaciones tipo
presa (x) y depredador (y) entre ambas (Izquierdo-Kulich, 1998); las
dos especies se reproducen por bipartición y entre los microorganis-
mos que las integran existen relaciones de competencia; de tal forma
que se suponen los siguientes procesos:
k1
x → 2x
k2
y + x → 2y
b1
(3.49)
2 x → x
b2
2 y → y.

k1 y k2 son las constantes de velocidad de reproducción de las especies


x y y respectivamente, y b1 y b2 son las constantes de muerte endógena
debido a la competencia.
El modelo mesoscópico del sistema está dado por las expresiones:

d C x  (3.50)
  = α1.
dt C y 


( )
= α 1,1 σ + σ α 1,1
T
+
1
α 2. (3.51)
dt Ω
3. Aspectos estocásticos de la complejidad 111

Cx y Cy son las concentraciones de cada una de las especies de microor-


ganismos x y y, respectivamente. Como resultado, se obtiene el primer
momento de las probabilidades de transición por unidades de tiempo
(α1), su jacobiano (α1,1) y el segundo momento (α2):

C x k1 − C y C x k 2 − (C x )2 b1 
α1 =  
 Cy Cx k 2 − (C y ) b2 
2

C k + C y Cx k 2 + (C x ) b1 2
− C yC xk2 
α2 = x 1 
2
(3.52)
 − C y Cx k 2 C y C x k 2 + y b2 

k1 − C y k 2 − 2Cx b1 − Cx k 2 
α 1,1 =  
 Cy k2 Cx k 2 − 2C y b2  .

El modelo mesoscópico predice que el sistema tiende a un estado esta-


cionario estable para cualesquiera de los valores de los parámetros del
sistema, y que el espacio de fases se representa como un punto (figura
3.1a). El determinante de la matriz de las covarianzas exhibe una etapa
inicial de incremento que se corresponde con el ensanchamiento de las
fluctuaciones, hasta que se alcanza un valor máximo a partir del cual
estas tienden a disminuir y alcanzan un valor constante en el tiempo
que se corresponde con el estado estacionario estable (figura 3.1b).

a. b.

2 500
120
2 000 100
1 500 80
60
1 000
40
500 20

0 500 1 500 2 500 3 500 0 0,2 0,4 0,6 0,8 1

Figura 3.1. Dinámica en una comunidad de microorganismos: a. trayectoria obtenida


en el espacio de fase para una condición inicial dada y b. comportamiento temporal del
determinante de la matriz de las covarianzas.
Fuente: elaboración propia.
112 Complejidad y auto-organización de patrones naturales

Si se conoce con exactitud el valor inicial de la concentración de am-


bas especies de microorganismos para un tiempo igual a cero, el valor
inicial de la varianza también será igual a cero. No obstante, a medida
que transcurre el tiempo, se pone de manifiesto la incertidumbre
asociada al comportamiento aleatorio a nivel de los microorganismos
individuales, lo que se manifiesta en un incremento de la magnitud
de las fluctuaciones.
Las fluctuaciones internas en los sistemas estables escalan
con el tamaño del sistema de tal forma que se debe esperar
que estas se reacomoden –a partir de la condición inicial estableci-
da– hasta alcanzar un valor máximo. Una vez que las fluctuaciones
alcanzan este valor, comienza una etapa de disipación en la que su
magnitud disminuye hasta que alcanza un valor constante en el
tiempo. Es precisamente esta disipación de las fluctuaciones lo que
hace posible que se alcance un estado estacionario estable, corres-
pondiente a un punto en el espacio de fases que representa el atractor
del sistema.
Más de tres décadas de investigaciones sobre la proteína p53
han permitido entender cuáles son sus funciones, su incidencia en
relación con la longevidad y el envejecimiento (Kirkwood, 2011), la
regulación del metabolismo (Vousden y Prives, 2009), la apoptosis o
muerte celular programada y la supresión de tumores. Se ha compro-
bado que en las células tumorales no ocurren procesos de apoptosis
(Lane y Levine, 2010; Fulda, 2010), lo que evidencia el papel de la p53
en el desarrollo del cáncer.
Los estudios experimentales de la dinámica de la p53 y su inhibidor
–la proteína Mdm2– como respuesta a diferentes tipos de daños en el
ADN, muestran oscilaciones amortiguadas en poblaciones celulares y
oscilaciones periódicas en células individuales o en pequeños grupos
(Bar-Or et al., 2000; Geva-Zatorsky et al., 2006; 2010; Wee et al.,
2009). A pesar de que el comportamiento oscilatorio es ubicuo en los
sistemas biológicos (Nicolis y Prigogine, 1977; Nicolis y Deams, 1998;
Goldbeter, 2007), el significado físico de las oscilaciones de la p53 no
está claro (Wee et al. 2009).
Partiendo de la hipótesis fundamental de que las oscilaciones
de la p53 constituyen el factor desencadenante de la apoptosis
(Izquierdo-Kulich y Nieto-Villar, 2011), se propuso un mecanismo
en el cual se involucran tres especies: 1) la proteína p53 (x), 2) su
inhibidor (Mdm2) (y) y 3) una especie virtual Dm (z) que representa
3. Aspectos estocásticos de la complejidad 113

a las proteínas marcadoras del nivel de daño en el ADN (Bar-Or et


al., 2000) (figura 3.2).

Dm p53 Mdm2

Figura 3.2. Mecanismo para la regulación del proceso de apoptosis. Las flechas indican
los procesos de estimulación y los puntos, los procesos de inhibición.
Fuente: elaboración propia.

El modelo mesoscópico que se obtiene a partir del mecanismo pro-


puesto anteriormente es el siguiente:
dc
= α . (3.53)
dt

dσˆ
+ βˆ .
T
= Θ σˆ + σˆ Θ (3.54)
dt

donde:

Φ1 − Kxy Φ1 + Kxy 0 0  - Ky −Kx 0 


1
α =  Ax −Byz , βˆ =  0 
Ax +Byz 0  Θ =  A − Bz −By
, 

 Φ 2 − Cx  0 0 Φ2 + Cx -C 0 0 

 x
y c =  y
 
 z 

En la expresión, Φ1 representa la síntesis de p53 vía ADN; K es la


constante de inhibición de la p53 por la Mdm2; A es la constante de
velocidad de estimulación de la Mdm2 por la acción de la p53; B es la
constante de velocidad asociada a la inhibición de la Mdm2, causada
por los marcadores de daño Dm; Φ2 representa el nivel de daño y C es
114 Complejidad y auto-organización de patrones naturales

la constante de velocidad asociada a la reparación del daño debido a la


acción de la p53.
A partir del sistema de ecuaciones diferenciales (3.53) que describe el
comportamiento determinista, y suponiendo que Φ1 = K = A = C = 1, se
obtiene la expresión (3.55), que se cumple para un estado estacionario:
1 Φ 22
xss = Φ 2 ; y ss = ; z ss = . (3.55)
Φ2 B

El sistema dinámico al que hacemos referencia muestra oscilaciones


periódicas resultado de una bifurcación supercrítica de Andronov-
Hopf (figura 3.3).
B 250 Ciclo límite
200
150
100
Oscilaciones
50
amortiguadas

0 1 2 3 4 5
Φ2

Figura 3.3. Diagrama de bifurcación a partir de la dependencia de Bc con respecto a Φ2 .


Fuente: elaboración propia.

La ecuación de bifurcación correspondiente es:

B c = 2 + 2 Φ 32 . (3.56)

En la figura 3.4 se muestran la proyección de la trayectoria del sistema


en el plano (x, y) del espacio de fases bajo la condición de ciclo límite
y el comportamiento temporal del determinante de la matriz de las
covarianzas. Nótese que, en este caso, las fluctuaciones no se disipan,
sino que se retroalimentan y crecen hasta alcanzar el nivel macros-
cópico, con lo cual provocan la aparición de auto-organización tem-
poral y picos sostenidos en la concentración de la p53. Estos picos se
encuentran estrechamente relacionados con la ocurrencia del proceso
de apoptosis. Por lo tanto, de acuerdo con la hipótesis establecida, la
apoptosis ocurre como resultado de un proceso de auto-organización
3. Aspectos estocásticos de la complejidad 115

no lineal que tiene lugar lejos del equilibrio termodinámico y exhibe


una alta complejidad.

a. b.

5
80
4
60
3
40
2 20
1
1 1,2 1,4 1,6 1,8 2,0 2,2 2,4 2,6 0 5 10 15 20 25 30

Figura 3.4. Comportamiento de la p53 bajo la condición de ciclo límite: a. plano


de fases (x, y); y b. comportamiento temporal del determinante de la matriz de las
covarianzas.
Fuente: elaboración propia.

De acuerdo con el formalismo mesoscópico, el comportamiento de la


magnitud de las fluctuaciones internas, que se cuantifica a través de
la raíz cuadrada del determinante de la matriz de las covarianzas, está
dado por la expresión:

(det [σ ])0,5=
1 (Φ 5 4 6 3 2
2 B + 2 Φ 2 B + D1 B + D 2 B + D3 )
0,5

. (3.57)
Ω1,5 Φ 22 B (2 − B + 2 Φ 32 )
Se observa que la condición de bifurcación se encuentra en el denomi-
nador de la ecuación (3.57), de tal manera que:

B = Bc (det [σ ]) 0, 5
→∞
B < Bc (det [σ ]) 0, 5
>0 (3.58)
B > Bc (det [σ ]) 0, 5
<0.

El significado físico de la ecuación (3.58) es el siguiente: cuando el sis-


tema se encuentra en estado estacionario estable, el comportamiento
116 Complejidad y auto-organización de patrones naturales

dinámico muestra oscilaciones amortiguadas y la magnitud de las


fluctuaciones tiende a tomar un valor constante y mayor que cero, que
escala con el tamaño del sistema. En el punto de bifurcación las va-
rianzas y covarianzas tienden a un valor infinito, lo que indica que las
fluctuaciones se incrementan hasta la escala macroscópica; mientras
que, en el estado inestable, las fluctuaciones toman un valor negativo,
lo cual no tiene significado físico.
Los métodos estocásticos pueden utilizarse para modelar y en-
tender mejor los procesos de morfogénesis asociados a los patrones
espaciales complejos. Si las irregularidades espaciales que le confieren
fractalidad a una morfología se consideran una manifestación de las
fluctuaciones internas que se generan durante la formación de estos
patrones complejos, entonces es posible predecir el valor de la dimen-
sión fractal a partir de los procesos que ocurren a escala microscópica
y que determinaron la emergencia de dicha estructura.
Por lo tanto, si se conoce la función de probabilidad P(N, t) de
las fluctuaciones internas asociadas al proceso de formación de una
estructura, ¿qué consideraciones se deben hacer para poder estimar
su fractalidad? El primer aspecto a tomar en cuenta es que la dimensión
fractal de una imagen de la estructura en 2D se puede determinar ex-
perimentalmente, a partir de congelar la dinámica del sistema durante
un instante de tiempo. Bajo esta condición se supone la propiedad de
ergodicidad que plantea la equivalencia de los promedios temporales
y los promedios del conjunto. Esta importante consideración permite
establecer la equivalencia entre la realización temporal del proceso en
un pequeño sitio espacial y el patrón irregular que se observa cuando
se consideran, a un mismo tiempo, todos los sitios espaciales que
forman parte de la estructura. Por lo tanto, es necesario seleccionar la
variable N de manera tal que se relacione con la cantidad de sustancia
que forma parte de la estructura y se pueda observar en la imagen
bidimensional.
La otra interrogante es: ¿a qué se le está midiendo la dimensión
fractal? Si la dimensión fractal se corresponde con el contorno de
la estructura espacial, entonces lo que en realidad se está determi-
nando es la dimensión fractal de la interfase entre la estructura y su
entorno. Por otra parte, si se corresponde con la cantidad de sustan-
cia en 2D distribuida de forma no homogénea, se está determinando
la dimensión fractal que se encuentra relacionada con la densidad
anisótropa. En el primer caso, la varianza asociada a N va a permitir
3. Aspectos estocásticos de la complejidad 117

caracterizar la rugosidad de la interfase y la dimensión fractal a través


de la estimación del coeficiente de rugosidad local. En el segundo
caso, el valor promedio de la probabilidad, inversamente proporcional
a la varianza, permite establecer la densidad de sustancia a partir de la
cual se estima la dimensión fractal de capacidad.
Por último, es necesario considerar que la caracterización geomé-
trica de un objeto irregular se basa en la búsqueda de las leyes de
escalado que permitan realizar transformaciones topológicas sin que
se modifique la morfología. Por lo tanto, las ecuaciones que se utilicen
deben ser adecuadamente adimensionadas tomando en cuenta las
particularidades del objeto bajo estudio.
Los patrones de zinc obtenidos por electrodeposición exhiben
una morfología compleja que se caracteriza a través de la dimensión
fractal (Suárez et al., 2006) (figura 3.5).

a. b.

Figura 3.5. Patrones que se forman a través de la electrodeposición de zinc: a. corriente


10,3 mA, y b. corriente 3 mA.
Fuente: Adaptado de Suárez et al. (2006).

Para simular ese proceso se ha empleado con éxito el modelo desa-


rrollado por Witten y Sander (1981), basado en la difusión limitada
por la agregación (DLA). El modelo permite reproducir los patrones
observados pero no explica el porqué de su naturaleza fractal (fi-
gura 3.6). Estas estructuras ordenadas –o patrones– resultan de la
auto-organización espacio/temporal del sistema lejos del equilibrio
termodinámico y de la naturaleza no lineal de las interacciones de la
colectividad y los procesos de retroalimentación internos.
118 Complejidad y auto-organización de patrones naturales

Figura 3.6. Patrón espacial obtenido a partir del modelo de difusión limitada por la
agregación (DLA).
Fuente: elaboración propia a partir de Witten y Sander (1981).

El trabajo seminal de Turing en 1952 (Glandorf y Prigogine, 1971) dejó


establecido que la base de la morfogénesis es la aparición de una bifur-
cación. Esta bifurcación conduce al rompimiento de la simetría y está
asociada al acoplamiento de mecanismos del tipo reacción-difusión.
El proceso de formación del patrón mostrado en la figura 3.2
comienza con la deposición de una primera partícula de zinc en el
centro de la superficie. Esta partícula actúa como un atractor primario
para los iones que hay en la solución; los iones se mueven libremente
hasta que se encuentran con una partícula que forma parte del patrón
con el cual interaccionan hasta convertirse en parte del agregado.
Debido a que la deposición ocurre cuando se produce una interacción
entre los iones libres y las partículas depositadas que forman parte del
agregado, es más probable que la interacción ocurra en las zonas más
alejadas del centro; lo que conlleva a la aparición de ramificaciones
que determinan el carácter fractal de la estructura. Las partículas que
forman parte del agregado primario pueden convertirse en atractores
secundarios y se producen entonces ramificaciones secundarias que
rompen con la simetría original del agregado.
Es posible que, como resultado del proceso que ocurre durante la
formación del patrón, tengan lugar, teóricamente, infinitas ramifica-
ciones, cada una de las cuales representa una bifurcación en el sistema
porque los iones cambian la dirección de su movimiento y se dirigen
hacia el nuevo atractor. Este proceso se produce de forma simultánea, es
3. Aspectos estocásticos de la complejidad 119

decir, la formación de los agregados secundarios se produce a la vez que


evoluciona el agregado primario (Suárez et al., 2006).
Para obtener el modelo mesoscópico se divide la superficie en cel-
dillas y, considerando como sistema una celdilla elemental en la cual
ocurren los procesos anteriormente descritos, se escribe la ecuación
maestra. Partiendo de la solución de estado estacionario estable de la
ecuación maestra, se establece una equivalencia entre el valor esperado
de la probabilidad y la densidad de sustancia, de tal forma que, a través de
sucesivas integraciones que representan los procesos de ramificación se
obtiene una ecuación recursiva que permite estimar el comportamiento
de la dimensión fractal con respecto al orden de la ramificación:

(
D f , n + 1 = 1 , 5 + 0 , 5 2 − D0, n )
(3.59)
D0, n = 0 = 2 .

Si se considera que los diferentes órdenes de ramificación ocurren de


forma secuencial en el tiempo, entonces la ecuación (3.59) predice que
la dimensión fractal presenta un comportamiento temporal oscilatorio
y tiende a un valor aproximado de 1,7 cuando el tiempo tiende a infinito,
lo que corresponde con los resultados obtenidos al utilizar el modelo
DLA (Suárez et al., 2006). Este resultado teórico también se corresponde
con los resultados experimentales que se ilustran en la figura 3.7.
a. b.

1,78 2,0
1,76
1,9
1,74
1,72 1,8
I Baja
1,70
Ds

Ds

I Alta
1,7
1,68
1,66 1,6
1,64 1,5
1,62
0 50 100 150 200 250 300 350 400 0 2 4 6 8 10
t(s) t(s)

Figura 3.7. Comportamiento temporal de la dimensión fractal en procesos de electro-


deposición de zinc: a. resultados experimentales, y b. resultados teóricos.
Fuente: Adaptado de Suárez et al. (2006).
120 Complejidad y auto-organización de patrones naturales

Las biopelículas están formadas por una población de microorga-


nismos que crece adherida sobre la superficie de un sólido y que se
encuentra en contacto con un fluido del cual los microorganismos
toman el sustrato necesario para crecer y desarrollarse (Izquierdo-
Kulich, 1998; 2000). El fluido ejerce una acción de corte sobre la
superficie de la biopelícula que conlleva al desprendimiento de parte
de los microorganismos y que regula, de alguna manera, el espesor
máximo que esta puede alcanzar.
La observación de un corte perpendicular al plano de la biopelícula
muestra, a nivel microscópico, una interfase irregular biopelícula-
fluido que comúnmente se caracteriza a través de la rugosidad, iden-
tificada con la desviación que presenta el espesor real con respecto al
valor esperado o promedio.
A partir de la aplicación de los métodos estocásticos basados en la
ecuación maestra (Izquierdo-Kulich, 2000; Rodríguez et al. 2002) se
logró predecir el comportamiento temporal del espesor y la relación
existente entre la rugosidad y el espesor promedio cuando se alcanza
el estado estacionario estable. La comparación entre los resultados
experimentales y los teóricos se muestra en la figura 3.8.
a. b.
40 4
35 2
30
0
25
8
20
6
15
4
10

5 2

0 0
0 50 100 150 200 250 300 350 0 5 10 15 20 25 30 35 40

Figura 3.8. Evolución de biopelículas: a. comportamiento temporal del valor esperado


de espesor, y b. comportamiento de la rugosidad con respecto al espesor. Comparación
entre los resultados teóricos –representados mediante líneas– y los experimentales
–representados mediante puntos.
Fuente: Adaptado de Rodríguez et al. (2002).
3. Aspectos estocásticos de la complejidad 121

Brú y sus colaboradores realizaron un estudio sobre la morfología


de las células tumorales que se desarrollan in vitro en 2D (Brú et al.,
1998; 2003) y que el cultivo presenta una forma circular, cuyo radio
se incrementa linealmente con el tiempo, y un contorno rugoso, cuya
dimensión fractal es constante y depende del tipo de célula (Brú et al.,
1998; 2003).
Para describir la morfología de estas células a partir del formalis-
mo mesoscópico se parte de la suposición de que el crecimiento del
cultivo solo es posible debido a la proliferación de las células que se
encuentran en la interfase, en las cuales el crecimiento se encuentra
físicamente limitado por el tamaño total del sistema en el cual se
desarrolla (Izquierdo-Kulich y Nieto-Villar, 2007; 2008). A partir del
modelo obtenido y de establecer relaciones de escalado apropiadas se
obtiene el valor promedio del radio (R) del cultivo (3.60) y la dimensión
fractal del contorno (3.61):

R = Vt + R 0
(3.60)
V = ψ −η .

 ψ 
5− 
η .
df = (3.61)
 ψ 
1+ η 
 

ψ es la velocidad de mitosis y η es la velocidad de apoptosis.


A partir de la velocidad de crecimiento V y la dimensión fractal df
del contorno es posible estimar las constantes de velocidad de mitosis
y apoptosis de las células tumorales haciendo uso de las ecuaciones
(3.60) y (3.61). Este resultado puede utilizarse en los estudios que se
realizan in vitro para probar nuevas estrategias de terapia contra el
cáncer. En la figura 3.9 se muestran las morfologías experimentales y
las morfologías simuladas a partir del modelo propuesto.
Entre otros factores clínicos, el diagnóstico del cáncer se basa en la
morfología del patrón celular de los tejidos biológicos que se obtienen
mediante biopsias. Al igual que en los cultivos in vitro, el objetivo
fundamental es obtener una relación entre la dimensión fractal del
patrón celular y la dinámica de los procesos de mitosis y apoptosis
que tienen lugar a nivel de las células tumorales in vivo, de tal forma
122 Complejidad y auto-organización de patrones naturales

que el resultado teórico obtenido pueda ser utilizado para enriquecer


el diagnóstico.

a. b.
3 500

3 000

2 500
Y (microns)

2 000

1 500

1 000

500
R = 2 500 R = 2 000 R = 1 500
0
500 1 000 1 500 2 000 2 500 3 000 3 500 R = 1 000 R = 500
X (microns)
Figura 3.9. a. Morfología experimental de los cultivos de células tumorales in vitro y b.
morfología obtenida empleando el modelo propuesto.
Fuente: Adaptado de Izquierdo-Kulich y Nieto-Villar (2007).

Para obtener el modelo se considera como sistema una región Ω en 2D


en el interior del tumor. Debido a la competencia por el espacio, que
físicamente se corresponde con la imagen que se observa para realizar
el diagnóstico, dentro de esta región se alcanza un estado estacionario
(figura 3.10).
Al considerar como variable intensiva la fracción de área cubierta
por las células tumorales, se logra obtener la relación entre la dimen-
sión fractal del patrón celular y el índice de proliferación del tumor k
(Izquierdo-Kulich y Nieto-Villar, 2011), relacionado con su velocidad de
crecimiento y definido como el cociente entre la velocidad de mitosis y
la velocidad de apoptosis. Este comportamiento se muestra en la figura
3.11, donde se puede observar que la dimensión fractal se incrementa
con el índice de proliferación (Izquierdo-Kulich et al., 2009b).
El modelo obtenido se empleó para predecir el comportamiento
de las constantes de velocidad de mitosis y apoptosis con respecto a la
edad en un grupo de pacientes diagnosticadas con carcinoma epider-
moide de cervix en etapa clínica III.
3. Aspectos estocásticos de la complejidad 123

Tumor Z

Tejido sano Patrón celular


Escala macroscópica Ψ ~ L³ Escala mesoscópica Ω ~ Z ³

Figura 3.10. Imágenes de la biopsia de un tumor in vivo observada bajo diferentes


niveles de magnificación.
Fuente: elaboración propia.

D
1,8
1,7

1,6

1,5
1,4

1,0 1,2 1,4 1,6 1,8 2,0


k

Figura 3.11. Relación entre la dimensión fractal Df y el índice de proliferación del tumor
k del patrón celular.
Fuente: elaboración propia.

El índice de proliferación que indica el cociente entre ambos co-


eficientes se calculó a partir de la dimensión fractal de las biopsias
correspondientes a cada paciente.
En la figura 3.12 se muestran los resultados obtenidos a partir de las
imágenes de las biopsias. Los resultados predicen que en este tipo de
tumor la velocidad de mitosis de las células tumorales, estrechamente
relacionada con la agresividad, disminuye con el envejecimiento del pa-
ciente, lo cual se encuentra en correspondencia con los resultados de los
estudios clínicos realizados (Izquierdo-Kulich et al., 2009a; Izquierdo-
Kulich et al., 2011).
124 Complejidad y auto-organización de patrones naturales

a. b.
1,6
0,05
1,4
1,2
1,0 a 0,04
B
0,8
0,6 A 0,03
0,4 a

0,2 0,02
20 30 40 50 60 70 80 20 30 40 50 60 70 80
g g

Figura 3.12. a. Comportamiento de la velocidad de mitosis con respecto a la edad, y b.


comportamiento de la velocidad de apoptosis.
Fuente: elaboración propia.

Bibliografía
Anishchenko, V.S. et al. (2007): Non Lineal Dynamics of Chaotic and
Stochastic Systems, Springer-Verlag, Berlin Heidelberg.
Bar-Or, R.L. et al. (2000): «Generation of Oscillations by the p53-Mdm2
Feedback Loop: A Theoretical and Experimental Study», Proceed-
ings of the National Academy of Science of United States of America
(PNAS), vol. 97, pp. 11250-11255.
Brú, A. et al. (1998): «Super-rough Dymanics of Tumor Growth», Physical
Review Letters, vol. 81, pp. 4008-4011.
Brú, A. et al. (2003): «The Universal Dynamics of Tumor Growth», Biophysi-
cal Journal, vol. 85, n.o 5, pp. 2948-2961.
Esposito, M. y C. Van den Broeck (2010): «The Three Faces of the Second
Law: I. Master Equation Formulation», Physical Review, <http://arxiv.
org/abs/1005.1683> [3/5/2013].
Fulda, S. (2010): «Evasion of Apoptosis as a Cellular Stress Response in
Cancer», International Journal of Cells Biology, <http://www.hindawi.
com/journals/ijcb/2010/370835/> [3/5/2013].
García , J.M.; J.M. Nieto-Villar y J. Rieumont (1996): «Entropy Produc-
tion Rate as an Evolutive Criteria in Chemical Systems. II. Chaotic
Reactions», Physica Scripta, vol. 53, p. 643.
Gardiner, C.W. (2004): Handbook of Stochastic Methods, Springer-Verlag,
Berlin Heidelberg.
Gaspard, P. (2011): «Fluctuation Theorem, Nonequilibrium Work, and Mo-
lecular Machines», en From Non-covalent Assemblies to Molecular
Machines, Wiley-VCH, Weinheim, pp. 307-311.
3. Aspectos estocásticos de la complejidad 125

Geva-Zatorsky, N.E.; E. Batchelor, G. Lahav y U. Alon (2010): «Fou-


rier Analysis and Systems Identification of the p53 Feedback Loop»,
Proceeding of the National Academy of Sciences of the United States of
America (PNAS), vol. 107, pp. 13550-13555.
Geva-Zatorsky, N.E. et al. (2006): «Oscillations and Variability in the p53
System», Molecular Systems Biology, vol. 2, <http://www.ncbi.nlm.
nih.gov/pmc/articles/PMC1681500/> [3/5/2013].
Glandorf, P. y I. Prigogine (1971): Structure stabilite et fluctuations,
Mansson et C.ie, Paris.
Goldbeter, A. (2007): «Biological Rhythms as Temporal Dissipative Struc-
tures», en Special Volume in Memory of Ilya Prigogine: Advances in
Chemical Physics, vol. 135, Wiley, New York, pp.
Izquierdo-Kulich, E. (1998): «Descripción estocástica de biopelículas
en filtros percoladores», Tesis de Maestría en Ingeniería Química,
UNAM, México D.F.
__________ (2000): «Modelación estocástica de filtros percoladores», Tesis de
Doctorado en Ciencias Técnicas, Centro Universitario José Antonio
Echeverría, La Habana.
Izquierdo-Kulich, E.; M. Amigó de Quesada; C.M. Pérez Amor y J.M.
Nieto-Villar (2011): «Morphogenesis and Aggressiveness of Cervix
Carcinoma», Mathematical Biosciences and Engineering, vol. 8, n.o 4,
pp. 987-997.
Izquierdo-Kulich, E. y J.M. Nieto-Villar (2007): «Mesoscopic Model for
Tumor Growth», Mathematical Biosciencies and Engineering, vol. 4,
n.o 4, pp. 687-698.
__________ (2008): «Morphogenesis of the Tumor Patterns», Mathematical
Biosciences and Engineering, vol. 5, n.o 2, pp. 299-313.
__________ (2011): «An Mesoscopic Approach to Model Regulation of Apop-
tosis by p53», Revista Cubana de Física, vol. 28, pp. 119-122.
Izquierdo-Kulich, E. et al. (2009a): «Predicción de la agresividad del
cáncer de cérvix a partir de la morfología del tejido tumoral», Revista
Cubana de Física, vol. 36, pp. 246-250.
Izquierdo-Kulich, E. et al. (2009b): «The Dynamics of Tumor Growth and
Cells Pattern», Mathematical Biosciences and Engineering, vol. 6, n.o 3,
pp. 547-559.
Kirkwood, T.B.L. (2011): «Systems Biology of Ageing and Longevity»,
Philosophical Transactions of Royal Society, vol. 366, pp. 64-70.
Lane, D. y A. Levine (2010): «p53 research: The Past Thirty Years and the
Next Thirty Years», en Cold Spring Harbor Perspectives in Biology,
126 Complejidad y auto-organización de patrones naturales

<http://cshperspectives.cshlp.org/content/early/2010/05/10/cshpers-
pect.a000893.full.pdf+html> [3/5/2013].
Luo, J.L.; C. Van den Broeck y G. Nicolis (1984): «Stability Criteria and
Fluctuations around Nonequilibrium States», Zeitschrift für Physic,
vol. 56, Berlin Heidelberg, pp. 165-170.
Mou, C.Y.; J.L. Luo y G. Nicolis (1986): «Stochastic Thermodynamics of
Nonequilibrium Steady States in Chemical Systems», The Journal of
Chemical Physics, vol. 84, pp. 7011-7017.
Nicolis, G. (2011): «Transformation Properties of Entropy Production»,
Physical Review, vol. 83, pp.
Nicolis, G. y D. Daems (1998): «Probabilistic and Thermodynamics Aspects
of Dynamical System», Chaos, vol. 8, pp. 311-320.
Nicolis, G. y I. Prigogine (1977): Self-organization in Non Equilibrium
System, Wiley, New York.
Nieto-Villar, J.M.; J.M. García y J. Rieumont (1995): «Entropy Produc-
tion Rate as an Evolutive Criteria in Chemical Systems. I. Oscillating
Reactions», Physica Scripta, vol. 52, p. 30.
Rodríguez, R.F.; J.M. Zamora, E. Salinas-Rodríguez y E. Izquierdo
(2002): «Stochastic Modelling of some Aspects of Biofilm Behaviour»,
Revista Mexicana de Física, vol. 49, n.o 2, pp. 132-143.
Schnakenberg, J. (1976): «Network Theory of Microscopic and Macroscopic
Behavior of Master Equation Systems», Review of Modern Physics, vol.
48, pp. 571-585.
Suárez, E.J. et al. (2006): «Morfogénesis de patrones formados por electro-
deposición», Revista Cubana de Física, vol. 23, pp. 118-126.
Van Kampen, N.G. (1992): Stochastic Processes in Physics and Chemistry,
North-Holland Publishing Company, Amsterdam.
Vousden, K. y C. Prives (2009): «Blinded by Light: The Growing Complex-
ity of p53», Cell, vol. 137, pp. 413-431.
Wee, K.B.; U. Surana y B.D. Aguda (2009): «Oscillations of the p53-Akt
Network: Implications on Cell Survival and Death», PLoS ONE,
<http://www.plosone.org/article/info:doi%2F10.1371%2Fjournal.
pone.0004407> [3/5/2013].
Witten, T.A. y L.M. Sander (1981): «Diffusion-limited Aggregation, a
Kinetic Critical Phenomenon», Physical Review Letters, vol. 47, pp.
1400-1403.

g
4. Series temporales*
Eduardo Tejera Puente

En la introducción se comentó que el estudio de la dinámica de un


sistema se puede realizar a través de la modelación determinista o
estocástica –como se ha mostrado en los capítulos 2 y 3– o mediante
la reconstrucción de su dinámica a través de las series temporales. La
dificultad que se enfrenta para elaborar un modelo dinámico de un
sistema radica en el hecho de que no siempre se dispone de primeros
principios, de ahí que se hace necesario el empleo de las series tempo-
rales. Las series temporales ofrecen un marco apropiado para carac-
terizar la complejidad de un sistema –como se verá a continuación– y
resolver el problema inverso, es decir, reconstruir su dinámica.
El estudio de las series temporales no solo es un área con una gran
aplicación práctica, sino que constituye un espacio de investigación
básica profunda y continua. Las razones son simples: las herramientas
para el estudio de las series temporales son, en gran medida, adapta-
das, evaluadas y recontextualizadas en dependencia de los problemas
físicos concretos. Por ejemplo, para el estudio y la predicción de
huracanes y de reacciones químicas se pueden utilizar herramientas
comunes, pero las características internas de estos sistemas exigen que
se utilicen modelos que estudien las series temporales considerando
sus particularidades.
Una serie temporal constituye un conjunto de mediciones obteni-
das sobre un sistema en diferentes intervalos de tiempo; esto implica
directamente la idea de correlación y, por tanto, deja fuera la aplicación

* En la elaboración de este capítulo se contó con la colaboración de la Dra. I. Rebelo,


de la Facultad de Farmacia de la Universidad de Oporto, en Portugal, por lo cual se
agradece su participación.
128 Complejidad y auto-organización de patrones naturales

de muchos métodos estadísticos en los que se asume a priori que las


mediciones son independientes. Sin embargo, es posible percatarse
fácilmente de que esta idea de serie temporal sugiere una similitud con
el concepto de secuencia.1 La similitud entre las series temporales y
las secuencias ha permitido la extrapolación de muchas herramientas
del análisis de series temporales al estudio de las secuencias proteicas
y del ADN-array (Chun-Biu et al., 2008; Choong et al., 2009, p. 1), lo
cual resalta, una vez más, la gran aplicabilidad del estudio de las series
temporales.
Antes de seguir adelante se debe decir que el estudio de las series
temporales se ha llevado a cabo históricamente sobre la base de dos
dominios principales: el del tiempo y el de la frecuencia (Schelter et
al., 2006; Shumway y Stoffer, 2010). El enfoque apoyado en el dominio
del tiempo plantea que las correlaciones entre dos mediciones vecinas
pueden ser explicadas con mayor exactitud si se considera la depen-
dencia que tienen los valores del presente con relación a los valores
del pasado. Está claro que en estos métodos se busca establecer una
función entre el presente y el pasado. Dentro del dominio del tiempo
se pueden encontrar, por ejemplo, los conocidos métodos forecasting y
los modelos auto-regresivos.
El enfoque basado en el dominio de la frecuencia considera que
la característica más importante del proceso de análisis de las series
temporales está relacionada con las variaciones sinusoidales periódi-
cas o sistemáticas encontradas en las series (Shumway y Stoffer, 2010).
Estas variaciones periódicas o sistemáticas pueden ser, por ejemplo,
el resultado de procesos biológicos o físicos como el estudio del clima
o los latidos cardíacos. Dentro de este enfoque son más comunes los
métodos del análisis espectral y los wavelet (Percival y Walden, 2000;
Priestley, 2001).
Existen diferentes métodos para el estudio de las series temporales;
de ellos se analizarán en este capítulo los conocidos como métodos no
lineales, que se han desarrollado especialmente dentro del grupo del
dominio del tiempo (Kantz y Schreiber, 2004) y cuyo objetivo esencial
es el estudio de series temporales asociadas a sistemas en los cuales las
relaciones que se establecen entre diferentes mediciones no pueden
ser simplificadas o explicadas asumiendo comportamientos lineales.
Una secuencia es un conjunto de valores, objetos o funciones cuyas característi-
1

cas también dependen de la posición de cada elemento dentro del conjunto y de


sus posibles correlaciones.
4. series Temporales 129

4.1. Sistemas no lineales


Los sistemas no lineales son aquellos que no presentan una relación
lineal en las correlaciones presentes en las estructuras regulares de
la serie temporal. En el modelo lineal eventualmente se asume que
perturbaciones pequeñas generan respuestas pequeñas y que el ruido
o irregularidad de la señal es consecuencia de algún proceso alea-
torio. Las señales correspondientes a estos sistemas pueden parecer
completamente ruidosas o irregulares pero, sorpresivamente, esta
irregularidad no es una consecuencia de procesos aleatorios, sino de
procesos deterministas (Hegger et al., 1999, p. 413; Kantz y Schreiber,
2004; Schelter et al., 2006).
La presencia conjunta de procesos no lineales y aleatorios es po-
sible, conlleva a señales muy irregulares e incrementa la complejidad
del estudio de las series temporales. En la figura 4.1 aparecen cuatro
ejemplos de series temporales donde las medias y las desviaciones
estándares son exactamente iguales y, sin embargo, aun así, las diná-
micas son completamente diferentes; incluso se puede ir más lejos e
igualar los espectros de potencia usando la misma función de auto-
correlación (Kaplan, 1994).

a. b.

c. d.

Figura 4.1. Ejemplos de series temporales correspondientes a varias dinámicas: a.


periódica, b. caótica, c. browniana y d. ruido blanco. Todas tienen la misma media y
desviación patrón.
Fuente: elaboración propia.
130 Complejidad y auto-organización de patrones naturales

En la práctica no siempre es posible conocer de antemano si las inte-


racciones de las variables son lineales o no, o si el ruido que se aprecia
es realmente ruido o es un proceso determinista. Por estas razones, se
ha creado un conjunto de herramientas matemáticas para facilitar la
identificación de procesos no lineales en las series temporales.

4.1.1. Test de no linealidad


La primera pregunta sería: ¿para qué es necesario aplicar métodos
no lineales? Hay algunos que responderán con seguridad diciendo
que conocen que el sistema en sí no es lineal; sin embargo, esto no
implica necesariamente que la serie temporal, la variable que está
siendo medida, reflejará la no linealidad del sistema que es conocida
con anterioridad.
Dado que los métodos son más variados y robustos es innegable
que considerar el sistema como lineal y aplicar las baterías de métodos
matemáticos disponibles en esta área es la idea más sensata. Sin em-
bargo, además de la justificación anterior, para emplear los métodos
no lineales hay otra razón de naturaleza mucho más práctica. Puede
suceder que, a pesar de aplicar los métodos convencionales de análisis
lineal, el investigador aún considere que hay algo que no ha sido en-
tendido satisfactoriamente. En realidad, esta sería la razón más justa
cuando hay que enfrentarse a un sistema que se desconoce casi por
completo o cuyo comportamiento puede ser considerado no lineal.
La práctica ha demostrado que la diferenciación entre una persona
normal, otra con infarto cardiovascular y otra con fibrilación atrial,
a partir de la señal de variabilidad de la frecuencia cardíaca, es más
completa si se usan índices matemáticos con base en los métodos no
lineales; a pesar de que es discutible –hasta cierto punto– si en estas
series hay o no un comportamiento no lineal (Costa y Healey, 2003;
Hu et al., 2010; Ho et al., 2011).
Sin embargo, si en la serie no se da un comportamiento no lineal,
aunque sea débil, no hay razones –al menos no analíticas– que justifi-
quen la aplicación de métodos no lineales. Se han desarrollado algunos
métodos para detectar la no linealidad.
Entre estos, la estrategia más usada es, sin dudas, el método de sus-
titución de datos –surrogate data– (Theiler et al., 1992, p. 77). Aunque
las justificaciones o descripciones estadísticas asociadas a este método
puedan ser complejas en ocasiones, la idea es realmente simple. Su-
póngase que se mide un determinado índice no lineal en una serie
4. series Temporales 131

temporal. La pregunta que seguiría es: ¿sería realmente este índice


estadísticamente diferente del calculado considerando un proceso
lineal? Evidentemente, responder esta pregunta implica conocer la
forma de la distribución de las fluctuaciones del índice no lineal, la cual
debe ser estimada usando, por ejemplo, el método de Monte Carlo. En
otras palabras, el método de sustitución de datos consiste básicamente
en comparar un índice matemático –que mide la no linealidad– con el
mismo índice, pero esta vez obtenidos de múltiples series temporales,
generadas casi siempre por transformaciones de la serie original, que
representen la hipótesis nula en la comparación estadística (Theiler et
al., 1992, p. 77; Schreiber y Schmitz, 1996, p. 635; Hegger et al., 1999;
Schreiber, 1999).
Usar transformaciones de la serie original tiene múltiples pro-
pósitos y la forma de hacerlo genera diversos métodos. De hecho, el
punto neurálgico en la metodología es precisamente descubrir cómo
se producen las series temporales que se usarán como hipótesis nula.
En general, los métodos de creación se basan en:

•  intercambiar aleatoriamente las mediciones en la serie tem-


poral,
•  generar series temporales con la misma media, desviación
estándar y función de auto-correlación que en la serie original,
pero cuyos valores sean aleatorios; y
•  pasar del dominio temporal al dominio de las frecuencias
mediante la transformada de Fourier, con amplitud ajustada.

Estos métodos intentan crear un ensemble de series con las propiedades


de la serie original que no presente ninguna característica derivada de
interacciones no lineales. Cada una de las formas de generar las series
surrogadas presenta determinadas ventajas y limitaciones, muchas de
las cuales han sido corregidas o generalizadas en trabajos anteriores a
este (Prichard y Theiler, 1994, p. 951; Schreiber, 1998, p. 2105).
Si ya se sabe que determinada propiedad de interés muestra una
variación significativa con respecto a las series surrogadas, se tiene un
buen indicio de que se esté representando un proceso no lineal. Sin
embargo, para el análisis adecuado de la serie deben ser considerados
otros elementos, ya que el cálculo de una determinada propiedad
puede inducir un conjunto de errores que afecten la distribución y el
significado físico de dicha propiedad.
132 Complejidad y auto-organización de patrones naturales

Los aspectos a considerar para cualesquiera de los métodos que se


deseen aplicar son varios –además de sus limitaciones intrínsecas–.
Por razones obvias de espacio y en correspondencia con la naturaleza
de esta monografía, solo se abordarán algunos de los tópicos más
importantes, uno de los cuales es la estacionariedad de la serie. De
forma simple se puede decir que una serie es estacionaria cuando
no hay variaciones en la media –es decir, no hay tendencia–, ni en
la varianza y tampoco ocurren procesos estrictamente periódicos
–procesos estacionarios cíclicos–. Sin embargo, en sistemas no linea-
les es más apropiado considerar que la señal es estacionaria si todas
las probabilidades conjuntas de encontrar al sistema en un estado, en
un tiempo t y un tiempo después, son independientes del intervalo
de medición (Hegger et al., 1999, p. 413; Schreiber, 1999; Kantz y
Schreiber, 2004).

4.1.2. Test de estacionariedad


La definición de estacionariedad que se basa en las probabilidades
condicionales –véase el capítulo 3–, aunque robusta, es una limitante
porque en las series temporales –y en muchas otras mediciones experi-
mentales– las probabilidades son desconocidas a priori y, cuando son
calculadas a partir de las series, presentan variaciones de naturaleza
estadística que distorsionan la condición de igualdad en las series tem-
porales. Si se realiza un análisis de la literatura, se pueden encontrar
variadas definiciones de estacionariedad que en muchos casos consi-
deran la naturaleza física del sistema (Hegger et al., 1999, p. 413). En
otras palabras, la estacionariedad debe garantizar que en el tiempo de
medición los parámetros de interés se mantengan constantes y que los
fenómenos de interés asociados a la dinámica sean lo suficientemente
frecuentes.
A manera de ejemplo, imagínese la serie temporal compuesta por
la diferencia de tiempo entre latidos cardíacos consecutivos, llamada
variabilidad de la frecuencia cardíaca (VFC). Este intervalo varía en
cortos períodos de tiempo y también en situaciones de estrés o de
esfuerzo; pero, a la vez, presenta una variación circadiana intrínseca,
de manera que la parte de la serie a estudiar y el criterio de estaciona-
riedad dependerá de los intereses del investigador para su análisis.
Otro problema importante a considerar en el estudio de una serie
temporal es el número de mediciones. En ocasiones, las condiciones
experimentales o los recursos con que se cuentan determinan, en gran
4. series Temporales 133

medida, el número de mediciones que se pueden obtener; sin embargo,


para poder aplicar los métodos de análisis no lineales, es imprescindi-
ble que la serie tenga más de 1 000 mediciones, e incluso más de 2 000.
Muchos de los métodos clásicos de análisis, como la determinación de
los exponentes de Lyapunov, el cálculo de la dimensión de embebido y
el tiempo de retardo, necesitan series con un gran número de puntos
(Hegger et al., 1999, p. 413; Schreiber, 1999); pero hay otros métodos
que son estables en series relativamente pequeñas.
Existe una relación de dependencia entre la longitud de la serie
y su estacionariedad.2 En los sistemas biológicos fundamentalmente
se cumple que la posibilidad de adicionar comportamientos no es-
tacionarios generados por ritmos circadianos, o por condiciones de
estímulo-respuesta, etcétera, es proporcional al tiempo de medición.
No hay una regla universal que nos permita determinar el número
de mediciones óptimo y garantizar que la serie contenga toda la
información concerniente a la dinámica del sistema. Simplemente
el investigador debe tener conocimiento sobre el sistema que quiere
estudiar.
A pesar de que no se puede establecer un modo de balancear la
estacionariedad de la serie en relación con la cantidad de mediciones,
sí se dispone de algunos test de estacionariedad que pueden ser de
gran ayuda para el investigador porque permiten conocer o estudiar la
estacionariedad. La mayoría de los métodos matemáticos que se em-
plean para el estudio de las series temporales tienen comportamiento
estacionario y, por tanto, en muchas ocasiones, es necesario eliminar
o atenuar los procesos no estacionarios que puedan estar presentes en
el intervalo de medición.
La primera idea concerniente a cómo evaluar la estacionariedad de
una serie temporal es, sin dudas, fraccionar la serie en varios pedazos,
evaluar seguidamente un determinado índice en cada una de las partes
–media, varianza, desviación estándar, etcétera– y luego ver si, según
un determinado criterio estadístico establecido, las diferencias entre
estos valores son significativas o no. Si las diferencias son significati-
vas, entonces no hay estacionariedad.
Esta idea es usada con frecuencia en los llamados métodos de
ventanas móviles. En principio, pueden existir tantas variantes me-
todológicas como índices y/o estadígrafos se puedan imaginar (Isliker

Es deseable que las series sean largas.


2
134 Complejidad y auto-organización de patrones naturales

y Kurths, 1993, p. 1573; Kennel, 1997, p. 316; Schreiber, 1997, p. 843;


Yoosoon, 2002). Con respecto a estos procedimientos, es importante
agregar que en la práctica no se deben mirar fríamente los test de es-
tacionariedad, es decir, no se les debe restringir como único criterio de
validación. El investigador debe considerar en su análisis la naturaleza
física del sistema, el conocimiento que se pueda tener a priori de las
diferentes escalas temporales en las que el sistema responde y, al mis-
mo tiempo, tener claro el problema específico que se quiere abordar o
estudiar en la serie temporal.
Además de los métodos analíticos están disponibles otros de
naturaleza más cualitativa o visual. Uno de los mayormente usados
se deriva del llamado gráfico de recurrencia (Eckmann et al., 1987,
p. 973; Casdagli, 1997, p. 206; Zbilut y Webber Jr., 2007). Este método
se propone la representación en 2D de la proximidad de los estados en
el espacio de fase: dos estados cercanos entre sí –la distancia está defi-
nida por un valor límite– forman un punto en el gráfico de recurrencia.
Consecuentemente, en un sistema aleatorio es poco frecuente que
los estados estén próximos unos de otros, de manera que el gráfico de
recurrencia es cubierto con puntos negros. En un sistema periódico solo
habrá un conjunto de estados próximos entre sí y la recurrencia será
mucho mayor, por lo que se revelan puntos o regiones negras simétricas
en el gráfico de recurrencia. En la figura 4.2 se puede ver claramente la
diferencia de los patrones en la variación desde el extremo periódico
y el aleatorio.

a. b. c.

Figura 4.2. Imágenes de los gráficos de recurrencia para a. serie periódica, b. movi-
miento browniano y c. ruido blanco.
Fuente: elaboración propia.
4. series Temporales 135

La presencia de patrones geométricos y de líneas que pueden ser ho-


rizontales o verticales es un indicador de determinadas regularidades.
Evidentemente, esta representación es también un recurso para iden-
tificar la presencia de patrones o correlaciones en la serie temporal,
más allá de la apreciación o no de la estacionariedad.
Como se dijo anteriormente, la mayoría de los métodos que se apli-
can para el estudio de las series temporales consideran que hay un cier-
to nivel de estacionariedad, por lo que, en ocasiones, es imprescindible
eliminar o disminuir algunas regularidades –o irregularidades– de
una serie temporal. Por ejemplo, durante el estudio de la variabilidad
de las frecuencias cardiovasculares es importante eliminar el efecto
circadiano, un comportamiento periódico de muy baja frecuencia (Te-
jera et al., 2010). La no estacionariedad de la serie, en ocasiones, puede
ser reducida o eliminada aplicando diferentes procedimientos (Huang
et al., 1998; Schreiber, 1999; Fonseca-Pinto, 2011; Kantz y Schreiber,
2004). Algunos de los métodos que se emplean son:

•  Diferencias de primer orden: consiste en diferenciar la serie


temporal y puede emplearse para órdenes superiores de dife-
renciación.
•  Ajuste polinómico: la serie es ajustada a polinomios con ór-
denes elevados para eliminar mayoritariamente las tendencias
centrales y los ciclos.
•  Trasformación de Hilbert-Huang: es una poderosa metodología
que puede ser aplicada en series no estacionarias y no lineales,
y descompone la serie según varias funciones instantáneas.

La selección de un método u otro está en función del contexto del


problema. Sin embargo, para el análisis de series no lineales, la tras-
formación de Hilbert-Huang no solo proporciona gran seguridad
sino que brinda otros elementos como los modos de frecuencia, que
pueden ser de gran ayuda para realizar un análisis espectral de la serie
(Fonseca-Pinto, 2011).
El estudio de series temporales involucra varios aspectos: la presen-
cia o no de interacciones no lineales, la estacionariedad y el tamaño de
la serie. En el caso de las series temporales que se obtienen de sistemas
biológicos en particular hay que considerar otras complicaciones
como el ruido propio de las mediciones, la naturaleza del sistema y su
carácter multifactorial.
136 Complejidad y auto-organización de patrones naturales

Con la intención de caracterizar la complejidad de las series tem-


porales y, fundamentalmente, con la finalidad de proporcionar indi-
cadores de gran valor físico, biológico o –más importante– clínico; el
estudio de la naturaleza no lineal incluye la creación –o aplicación–
de diversos métodos que permitan cuantificar las propiedades de la
señal (Glass y Kaplan, 1993), como se verá en el próximo acápite. No
es posible aquí presentar el estudio de todos estos métodos; por eso se
hará referencia a aquellos que se aplican con mayor frecuencia para el
estudio de series temporales de origen biológico.

4.2. Métodos de caracterización en series temporales


Son varios los métodos que se han utilizado para estudiar series tempo-
rales no lineales. Algunos son usados hoy para la obtención de índices
que permitan comparar condiciones fisiológicas diferentes. El primero,
y más simple, se deriva del estudio de la relación entre la densidad del
espectro de potencia (PSD) y la frecuencia (f). La literatura habla de
un ruido del tipo 1/f para referirse a cualquier ruido donde se cumpla
PSD ~ 1/f β. El exponente β puede tomar varios valores: β = 0 (ruido
blanco) –señal aleatoria–, β = 1 (ruido rosa) y β = 2 (ruido browniano).
La determinación de β es rápida y simple, de aquí que se use con cier-
ta regularidad en el estudio de series temporales biológicas (Hausdorff
y Peng, 1996, p. 2; Clifford et al., 2006) (figura 4.3).
1 ß = -2,01; p < 0,001 Ruido browniano
0,1 Ruido rosa
Ruido blanco
0,0.1

1E-3

1E-4
ß = -0,99 ; p < 0,001
1E-5
log(PSD)

1E-6

1E-7 ß = -0,03; 0,43

1E-8

1E-9

1E-10

1E-11
1E-3 0,01 0,1
log(Frec(Hz))

Figura 4.3. Cálculo del exponente de frecuencia β para tres tipos de series temporales:
ruido blanco, ruido rosa y ruido marrón –browniano–. Los valores calculados de p
corresponden a los valores de significación de la pendiente en el modelo de regresión.
Fuente: elaboración propia.
4. series Temporales 137

No obstante, en los últimos años ha disminuido la aplicación


de este procedimiento debido a que el cálculo del PSD asume el proce-
so estacionario y a que se ha extendido la aplicación de métodos como
el DFA –que se presentará posteriormente– con información similar,
pero sin la limitación de la estacionariedad.

4.2.1. Métodos de representación del espacio de fases


Dentro de los retos actuales del estudio de la complejidad de un
sistema y la reconstrucción de su dinámica a partir de las series
temporales está también, sin dudas, el de conocer cuántas variables
son necesarias para el estudio del sistema.
Tal y como fue postulado por Ruelle y demostrado por Takens
(Takens, 1981; Sauer et al., 1991, p. 579), en los años ochenta, a partir
de la obtención de una serie es posible la caracterización y la recons-
trucción de la dinámica de un sistema. El método desarrollado por
estos autores, y conocido como el método de la coordenada retardada
o time delay τ, se basa en la posibilidad de construir vectores en el
nuevo espacio de fase por retardos temporales de la medición original
xi y de generar nuevas series como: xi, x(i + τ), x(i + 2τ), ..., x(i + (m - 1)τ).
En la expresión, m representa la dimensión de embebido y está
relacionada con los grados de libertad del sistema; o, lo que es lo mis-
mo, el número mínimo de variables que se necesitan para describir
su dinámica. El objetivo de la determinación de estos vectores es
reconstruir una representación del atractor, partiendo de una medi-
ción continua y no del conocimiento previo de los grados de libertad
del sistema.
No existe todavía una demostración formal de cómo obtener
el valor óptimo del tiempo de retardo, y empíricamente es más
adecuado considerar que la determinación del tiempo de retardo
realmente depende de las situaciones en estudio (Hegger et al., 1999,
p. 413; Kantz y Schreiber, 2004). La selección de tiempos de retardos
muy pequeños podría generar vectores altamente correlacionados y
desencadenar una concentración de los puntos del espacio de fase
casi en la diagonal; mientras que una selección de tiempos de retardos
muy grandes conduce necesariamente a vectores sin correlación, de
manera que los puntos pueden llegar a cubrir casi todo el espacio
de fase y perderse cualquier noción de trayectoria. Véase en la figu-
ra 4.4 las marcadas diferencias en lo concerniente al cubrimiento
del espacio de fases. La presencia de ruido es uno de los factores
138 Complejidad y auto-organización de patrones naturales

que más afecta la observación y determinación de un apropiado


tiempo de retardo y la dimensión de embebido (Casdagli et al., 1991,
p. 52).

a. b.
15 Xi + 1 15 Xi + 40

10 10

5 5

0 0

-5 -5

-10 -10

-10 -5 0 5 10 15 -10 -5 0 5 10 15
Xi Xi

Figura 4.4. Representación del atractor de Rössler para m = 2 y considerando: a. un


tiempo de retardo pequeño (τ = 1), y b. un tiempo de retardo grande (τ = 40).
Fuente: elaboración propia.

Son varios los métodos que se pueden emplear para la estimación del
tiempo de retardo y la dimensión de embebido. Los más usados son
el llamado método de la información mutua –para la estimación del
tiempo de retardo– y el método de los falsos vecinos –para la determi-
nación de la dimensión de embebido.
La información mutua I(τ) –véase la fórmula (1.5) en el capítulo
1– es una magnitud usada para la estimación del tiempo de retar-
do y ha sido descrita con minuciosidad en diferentes trabajos (Fraser
y Swinney, 1986, p. 1134; Hegger et al., 1999, p. 413; Schreiber,
1999; Kantz y Schreiber, 2004; Zonghua, 2010). La descripción que
proponemos es más ventajosa porque considera las correlaciones
no lineales, a diferencia de otros métodos que, por ejemplo, usan
funciones de auto-correlación. La idea es realmente simple: dada
una medición Xi, el valor de τ óptimo será aquel que genere nueva
información con respecto a Xi + τ. Siguiendo esta idea, lo común es
seleccionar el primer mínimo en el gráfico de I(τ) en función de τ
(figura 4.5). Es importante saber que en muchos casos no se nece-
sita un valor exacto de τ, sino uno aproximado (Hegger et al., 1999,
p. 413; Zonghua, 2010).
4. series Temporales 139

55
Información mutua promedio (bits)

4 50
3,5 45

Dimensión de embebido (m)


3 40
35
2,5 30
2 25
1,5 20
15
1
10
1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5
Porcentaje de falsos vecinos

Figura 4.5. a. Cálculo de la información mutua para una serie temporal con comportamiento
caótico que muestra el primer mínimo en τ = 3; y b. aplicación del método de los falsos
vecinos en la misma serie temporal con un mínimo en m = 3 y un porcentaje de 7,5 %.
Fuente: elaboración propia.

Por otra parte, de cara a determinar la dimensión de embebido m,


teóricamente se podría decir que, en general, usando dimensiones
grandes –valores de m–, se cometerían menos errores que si se
emplearan valores muy pequeños; ya que, una vez que el valor de m
alcanza el óptimo, las propiedades que dependen de la distancia entre
los puntos en el espacio de fase serán independientes de los valores de
m. Esta idea no es aplicable en la práctica porque el costo computacio-
nal se incrementa considerablemente con el aumento de la dimensión
de embebido. Sin embargo, la idea de la invarianza con respecto al
incremento de m es la clave del método de los falsos vecinos (Kennel
et al., 1992, p. 3403). Para valores pequeños de m –con respecto
al valor óptimo (m0)– los puntos están proyectados muy cercanamen-
te entre sí, sin que esto necesariamente indique que se mantendrán
vecinos para valores mayores de m. De esta manera, el porcentaje de
estos falsos vecinos disminuye al aumentar el valor de m hasta llegar
a ser cero en m0 que, dada la invarianza, no debe cambiar para valores
m > m0.
Como ya se dijo, el ruido es un aspecto a tener en cuenta cuando se
aplican diferentes métodos, y este en particular. El efecto del ruido
incrementa los valores de m0. Esto puede inducir erróneamente la
idea de que se trata de un sistema determinista de alta dimensio-
nalidad. En sistemas biológicos donde la presencia de ruido puede
140 Complejidad y auto-organización de patrones naturales

ser considerable, los valores de m0 generalmente son altos y muchas


veces no tienen aplicación, por lo que se sustituye este valor de m0
–o se complementa– por el porcentaje de falsos vecinos obtenido
(Takens, 1981).
El valor de la dimensión de embebido ha sido usado en la descrip-
ción y diferenciación de condiciones fisiológicas a partir del estudio de
la variabilidad de la frecuencia cardiovascular (Goldberger et al., 2002;
Andrés et al., 2006). Usualmente el procedimiento consiste en fijar
el valor de m –en general alto para sistemas biológicos– y comparar el
porcentaje de falsos vecinos para condiciones diferentes.

4.3. La complejidad de las series temporales


Definir qué es la complejidad es todo un reto y no hay una definición
única. La primera manera de hacerlo es relacionándola con impre-
dictibilidad, irregularidad o aleatoriedad; es decir, cuán semejante es
la serie con relación a otras de naturaleza completamente aleatoria
–llamada ruido blanco–. En otras palabras, se trata de medir cuán
aleatoria es la serie en estudio. Este tipo de medición de complejidad
ha sido denominada por otros autores complejidad físico-matemática
y complejidad fisiológica (Lipsitz y Goldberger, 1992; Lloyd, 2001;
Goldberger et al., 2002; Vaillancourt y Newella, 2002; Lipsitz, 2002;
Vaillancourt et al., 2004; Costa et al., 2005; Duarte y Sternad, 2008).
La complejidad fisiológica no es en sí un concepto; se asume que
un sistema biológico es complejo cuando presenta una o varias de las
siguientes propiedades: no linealidad, no estacionariedad, irreversibili-
dad temporal y variabilidad a través de diferentes escalas. Estos aspec-
tos facilitan la adaptación del sistema a estímulos externos o internos
y definen la complejidad fisiológica (Costa et al., 2002; Kyriazis, 2003)
o, en otras palabras, reflejan la robustez del sistema (Kitano, 2007,
p. 137). La presencia de estas propiedades, en particular la última
que se mencionó, sugiere la presencia de una estructura de corre-
laciones –fractal o multifractal–, lo cual ha llevado a considerar las
mediciones de fractalidad como indicadores de complejidad.
Medir la complejidad permite demostrar modificaciones signi-
ficativas en el estudio de diferentes ST biológicas bajo condiciones
distintas patológicas (Costa y Healey, 2003; Tejera et al., 2007; Tejera
et al., 2012; Ho et al., 2011). Por ejemplo, hay consenso en cuanto a que
la complejidad disminuye durante el proceso de envejecimiento de los
sistemas biológicos (Goldberger et al., 2002; Vaillancourt y Newella,
4. series Temporales 141

2002; Nieto-Villar, 2003; Vaillancourt et al., 2004; Tejera et al., 2007;


Duarte y Sternad, 2008). No obstante, es necesario aclarar a qué com-
plejidad se está haciendo referencia cuando se hace esta afirmación.
La relación entre la complejidad fisiológica y la físico-matemática
es todo un universo de dudas. Sin embargo, si las modificaciones del
sistema se deben a un incremento de la periodicidad y al orden, se debe
producir un alejamiento del comportamiento aleatorio y, por tanto,
disminuirán los índices matemáticos asociados con la complejidad
físico-matemática y la complejidad fisiológica (figura 4.6).

Fisiológica Matemática
Complejidad

PERIÓDICO ALEATORIO

Figura 4.6. Esquema representativo de los comportamientos de la complejidad


fisiológica y físico-matemática.
Fuente: elaboración propia.

El incremento del orden generalmente está asociado a la pérdida de


la capacidad de respuesta del sistema biológico por el incremento
de los mecanismos de control (Goldberger et al., 2002; Costa et al.,
2002; 2005; Platisa y Gal, 2006; Tejera et al., 2010). El problema real-
mente proviene de los sistemas cuyas modificaciones son provocadas
por un incremento de la aleatoriedad o por el desorden (Lipsitz y Gold-
berger, 1992; Lipsitz, 2002; Vaillancourt y Newella, 2002; Vaillancourt
et al., 2004; Duarte y Sternad, 2008). En este caso, la impredictivilidad
se incrementa y, como resultado, aumenta la complejidad físico-ma-
temática. Sin embargo, desde un punto de vista biológico, cuando el
sistema está inestable y descontrolado, la complejidad fisiológica debe
disminuir (Vaillancourt y Newella, 2002; Tejera et al., 2010) (figura 4.6).
Un ejemplo muy claro de este fenómeno se observa cuando se estudia
la fibrilación atrial. La comparación de la variabilidad de la frecuencia
cardíaca entre sujetos normales y con fibrilación atrial muestra que
la entropía aproximada (ApEn) –que es una medida de la aleatoriedad
142 Complejidad y auto-organización de patrones naturales

de la serie que será discutida posteriormente– se incrementa en los


sujetos con fibrilación atrial, lo cual es un indicador de que la com-
plejidad aumenta. Sin embargo, en este tipo de patología, la señal no
puede mostrar correlaciones ni estructura fractal y lo que en verdad se
da es una pérdida del control del sistema autónomo –y eventualmente
se produce la muerte–, razón por la cual la complejidad fisiológica
debería ser menor y no mayor (Lipsitz y Goldberger, 1992; Goldberger
et al., 2002).
Estas ideas nos llevan a una serie de preguntas: ¿toma la complejidad,
desde el punto de vista fisiológico, valores máximos en el estado sano?,
¿cuál es el índice de complejidad que mejor describe los comportamien-
tos fisiológicos? La primera pregunta, en realidad, es objeto de un arduo
debate. Algunos autores manifiestan que la complejidad debería ser
máxima en el estado saludable y disminuir en cualquier situación que se
aparte de ese estado; otros plantean la hipótesis bidireccional y sugieren
que la complejidad puede aumentar o disminuir en correspondencia con
la actividad del sujeto (Vaillancourt y Newella, 2002; Tejera et al., 2010).
Hay experimentos muy convincentes en ambas direcciones. Una de las
razones que parece validar los resultados que proponen podría ser la
metodología que utilizan, es decir, los índices matemáticos empleados,
lo cual nos lleva a la segunda pregunta realizada. Antes de discutir sobre
la naturaleza de los índices es necesario exponer cuáles son los que más
se emplean en el estudio de las series biológicas.

4.3.1. Exponentes de Lyapunov


Los exponentes de Lyapunov representan per se una forma de sensar la
complejidad de la dinámica de un sistema. Calcular estos exponentes es
una manera tradicional de estimar la complejidad de las series tempo-
rales (Eckmann y Ruelle, 1985, p. 617; Stoop y Parisi, 1991, p. 89; Sano y
Sawada, 1985, p. 1082). La idea inherente a los exponentes de Lyapunov
es muy simple y puede estar directamente relacionada con la divergencia
de las trayectorias vecinas en el espacio de fase. Una perturbación pe-
queña puede generar un crecimiento exponencial de las trayectorias, y
el espectro de los exponentes de Lyapunov permite la caracterización de
estas inestabilidades. Si se consideran dos puntos vecinos en el espacio
de fase para un tiempo t0 y un tiempo t, la distancia entre esos puntos en
la i-ésima dirección serán δxi ( t 0 ) y δxi (t ) , respectivamente. De esta
forma, el exponente de Lyapunov queda definido mediante dos posibles
expresiones:
4. series Temporales 143

δxi ( t ) λit
=2 ( t → ∞) . (4.1)
δxi ( t 0 )

o como
1 δxi ( t )
λ i = lim log 2 . (4.2)
t →∞ t δxi ( t 0 )

Como se puede ver, λ no es más que un promedio de distancia entre


ambos puntos con relación a su estado inicial. Queda claro que el nú-
mero de exponentes depende de la dimensión del espacio de fase. En
el caso de sistemas dinámicos con comportamiento caótico, al menos
uno de los exponentes es positivo, lo que indica que una perturbación
pequeña genera eventualmente una separación exponencial de las
trayectorias.
Para calcular el espectro de Lyapunov a partir de series temporales
se deben resolver varios problemas. Uno de los principales –además de
la estacionariedad y la longitud de la serie– es que, en la realidad, el es-
pacio de fases físico es desconocido y los cálculos efectuados en un
espacio son embebidos. El cálculo del número de exponentes depende
de la reconstrucción realizada y puede ser mayor que el espacio de fases
físico (Hegger et al., 1999, p. 413). En la práctica resulta más simple la
determinación del exponente máximo de Lyapunov (Rosenstein et al.,
1993, p. 117; Kantz, 1994, p. 77) que la determinación del espectro. No
obstante, la segunda facilita el cálculo de la entropía de Kolmogorov-Sinai
( hKS = ∑ λi) y la determinación de la dimensión de Kaplan-Yorke:
λi > 0

k
D KY = k + ∑λ
k=1
i λk +1 (4.3)

donde k es el mayor número entero para el cual la suma de los primeros


k-exponentes es positiva.

4.3.2. Análisis fractal y multifractal


El análisis conocido como Detrended Fluctuation Analysis (DFA)
(Peng et al., 1994) se basa en una idea muy simple y toma como núcleo
central la rugosidad de la serie temporal. El método DFA nos brinda
144 Complejidad y auto-organización de patrones naturales

información sobre las correlaciones a corto y largo alcance en las series


temporales. El primer paso para su cálculo consiste en una integración
de la serie original X:
j
Yj = ∑ (X
i=1
i −X . ) (4.4)

La nueva serie integrada es dividida en varias ventanas o intervalos no


superpuestos, de igual longitud n. Dentro de estos intervalos se lleva a
cabo una regresión lineal o polinómica. De hecho, la curva ajustada ŷ
es la tendencia –trend– de la señal dentro de ese intervalo y es sustraí-
da de la serie integrada –detrended:

1 N
F(n) 2 =
N
∑ (Y(k) − ˆy
k=1
n (k) )2 . (4.5)

N es el número de puntos en la serie. F(n) es la suma de las desviacio-


nes cuadradas entre la curva original integrada y la ajustada (figura
4.7). Los valores de F(n) se deben incrementar en la medida en que
se aumente el tamaño de la ventana n; sin embargo, si existe una
estructura de escala –a semejanza con los fractales– se encontrará
que F(n) ~ nα, donde α es un exponente o factor de escala.

1
y(k)

-1 k

0 200 400 600 800 1 000


Puntos de serie

Figura 4.7. Representación del proceso DFA. En cada una de las ventanas, como base
para efectuar el detrending, se aplica una regresión que puede ser lineal o polinómica.
Fuente: elaboración propia.
4. series Temporales 145

El exponente α está muy relacionado con el conocido exponente de


Hurst. En este sentido, si α = 0,5 se dice que la serie tiene un compor-
tamiento 1/f o ruido rosa; mientras que si α = 1,5, entonces se está ante
una serie temporal semejante al ruido browniano o marrón.
En el caso de series temporales biológicas, α generalmente no es
constante para cualquier intervalo de n y en consecuencia es posible
encontrar varios valores para diferentes intervalos. Por ejemplo, la
variabilidad de la frecuencia cardíaca comúnmente se suele dividir
en dos intervalos (α1 y α2) que representan las correlaciones a corto
alcance 4-13 latidos y largo alcance (más de 13 latidos) (Nikhil et al.,
1996; Shono et al., 2000; Aoyagi et al., 2007). Evidentemente, estas
separaciones son aproximaciones ya que en este tipo de series es usual
el comportamiento multifractal, lo cual quiere decir que solo hay un
conjunto de coeficientes, no dos.
El método DFA ha sido empleado para el estudio de series multi-
fractales (MDFA) (Kantelhardt et al., 2002, p. 87) y ha tenido aplicacio-
nes posteriores en el análisis de la VFC. Además ha permitido probar
que, en algunas condiciones patológicas, la estructura multifractal se
modifica debido a la reducción de las variaciones en los exponentes
de escala (Ivanov et al., 1999, p. 3). Esta generalización se realiza me-
diante la siguiente expresión:
n
1
F 2 (n, v) =
n
∑ {Y([v −1 ]n + i) − yˆ (i)}
i=1
v
2
. (4.6)

En la expresión v = 1, ..., Ns; siendo Ns el número de intervalos


( Ns = int (N n ) ) y yˆ v (i) . Esta formulación es más estructurada que
la de la ecuación (4.5), pero ambas representan lo mismo. El promedio
sobre todos los segmentos es:

1/q
 1 2 Ns 2 q/ 2 
F q (n ) =  ∑ [F (n, v) ]  . (4.7)
 2 Ns v = 1 

Cuando se introducen los parámetros q y 2Ns –que indica que la


suma se realiza sobre la serie en los dos sentidos–; el exponente de
escala es evaluado como Fq(n) ~ nh(q) y el parámetro h(q) se relaciona
con el exponente multifractal como τ(q) = qh(q) – 1. Cuando se
146 Complejidad y auto-organización de patrones naturales

analiza la multifractalidad, además de τ(q), también es necesario


conocer el espectro de singularidad f(α) que se obtiene de τ(q)
mediante la transformada de Legendre:
dτ( q)
α= , (4.8)
dq

f ( α ) = q ⋅ α − τ(q) . (4.9)

En la figura 4.8 se puede apreciar el comportamiento de f(α) y τ(q)


para diferentes tipos de series temporales.
1.2
1
0.8
0.6
0.4
0.2
0
-0.2
-0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 1.2
CHAOS NOISE BROWN PINK

15
10
5
0
-5
-10
-15
-20
-25
0 2 4 6 8 10 12 14 16 18 20 22
CHAOS NOISE BROWN PINK

Figura 4.8. Comportamiento de f(α) y τ(q) versus α para varios tipos de series
temporales: caos (chaos), ruido blanco (noise), comportamiento browniano (Brown) y
ruido rosa (pink).
Fuente: elaboración propia.
4. series Temporales 147

Además de este método, para el análisis de la multifractalidad se


emplea otro derivado de la metodología wavelet. Ambos han sido
aplicados en el estudio de series temporales biológicas, principalmen-
te en la VFC.
Para el estudio de la VFC y la aplicación del método multifractal
usando DFA hay que tener en cuenta algunos aspectos. En general,
el cálculo de los exponentes de escala para valores n ≤ 10 es afectado
por el ruido y por inestabilidades numéricas. Esto ha llevado a muchos
autores a considerar el intervalo 15 ≤ s ≤ 700 como más recomendable.
Sin embargo, en este intervalo las altas frecuencias –consideradas en
el intervalo de 0,15 a 0,4 Hz– serían ignoradas y, por tanto, el efecto
del ritmo respiratorio y una gran parte del control para-simpático, que
están relacionados con este intervalo de frecuencias, serán excluidos
del análisis multifractal.
En ocasiones, lejos de comprometer el estudio, esta simplificación
constituye una mejoría considerable en términos de focalizar el aná-
lisis de las frecuencias bajas y muy bajas. Un aspecto importante del
método DFA es que constituye una mejora considerable con respecto
al exponente obtenido del análisis espectral (β) porque supera el pro-
blema de la estacionariedad.

4.3.3. Dinámica simbólica


En los últimos años se han empleado muchas metodologías para el
análisis de series temporales y se han tomado como punto de partida
las herramientas del análisis simbólico que, dicho sea de paso, en
su mayoría, son usadas simultáneamente para series temporales y
para secuencias de ADN o proteínas, porque estas son un conjunto
de símbolos –bases o aminoácidos– definidos (Costa et al., 2005).
La idea básica de la que se parte es convertir las series temporales
en una secuencia de símbolos. En esta dirección hay que tener en
cuenta la cantidad de símbolos posibles o alfabeto. Considerando
que el alfabeto no debe ser muy grande, generalmente se parte de las
transformaciones que generen series binarias o ternarias; y a pesar
de que, como se dijo antes, hay una variedad grande de métodos, el
más usado continúa siendo el método de Lempel-Zip (LZ) (Lempel y
Ziv, 1976; Hu et al., 2006, p. 20). La razón para esta preferencia es que
el índice (LZ) ha demostrado ser muy estable en sistemas ruidosos
–como en el caso de la VFC– y fácilmente reproducible aun en series
pequeñas.
148 Complejidad y auto-organización de patrones naturales

La primera etapa de este método consiste en transformar la serie


de tiempo en un sistema de símbolos binario. Las alternativas más
comunes son: a) basarse en la media y b) basarse en el valor anterior.
En el primer caso, se calcula la media de la serie temporal (X) y la co-
dificación se realiza según la expresión:

0 Xi ≤ X 
Xi = 
;
1 Xi ≥ X 

mientras que, en el segundo caso, se considera la variación con respec-


to al valor precedente de la serie:

0 X i ≤ X i −1 
Xi =  .
1 X i ≥ X i −1 

De esta manera, la serie temporal es transformada en una secuencia


de texto –o numérica– con solo dos símbolos: 0 y 1. En el procedi-
miento LZ, después de la codificación, se cuenta el número de frag-
mentos diferentes en la secuencia. Si S(N) es la secuencia original
–obtenida después de la transformación de la serie temporal– con
un alfabeto de tamaño N, y si c(N) es el número de fragmentos dife-
rentes, entonces:
c(N)
LZ(N) = . (4.10)
b(N)

b(N) = N/logn(N) es un término de normalización que describe el


comportamiento asintótico de LZ(N) para una secuencia aleatoria.
De manera que LZ varía entre 0 y 1, y así indica un patrón determi-
nista –como la función seno– o aleatorio –como el ruido blanco–,
respectivamente.
Tanto los índices obtenidos por el método DFA –principalmente los
coeficientes de correlación a corto y largo alcance–, así como el valor
de LZ, han sido de gran utilidad para el estudio de sistemas biológicos.
La figura 4.9 muestra un ejemplo de cómo varían los coeficientes DFA
y LZ en el caso del análisis de la VFC durante el embarazo (Tejera et
al., 2009; Tejera, 2010).
4. series Temporales 149

0,80 Número de hijos


1
2

0,75
LZ Complejidad

0,70

0,65

0,60
< = 14 15-19 20-24 26-30 30-35 36-40
Semanas de embarazo

Antecedentes familiares
de hipertensión
0,90 SÍ
NO

0,85

0,80
α2

0,75

0,70
< = 14 15-19 20-24 26-30 30-35 36-40
Semanas de embarazo

Figura 4.9. a. Variación de los valores de LZ, b. variación de α2 con relación al tiempo
de embarazo. Se consideró el número de hijos y los antecedentes familiares de hipertensión,
respectivamente. Las barras de error se corresponden con el error estándar.
Fuente: Adaptado de Tejera, 2010, p. 72.

Se observa claramente la disminución de la complejidad LZ y el aumen-


to de las correlaciones a largo alcance, y se muestran diferencias con
respecto al número de hijos y también la influencia de los antecedentes
150 Complejidad y auto-organización de patrones naturales

familiares de las mujeres. Más específicamente, las mujeres primeri-


zas tienden a tener menor complejidad que aquellas que ya han tenido
previamente un embarazo satisfactorio. Esto, a pesar de que desde el
punto de vista fisiológico la expresión es complicada porque pueden
influir factores de naturaleza psicológicas. De alguna manera, está
en correspondencia con el hecho de que las primerizas tienen mayores
riesgos de aborto espontáneo, partos antes de tiempo o enfermedades
como la pre-clampsia.
Las mujeres con antecedentes familiares de hipertensión pre-
sentan valores más elevados de α2, lo que indica que se produce un
aumento de las correlaciones a largo alcance. Estos resultados, junto
a otros no presentados aquí, sugieren claramente un incremento del
ordenamiento o periodicidad en la VFC durante el embarazo (Tejera
et al., 2009; 2010).
De esta manera, se puede decir que hay cierta similitud entre el
embarazo y el envejecimiento, en el sentido del incremento de la pe-
riodicidad. En general, se suele decir que el envejecimiento constituye
una progresiva pérdida en la capacidad de respuesta o de adaptación
a estímulos externos, mientras que el embarazo, por ser una pertur-
bación progresiva del estado fisiológico normal, puede conllevar a
resultados semejantes.

4.3.4. Índices entrópicos


En el capítulo 1 se trataron los fundamentos termodinámicos de la
Teoría de la Complejidad. En este acápite se presentará una serie de
métodos derivados de los principios fundamentales. Algunos de los
más usados son la entropía aproximada (ApEn), la entropía de muestra
(SE) y la entropía multiescala (MSE).
Estos tres índices se usan considerablemente en la literatura con-
cerniente al estudio de series temporales de naturaleza biológica, sobre
todo en el análisis de la VFC, oscilaciones de movimiento corporal, va-
riaciones de ritmos respiratorios y de la presión arterial. Las bases físico-
matemáticas de estos índices son semejantes y, por lo general, miden la
complejidad de la serie temporal (Pincus, 1991; Richman y Moorman,
2000). Dada una serie temporal {X1, X2, X3, …, XN} de longitud N, se
puede definir un vector Ym(i) = {Xi, Xi + 1, Xi + 2, …, Xi + m - 1}. Si además
definimos nmi(r) como el número de vectores Ym(j) que están cercanos a
Ym(i), tomando como criterio de distancia a r (d[Ym(i),Ym(j)] ε r y siendo
i ≠ j, donde d es la distancia euclidiana y r el criterio de corte, entonces:
4. series Temporales 151

1 nim
ApEn(m, r, N) = ln . (4.11)
N −m nim + 1
N −m

∑n
i =1
'm
i
SE(m, r, N) = ln N− m
. (4.12)

i =1
ni' m+ 1

Las diferencias entre n’m y nm están asociadas con la inclusión dentro


de la proximidad al mismo vector de referencia. Ambas definiciones
son similares y pueden ser relacionadas con la entropía de Renyi
(Costa et al., 2005). Las diferencias con relación a MSE (Costa et al.,
2002; 2005) radican en que el cálculo no se lleva a cabo sobre la serie
de tiempo original, sino sobre otra serie que se obtiene promediando
localmente las medias de la siguiente forma:

1
y τj = ∑ Xi
τ i=(j −1) τ+1
. (4.13)

τ representa el factor de escala que está siempre en el intervalo 1≤ j ≤ N/τ.


Los valores pequeños de ApEn y SE están asociados a series muy regu-
lares, ordenadas, donde las componentes aleatorias no son mayoritarias.
En el MSE la complejidad se puede determinar a través de diferentes
escalas y, por tanto, es más adecuada para el estudio de las correlaciones
en la serie temporal a corto y a largo alcance.
Si comparamos el parámetro m –la definición de ApEn y SE– con
el tiempo de retardo y la dimensión de embebido, se perciben algunas
semejanzas. En realidad, la selección del valor de m para cada serie tem-
poral debería ser estudiada a priori y, preferiblemente, en concordancia
con el tiempo de retardo; pero se ha visto que la determinación de este
parámetro no siempre es muy reproducible en sistemas biológicos. En
la práctica se ha comprobado que, para muchos sistemas, los valores
ApEn(2; 0,2; N) y SE(2; 0,15; N) no solo son reproducibles, sino que ade-
más arrojan buenos resultados en los estudios comparativos de diferentes
patologías. Sin embargo, se destaca que, teóricamente, los valores de m y
de r deben ser ajustados para cada estudio tomando en consideración el
tiempo de retardo y la dimensión de embebido del sistema.
152 Complejidad y auto-organización de patrones naturales

Se puede decir que el método MSE es uno de los más completos y


que, de manera general, en el estudio de sistemas biológicos son acep-
tados preferentemente aquellos métodos que brindan información y
consideran diferentes escalas temporales, muchos de ellos inspirados
en el problema de la complejidad fisiológica. No obstante, a pesar de
que el método MSE usa una serie con medias ajustadas y tiende a
reducir el ruido, se requiere un gran número de puntos en la serie.
Considérese un simple ejemplo: para τ = 1, el valor de MSE y SE será
el mismo; sin embargo, si la señal contiene 1 000 puntos, para un valor
de τ = 2, la serie original será transformada en otra de 500 puntos, en
la cual se realizará el cálculo de SE. Es decir, si τ = 2, el tamaño de la
serie se reduce a la mitad, lo cual afecta la relevancia del cálculo de SE
y la integridad de la información. Es por eso que el método MSE no
puede ser aplicado en series cortas.
Una vez más es necesario volver al problema de la complejidad y sus
modificaciones. Como se dijo, la complejidad fisiológica debe disminuir
durante las transiciones de un sistema hacia comportamientos más
aleatorios porque en las series aleatorias no hay estructura fractal,
linealidad o modificaciones en diferentes escalas. Esto es apropiado si
en verdad se tiene un índice que mida la complejidad fisiológica y la hi-
pótesis de máxima entropía para estados sanos es realmente correcta.
En un estudio comparativo de la complejidad en la VFC –calculada
por MSE– entre personas saludables y otras que previamente tuvieron
infarto del miocardio y que en la actualidad presentan arritmia, se com-
probó que la hipótesis que relaciona la máxima complejidad con la edad
se cumple por igual para pacientes jóvenes y viejos (figura 4.10). Pero al
comparar esos resultados con los obtenidos al analizar la tenencia o no
de arritmia, no se detectaron diferencias significativas en los casos de
personas de mayor edad. O sea, si se asume que la complejidad calculada
por MSE es un índice de complejidad fisiológica, la hipótesis de máxima
entropía se cumple con relación al envejecimiento pero no con relación
a situaciones patológicas, al menos para sujetos de avanzada edad.
Muchos autores consideran que la MSE es realmente un indicador
de complejidad adecuado para el estudio de sistemas biológicos. Sin
embargo, parece ser más apropiada la combinación de metodologías;
más cuando se sabe que, por el momento, no hay un método capaz
de describir completamente todas las propiedades consideradas en la
complejidad fisiológica, y lo suficientemente robusto como para ser
usado en señales de origen biológicas con diversas peculiaridades.
4. series Temporales 153
MSE (τ)

1,20
50-59
1,15 40-49
1,10 60-69
1,05 70-79
1,00
0,95
0,90
0,85
0,80
0 5 10 15 20
SCALE (τ)

1,65 Older Disease


MSE (τ )

1,60 Younger Disease


1,55 Older Healthy
1,50 Younger Healthy
1,45
1,40
1,35
1,30
1,25
1,20
1,15
1,10
0 10 20 30 40
SCALE (τ)

Figura 4.10. a. Comportamiento medio del perfil MSE para diferentes grupos de edad
en condiciones sin arritmia, y b. comportamiento medio del perfil MSE en edades
extremas para ambos grupos, normal y arrítmico.
Fuente: Adaptación de Tejera et al. (2010).

A pesar de lo dicho antes, los índices con que se cuenta son aplicados
en diversos casos biológicos. En la figura 4.11 se representa la varia-
ción de ApEn durante el embarazo. Se observa que, de manera simi-
lar a como se representó en la figura 4.9, la complejidad disminuye;
pero la complejidad también disminuye en los estados patológicos
con respecto al embarazo normal (Salazar et al., 2004; Plain, 2008).
De hecho, la pre-eclampsia se corresponde con el estado de menor
complejidad y es, a su vez, el estado que más pone en peligro a la
madre y al feto.
También es posible hablar de relaciones entre ApEn y el sistema
nervioso autónomo. El índice LF/HF es un indicador del control
154 Complejidad y auto-organización de patrones naturales

simpático-parasimpático y es calculado como la razón entre la com-


ponente de baja y alta frecuencia después del análisis espectral de la
señal.

a. 1,4 Hipertensión b.
Pre-eclampsia 1,4
Normal

1,3
1,3
ApEn

ApEn
1,2 1,2

R²Linear = 0.443
1,1 1,1
<=14 15-19 20-24 26-30 30-35 36-40 1 2 3 4 5 6
Semanas de embarazo LF/HF

Figura 4.11. a. Variación de la ApEn con respecto al tiempo de embarazo para diferentes
estados patológicos, y b. relación entre ApEn y el índice simpático-vagal.
Fuente: Adaptación de Tejera et al. (2012).

Como se puede ver, la disminución de este índice conlleva a un in-


cremento de la complejidad. Se sabe que, durante diferentes procesos
patológicos, por ejemplo durante el envejecimiento y el embarazo, LF/
HF aumenta y eso provoca la reducción de los índices de complejidad.
Recientemente se ha desarrollado una metodología basada en
elementos de la dinámica simbólica y de la teoría de grafos (Tejera et
al., 2010b). El objetivo de este método es aplicar índices multiescalas en
el estudio de series temporales pequeñas y, paralelamente, incorporar
elementos de la teoría de grafos, que dispone de un gran arsenal de
herramientas matemáticas. Brevemente, se procede a un proceso
de discretización semejante al método SAX, que ha sido usado satisfac-
toriamente, para el estudio de series temporales. La serie temporal es
considerada como una secuencia numérica Y = {y1, y2, …, yN} con un va-
lor mínimo y máximo conocidos (ymin, ymax). La secuencia es dividida
en m intervalos no superpuestos, de tamaño ΔY = ((ymax - ymin)/m).
Posteriormente cada valor de Y es re-definido como se presenta:
si Yi [ymin + (k - 1) ΔY, ymin + kΔY] con k = 1, 2, …, m, entonces
Yi => S=ki = promedio ([ymin + (k - 1) ΔY, ymin + kΔY]).
4. series Temporales 155

De esta manera, la serie original de tamaño N es transformada


en una secuencia S del mismo tamaño, pero solo con m posibles
valores. Es decir, cada valor de Yi dentro del intervalo Yi ± ΔY
es considerado equivalente y remplazado por el valor medio del
intervalo (figura 4.12).

Y,S
y5
Y máx
y3 S6
S6 S6 y11 S6
y1 y6 S5
S5
S4 S4
y10
S4
S3 y9
y4 y7 S3 S3
∆Y S2 S2 y12 S2
y2
y8 S1 S1
Y min S1

1 2 3 4 5 6 7 8 9 10 11 12

Figura 4.12. Representación esquemática del proceso de discretización. La secuencia


original Y es dividida en m = 6 intervalos de tamaño ΔY. Cada elemento de Y es
remplazado por el valor medio del intervalo y, de esta forma, Y se transforma en una
nueva secuencia S, de igual tamaño pero con solo 6 posibles valores.
Fuente: Adaptación de Tejera et al. (2010b).

Este proceso crea un espacio limitado de valores m que serán conside-


rados como los nodos de una red n = {n1, n2, …, nm}. En este caso, dos
nodos estarán conectados (na→ nb) para la escala τ si en S los elementos
S ai y S bi están separados por j = i + τ, al menos una vez en la secuencia
S (figura 4.13).
Para el uso de esta metodología es importante conocer que la red
que se obtiene debe reunir las siguientes propiedades:

•  ser dirigida, que puede o no ser simétrica,


•  que permita encontrar las conexiones de un nodo consigo
mismo –loops–, y
•  que permita cambiar la topología de la red con la variación de
la escala (τ).
156 Complejidad y auto-organización de patrones naturales

a. b.
6
n 1 6
n n 1
n

2
n 2
5 n
n 5
n

3
n 4 3
n n 4
n

Figura 4.13. Representación de la red para el ejemplo de la figura 4.12 considerando


dos escalas diferentes: a. τ = 1, b. τ = 2.
Fuente: Adaptación de Salazar et al. (2004) y Plain (2008).

Una vez que la red está construida, se puede aplicar un conjunto de


herramientas matemáticas (Barabási, 2009; Strogatz, 2001). Para este
trabajo fueron aplicados algunos índices de centralidad, tales como
la eficiencia de la red (EF), la distancia media de la red (MND) y un
índice de simetría o asimetría. Siendo Ta→ b(τ) par y la escala τ el nú-
i i+ τ
mero de veces que aparece el par (S a , S b ) en S, entonces la asimetría
multiescala de transición MSTA(τ) puede ser definida como:

siendo Γ a,b (τ) = 1 if |Ta→b (τ) − Tb→a (τ)| > 0  entonces:


 
0 otherwise 

m −1 m
2
MSTA(τ) =
m(m − 1 )
∑∑Γ a b> a
a, b(τ ). (4.14)

2/(m(m - 1)) es un término de normalización; por tanto, para MSTA = 0


la matriz es simétrica y, para MSTA = 1, asimétrica.
Este método hace posible la aplicación de índices multiescalas al
estudio de series biológicas pequeñas. Los índices calculados tienen
una gran significación porque permiten diferenciar las mujeres con
comportamientos normales de aquellas mujeres con pre-eclampsia
(tabla 4.1). La notación que se colocó entre paréntesis corresponde al
error estándar. Los valores de p están determinados para el intervalo
4. series Temporales 157

de escalas indicados; fuera de estos no hay diferencias estadísticamen-


te significativas. Los valores promedios se corresponden con τ = 10
y fueron presentados ejemplos. Los valores son controlados teniendo
en cuenta además la edad, el índice de masa corporal y el tiempo de
embarazo (Tejera et al., 2010b).

Tabla 4.1. Análisis ANCOVA para varios índices.


Normal Pre-eclampsia p-valor

MND ( τ ) 3,29 (0,08) 2,91 (0,11) p < 0,05 ( τ ≥ 3)


EF (τ ) 0,33 (0,01) 0,39 (0,01) p < 0,05 ( τ ≥ 1)
MSTA ( τ ) 0,12 (0,01) 0,15 (0,01) p < 0,05 ( τ ≥ 1)
LZ 0,68 (0,03) 0,67 (0,03) 0,805
SE 1,53 (0,05) 1,37 (0,07) 0,034
EnAp 1,26 (0,03) 1,21 (0,04) 0,321

Fuente: Elaboración propia.

Los índices derivados de la metodología expuesta tienen mayor sig-


nificación que los convencionales LZ, SE –entropía de muestra– y
EnAp. Como se ha visto, muchos son los problemas que aún quedan
por resolver en el estudio de series temporales biológicas y mayores
los retos para elaborar definiciones de complejidad; por tanto, queda
a los lectores de este libro continuar trabajando para encontrar las
respuestas más adecuadas a las necesidades y exigencias investigativas
de su tiempo.

Bibliografía
Andrés, D.S.; I.M. Irurzun, J. Mitelman y E.E. Mola (2006): «Increase in
the Embedding Dimension in the Heart Rate Variability Associated
with Left Ventricular Abnormalities», Applied Physics Letters, vol. 89,
pp. 111-113.
Aoyagi, N.; Z.R. Struzik, K. Kiyono y Y. Yamamoto (2007): «Autonomic
Imbalance Induced Breakdown of Long-range Dependence in Healthy
Heart Rate», Methods of Information in Medicine, vol. 46, pp. 174-178.
Barabási, A.L. (2009): «Scale-free Networks: A Decade and Beyond», Scien-
ce, vol. 325, pp. 412-413.
Casdagli, M. (1997): «Recurrence Plots Revisited», Physica, Elsevier, vol.
108, pp. 12-44.
158 Complejidad y auto-organización de patrones naturales

Casdagli, M.; S. Eubank, J.D. Farmer y J. Gibson (1991): «State Space


Reconstruction in the Presence of Noise», Physica, Elsevier, vol. 51,
pp. 52-98.
Choong, M.K.; M. Charbit y H. Yan (2009): «Autoregressive-model-
based missing value estimation for DNA microarray time series
data», IEEE Transactions on Information Technology in Biomedicine,
vol. 13, p. 1.
Chun-Biu, L.; Y. Haw y K. Tamiki (2008): «Multiscale complex network of
protein conformational fluctuations in single-molecule time series»,
Proceeding of the National Academy of Sciences of the United States of
America (PNAS), vol. 105, n.o 2, pp. 536-541.
Clifford, G.D.; F. Azuaje y P.E. McSharry (2006): Advanced methods and
tools for ECG data analysis, ARTECH House, London.
Costa, M.; A.L. Goldberger y C.K. Peng (2002): «Multiscale entropy
analysis of complex physiologic Time Series», Physical Review Letters,
vol. 89, <http://prl.aps.org/abstract/PRL/v89/i6/e068102> [3/5/2013].
__________ (2005): «Multiscale entropy analysis of biological signals», Physi-
cal Review, vol. 71, <http://pre.aps.org/abstract/PRE/v71/i2/e021906>
[3/5/2013].
Costa, M. y J.A. Healey (2003): «Multiscale entropy analysis of complex
heart rate dynamics: discrimination of age and heart failure effects»,
Computers in Cardiology, vol. 21-24, pp. 705-708.
Duarte, M. y D. Sternad (2008): «Complexity of human postural control
in young and older adults during prolonged standing», Experimental
Brain Research, vol. 191, pp. 265-276.
Eckmann, J.P. y D. Ruelle (1985): «Ergodic theory of chaos and strange
attractors», Review of Modern Physics, vol. 57, pp. 617-656.
Eckmann, J.P.; D. Ruelle y S. Oliffson Kamphorst (1987): «Recurrence
plot dynamical systems», Europhysics Letters, vol. 4, p. 973-977.
Fonseca-Pinto, R. (2011): «A new tool for nonstationary and nonlineal
signals: The Hilbert-Huang Transform in biomedical applications»,
Biomedical Engineering Trends in Electronics, Communications and
Software, InTech, Rijeka, Croacia, pp. 481-503.
Fraser, A.M. y H.L. Swinney (1986): «Independent coordinates for stran-
ge attractors from mutual information», Physical Review, vol. 33, pp.
1134-1140.
Glass, L. y D. Kaplan (1993): «Time series analysis of complex dynamics
in physiology and medicine», Medical Progress Through Technology,
vol. 19, pp. 115-128.
4. series Temporales 159

Goldberger, A.L.; C.K. Peng y L.A. Lipsitz (2002): «Why is physiologic


complexity and how does it change with aging and disease?», Neuro-
biology of Aging, vol. 23, pp. 23-26.
Hausdorff, J.M. y C.K. Peng (1996): «Multiscaled randomness: A pos-
sible source of 1/f Noise in Biology», Physical Review., vol. 54, pp.
2154-2157.
Hegger, R.; H. Kantz y T. Schreiber (1999): «Practical implementation of
nonlinear time series methods: The TISEAN Package», Chaos, vol. 9,
p. 413.
Ho, Y.L.; C. Lin; Y.H. Lin y M.T. Lo (2011): «The prognostic value of
nonlinear analysis of heart rate variability in patients with conges-
tive heart failure. A pilot study of multiscale entropy», PLoS ONE,
<http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.
pone.0018699> [3/5/2013].
Hu, J.; J. Gao y J.C. Principe (2006): «Analysis of biomedical signals by the
Lempel-Ziv complexity: the effect of finite data size», IEEE Transac-
tions on biomedical engineering, vol. 20, pp. 20-25.
Hu, J.; J. Gao, W.W. Tung y Y. Cao (2010): «Multiscale analysis of heart rate
variability: a comparison of different complexity measures», Annals
of Biomedical Engineering, vol. 38, pp. 854-864.
Huang, N.E. et al. (1998): «The empirical mode decomposition and the Hil-
bert Spectrum for nonlinear and non-stationary time series Analysis»,
Procedings of the Royal Society, vol. 454, pp. 903-995.
Isliker, H. y J. Kurths (1993): «A test for stationarity: finding parts in a
time series apt for correlation dimension estimates», International
Journal of Bifurcation and Chaos, vol. 3, pp. 1573-1584.
Ivanov, P.C. et al. (1999): «Multifractality in human heartbeat dynamics»,
Nature, vol. 399, pp. 461-465.
Kantelhardt, J.W. et al. (2002): «Multifractal detrended fluctuation
analysis of nonstationary time series», Physica., Amsterdam, vol. 316,
pp. 87-114.
Kantz, H. (1994): «A robust method to estimate the maximal Lyapunov
Exponent of a time series», Physics Letters, vol. 185, pp. 77-87.
Kantz, H. y T. Schreiber (2004): Nonlinear time series analysis, Cambridge
University Press.
Kaplan, D.T. (1994): «The analysis of variability», The Journal of Cardiovas-
cular Electrophysiology, vol. 5, pp. 16-19.
Kennel, M.B. (1997): «Statistical test for dynamical nonstationarity in
observed time-series data», Physical Review, vol. 56, pp. 316-321.
160 Complejidad y auto-organización de patrones naturales

Kennel, M.B.; R. Brown y H.D.I. Abarbanel (1992): «Determining em-


bedding dimension for phase-space reconstruction using a geometri-
cal construction», Physical Review., vol. 45, pp. 3403-3411.
Kitano, H. (2007): «Towards a theory of biological robustness», Molecular
Systems Biology, <http://www.nature.com/msb/journal/v3/n1/full/
msb4100179.html> [3/5/2013].
Kyriazis, M. (2003): «Practical applications of chaos theory to the modula-
tion of human ageing: nature prefers chaos to regularity», Biogeron-
tology, vol. 4, pp. 75-90.
Lempel, A. y J. Ziv (1976): «On the complexity of finite sequences», IEEE
Transactional on Information Technology in Biomedicine, vol. 22,
pp. 75-81.
Lipsitz, L.A. (2002): «Dynamics of stability: the physiologic basis of func-
tional health and frailty», Journal of Gerontology. Series A, Biological
Sciences and Medical Sciences, vol. 57, pp. 115-125.
Lipsitz, L.A. y A.L. Goldberger (1992): «Loss of “complexity” and aging.
Potential applications of Fractals and chaos theory to senescence»,
Journal of the American Medical Association, vol. 267, pp. 1806-1809.
Lloyd, S. (2001): «Measures of Complexity: A Nonexhaustive List», IEEE,
Control Systems, vol. 21, n.º 4, pp. 7-8.
Nieto-Villar, J.M.; R. Quintana, J. Miquel y J. Rieumont (2003): «Ther-
modynamic Approach to the Aging Process of Biological Systems»,
Revista CENIC, vol. 34, pp. 149-157.
Nikhil, I.; C.K. Peng; A.L. Goldberger y L. Lipsitz (1996): «Age-related
alterations in the fractal scaling of cardiac interbeat interval dynam-
ics», American Journal of Physiology, vol. 27, pp. 1078-1084.
Peng, C.K. et al. (1994): «Mosaic Organization of DNA Nucleotides», Physi-
cal Review, vol. 49, pp. 1685-1689.
Percival, D.B. y A.T. Walden (2000): Wavelet methods for time series
analysis, Cambridge University Press.
Pincus, S.M. (1991): «Approximate entropy as a measure of system com-
plexity», Proceedings of the National Academy of Science of United
States of America (PNAS), vol. 88, pp. 2297-2301.
Platisa, M.M. y V. Gal (2006): «Dependence of heart rate variability on
heart period in disease and aging», Physiological Measurement, vol.
27, pp. 989-998.
Plain, A. (2008): «El envejecimiento y su complejidad: variabilidad de la
frecuencia cardiaca», Tesis de Maestría, Facultad de Biología, Univer-
sidad de La Habana.
4. series Temporales 161

Prichard, D. y J. Theiler (1994): «Generating surrogate data for time series


with several simultaneously measured variables», Physical Review
Letters, vol. 73, pp. 951-954.
Priestley, M.B. (2001): Spectral analysis and time series, Academic Press,
Amsterdam.
Richman, J.S. y J.R. Moorman (2000): «Physiological time-series analysis
using approximate entropy and sample entropy», American Journal
of Physiology. Heart and Circulatory Physiology, vol. 278, pp. 2039-
2049.
Rosenstein, M.T.; J.J. Collins y C.J. De Luca (1993): «A practical method
for calculating largest Lyapunov Exponents from small data sets»,
Physica, vol. 65, pp. 117-134.
Salazar, C.; J. Torres y J.M. Nieto-Villar (2004): «Non-linear analy-
sis approach of maternal heart rate patterns in normal and pre-
eclamptic pregnancies», Journal of Theoretical Medicine, vol. 5, pp.
219-226.
Sano, M. y Y. Sawada (1985): «Measurement of the Lyapunov Spectrum
from a chaotic time series», Physical Review Letters, vol. 55, pp.
1082-1085.
Sauer, T.; J. Yorke y M. Casdagli (1991): «Embedology», Journal of Statis-
tical Physics, vol. 65, pp. 579-616.
Schelter, B.; M. Winterhalder y J. Timmer (2006): Handbook of time
series analysis. Recent theoretical developments and applications,
Wiley-VCH, Weinheim.
Shono, H. et al. (2000): «A new method to determine a fractal dimension of
non-stationary biological time-serial data», Computers in Biology and
Medicine, vol. 30, pp. 237-245.
Schreiber, T. (1997): «Detecting and analyzing nonstationarity in a time
series using nonlinear cross predictions», Physical Review Letters, vol.
78, pp. 843-846.
___________ (1998): «Constrained randomization of time series data», Physi-
cal Review Letters, vol. 80, pp. 2105-2108.
___________ (1999): «Interdisciplinary application of nonlineal time series
methods. The generalized dimensions», Physics Reports, vol. 308,
pp. 1-64.
Schreiber, T. y A. Schmitz (1996): «Improved surrogate data for nonlin-
earity tests», Physical Review Letters, vol. 77, pp. 635-638.
Shumway, R.H. y D.S. Stoffer (2010): Time series analysis and its applica-
tions, Springer-Verlag, New York.
162 Complejidad y auto-organización de patrones naturales

Stoop, R. y J. Parisi (1991): «Calculation of Lyapunov Exponents avoiding


spurious elements», Physica, vol. 50, pp. 89-94.
Strogatz, S.H. (2001): «Exploring complex networks», Nature, vol. 410,
n.o 8, pp. 268-276.
Takens, F. (1981): «Detecting strange attractors in turbulence», D.A. Rand
y L.S. Young, Dynamical systems and turbulence, lecture notes in
mathematics, Springer-Verlag, Berlin, pp. 366-381.
Tejera, E. (2010): «Heart rate variability analysis during normal and hy-
pertensive pregnancy», Tesis de Doctorado, Universidad de Oporto,
Portugal.
Tejera, E.; J.M. Nieto-Villar y I. Rebelo (2010): «Unexpected heart rate
variability complexity in the aging process of arrhythmic subjects»,
Communications in Nonlinear Science and Numerical Simulation,
vol. 15, pp. 1858-1863.
Tejera, E. et al. (2007): «Heart rate variability complexity in the aging
process», Journal of Computational and Mathematics Methods in
Medicine, vol. 18, pp. 287-296.
Tejera, E. et al. (2010a): «Blood pressure and heart rate variability complex-
ity analysis in pregnant women with hypertension», Hypertension in
Pregnancy, vol. 31, n.o 1, pp. 91-106.
Tejera, E. et al. (2010b): «Network centrality and multiscale transition
asymmetry in the heart rate variability analysis of normal and preec-
lamptic pregnancies», Communications in Nonlinear Science and
Numerical Simulation, vol. 16, pp. 1589-1596.
Tejera, E. et al. (2012): «Relationship between heart rate variability
indexes and common biochemical markers in normal and hyper-
tensive third trimester pregnancy», Hypertension in Pregnancy,
vol. 31, n.o 1, pp. 59-69.
Theiler, J. et al. (1992): «Testing for nonlinearity in time series: the method
of surrogate data», Physica, vol. 58, pp. 77-82.
Yoosoon, C. (2002): «Nonlinear IV unit root tests in panels with cross-
sectional dependency», Journal of Econometrics, vol. 110, pp. 261-
292.
Zbilut, J.P. y C.L. Webber Jr. (2007): «Recurrence quantification analysis:
introduction and historical context», International Journal of Bifur-
cation and Chaos, vol. 17, pp. 3477-3481.
Zonghua, L. (2010): «Chaotic time series analysis», Mathematical Problems
in Engineering, vol. 2010, pp. 1-31.
4. series Temporales 163

Vaillancourt, D.E. y K.M. Newella (2002): «Changing complexity in


human behavior and physiology through aging and disease», Neuro-
biology of Aging, vol. 23, pp. 1-11.
Vaillancourt, D.E.; J.J. Sosnoff y K.M. Newell (2004): «Age-related
changes in complexity depend on task dynamics», Journal of Applied
Physiology, vol. 97, pp. 454-455.

g
Sobre los autores
Juvencio A. Betancourt-Mar
Tampico, Tamaulipas, 1967
Máster en Ciencias Químicas. Es Presidente del Mexican Institute of
Complex Systems en Tampico. Sus líneas de investigación se centran
en sistemas complejos, específicamente en el área de estudios teóricos
de cronoterapia y formación de patrones de crecimiento.

Elena Izquierdo-Kulich
La Habana
Doctora, graduada de Ingeniería Química en el Instituto Superior Poli-
técnico (ISPJAE). Jefa del Departamento de Química-Física de la Facultad
de Química de la Universidad de La Habana, donde es conferencista de la
química-física de las superficies y colides y de métodos estocásticos.

José Manuel Nieto-Villar


La Habana, 1957
Doctor por la Facultad de Química de la Universidad de La Habana,
donde es conferencista de termodinámica y sistemas complejos. Sus
investigaciones las realiza en las áreas de la termodinámica de los
procesos irreversibles y los sistemas complejos.

Eduardo Tejera Puente


La Habana, 1979
Doctor por la Facultad de Farmacia de la Universidad de Oporto (Portu-
gal), graduado de Ciencias Químicas por la Universidad de La Habana. Sus
investigaciones se direccionan al análisis de señales, y al estudio de estruc-
turas fractales y redes complejas de interacción en sistemas biológicos.

g
Esta edición de
Complejidad y auto-organización de patrones naturales,
de José Manuel Nieto-Villar (coord.),
Elena Izquierdo-Kulich, Juvencio A. Betancourt-Mar
y Eduardo Tejera Puente, consta de 1 000 ejemplares
y se terminó en 2013.

Ha sido compuesta con las tipografías


Warnock Pro
–en sus variantes Caption, Text y Subhead–,
del diseñador norteamericano Robert Slimbach;
y Fontana ND
–en sus variantes Aa, Cc, Ee, Gg y Ll,
en OldStyle Figure (OsF) y Small Capital (SC)–,
del argentino Rubén Fontana.

También podría gustarte