Constantino Tsallis and Guiomar Ruiz-Introducción A La Mecánica Estadística de Boltzmann-Gibbs-Draft (2011) PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 230

Introducción a la

MECÁNICA ESTADÍSTICA
DE BOLTZMANN-GIBBS

Constantino Tsallis

Guiomar Ruiz

18 de noviembre de 2011
Constantino Tsallis

Centro Brasileiro de Pesquisas Fı́sicas


Rua Xavier Sigaud 150, 22290-180 Rio de Janeiro-RJ, Brazil
E-mail: [email protected]

Santa Fe Institute
1399 Hyde Park Road, Santa Fe, New Mexico 87501, USA.
E-mail: [email protected]

Guiomar Ruiz

Escuela de Ingenierı́a Aeronáutica y del Espacio


Universidad Politécnica de Madrid
Plaza de Cardenal Cisneros 4, 28040 Madrid, España
E-mail: [email protected]
Índice general

Prefacio VII

1. Introducción 1
1.1. La Mecánica Estadı́stica en su contexto . . . . . . . . . . . . . . 1
1.2. Nacimiento y naturaleza . . . . . . . . . . . . . . . . . . . . . . . 1
1.3. Formalismo y caracterı́sticas . . . . . . . . . . . . . . . . . . . . . 2
1.4. Concepto de Información . . . . . . . . . . . . . . . . . . . . . . 4
1.5. El problema ergódico . . . . . . . . . . . . . . . . . . . . . . . . . 6

2. Descripción probabilı́stica de un sistema 13


2.1. Sistemas cuánticos . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1. Estados mezcla . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2. Operador densidad de von Neumann . . . . . . . . . . . . 16
2.2. Sistemas clásicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.1. Espacio de fases . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.2. Densidad de probabilidad . . . . . . . . . . . . . . . . . . 37
2.3. Densidad de estados . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3.2. Ejemplo I (Maxwell-Boltzmann) . . . . . . . . . . . . . . 49
2.3.3. Ejemplo II (Maxwell-Boltzman) . . . . . . . . . . . . . . . 50
2.3.4. Ejemplo III (Bose-Einstein) . . . . . . . . . . . . . . . . . 53
2.3.5. Ejemplo IV (Fermi-Dirac) . . . . . . . . . . . . . . . . . . 55
2.3.6. Ejemplo V.- Osciladores armónicos . . . . . . . . . . . . . 61
2.3.7. Ejemplo VI.- Gas ideal . . . . . . . . . . . . . . . . . . . . 66
2.3.8. Ejemplo VII.- Cuasipartı́culas . . . . . . . . . . . . . . . . 69

3. Entropı́a estadı́stica 73
3.1. Entropı́a y Teorı́a de la Información . . . . . . . . . . . . . . . . 73
3.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.2.1. Positividad de S . . . . . . . . . . . . . . . . . . . . . . . 74
3.2.2. S máxima ⇔ Ignorancia total . . . . . . . . . . . . . . . 74
3.2.3. S mı́nima (S = 0) ⇔ Certeza . . . . . . . . . . . . . . . 75
3.2.4. Simetrı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2.5. Aditividad de la información . . . . . . . . . . . . . . . . 75
iv ÍNDICE GENERAL

3.2.6. Concavidad . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2.7. Subaditividad . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3. Entropı́a y mecánica cuántica . . . . . . . . . . . . . . . . . . . . 81
3.3.1. Entropı́a mı́nima . . . . . . . . . . . . . . . . . . . . . . . 81
3.3.2. Entropı́a máxima . . . . . . . . . . . . . . . . . . . . . . . 81
3.3.3. Concavidad . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3.4. Subsistemas . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.3.5. Evolución temporal . . . . . . . . . . . . . . . . . . . . . . 83
3.3.6. Proceso de medida . . . . . . . . . . . . . . . . . . . . . . 84
3.3.7. N indeterminado . . . . . . . . . . . . . . . . . . . . . . . 84
3.3.8. Estados clásicos . . . . . . . . . . . . . . . . . . . . . . . . 85

4. Colectividades y distribución de Boltzmann-Gibbs 87


4.1. Extensividad e intensividad . . . . . . . . . . . . . . . . . . . . . 87
4.1.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.1.2. Caracterización . . . . . . . . . . . . . . . . . . . . . . . . 89
4.2. Conocimiento de un sistema fı́sico . . . . . . . . . . . . . . . . . 90
4.2.1. Planteamiento . . . . . . . . . . . . . . . . . . . . . . . . 90
4.2.2. Sistemas en equilibrio . . . . . . . . . . . . . . . . . . . . 90
4.3. Postulado fundamental . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4. Colectividad Microcanónica . . . . . . . . . . . . . . . . . . . . . 94
4.5. Distribuciones de equilibrio . . . . . . . . . . . . . . . . . . . . . 101
4.6. Colectividad Canónica . . . . . . . . . . . . . . . . . . . . . . . . 106
4.7. Colectividad Macrocanónica . . . . . . . . . . . . . . . . . . . . . 112
4.8. Distribuciones de equilibrio clásicas . . . . . . . . . . . . . . . . . 114

5. Termodinámica Clásica: un caso particular 117


5.1. Principio cero de la termodinámica . . . . . . . . . . . . . . . . . 118
5.2. Primer principio . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.3. Segundo principio . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.4. Tercer principio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.5. Potenciales termodinámicos y relación de Gibbs-Duhem . . . . . 127

6. Estadı́stica de Maxwell-Boltzmann: Aplicaciones 129


6.1. Oscilador armónico cuántico . . . . . . . . . . . . . . . . . . . . . 129
6.2. Rotor rı́gido cuántico . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.3. Teorema de equipartición clásica . . . . . . . . . . . . . . . . . . 136
6.4. Paramagnetismo de Langevin . . . . . . . . . . . . . . . . . . . . 138
6.5. Paramagnetismo de Brillouin . . . . . . . . . . . . . . . . . . . . 140
6.6. Centrifugación isoterma de un gas . . . . . . . . . . . . . . . . . 143
6.7. Gas ideal clásico monoatómico . . . . . . . . . . . . . . . . . . . 146
6.8. Atmósfera isoterma e inhomogénea . . . . . . . . . . . . . . . . . 148
6.9. Plasma neutro clásico . . . . . . . . . . . . . . . . . . . . . . . . 150
6.10. Paradoja de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . 154
6.11. Calor especı́fico isocórico de gases ideales . . . . . . . . . . . . . 155
6.11.1. Temperaturas caracterı́sticas . . . . . . . . . . . . . . . . 155
ÍNDICE GENERAL v

6.11.2. Hamiltoniano y calor especı́fico . . . . . . . . . . . . . . . 156


6.11.3. Gases monoatómicos . . . . . . . . . . . . . . . . . . . . 158
6.11.4. Gases diatómicos heteronucleares . . . . . . . . . . . . . 159
6.11.5. Gases poliatómicos colineares . . . . . . . . . . . . . . . . 159
6.11.6. Gases poliatómicos no colineares . . . . . . . . . . . . . . 160
6.11.7. Gases diatómicos homonucleares . . . . . . . . . . . . . . 161
6.12. Reacción quı́mica isoterma e isobara . . . . . . . . . . . . . . . . 164

7. Estudio comparativo de las tres estadı́sticas en un gas ideal 169


7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
7.2. Descripción de un gas ideal . . . . . . . . . . . . . . . . . . . . . 170
7.3. Segunda cuantización . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.4. Colectividad macrocanónica . . . . . . . . . . . . . . . . . . . . . 175
7.5. Maxwell–Boltzmann . . . . . . . . . . . . . . . . . . . . . . . . . 183
7.6. Fermi–Dirac y Bose–Einstein . . . . . . . . . . . . . . . . . . . . 184

8. Estadı́stica de Fermi–Dirac: Aplicaciones 191


8.1. Calor especı́fico de un conductor metálico . . . . . . . . . . . . . 191
8.2. Susceptibilidad magnética de un conductor metálico . . . . . . . 193
8.2.1. Nivel de Fermi µ ≡ ǫF . . . . . . . . . . . . . . . . . . . . 193
8.2.2. Paramagnetismo de Brillouin . . . . . . . . . . . . . . . . 198
8.2.3. Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . 199
8.3. Calor especı́fico de semiconductores intrı́nsecos . . . . . . . . . . 202

9. Estadı́stica de Bose–Einstein: Aplicaciones 209


9.1. Condensación de Einstein (d = 3) . . . . . . . . . . . . . . . . . . 209
9.2. Gas ideal de cuasipartı́culas . . . . . . . . . . . . . . . . . . . . . 212
9.2.1. Calor especı́fico . . . . . . . . . . . . . . . . . . . . . . . . 212
9.3. Fonones acústicos (modelo de Debye) . . . . . . . . . . . . . . . . 215
9.4. Cuerpo negro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216

Apéndice 219
vi ÍNDICE GENERAL
PREFACIO

On prouve tout ce qu’on veut, et la vraie difficulté


est de savoir ce qu’on veut prouver.
Alain
Ce qui est clair sans le dire,
est encore plus clair en le disant.
Sagesse des Nations

Las razones del presente intento de exposición de la Mecánica Estadı́stica son


básicamente dos, ı́ntimamente interrelacionadas. La primera, es la de tratar de
desarrollar en el lector (¡y también en los autores!) una forma de serenidad inte-
lectual ligada a un cierto “sentido de la orientación” dentro de la problemática
propia de la Termodinámica. La segunda, es la de tratar de convencer al lector
—puesto que los autores están ya convencidos— de la capital importancia que
tiene alcanzar un nivel razonable de “agilidad operacional” sin la cual la primera
parte quedarı́a gravemente comprometida.
En lo que se refiere al orden de la presentación de los diversos conceptos, la
Mecánica Estadı́stica no difiere de las otras ciencias axiomáticas, lo que significa
que es posible presentarla a través de diversos conjuntos de postulados. La
óptica adoptada en este libro se acerca a la moderna Teorı́a de la Información,
aproximación que consideramos, en el momento actual, una de las maneras
más fructı́feras de afrontar la “ciencia del conocimiento incompleto” que es la
Mecánica Estadı́stica. Es en este sentido que fueron escritos los capı́tulos 1-5.
Por razones de economı́a de tiempo y de espacio, reconducimos esta publi-
cación a un estilo algo telegráfico, abandonando el rigor lógico-deductivo cada
vez que éste no sea didácticamente relevante.
En la elección de los contenidos, forzosamente incompletos, se trata de equi-
librar los aspectos prioritariamente conceptuales (capı́tulos 1-5) con los prio-
ritariamente operacionales (capı́tulos 6-9). Todas las aplicaciones que se pre-
sentan han sido introducidas con pre-comentarios —cuyo contenido es el de
prefigurar crı́ticamente las respuestas finales “aceptables”— y se cierran con
post-comentarios —que muestran la consolidadción de la intuición ası́ como la
profundización del fenómeno que se estudia—; cada una de ellas deberı́a ser
afrontada como una “pequeña aventura intelectual”.
Me gustarı́a también resaltar mi convicción de que una verdadera asimila-
viii Prefacio

ción de la Mecánica Estadı́stica (y de cualquier otra rama cientı́fica) no sabrı́a


prescindir de una crı́tica e intensa ejercitación. En este sentido es una lásti-
ma el no haber disponido del tiempo necesario para proponer, al final de cada
capı́tulo, algunos ejercicios. Algunas publicaciones propuestas en la sección de
Bibliografı́a pueden completar esta laguna. Es oportuno mencionar que, siendo
que el conocimiento cientı́fico humano ha evolucionado a lo largo de la historia
casi sistemáticamente desde lo “particular” hacia lo “general”, no me parece ob-
vio que el método pedagógico tradicional —que consiste primero en completar
las bases teóricas para despues pasar a una etapa de ejercitación— sea lo mejor.
Incluso dirı́a que en una ciencia que pretende ser “exacta”, todo entendimiento
que se sitúe a novel operacional me parece ingénuo, si no a menudo ilusorio.
Finalmente, en relación al método didáctico empleado, he de decir que inten-
tamos seguir al pie de la letra una visión de la ciencia que consiste en considerarla
“nada más que el arte de decir trivialidades oportunas”.
Capı́tulo 1

Introducción

1.1. La Mecánica Estadı́stica en su contexto


Sin pretensiones epistemológicas particulares, podemos hacer una clasifica-
ción de las Ciencias Fı́sicas en dos grandes categorı́as, con el objeto de situar la
Mecánica Estadı́stica en su contexto general:
I) Ciencias Axiomáticas, entre las que se incluyen aquellas ramas de la
Fı́sica que pueden construirse a partir de un conjunto de postulados, que
son generalmente pocos.
En esta categorı́a se incluyen, entre otras disciplinas, la Mecánica Clásica,
la mecánica cuántica, la Relatividad Especial, la Relatividad General, el
Electromagnetismo, la Teorı́a de Campos, la Termodinámica y la Mecánica
Estadı́stica.
II) Ciencias Aplicadas, cuyo objeto de estudio especı́fico es algún aspecto
particular del mundo fı́sico.
Son Ciencias Aplicadas, entre otras, la Teorı́a de Partı́culas Elementales,
la Fı́sica Nuclear, la Fı́sica Atómica, la Fı́sica Molecular, la Fı́sica de la
Materia Condensada, la Fı́sica del Plasma, la Óptica Cuántica Aplicada
y la Cosmologı́a.
En la práctica, las que hemos denominado Ciencias Axiomáticas y Ciencias
Aplicadas, se entrelazan constructivamente enriqueciéndose mutuamente.

1.2. Nacimiento y naturaleza


El nacimiento de la Mecánica Estadı́stica tuvo lugar a finales del siglo XIX,
de la mano de importantes cientı́ficos como J. C. Maxwell (1831–1879), J. W.
Gibbs (1839–1903) y L. E. Boltzmann (1844–1906). Esta teorı́a representó un
intento de explicación del mundo y de los fenómenos macroscópicos en térmi-
nos del microcosmos, bajo la convicción de que todo fenómeno macroscópico
2 Introducción

—como por ejemplo la caı́da de los cuerpos o el movimiento de las olas en


el mar— deberı́a ser explicable en términos microscópicos, esto es, de fuerzas
electromagnéticas, gravitacionales, interacciones nucleares, etc.
Fue ası́ como surgió la Mecánica Estadı́stica, dada la imposibilidad —o inclu-
so la inutilidad— de conocer la configuración microscópica exacta de un sistema
macroscópico. Por ejemplo, sabemos que un mol de gas contiene del orden de
1023 moléculas y que, en una descripción clásica, cada molécula implica el co-
nocimiento de al menos seis números, como por ejemplo las coordenadas del
vector posición ~r y del vector momento ~p. Si consideramos que esta información
podrı́a caber en un centı́metro de papel, la descripción completa del sistema
en un único instante de tiempo exigirı́a nada menos que unos 1023 centı́metros,
esto es, ¡cien mil años luz de información escrita!
Ante esta imposibilidad ¿en qué consiste entonces la Mecánica Estadı́stica?
Podrı́amos decir que, en esencia, la Mecánica Estadı́stica representa el intento
de resolver aquellos problemas de los que únicamente se conoce una parte del
enunciado completo. O también, desde otro punto de vista, la Mecánica Es-
tadı́stica representa una alternativa mediante la cual ser trata de sacar el mayor
provecho posible de la ignorancia. Ası́ es como en la Mecánica Estadı́stica emer-
ge, de forma natural, la necesidad de hacer uso de la teorı́a de probabilidades
(de ahı́ la palabra estadı́stica que la define). ¡De modo que podrı́a hacerse una
analogı́a entre la Mecánica Estadı́stica y el juego de pocker! Porque, en realidad,
lo único que precisaremos conocer para estudiar la Mecánica Estadı́stica de un
sistema, serán nuestras propias cartas, algunas leyes de conservación, las reglas
del juego, una parte de la historia pasada y poco más.
En consecuencia, el objeto de estudio de la Mecánica Estadı́stica son los sis-
temas —generalmente macroscópicos— de los cuales únicamente poseemos in-
formación parcial y que únicamente podemos controlar parcialmente. Obsérvese
que el carácter parcial de dicha información y control, puede referirse a uno o a
varios de los siguientes aspectos:
a) La definición del propio sistema. Por ejemplo, porque el número exacto
de electrones o de fotones no se conoce.
b) Las interacciones entre las partı́culas. Por ejemplo, porque existen fuerzas
que se tratan como aleatorias.
c) Las condiciones iniciales. Porque, por ejemplo, en una descripción clásica
podemos tal vez conocer, dentro de un margen de error, la posición y el momento
del baricentro del sistema mientras que ignoramos el resto.
d) Las condiciones de contorno. Por ejemplo, en el caso de estar interesados
en estudiar los electrones de una pieza metálica que tiene forma irregular, o el
gas contenido en un globo elástico.

1.3. Formalismo y caracterı́sticas


La Mecánica Estadı́stica hace uso de un formalismo probabilı́stico aplicado
a la Mecánica —Clásica, Cuántica o Relativista—, la cual viene generalmente
—pero no necesariamente— representada en su formulación Hamiltoniana. La
1.3 Formalismo y caracterı́sticas 3

Mecánica Estadı́stica del equilibrio se construye de hecho sobre el formalismo


Hamiltoniano de la Mecánica Clásica y de la mecánica cuántica.
Podemos decir que la Mecánica es un caso particular de la Mecánica Es-
tadı́stica. Concretamente, la Mecánica representarı́a el caso en el que la tempe-
ratura T del sistema es nula, lo que es equivalente a disponer de la información
completa acerca del sistema y por lo tanto a que exista la posibilidad de control
completo.
T = 0 ⇐⇒ Disponemos de información completa sobre el sistema
(posibilidad de control completo)
Para entender esta idea, pensemos en que si estudiamos un sistema mecánico
a partir de la energı́a libre F = U −T S del sistema, donde U es la energı́a interna,
T es la temperatura y S es la entropı́a, minimizar F —en Termodinámica—
equivale, para el caso particular T = 0, a minimizar U —en Mecánica—.
Por otro lado, la Termodinámica es el lı́mite de la Mecánica Estadı́stica
cuando el número de partı́culas N es muy grande, esto es, cuando N → ∞. Es lo
que normalmente se denomina lı́mite termodinámico. En el lı́mite termodinámico
de la Mecánica Estadı́stica, pueden calcularse todas las magnitudes que podrı́an
también calcularse en el ámbito de la Mecánica. Pero la relación inversa es falsa:
piénsese por ejemplo en el caso del calor especı́fico, para el que no existe un
“equivalente mecánico”.

Carácter no determinista
Hagamos algunas consideraciones que nos permitirán comprender mejor el
carácter no determinista de la Mecánica Estadı́stica.
a) La Mecánica Clásica es determinista. Esto significa que, conocido el estado
inicial de un sistema y sus leyes mecánicas de evolución, el estado del sistema
está definido de forma unı́voca.
b) La Mecánica Estadı́stica Clásica está afectada por un no determinismo
simple. Esto significa que el imperfección en la definición del sistema está única-
mente ligada al conocimiento incompleto de la evolución temporal de los vectores
posición y momento, ~r(t) y ~p(t).
c) La mecánica cuántica está también afectada por un no determinismo
simple. Éste se encuentra únicamente ligado al propio concepto de función de
onda, ψ(~r, t).
d) La Mecánica Estadı́stica Cuántica es también no determinista, pero en
un doble sentido, ya que a la indeterminación propia de la Mecánica Estadı́stica
viene a sumarse la indeterminación ligada al conocimiento incompleto propor-
cionado por la función de onda ψ(~r, t), en lo que se refiere al conocimiento exacto
y simultáneo de la posición y el momento.
Conviene observar, en coherencia con lo anterior, que entre dichas áreas se
verifican las siguientes relaciones de inclusión:
Mecánica Clásica ⊂ Mecánica Estadı́stica Clásica
⊂ ⊂
mecánica cuántica ⊂ Mecánica Estadı́stica Cuántica
4 Introducción

Violación de la simetrı́a
El concepto de fenómeno cooperativo surge al constatar que a veces el com-
portamiento de un conjunto es muy diferente del comportamiento de la simple
suma de las partes. Veamos dos situaciones en las que aparece dicho fenómeno.
a) En los procesos irreversibles, la simetrı́a en relación a la inversión tem-
poral —esto es, la invariancia frente a los cambios que modifican la orientación
temporal como es el caso t → (−t)—, puede no subsistir a nivel macroscópico.
Es lo que por ejemplo ocurre en la fusión de un vidrio caliente.
b) En las transiciones de fase tı́picamente aparece una variable denominada
parámetro de orden, cuyo cambio (sea brusco o suave) pone de manifiesto dicha
transición. Piénsese, por ejemplo, en que una interacción tipo Ising entre dos
spines resulta ser invariante en relación al cambio de orientación z → (−z), y
sin embargo esto no ocurre en una sustancia ferromagnética macroscópica en lo
que se refiere a la polarización magnética media.

Problemas abiertos
En Mecánica Estadı́stica, a diferencia de lo que suele aceptarse, quedan
todavı́a abiertos muchos problemas, y no dejaremos de ponerlos en evidencia
cuando aparezcan. Por ejemplo, un problema abierto fundamental en el cua-
dro de la Mecánica Estadı́stica Relativista general, es el de la relación entre la
expansión del universo y la pérdida de información.

1.4. Concepto de Información


Se entiende que el desorden de un sistema aumenta (o disminuye) si y sólo
si nuestra información sobre el sistema disminuye (o aumenta). Esto nos intro-
duce en la centralidad, en el marco de la mecánica estadı́stica, del concepto de
información.
Obsérvese además que el hecho de que un sistema esté en equilibrio estadı́sti-
co implica —aunque no sea una condición suficiente para el equilibrio— que la
información de la que disponemos es constante e independiente del tiempo.
Para ver cómo se aplica el concepto de información, analizaremos con detalle
dos experimentos ideales: el primero, el lanzamiento de un dado y la predicción
de los resultados posibles en términos de probabilidades; el segundo, el cálculo
de la probabilidad de que dos spines distinguibles estén en estados idénticos.

Ejemplo 1.- En el lanzamiento de un dado, estamos interesados en estimar


las probabilidades {pi } de los diferentes resultados posibles i. Para ello hemos
de distinguir tres situaciones distintas:

a) Si el dado es normal, la mejor propuesta para las probabilidades es

pi = 1/6, (i = 1, 2, 3, 4, 5, 6).
1.4 Concepto de Información 5

b) Si el dado es normal, y además sabemos que al lanzarlo salió un número


par, la mejor propuesta será

1/3 (i = 2, 4, 6)
pi = .
0 (i = 1, 3, 5)

c) Si el dado está trucado pero ignoramos de qué modo, nuestra mejor pro-
puesta, aun sabiendo que es falsa, será

pi = 1/6, (i = 1, 2, 3, 4, 5, 6).

Ejemplo 2.- Tenemos dos spines distinguibles cuyos valores posibles son S1z =
{1, 0, −1} y S2z = {1, 0, −1}. Queremos determinar cuál es la probabilidad de
que sean iguales, p(S1z = S2z ). Para ello hemos de diferenciar dos situaciones
distintas:
a) Si no disponemos de información alguna, el conjunto admisible es el de
todos los posibles valores del par de spines distinguibles, es decir:

Ω = {(0, 0), (0, 1), (0, −1), (1, 0), (1, 1), (1, −1), (−1, 0), (−1, 1), (−1, −1)}.

Por lo tanto, la probabilidad de obtener dos spines iguales, S1z = S2z , es

(número de casos favorables = 3) 1


p(S1z = S2z ) = = .
(número de casos posibles = 9) 3

b) Si disponemos de información extra como, por ejemplo, si se sabe que

U = −H(S1z + S2z ) = −H,

donde U es la energı́a interna y H un campo magnético externo, el conjunto


de todos los valores admisibles del par de spines distinguibles es

Ω = {(1, 0), (0, 1)} .

Por lo tanto, la probabilidad de obtener dos spines iguales es nula:

(número de casos favorables = 0)


p(S1z = S2z ) = = 0.
(número de casos posibles = 2)

Estos dos ejemplos nos preparan para la comprensión del postulado fundamental
de la Mecánica Estadı́stica.

Postulado fundamental de la Mecánica Estadı́stica de Boltzmann-


Gibbs
Para un sistema aislado todas las posibilidades microscópicas com-
patibles con nuestra información son igualmente probables.
6 Introducción

En modo sucinto, podrı́amos también enunciar dicho postulado como la equi-


valencia entre ignorancia y equiprobabilidad1 :

ignorancia ⇔ equiprobabilidad

Son necesarias dos aclaraciones importantes a este postulado fundamental,


inicialmente enunciado por Boltzmann [7].
La primera de ellas se refiere a la cualificación de “posibilidades microscópi-
cas”. La fuerza del postulado de Bolzmann no se encuentra tanto en el total-
mente plausible concepto de equiprobabilidad sino en la identificación del espacio
en el cual dicha equiprobabilidad ha de ser aplicada. Boltzmann identificó que
este espacio serı́a el espacio de fases µ asociado a una única partı́cula. Poste-
riormente este espacio serı́a generalizado por Gibbs al espacio Γ de todas las
partı́culas del sistema [8]. Sabemos hoy que, para los sistemas cuánticos, el es-
pacio al cual hay que aplicar el concepto de equiprobabilidad es el espacio de
Hilbert o, cuando el número de partı́culas es indeterminado, el espacio de Fock.
Más adelante describiremos cómo se plasma la operatividad de estos conceptos.
La segunda aclaración se refiere a la expresión “compatibles con nuestra
información”. El postulado de Boltzmann presupone que todos los estados per-
tenecientes a la hipersuperficie isoenergética del espacio de fases del sistema
aislado son admisibles. Pero existen sistemas, de los que hablaremos con más
detalle cuando sea oportuno, en los que los estados admisibles constituyen un
subconjunto de la mencionada hipersuperficie isoenergética [9].

1.5. El problema ergódico


¿En qué casos es razonable esperar que sea válida la hipótesis de equiproba-
bilidad en la totalidad de la hipersuperficie equienergética que acabamos men-
cionar, tal y como Boltzmann y Gibbs imaginaron? Es razonable suponer que
ocurra cuando la dinámica (no lineal) del sistema sea suficientemente caótica
—en términos técnicos esto significa que al menos un exponente de Lyapunov
es positivo—, de modo que prácticamente toda la hipersuperficie sea visitada
en un tiempo relativamente breve.
Determinar las condiciones para que esto suceda es una discusión matemáti-
camente compleja, usualmente conocida como el problema ergódico.

Variables dinámicas y sus promedios


Sea X una variable dinámica mensurable de un sistema, como por ejemplo,
la longitud x de un resorte. Obsérvese en la Fig. 1.1 tres posibles evoluciones de
1 Basándose en el principio de razón suficiente, según el cual “los acontecimientos actuales

mantienen con los que le preceden una relación basada en el principio evidente de que una
cosa no puede comenzar a existir sin una causa que la produzca”, Laplace [5] propone que
no existe ninguna razón para suponer que un estado se puede presentar antes que los demás,
y que puede por lo tanto considerarse que todos los estados pueden acontecer por igual. De
aquı́ que, para un problema de decisión con n posibles estados de la naturaleza, se asigne una
probabilidad igual a 1/n para cada uno de los estados.
1.5 El problema ergódico 7

la variable x, según sean las perturbaciones a las que esté sometido el sistema.

Figura 1.1: a) Evolución temporal de la variable x si no existe perturbación alguna


y por lo tanto x adquiere un valor constante conocido (situación tı́pica a temperatura
T = 0). b) Evolución temporal de x bajo perturbaciones conocidas pero no nulas,
de modo que puede determinarse mediante una expresión, generalmente analı́tica. c)
Evolución temporal de x si existen perturbaciones aleatorias no nulas y por lo tanto el
valor de la variable es imprevisible (situación tı́pica de equilibrio térmico a temperatura
T 6= 0).

Para una variable dinámica cualquiera X, pueden definirse dos tipos de


promedios distintos: el promedio temporal y el promedio de una colectividad.
Los definimos a continuación.

Promedio temporal X̄
El promedio temporal se define, partiendo de la hipótesis de que ningún
instante de tiempo es privilegiado, como
Z T
1
X = lı́m X(t)dt. (1.1)
T →∞ T − t0 t
0

Promedio de la colectividad hXi


Entendemos por colectividad (o también ensemble, del inglés), el conjunto
de los M sistemas independientes y equivalentes, es decir, compatibles con la
información de la que disponemos acerca de ellos, tı́picamente el conjunto de
todas las posibles condiciones iniciales admisibles Xi , i = 1, . . . , M .
El promedio de la colectividad se define, partiendo de la hipótesis de que
ninguno de los M sistemas es privilegiado, como2
2 Observemos que pueden definirse otros promedios de la colectividad, como por ejemplo,

el geométrico, hXigeom , y el armónico, hXiarmon :


"M #1/M  
geom
Y
armon 1
hXi ≡ lı́m Xi (t) , hXi ≡ lı́m 
1 PM 1
.
M →∞ M →∞
i=1 M i=1 Xi (t)

De hecho, podemos definir un promedio generalizado, hXiα , de la siguiente manera:


M
1 X
lnα hXiα ≡ lı́m lnα Xi (t)
M →∞ M i=1
1−α
donde lnα z ≡ z 1−α−1 (α ∈ R; ln1 z = ln z) [10]. Esta expresión recupera los clásicos prome-
dios aritmético (ecuación (1.2)), geométrico y armónico, para α = 0, 1, 2 respectivamente. Sin
embargo, hemos de resaltar el hecho de que el promedio de la colectividad definido en (1.2) es
8 Introducción

M
1 X
hXi ≡ lı́m Xi (t). (1.2)
M→∞ M
i=1

Estado estadı́stico estacionario


El estado estadı́stico estacionario se alcanza cuando el promedio de la colec-
tividad es constante en el tiempo:

estado estadı́stico estacionario ⇔ hXi independiente del tiempo

La expresión equilibrio térmico se aplica al caso particular de estado es-


tadı́stico estacionario en el que sea visitado todo el espacio de fases.

Hipótesis ergódica
La hipótesis ergódica, debida a Boltzmann [11], afirma que bajo ciertas condi-
ciones se cumple, para cualquier variable dinámica X, que el promedio temporal
es igual a la media de la colectividad, esto es:

X = hXi (1.3)

Toda la problemática ergódica gira en torno a cuáles son las condiciones que
hacen posible dicha igualdad [12].

Ejemplo
Ilustraremos cómo se verifica la hipótesis ergódica en el oscilador armónico
clásico, cuyo Hamiltoniano, H, es

p2 1
H= + mω 2 x2 (1.4)
2m 2
donde m es la masa, ω la frecuencia propia, x la posición y p el momento. La
energı́a del oscilador E, para valores máximos de la posición x0 y el momento
p0 (ver Fig. 1.2), es
p2 1
E = 0 = mω 2 x20 .
2m 2
Nuestro objetivo es hallar la densidad de probabilidad de presencia del osci-
lador, P (x). Dicha densidad de probabilidad ha de verificar que:
a) P (x) = 0, si | x |>| x0 |.
b) P (x) = P (−x), ∀x.
c) El valor mı́nimo es P (0).
d) El valor máximo es P (x0 ).
el único lineal, no sólo respecto a la clase generalizada que acabamos de definir, sino también
a cualquier otra clase de promedios.
1.5 El problema ergódico 9

Figura 1.2: Órbita en el plano de fases del oscilador armónico clásico de energı́a E.
Obsérvese el arco de la órbita asociado a un intervalo de tiempo diferencial dt.

e) P (0) = α/x0 , donde α es un número real del orden de la unidad. Esta


relación se deduce del análisis dimensional del problema.
Resolución mediante el promedio temporal.
Estimamos la probabilidad de presencia en (x, x + dx) promediando a lo
largo de un periodo T , en el que el oscilador recorre dos veces todos los valores
posibles de x, mediante
dt 2 dt 2 dt
P (x)dx = 2 = dx ⇒ P (x) =
T T dx T dx
siendo P (x) la densidad de probabilidad de presencia. Consideramos la ecuación
del movimiento del oscilador
q
dx
x = x0 sin (ωt + φ) ⇒ = x0 ω cos (ωt + φ) = ω x20 − x2 ,
dt
donde φ representa la fase en el instante inicial, t = 0. De dicha ecuación se
obtiene la densidad de probabilidad de presencia
2 1 1
P (x) = p = p 2 (1.5)
T ω x20 − x2 π x0 − x2
cuyo comportamiento asintótico se muestra en la Fig. 1.3. Dicha probabilidad
coincide, por ejemplo, con:
a) La distribución invariante del mapa logı́stico, para a = 2:
xt+1 = 1 − ax2t (t = 0, 1, 2, . . . )
donde xt ∈ [−1, 1], 0 ≤ a ≤ 2.
b) La densidad de fermiones libres, con dimensionalidad d = 1.
Puede verificarse que la probabilidad de presencia está normalizada a la
unidad: Z x0
P (x) dx = 1 (1.6)
−x0
10 Introducción

Figura 1.3: Función densidad de probabilidad de presencia del oscilador armónico


de amplitud máxima x0 . Obsérvese el comportamiento asintótico en los puntos de
equilibrio x = 0 (estable) y x = ±x0 (inestables).

Resolución mediante el promedio de la colectividad.


Trabajemos inicialmente con la energı́a en un intervalo infinitesimal (E, E +
δE), donde δE ≪ E, para después considerar δE → 0.
A energı́a constante E, se cumple

p2 x2
√ 2 + r !2 = 1, (1.7)
2mE 2E
mω 2

de lo que podemos asegurar que el área SE de la superficie encerrada en el plano


de fases por una órbita elı́ptica de energı́a E es
r
√ 2E 2πE
SE = π 2mE =
mω 2 ω

y también que el área diferencial que queda encerrada entre dos órbitas elı́pticas
de energı́as E y E + δE es

δSE = δE.
ω
Podemos obtener la probabilidad de presencia a energı́a constante E, como
el lı́mite δE → 0 del cociente entre el área marcada de la Fig. 1.4 asociada a un
elemento diferencial (dx, δp) comprendido entre las dos elipses, y todo el área
diferencial δSE encerrada entre las dos elipses, esto es:

área entre elipses en dx 2δpdx


P (x)dx = = lı́m
δSE δE→0 2π
δE
ω
1.5 El problema ergódico 11

Figura 1.4: Órbitas del oscilador armónico con energı́a de oscilación E y E + δE.

de lo que se obtiene que la densidad de probabilidad de presencia P (x) es


ω mω mω 1
P (x) = = = √ = p 2 ,
∂E πp π 2mE − m2 ω 2 x2 π x0 − x2
π
∂p x= constante
(1.8)
que es idéntica a la obtenida mediante el promedio temporal. Por lo tanto, la
hipótesis ergódica queda comprobada.
Obsérvese que hemos considerado primero δE 6= 0, y después hacemos el
lı́mite δE → 0, con el objeto de:
1) Permitir fluctuaciones alrededor de una órbita integable exacta, dado que
sin estas fluctuaciones no existirı́a un mecanismo para obtener equilibrio
térmico.
2) Poder utilizar argumentos geométricos con objetos cuya medida de Lebes-
gue no sea nula.
12 Introducción
Capı́tulo 2

Descripción probabilı́stica
de un sistema

En este capı́tulo estudiaremos un formalismo matemático del que hace uso


la mecánica estadı́stica.
Como primer paso necesitamos representar un sistema del que, a escala mi-
croscópica, no se conocen sus caracterı́sticas exhaustivas. La mecánica cuántica
resulta ser especialmente adecuada a este fin, dado que la fı́sica microscópica
es esencialmente cuántica y que de hecho la aproximación mecanocuántica es
imprescindible en la explicación de algunos fenónemos muy importantes, como
por ejemplo la existencia de las sustancias magnéticas, las propiedades de la
radiación de cuerpo negro, el calor especı́fico de los fluidos o incluso, en el caso
de los gases, para elucidar la paradoja de Gibbs.
La formulación rigurosa de la mecánica cuántica fue desarrollada por P. A.
M. Dirac y J. von Neumann. Dicha formulación se basa en una serie de postula-
dos, en los que se consideran estados totalmente preparados (los microestados), a
pesar de que en mecánica estadı́stica cuántica en realidad los estados nunca están
totalmente preparados (macroestados). El conocimiento de los macroestados es
por lo tanto sólo parcial, y consiste en la asignación de leyes de probabilidad pa-
ra todos los microestados posibles. La sı́ntesis de esta naturaleza probabilı́stica
del estado puede ser convenientemente representada por el operador densidad, el
cual generaliza el concepto de probabilidad a la mecánica estadı́stica cuántica.
En mecánica clásica los microestados de un sistema de partı́culas pueden ser
caracterizados por sus posiciones y momentos; un macroestado —que a nivel
microscópico se conoce de forma imperfecta— viene en cambio caracterizado
por medidas de probabilidad en el espacio de fases Γ en el que se representan
dichas posiciones y momentos. Hemos de definir dichas medidas de probabilidad
introduciendo ciertos factores de escala, como veremos más adelante, para que
la mecánica estadı́stica clásica aparezca de forma natural como el caso lı́mite
de la mecánica estadı́stica cuántica. El formalismo clásico será entonces válido
únicamente para los sistemas más simples.
14 Descripción probabilı́stica de un sistema

Comenzaremos introduciendo el formalismo propio de los sistemas cuánticos,


para despues introducir el de los sistemas clásicos.

2.1. Sistemas cuánticos


En el formalismo de Dirac de la mecánica cuántica, cada estado fı́sico de
un sistema cuántico con Hamiltoniano, H, se representa mediante un vector
de estado o ket |ψi que pertenece a un espacio vectorial complejo normado
o espacio de Hilbert EH asociado al Hamiltoniano. Dicho ket contiene infor-
mación completa del estado fı́sico, esto es, acerca del resultado de todas las
posibles mediciones que podrı́an efectuarse. Todo ket consiste, por lo tanto, en
una colección de números cuánticos o etiquetas que describen el estado fı́sico
del sistema.
Es oportuno enfatizar que para definir un espacio de Hilbert, es necesario
que el Hamiltoniano del sistema esté completamente definido, pero también las
condiciones de contorno necesarias para la resolución de la ecuación de Shrödin-
ger:
   
   Hamiltoniano H   espacio 
sistema
→ + → de
cuántico    
condiciones contorno Hilbert EH

De este modo, el estado microscópico del sistema queda bien definido me-
diante un ket del espacio de Hilbert:

estado |ψi del sistema ≡ vector del espacio de Hilbert EH

Entre dichos estados, vamos a distinguir entre los estados puros y los estados
mezcla:

a) Estados puros ≡ vectores |ψi del espacio de Hilbert, que no son necesa-
riamente autovectores de H.

b) Estados mezcla estadı́stica ≡ conjunto {|ψλ i} de vectores del espacio


de Hilbert con cierta ley de probabilidades de ocurrencia Pλ , para cada
vector de estado que lo forma.

2.1.1. Estados mezcla


Hemos de hacer algunas observaciones acerca de los estados mezcla {|ψλ i}:

Los vectores |ψλ i no tienen por qué ser ortogonales entre sı́.

Por convenio, los vectores |ψλ i están normalizados:

hψλ |ψλ i = 1, ∀λ (2.1)


2.1 Sistemas cuánticos 15

Obviamente, para las probabilidades se cumple que:




 0 ≤ Pλ ≤ 1, ∀λ

X


 Pλ = 1
λ

Un estado puro puede entenderse como un caso particular de estado mez-


cla, con la siguiente ley de probabilidad de ocurrencia:

1, si λ = λ0
Pλ =
0, si λ 6= λ0

Los estados puros constituyen el objeto de estudio de la mecánica cuántica


—que presenta un carácter no determinista simple—, y los estados mezcla
constituyen el objeto de estudio de la mecánica estadı́stica —que presenta
por lo tanto un carácter no determinista doble—.

Si el conjunto de las {λ} está asociado a un único nivel de energı́a, esta-


mos en presencia de la situación de colectividad microcanónica. Si por el
contrario estamos en el caso de que {λ} está asociado a todos los niveles
de energı́a del sistema —en número finito o infinito—, podrı́a tratarse del
caso de una colectividad canónica. Esto lo veremos con detalle más ade-
lante.

Ejemplo
Sea un spin 1/2, lo que corresponde a un espacio de Hilbert EH bidimensional.

Los autoestados | ↑i y | ↓i del operador de spin Sz , con autovalores ±1/2


en unidades atómicas (~ = 1), se representan mediante las siguientes matrices
columna:    
1 0
| ↑i ≡ , | ↓i ≡ .
0 1

Los estados puros, pueden escribirse como combinación lineal de los auto-
estados del operador de spin es
 
a
a| ↑i + b| ↓i ≡ .
b

Por ejemplo, el estado puro de spin polarizado paralelo al eje X se repre-


senta como      
1 1 1 1 0
|ψi = √ = √ + .
2 1 2 0 1
16 Descripción probabilı́stica de un sistema

Esto corresponde a la siguiente ley de probabilidad para Sz :


  2
 1 1
 P↑ ≡ P (| ↑i) = √
 =
2
 2 2
 1 1
 P↓ ≡ P (| ↓i) = √
 =
2 2
en donde el valor esperado para | ↑i es
 
1 1 1
h↑ |ψi = (1 0) √ = √ .
2 1 2
En cambio, un estado mezcla con ley de probabilidad
1
P↑ = P↓ =
2
presenta un valor esperado para | ↑i
X 1 1 1
Pλ h↑ |ψλ i = h↑ | ↑i + h↑ | ↓i = ,
2 2 2
λ

que ¡es diferente del obtenido para el estado puro! En otras


 palabras,
 tener un
1 1
conjunto de 100 spines independientes en el estado √ es diferente de
2 1
tener un conjunto de 100 spines independientes de los cuales cincuenta están en
el estado | ↑i y cincuenta en el estado | ↓i. Observemos que en esta discusión
no hemos tenido necesidad de considerar el valor de la energı́a del sistema.

2.1.2. Operador densidad de von Neumann


Sea un observable A, como por ejemplo la energı́a (A ≡ H), y un estado
mezcla {|ψλ i}, con ley de probabilidad de ocurrencia {Pλ }.

El valor medio del observable A se define como


X
hAi ≡ Pλ hψλ |A|ψλ i (2.2)
λ

Considerando un conjunto de vectores |ki que forman una base ortonormal del
espacio de Hilbert y que pueden ser, o no, vectores propios del Hamiltoniano H,
se puede escribir:
 
1 0 ... ... ... 0
. 
0 . . . . . . .. 

 0 1
 
X  .. 
 0 0 1 0 . . . . 
|kihk| ≡  =I
 . . . 
k  .. .. 0 .
. 
 
 0 ... ... 0 1 0 
0 ... ... ... 0 1
2.1 Sistemas cuánticos 17

de donde el valor esperado es


X X X
hAi = Pλ hψλ |A|kihk|ψλ i = hk|ψλ iPλ hψλ |A|ki = hk|ρ̂A|ki = Trρ̂A
λ,k λ,k k
(2.3)
Definimos de este modo el operador densidad ρ̂:
X
ρ̂ ≡ operador densidad ≡ |ψλ iPλ hψλ | (2.4)
λ

El conocimiento de ρ̂ permite responder a cualquier pregunta operacional


sobre el sistema, esto es, permite calcular cualquier valor medio mediante (2.3).
De hecho, la mecánica cuántica puede ser formulada, ventajosamente y por
completo, en términos de operadores densidad en lugar de en términos de fun-
ciones de onda. Estudiemos a continuación las propiedades fundamentales de
este operador.

Propiedad I

Trρ̂ = 1 (2.5)

Comprobémoslo. Considerando el operador identidad I:


A ≡ I ⇒ hIi = 1 ⇒ Trρ̂ = Trρ̂I = hIi = 1.

Propiedad II

ρ̂ = ρ̂+ (2.6)

Es decir, ρ̂ es un operador hermı́tico o autoadjunto y en consecuencia sus


valores propios son reales. La prueba es inmediata:

X +
X X
ρ̂+ = Pλ (|ψλ ihψλ |) = Pλ hψλ |+ |ψλ i+ = Pλ |ψλ ihψλ | = ρ̂
λ λ λ

Propiedad III

0 ≤ hϕ|ρ̂|ϕi ≤ 1 ∀|ϕi normalizado (2.7)

Es decir, ρ̂ es semidefinido positivo y semidefinido inferior a 1. Para demos-


trarlo, considérese que
X X
hϕ|ρ̂|ϕi = Pλ hϕ|ψλ ihψλ |ϕi = Pλ |hϕ|ψλ i|2
λ λ
18 Descripción probabilı́stica de un sistema

y teniendo en cuenta que

0 ≤ |hϕ|ψλ i|2 ≤ 1 ∀ λ, ∀ |ϕi normalizado,

ello implica: X
0≤ Pλ |hϕ|ψλ i|2 ≤ 1.
λ

Propiedad IV

Estado puro ⇔ ρ̂2 = ρ̂ (2.8)

Es decir, ρ̂ es un proyector1. La demostración es trivial. Para un estado puro:

ρ̂ = |ψihψ| ⇒ ρ̂2 = |ψihψ|ψihψ| = |ψihψ| = ρ̂,

de lo que vemos que, en el caso de un estado puro, el factor de fase arbitrario


inherente al vector |ψi no subsiste en ρ̂, lo cual es obviamente una ventaja.
Comprobamos esta propiedad en dos ejemplos, que corresponden a un estado
puro y un estado mezcla, respectivamente.  
1 1
Ejemplo A - Sea un spin 1/2 en el estado puro |ψi = √ . Calculamos
2 1
el operador densidad
   
1 1 1 1 1 1
ρ̂ = √ √ (1 1) = .
2 1 2 2 1 1

Puede verificarse que

1 1
Trρ̂ = + =1
2 2
y     
2 1 1 1 1 1 1 1 1
ρ̂ = = = ρ̂.
4 1 1 1 1 2 1 1
Ejemplo B - Sea un spin 1/2 en el estado mezcla de dos estados puros, de
los que conocemos la ley de probabilidad de ocurrencia:
 
1 1
| ↑i = , con probabilidad P↑ =
0 2
 
0 1
| ↓i = , con probabilidad P↓ = .
1 2
1 También se puede demostrar que, para un estado puro, ρ̂q = ρ̂, ∀q ∈ R (q 6= 0, 1):

|ψi puro ⇒ ρ̂ = ρ̂2 ⇒ ln ρ̂ = 2 ln ρ̂ ⇒ ln ρ̂ = 0 ⇒ ln ρ̂ = q ln ρ̂, ∀q ⇒ ρ̂ = ρ̂q .


2.1 Sistemas cuánticos 19

Calculamos el operador densidad


         
1 1 1 0 1 1 0 1 0 0 1 1 0
ρ̂ = (1 0)+ (0 1) = + =
2 0 2 1 2 0 0 2 0 1 2 0 1
verificándose en este caso que
1 1
Trρ̂ = + =1
2 2
y  
2 1 1 0
ρ̂ = 6= ρ̂.
4 0 1
Comentario importante. Podemos describir un spin 1/2 no polarizado de
infinitas maneras. Por ejemplo:
a) (+z) y (−z) son equiprobables, esto es:
1
P↑ = P↓ =
2

b) (+x) y (−x) son equiprobables, esto es:


1
P→ = P← =
2
   
1 1 1 −1
donde | →i = √ , y | ←i = √
2 1 2 1
c) Cualquier dirección y su opuesta son equiprobables, esto es:
1
Pր = Pւ =
2
   
cos ϕ −sen ϕ
donde | րi = , y | ւi = ∀ϕ.
sen ϕ cos ϕ

Nótese que (±z) y (±x) corresponden a los casos particulares ϕ = 0 y


ϕ = π/4. De este modo, la matriz densidad ρ̂, ∀ϕ:
    
1 cos ϕ − sen ϕ
ρ̂ = (cos ϕ sen ϕ) + (− sen ϕ cos ϕ) =
2 sen ϕ cos ϕ
   
1 cos2 ϕ sen ϕ cos ϕ sen2 ϕ − sen ϕ cos ϕ
= + =
2 sen ϕ cos ϕ sen2 ϕ − sen ϕ cos ϕ cos2 ϕ
 
1 1 0
=
2 0 1
que es única e independiente de ϕ. Con este ejemplo constatamos otra de
las ventajas de describir la mecánica estadı́stica en términos de la matriz
densidad, en lugar de en términos de la función de onda.
20 Descripción probabilı́stica de un sistema

Propiedad V

ρ̂12 = ρ̂1 ⊗ ρ̂2 (2.9)

donde Σ1 y Σ2 son dos sistemas no correlacionados descritos por ρ̂1 y ρ̂2 respec-
tivamente, y ρ̂12 describe el sistema Σ = Σ1 + Σ2 . Exhibamos esta propiedad
en un ejemplo.
Ejemplo - Sean dos spines 1/2 no polarizados e independientes. La matriz
de densidad del sistema Σ es:
 
    1 0 0 0
1 1 0 1 1 0 1 0 1 0 0 
ρ̂12 = ρ̂1 ⊗ ρ̂2 = ⊗ =  .
2 0 1 2 0 1 4 0 0 1 0 
0 0 0 1

Los estados del sistema Σ son los siguientes:


       
1 0 0 0
 0   1   0   0 
| ↑↑>=  0  , | ↑↓>=  0  , | ↓↓>= 
     , | ↓↓>=  
1   0 
0 0 0 1

1
y son equiprobables, esto es, Pλ = ∀λ, y puede afirmarse que:
4
        

 1 0 0 0 


1  
 0  (1 0 0 0) +  1  (0 1 0 0) +  0  (0 0 1 0) +  0 
     
ρ̂12 =  (0 0 0 1) =
4

 0   0   1   0  

 
0 0 0 1
       

 1 0 0 0 0 0 0 0 
 1 0 0 0
1   1
 0 0 0 0   0 1 0 0 
= +  + ··· =  0 1 0 0 

 4  0 0 0 0   0 0 0 0   4 0 0 1 0 

 

0 0 0 0 0 0 0 0 0 0 0 1

Definición. Sea el sistema Σ = Σ1 + Σ2 , con Σ1 ∩ Σ2 = ∅, donde Σ2 y Σ2


pueden estar correlacionados o no. La traza parcial de ρ̂ se define:

ρ̂1 = Tr2 ρ̂ (2.10)

donde ρ̂ está definida para Σ = Σ1 + Σ2 , ρ̂1 para Σ1 , y la traza se efectúa


sobre los estados de Σ2 . Se trata del concepto de probabilidad marginal, que no
ha de confundirse con el de probabilidad condicionada. Los siguientes ejemplos
ilustran estos conceptos.
2.1 Sistemas cuánticos 21

Ejemplo A - Sea el estado mezcla de dos spines 1/2, con las siguientes pro-
babilidades de ocurrencia: 

 P↑↑ = 6/16

P↑↓ = 5/16
 P↓↑ = 3/16


P↓↓ = 2/16
Por lo tanto, tal como se muestra en la siguiente tabla, verificamos las si-
guientes leyes de probabilidad:
H
HH 2 ↑ ↓
1 HH
↑ 6/16 5/16 11/16
↓ 3/16 2/16 5/16
9/16 7/16 1

De esta tabla se obtienen las leyes de probabilidad marginales P1 para el


spin 1, y P2 para el spin 2:

P1 (↑) = 11/16, P1 (↓) = 5/16
P2 (↑) = 9/16, P2 (↓) = 7/16

Podemos asegurar que los spines 1 y 2 están correlacionados, puesto que




 P↑↑ 6= P1 (↑)P1 (↑)

P↑↓ 6= P1 (↑)P1 (↓)

 P↓↑ 6= P1 (↓)P1 (↑)

P↓↓ 6= P1 (↓)P1 (↓)

Las probabilidades condicionadas para el spin 1 (y de forma idéntica para el


spin 2) son:
P1 (↑ | ↑) ≡ probabilidad de que el spin 1 esté ↑ sabiendo que el spin 2 está ↑
P1 (↑ | ↓) ≡ probabilidad de que el spin 1 esté ↑ sabiendo que el spin 2 está ↓
P1 (↓ | ↑) ≡ probabilidad de que el spin 1 esté ↓ sabiendo que el spin 2 está ↑
P1 (↓ | ↓) ≡ probabilidad de que el spin 1 esté ↓ sabiendo que el spin 2 está ↓,
de modo que en nuestro caso:
 
 P1 (↑ | ↑) = 6/9

  P2 (↑ | ↑) = 6/11


P1 (↑ | ↓) = 5/7 P2 (↑ | ↓) = 3/5
y

 P1 (↓ | ↑) = 3/9 
 P2 (↓ | ↑) = 5/11
 
P1 (↓ | ↓) = 2/7 P2 (↓ | ↓) = 2/5
Puede comprobarse que:


 P1 (↑ | ↑) 6= P1 (↑ | ↓) 6= P1 (↑)

P1 (↓ | ↑) 6= P1 (↓ | ↓) 6= P1 (↓)

 P2 (↑ | ↑) 6= P2 (↑ | ↓) 6= P1 (↑)

P2 (↓ | ↑) 6= P1 (↓ | ↓) 6= P1 (↓)
22 Descripción probabilı́stica de un sistema

de lo que nuevamente se deduce que los spines 1 y 2 están correlacionados.

En cuanto a los operadores densidad, para este ejemplo tenemos que:


 
6/16 0 0 0
 0 5/16 0 0 
ρ̂ = 
 0

0 3/16 0 
0 0 0 2/16

y
   
ρ̂11
1 ρ̂12
1 11/16 0
ρ̂1 ≡ Tr2 ρ̂ ≡ =
ρ̂21
1 ρ̂22
1 0 5/16

donde ρ̂ij
1 es el elemento en la fila i y la columna j del operador ρ̂1 , y para
calcularlos se ha tenido en cuenta que

ρ̂11
1 = h↑↑ |ρ̂| ↑↑i + h↑↓ |ρ̂| ↑↓i = ρ̂
11
+ ρ̂22 = 11/16
ρ̂12
1 = h↑↑ |ρ̂| ↓↑i + h↑↓ |ρ̂| ↓↓i = ρ̂
13
+ ρ̂24 = 0
ρ̂21
1 = h↓↑ |ρ̂| ↑↑i + h↓↓ |ρ̂| ↑↓i = ρ̂
31
+ ρ̂42 = 0
ρ̂12
1 = h↓↑ |ρ̂| ↓↑i + h↓↓ |ρ̂| ↓↓i = ρ̂
33
+ ρ̂44 = 5/16

De modo análogo, se obtiene:


 
9/16 0
ρ̂2 ≡ Tr1 ρ̂ =
0 7/16

y podemos calcular
 
11/162 0 0 0
 0 77/162 0 0 
ρ̂1 ⊗ ρ̂2 =  .
 0 0 45/162 0 
2
0 0 0 35/16

Constatándose que ρ̂1 ⊗ ρ̂2 6= ρ̂, vemos que los spines 1 y 2 están correlacionados.
Ejemplo B - Sea el estado mezcla de dos spines 1/2 con la siguiente ley de
probabilidades:


 P↑↑ = 1/12

P↓↓ = 1/12

 P↓↑ = 3/12

P↓↓ = 6/12

Ahora se obtienen, a partir de la nueva tabla de las probabilidades las pro-


babilidades maginales P1 para el spin 1, y P2 para el spin 2:

P1 (↑) = 1/14 P1 (↓) = 3/4
P2 (↑) = 1/3, P2 (↓) = 2/3
2.1 Sistemas cuánticos 23

HH 2
HH ↑ ↓
1 H
↑ 1/12 2/12 1/4
↓ 3/12 6/12 3/4
1/3 2/3 1

En este ejemplo se verifica que




 P↑↑ = P1 (↑)P2 (↑)

P↑↓ = P1 (↑)P2 (↓)

 P↓↑ = P1 (↓)P2 (↑)

P↓↓ = P1 (↓)P2 (↓)

y también que 

 P1 (↑ | ↑) = P1 (↑ | ↓) = P1 (↑) = 1/4

P1 (↓ | ↑) = P1 (↓ | ↓) = P1 (↓) = 3/4

 P2 (↑ | ↑) = P1 (↑ | ↓) = P1 (↑) = 1/4

P2 (↓ | ↑) = P1 (↓ | ↓) = P1 (↓) = 2/3
Por lo tanto, ahora los spines 1 y 2 son independientes, esto es, no existe
correlación. Ahora los operadores densidad son:
 
1/2 0 0 0
 0 2/12 0 0 
ρ̂ = 
 0

0 3/12 0 
0 0 0 6/12
   
1/2 0 1/3 0
ρ̂1 = y ρ̂2 =
0 3/4 0 2/4
de modo que se cumple:
ρ̂1 ⊗ ρ̂2 = ρ̂

Propiedad VI

ρ̂1 ⊗ ρ̂2 = ρ̂ ⇔ Σ1 y Σ2 son independientes (2.11)

donde Σ1 y Σ2 son dos subsistemas inconexos (esto es, Σ1 ∩Σ2 = ∅) de un sistema


Σ descrito por el operador densidad ρ̂, y donde ρ̂i es la traza parcial de ρ̂ sobre
los estados de (Σ − Σi ), con i = 1, 2. Hagamos ahora algunas observaciones
interesantes.
a) Si Σ = Σ1 + Σ2 , entonces:

ρ̂1 = Tr2 ρ̂ y ρ̂2 = Tr1 ρ̂


24 Descripción probabilı́stica de un sistema

b) Si conocemos ρ̂1 e ignoramos ρ̂, entonces no podemos decir si Σ1 y Σ2 son


independientes o no, pero podemos calcular el valor esperado de cualquier
observable A1 que dependa únicamente de los grados de libertad de Σ1 :
hA1 i = Tr1 ρ̂1 A1
ya que
hA1 i = Tr(ρ̂A1 ) = Tr1 (Tr2 (ρ̂A1 )) = Tr1 ((Tr2 ρ̂)A1 ) = Tr1 (ρ̂1 A1 )

Precisamente este hecho es el que demuestra la superioridad de la descrip-


ción de la mecánica cuántica en términos de operadores densidad, sobre
la representación en términos de funciones de onda. Gracias a esta pro-
piedad, es posible la ciencia, que se centra en el estudio de un sistema
particular sin que sea preciso estudiar el universo completo.
Para ser más explı́citos, consideremos ahora dos casos en los que los Ha-
miltonianos verifiquen:
b1 - H(p1 , p2 , r1 , r2 ) = H1 (p1 , r1 ) + H2 (p2 , r2 ), Hamiltoniano para el que
se tiene la ecuación de autovalores:
Hψ(r1 , r2 ) = Eψ(r1 , r2 )
donde 

 ψ(r1 , r2 ) = ψ(r1 )ψ2 (r2 )

E = E1 + E2
 H1 ψ1 = E1 ψ1


H2 ψ2 = E2 ψ2
y podemos escribir:
Z
dr2 [H1 (p1 , r1 ) + H2 (p2 , r2 )] ψ1 (r1 )ψ2 (r2 ) =
Z Z
= (H1 + E2 )ψ1 (r1 ) dr2 ψ2 (r2 ) = Eψ1 (r1 ) dr2 ψ2 (r2 )

Por lo tanto, en este caso:


H1 ψ1 = (E − E2 )ψ1 = E1 ψ1
y el problema queda reducido al tratamiento de los grados de libertad
de Σ1 .
b2 - H(p1 , p2 , r1 , r2 ) 6= H(p1 , r1 ) + H2 (p2 , r2 ), caso en el que la integral
Z Z
dr2 Hψ(r1 , r2 ) = E dr2 ψ(r1 , r2 ) ≡ Eϕ(r1 )

no nos conduce a un problema en el que los grados de libertad de Σ2


se eliminen. El conocimiento de ψ(r1 ) —pero no de ψ(r1 , r2 )— no es
suficiente para poder hacer predicciones, ni tan siquiera en relación
a los observables, que sólo dependen de los grados de libertad de Σ1 .
2.1 Sistemas cuánticos 25

Nomenclatura - Los elementos diagonales ρ̂nn de ρ̂, se denominan poblaciones


y son números reales ∈ [0, 1]. Los elementos no diagonales ρ̂nm , se denominan
coherencias y son números complejos de módulo ≤ 1.

Propiedad VII

ρ̂nn ρ̂mm ≥ |ρ̂nm |2 , ∀ n, m (2.12)

Comprobémoslo en un subespacio de dimensión dos:


   
ρ̂11 ρ̂12 ρ̂11 ρ̂12
ρ̂ = =
ρ̂21 ρ̂21 ρ̂∗12 ρ̂22
donde ρ̂∗12 denota el complejo conjugado de ρ̂12 . Por ser ρ̂ semi-definida positiva,
sus valores propios son positivos o nulos y por lo tanto la traza (Trρ̂ = ρ̂11 + ρ̂22 )
y el determinante (det ρ̂ = ρ̂11 ρ̂22 − |ρ̂12 |2 ) también son positivos o nulos. Es
decir, que:
ρ̂11 ρ̂22 − |ρ̂12 |2 ≥ 0
El caso general (2.12) es consecuencia de que ρ̂ sea semidefinido positivo
(2.7). Dado que todos los menores principales de una matriz semidefinida posi-
tiva han de ser no negativos, la identidad (2.12) queda demostrada.
Corolario: Para que pueda existir coherencia entre dos estados n y m, éstos
deben estar poblados.

Proceso de medición:
a) Supongamos que la situación inicial es un estado puro |ψi.
a1 - Antes de medir, se tiene:
ρ̂1 = |ψihψ|
a2 - Después de medir el observable A, pero antes de conocer el resultado,
se tiene el estado mezcla:
X
ρ̂2 = Pa |ψihψ|Pa
a

donde Pa es el proyector sobre el subespacio asociado al valor proprio


a de A, y Σa se extiende a todos los valores proprios de A.
a3 - Después de conocer que el resultado está incluido en un determina-
do subconjunto a0 del conjunto de valores de A, tenemos el estado
mezcla más restringido:
X
Pa0 |ψihψ|Pa0
a0
ρ̂3 = X (2.13)
Tr Pa0 |ψihψ|Pao
a0
26 Descripción probabilı́stica de un sistema

y en el caso particular de que a0 conste de un único elemento:


Pa0 |ψihψ|Pa0
ρ̂3 = (2.14)
Tr|ψihψ|Pa0
donde usamos

TrPa0 |ψihψ|Pa0 = Tr|ψihψ|Pa20 = Tr|ψihψ|Pa0

que corresponde a un estado puro si el subespacio (del espacio de


Hilbert) asociado a a0 no fuera degenerado. En el caso contrario,
corresponde a un estado mezcla.

b) Supongamos por el contrario que la situación inicial es la de un estado


mezcla, dado por {ψλ ; Pλ }:

b1 - Antes de medir se tiene:


X
ρ̂1 = Pλ |ψλ ihψλ |
λ

b2 - Después de medir, pero antes de tener conocimiento del resultado de


la medición, se tiene el estado mezcla:
X
ρ̂2 = Pa ρ̂1 Pa
a

b3 - Después de conocer el resultado, se tiene el estado mezcla:


X
Pa0 ρ̂1 Pa0
a0
ρ̂3 = X (2.15)
Tr Pa0 ρ̂1 Pa0
a0

y en el caso particular de tener un único a0 :


Pa0 ρ̂1 Pa0
ρ̂3 = (2.16)
Trρ̂1 Pa0
que será un estado puro si y sólo si a0 está asociado a un subespacio
no degenerado.

Ejemplo - Sea un spin 1/2, polarizado a lo largo de la dirección (+x), cuya


situación inicial es la del estado puro:
 
1 1
|ψi = √
2 1

y por lo tanto:  
1 1 1
ρ̂1 = .
2 1 1
2.1 Sistemas cuánticos 27

Después de medir S z , pero antes de mirar el resultado, se tiene la mezcla


 
1 1 0
ρ̂2 =
2 0 1
y después de mirar el resultado, y de constatar que está en | ↑i, tenemos el
estado puro:  
1 0
ρ̂3 = .
0 0

Propiedad VIII
La probabilidad no se crea ni se destruye, sólo se transfiere de un estado a
otro. Como consecuencia de ello tenemos la siguiente propiedad para la ecuación
de evolución temporal de la matriz de densidad (ecuación de von Neumann):

∂ ρ̂(t)
i~ = [H(t), ρ̂(t)] (2.17)
∂t

que no hay que confundir con la que proporciona la evolución temporal, en el


esquema de Heisenberg, de cualquier observable O que dependa explı́citamente
del tiempo:
dOH (t)
−i~ = [HH (t), OH (t)] + . . . (2.18)
dt
donde H denota que nos estamos refiriendo al esquema de Heisenberg, y los
términos omitidos corresponden a los que completarı́an la ecuación maestra
más general, de Kossakowski-Lindblad [15]. Para resolver la ecuación (2.17)
proponemos una solución, del tipo:

ρ̂(t) = U (t)ρ̂(0)U + (t)
(2.19)
U (0) = I
Introduciéndola en (2.17), y teniendo en cuenta
∂U (t)
i~ = H(t)U (t) (2.20)
∂t
y
∂U + (t)
i~ = −U + (t)H(t)) (2.21)
∂t
se tiene:
 
∂ ρ̂ ∂U (t) ∂U + (t)
i~ = i~ ρ̂(0)U + (t) + U (t)ρ̂(0)
∂t ∂t ∂t

= H(t)U (t)ρ̂(0)U + (t) − U (t)ρ̂(0)U + (t)H(t)

= H(t)ρ̂(t) − ρ̂(t)H(t)

= [H(t), ρ̂(t)]
28 Descripción probabilı́stica de un sistema

Concluı́mos que (2.19) es solución de la ecuación de von Neumann, con:


(
∂U
i~ = H(t)U (t)
∂t (2.22)
U (0) = I

Caso Particular - Si el Hamiltoniano no depende del tiempo:

∂H
= 0 ⇒ U (t) = e−iHt/~ (2.23)
∂t
y también:

ρ̂(t) = e−iHt/~ ρ̂(0)eiHt/~


Por otro lado, es posible generalizar ecuaciones importantes de la mecánica
cuántica haciendo uso de que la ecuación (2.22), con H = 6 H(t), puede ser
generalizarse tal y como sigue (ver [16]).

∂U
i~ = H[U (t)]q , con U (0) = I y q ∈ R (2.24)
∂t
La solución de (2.24) ahora es

1
U (t) = e−iHt/~
q ≡ [1 − i(1 − q)Ht/~]1/(1−q) = .
[1 + i(q − 1)Ht/~]1/(q−1)

Corolario -

[U (t)]−1 = U (−t) = [U (t)]+ (2.25)

Lo que significa que U (t) es un operador unitario. Verifiquemos la invariancia


de Trρ̂(t):

Trρ̂(t) = TrU (t)ρ̂(0)U + (t) = Trρ̂(0)U + (t)U (t) =


= Tr ρ̂(0)[U (t)]−1 U (t) = Trρ̂(0) = 1 ∀t

Una consecuencia capital del hecho de que U (t) sea unitario es que, al con-
servar el producto escalar, U (t) transforma una base ortonormal en otra orto-
normal. Esta es la razón matemática esencial que nos llevará, a nivel del los
postulados fundamentales de la mecánica estadı́stica, a equiprobabilizar el es-
pacio de Hilbert.
Calculemos la solución explı́cita de (2.17), en el caso de que el Hamiltoniano
H no dependa del tiempo. Para ello consideremos los vectores propios |φp i y
los valores propios Ep , de H. Obsérvese que la base formada por los vectores
propios |φp i, no diagonaliza necesariamente ρ̂.
Tenemos:
hϕp |U (t) = hϕp |e−iHt/~ = hϕp |e−iEp t/~
2.1 Sistemas cuánticos 29

por lo tanto:

ρ̂pq (t) = hϕp |ρ̂(t)|ϕq i = hϕp |U (t)ρ̂(0)U + (t)|ϕq i =

= ei(Eq −Ep )t/~ hϕp |ρ̂(0)|ϕq >

ρ̂pq (t) = ei(Eq −Ep )t/~ ρ̂pq (0) ∀(p, q) (2.26)

y en particular:

ρ̂pp (t) = ρ̂pp (0) (2.27)

De manera que podemos resumir estos resultados en dos afirmaciones:

a) Las poblaciones son constantes.

b) Las coherencias oscilan con las frecuencias de Bohr.

Comentario - ρ̂ admite la forma diagonal:


X
ρ̂ = pm |mihm| (2.28)
m

donde |mi son sus vectores propios y pm son las probabilidades de ocupación.
Por lo tanto, un estado puro corresponde, en la forma diagonal, a tener un único
1 en la diagonal, y cero en el resto de los elementos.

Ejemplo - Considérese un spin 1/2 polarizado a lo largo del eje (+X), para
el que calculamos la matriz de densidad ρ̂.
   
1 1 1 1 1
ψ=√ ⇒ ρ̂ =
2 1 2 1 1

Diagonalizamos la matriz ρ̂ para calcular sus valores propios:

1 1

−λ  2
2 2
= 1 − λ − 1 = 0 ⇒ λ = 0,1



1 1

2 4
−λ
2 2

Propiedad IX
Para un sistema mal definido en el sentido de que el número de partı́culas
N contenidas en el sistema sea una variable aleatoria cuya ley de probabilidad
30 Descripción probabilı́stica de un sistema

PN es conocida, necesitaremos una familia {ρ̂N } de operadores densidad que


cumplen2 : !
X
TrN ρ̂N = PN , TrN ρ̂N = 1 . (2.29)
N

Podemos entonces afirmar que el valor esperado de cualquier observable A,


vendrá dado por
P
hAi = N TrN ρ̂N AN (2.30)

tal y como se demuestra fácilmente:


 
X X ρ̂N
hAi = PN hAN iN = (TrN ρ̂N ) TrN AN
TrN ρ̂N
N N
X TrN ρ̂N AN
= (TrN ρ̂N )
TrN ρ̂N
N
X
= TrN ρ̂N AN
N

2.2. Sistemas clásicos


2.2.1. Espacio de fases
Un sistema de N partı́culas puntuales (sin spin, por tratarse de un sistema
clásico) en un espacio d-dimensional tiene 2dN grados de libertad, de modo que
puede representarse en el espacio de fases (espacio Γ de Gibbs) según el siguiente
esquema:
 

 q~1 


 ~q2 



coordenadas generalizadas .. 




 . 


 
~qN 

 espacio de fases


 p~1 



 p~2 



momentos canónicos .. 




 . 


 
p~N

Si el sistema es conservativo, podemos suponer que conocemos el Hamilto-


niano
H = H ({~qi }, {~
pi })
2 Como veremos más adelante, esta es la situación tı́pica de la colectividad macrocanónica

o gran canónica.
2.2 Sistemas clásicos 31

en el que, a no ser que consideremos coordenadas generalizadas {~ qi }, en su lugar


escribiremos las coordenadas {~ ri }.
Por ejemplo, para un sistema formado por N partı́culas puntuales clásicas
de masas mi y cargas qi (i = 1 . . . N ), que interaccionan únicamente en pares,
puede escribirse el Hamiltoniano como
N N
X 1 h i2 X
~ ri ) +
X
H= p~i − qi A(~ V (~ri ) + W (~ri , ~rj ) (2.31)
i=1
2mi i=1 i6=j

donde:
{~
ri } (i = 1, . . . N ) son las coordenadas de posición de las N partı́culas;
{p~i } (i = 1, . . . N ) son los momentos de las N partı́culas;
~ ri ) es el potencial vector eletromagnético;
A(~
V (~ri ) es un potencial externo (elástico, gravitacional, eléctrico, o ciertos
tipos de interacciones);
W (~ri , ~rj ) es un potencial asociado a la interacción entre dos partı́culas,
que depende únicamente de (~ri − ~rj ), tı́picamente de la distancia |~ri − ~rj |.

El estado mecánico de un sistema clásico viene representado por un punto


en el espacio de fases Γ.

El elemento de hipervolumen geométrico viene dado por


N
Y
dΓN ≡ (dri )d (dpi )d , (2.32)
i=1

donde dΓN tiene dimensiones de acción (N d)-dimensional:

[dΓN ] = (acción)N d .

El elemento de hipervolumen estadı́stico se define como:

∆N
dτN ≡ dΓN (2.33)
SN hdN

donde dτN = es un número puro, ∆N es un factor de degeneración, SN es


un factor de simetrı́a, y h es la constante de Planck. Obsérvese que el fac-
tor ∆N /(SN hdN ) ha sido introducido ad hoc, para que la mecánica estadı́stica
clásica pueda ser considerada como lı́mite asintótico de la mecánica estadı́stica
cuántica.
Sustituiremos el concepto de estado mecánico de un sistema clásico por el
concepto de estado estadı́stico, esto es, por el de un punto del espacio de fases
rodeado por un volumen (SN hdN /∆N ).
32 Descripción probabilı́stica de un sistema

Ejemplo A - Consideremos una partı́cula puntual clásica, sin spin, situada en


el eje X. El estado de dicha partı́cula se identifica con el elemento de superficie
∆px ∆x, que corresponde a un único estado y no a infinitos, a diferencia de lo que
corresponderı́a en mecánica clásica (ver Fig. 2.1). Obsérvese que en mecánica
cuántica se tiene, según la relación de indeterminación, que ∆px ∆x ≈ h.

Figura 2.1: Representación, en el plano de fases, de una partı́cula puntual clásica


en un espacio unidimensional.

Ejemplo B - Ilustremos algunas consideraciones relativas al espacio de fases


considando el ejemplo de una partı́cula puntual clásica sin spin, de masa m,
encerrada en una caja bidimensional cuadrada de área S = L2 . El Hamiltoniano
de dicha partı́cula es:
p2x + p2y
H=
2m
Consideraremos tres casos distintos.
B1- Supongamos que la caja es impenetrable, y estudiemos el problema desde
el punto de vista de la mecánica cuántica.
La función de onda ψ(x, y) se deduce a partir del potencial de pozo infinito

0 si (x, y) ∈ caja
V (x, y) =
+∞ si (x, y) 6∈ caja
Por lo tanto, la función de onda viene dada por
ψ(x, y) ∝ sin(kx x) sin(ky y),
donde  πnx
 kx = L

 (nx = 1, 2, 3 · · · )

 ky = πny (ny = 1, 2, 3 · · · )


L
Los valores propios del Hamiltoniano H (ver Fig. 2.2) son
~2 k 2 h2
Enx ,ny = = (n2 + n2y )
2m 8mL2 x
2.2 Sistemas clásicos 33

Figura 2.2: Niveles de energı́a de una partı́cula puntual de masa m, en una caja
impenetrable y en unidades de (h2 /8mL2 ).

Sea Φ(E) el número total de estados cuya energia es igual o menor que
E. Frecuentemente, Φ(E) es discontı́nuo pero tiene, para energı́as grandes
(E → ∞), un comportamento asintótico analı́tico. Por lo tanto, tal como
veremos en la sección 2.3, es posible definir la densidad de estados en el
espacio de las energı́as como
dΦ(E)
ω(E) =
dE
Para calcular el número de estados cuya energı́a es menor o igual que una
dada, observamos el número de estados
q que en el espacio (nx , ny ) están
dentro de un cı́rculo de radio R = n2x + n2y (ver Fig. 2.3).

 
h2
⇒Φ 9 =4
8mL2

Figura 2.3: Espacio (nx , ny ) en el que nx,y = 1, 2, 3 · · · . Obsérvese


q que existen
2
cuatro estados tales que sus números cuánticos satisfacen nx + ny = 3 . 2

De todo esto puede deducirse, para energı́as suficientemente grandes, el


comportamiento asintótico para el número total de estados cuya energı́a
es igual o menor que E:
mL2 E πR2 2πmL2 E
→ ∞ ⇒ Φ(E) ∼ = (2.34)
h2
|{z} 4×1 2 h2
número puro
34 Descripción probabilı́stica de un sistema

B2- Supongamos ahora que la caja es periódica, y estudiemos el problema


desde el punto de vista de la mecánica cuántica. En este caso, la función
de onda cumple que
ψ(x, y) = ψ(x + L, y) = ψ(x, y + L) ∀(x, y).

Los valores propios del Hamiltoniano H (ver Fig. 2.4) son


~2 k 2 h2
Enx ,ny = = (n2 + n2y ) (nx , ny = 0, ±1, ±2, · · · )
2m 2mL2 x

Figura 2.4: Niveles de energı́a de una partı́cula puntual clásica de masa m en


una caja periódica, en unidades de (h2 /8mL2).

 
h2
⇒Φ 36 = 29
8mL2

Figura 2.5: Espacio (nx , ny ) en el que nx,y = 0, ±1, ±2 · q


· · . Obsérvese que existen
29 estados tales que sus números cuánticos satisfacen n2x + n2y = 9.

El comportamiento asintótico, a energı́as E grandes, del número total de


estados cuya energı́a es igual o menor que E (ver Fig. 2.5) es

mL2 E πR2 2πmL2 E


→ ∞ ⇒ Φ(E) ∼ = (2.35)
h2 12 h2
expresión que es idéntica a la obtenida en (2.34). Obsérvese por tanto
que, aun tratándose de sistemas sensiblemente diferentes, estadı́sticamente
proporcionan el mismo resultado. En resumen:

caja impenetrable → muchos niveles poco degenerados
⇒ idéntico Φ(E)
caja periódica → menos niveles, más degenerados
2.2 Sistemas clásicos 35

Caso B3- Supongamos que la caja es impenetrable, y resolvamos el pro-


blema mediante la mecánica clásica. El diferencial de hipervolumen es-
tadı́stico ahora es
dΓ Γ L2 πR2 2πmL2 E
dτ = ⇒ τ = = = (2.36)
h2 h2 h2 h2

Figura 2.6: Representación, en el caso clásico, de las proyecciones del espacio de


fases para las posiciones y los momentos. La partı́cula puede alcanzar cualquier
posición y cualquier momento en el contı́nuo, con la única restricción de la cota
de energı́a máxima E.

De este modo, se constata (ver Fig. 2.6) que

mL2 E
→ ∞ ⇒ Φ(E) ∼ τ (E) (2.37)
h2
Esta equivalencia justifica la presencia de h em dτ .
Acabamos de comprobar que, en tres situaciones diferentes que describen
una partı́cula en una caja bidimensional (dos de ellas cuánticas y una clásica),
obtenemos la misma expresión para el número total de estados Φ(E) de energı́a
menor o igual que E. Este tipo de situación ocurre frecuentemente en mecáni-
ca estadı́stica, lo que hace que las condiciones de contorno del sistema sean a
menudo irrelevantes3 .
El factor de degeneración ∆N , está asociado a los grados de libertad y no
tiene equivalente clásico. Un caso tı́pico es el de N partı́culas de spin S, para
las que se cumple
∆N = (2S + 1)N (2.38)
El factor de simetrı́a SN está asociado a la indiscernibilidad de las partı́culas
elementales idénticas. Tı́picamente, para su estimación4 , se hace uso de
SN ∼ N ! (2.39)
Ejemplifiquemos esta última relación (2.39) para dos casos tı́picos.
3 En los sistemas que presentan algún tipo de frustración, la situación puede ser muy dife-

rente.
4 Esta relación fue propuesta por primera vez por Gibbs, con el objeto de resolver la llamada

paradoja de Gibbs en termodinámica. De este modo, garantizó la extensividad de variables


termodinámicas tales como la entropı́a, la energı́a libre de Gibbs o de Helmholtz, etc.
36 Descripción probabilı́stica de un sistema

A) Rotación de una molécula poliatómica, como por ejemplo el agua. En


este caso (ver Fig. 2.7), SN = 2 es el orden del grupo de simetrı́a de la
molécula.

Figura 2.7: Representación de dos moléculas de agua, que resultan ser idénticas,
a pesar de caracterizar clásicamente los átomos de hidrógeno como si pudieran
ser marcados con diferentes colores (“verde” y “azul”).

B) Traslaciones de N partı́culas idénticas. Ahora SN ∼ N ! en el lı́mite


N → ∞ o bien E → ∞. Pero utilizar SN = N ! equivale en realidad a
sobrestimar la indiscernibilidad.
Por ejemplo, en el caso de N = 2 partı́culas idénticas, sin spin, no relati-
vistas, independientes, y en un segmento de longitud L se tiene, para sus
energı́as respectivas
 
E1 = Cn21 C ≡ h2 /8mL2
donde
E2 = Cn22 n1 , n2 = 1, 2, 3, · · ·

y la energı́a total del sistema (ver Figs. 2.8 y 2.9) es

E = E1 + E2 = C(n21 + n22 ),

Constatando que dividir por 2 es demasiado.


Haciendo uso de la Fig. 2.9 (para n = 4) podemos estimar el número de
estados para partı́culas discernibles e indiscernibles con energı́a menor o
igual que E, y comprobar que hacer uso de N ! sobreestima la indiscerni-
bilidad:

Φdiscernibles = n2 = 16
n(n + 1)
Φindiscernibles = = 10
2
Φdiscernibles n2
= = 8 < 10
N! 2!

El error disminuye si n → ∞ (esto es, si E/C → ∞) para N fijo. Genera-


lizando para un valor cualquiera de N , puede verse también que el error
disminuye para N → ∞.
2.2 Sistemas clásicos 37

Figura 2.8: En cada columna se representan las energı́as en unidades de C con


sus degeneraciones, para cada una de N = 2 partı́culas, para el sistema formado
por ambas cuando son discernibles, y para el sistema formado por ambas cuando
son indiscernibles.

2.2.2. Densidad de probabilidad

Escribamos la densidad de probabilidad en el espacio de fases Γ de la si-


guiente manera:

pi }) ≡ ρN (~r1 , p~1 , · · · ~rN , p~N ),


ρN ({~ri , ~

de modo que la probabilidad de encontrar el sistema de N partı́culas en un


diferencial de hipervolumen estadı́stico dτN en torno al estado {~ri , p~i } y con un
error dΓN , es ρN dτN .
Estudiemos a continuación algunas de las propiedades de la densidad de
probabilidad.
38 Descripción probabilı́stica de un sistema

Figura 2.9: Representación, en el espacio de números cuánticos {n1 , n2 }, de los


estados de las N = 2 partı́culas representadas en la Fig. 2.8.

Propiedad I: sobre la norma


La norma de la densidad de probabilidad es la unidad:
Z
dτN ρN ({~ri , ~pi }) = 1 (2.40)

Propiedad II: sobre la indiscernibilidad de las partı́culas


La densidad de probabilidad ρN debe ser un invariante con respecto a la
permutación de partı́culas idénticas, es decir, que si k y l corresponden a dos
partı́culas idénticas, la densidad de probabilidad refleja dicha indiscernibilidad:
~1 , · · · , ~rk , ~
ρ(~r1 , p pk , · · · , ~rℓ , ~rℓ , · · · , ~rN , ~rN ) = ρ(~r1 , ~r1 , · · · , ~rℓ , ~rℓ , · · · , ~rk , ~rk , · · · ~rN , ~
pN )

Propiedad III: sobre la independencia entre partı́culas


Para N partı́culas independientes y discernibles, se cumple
N
Y
~i }) = CN
ρN ({~ri , p ρi (~ri , p
~i ), (2.41)
i=1
Z
SN hdN
donde d~ri d~ p i ) = 1 ∀ i , y CN ≡
pi ρi (~ri , ~ . Concretamente, para una partı́cula
∆N
d
puntual discernible sin spin, se tiene que C1 = h .

Si se tratara de N partı́culas puntuales indiscernibles con spin 1/2 se tendrı́a, cuan-


YN
do N ≫ 1, que CN ∼ N !hdN /2N . Pero además, serı́a preciso simetrizar ρi (~ri , p
~i ),
i=1
es decir, en el caso genérico en el cual todas las distribuciones de probabilidad {ρi }
fueran diferentes entre sı́, habrı́a que considerar todas las posibles permutaciones de
las partı́culas. De este modo:
N N
Y 1 X Y
~i ) −→
ρi (~ri , p ρi (~rσ , p
~σ ) (2.42)
i=1
N ! σ∈P i=1
N
2.2 Sistemas clásicos 39

siendo σ ∈ PN cada una de las N ! permutaciones posibles de los (~rj , ~pj ) (j = 1, . . . N ).


En el caso extremo en el cual todas las {ρi } sean iguales, no corresponde hacer ninguna
suma ni dividir por N ! En las situaciones intermedias, habrı́a que hacer las correcciones
oportunas. Entre tanto, cuando N → ∞, la simetrización (2.42) es asintóticamente
dominante.

Propiedad IV: sobre el conocimiento total en el espacio de fases


Para N partı́culas indiscernibles sin spin que se encuentran, la primera en (~r10 , p
~10 ),
0 0 0 0
la segunda en (~r2 , p
~2 ), ..., la N -ésima en (~rN , ~
pN ), se verifica que

N
X Y  
~i }) = hdN
ρN ({~ri , p δ d ~rσ − ~ri0 (t) δ d p ~i0 (t) ,
~σ − p (2.43)
σ∈PN i=1

donde δ d (~u) se descompone como el producto de d factores:

δ d (~u) = δ(u1 )δ(u2 ) · · · δ(ud )

Por ejemplo, para N = 2 particulas unidimensionales (d = 1), la densidad de


probabilidad es

ρ2 = h2 δ(x1 − x01 ) δ(p1 − p01 ) δ(x2 − x02 ) δ(p2 − p02 )

+δ(x2 − x01 ) δ(p2 − p01 ) δ(x1 − x02 ) δ(p1 − p02 ) .

Observable clásico
Podemos definirlo como el lı́mite clásico de un observable u operador autoadjun-
to de la mecánica cuántica. Se tratará, en consecuencia, de cualquier función real,
~1 , · · · , ~rN , p
A(~r1 , p ~N ), simétrica con respecto a toda permutación entre partı́culas in-
discernibles. El valor medio de un observable clásico es
Z
< A >≡ dτN ρN ({~ri , ~ pi })A({~ri , ~
pi }). (2.44)

Densidades de probabilidad reducidas o marginales


Muchas magnitudes
P fı́sicas involucran observables que dependen de una sola partı́cu-
~i }) = N
la, A({~ri , p j=1 A1 (~ rj , p
~j ), como es el caso de la energı́a cinética. En otros casos
encontraremos
P observables de dos partı́culas, como por ejemplo la energı́a de interac-
ción, i<j W (|~ ri − ~rj |). En general es menos frecuente, aunque posible, tener que
realizar promedios de observables que contengan información sobre la correlación en-
tre tres o más partı́culas. Esta es la razón por la que, ası́ como para los sistemas
cuánticos se definen los operadores de densidad de subsistemas, también en los siste-
mas clásicos se pueden definir densidades de probabilidad reducidas de una, dos, o en
general k partı́culas, como veremos a continuación.

a) Densidad de probabilidad de una partı́cula:


Z
∆N
~) ≡ dN
µ1 (~r, p ρN (~r, ~ p2 , · · · , ~rN , p
p, ~r2 , ~ ~N ) dΓN−1 (2, · · · , N ), (2.45)
h SN
40 Descripción probabilı́stica de un sistema

donde
N
Y
dΓN−1 ≡ d~ri d~
pi
i=2
y por lo tanto
R
d~rd~
p µ1 (~r, p
~) = 1 (2.46)

b) Densidad de probabilidad de dos partı́culas:


Z
∆N
~, ~r ′ , ~
µ2 (~r, p p ′ ) ≡ dN ~, ~r ′ , p
ρ(~r, p ~ ′ , ~r3 , p
~3 , · · · , ~rN , p
~N ) dΓN−2 (3, · · · , N ),
h SN
(2.47)
donde
Y N
dΓN−2 = d~ri d~pi
i=3
y por lo tanto
R
p d~r ′ d~
d~r d~ p ′ µ2 (~r, p
~, ~r ′ , ~
p ′) = 1 (2.48)

p1 , · · · , ~rk , p
c) La densidad de probabilidad de k partı́culas, µk (~r1 , ~ ~k ), se define me-
diante una expresión análoga.
Por ejemplo, en el caso de que tengamos N partı́culas indiscernibles independientes
con degeneración δ, se tiene
N
N ! hdN Y
ρN = ~i ) ⇒ µ1 (~r, p
ρ1 (~ri , p ~) = ρ1 (~r, p
~) (2.49)
δ N i=1

donde, tal como habı́amos mencionado anteriormente, no es preciso simetrizar ρN ,


dado que consideramos todas las ρi en el mismo estado ρ1 .

En general, integrando µk sobre los vectores {~r} –o sobre los vectores {~


p}– pueden
definirse las densidades reducidas o marginales.

Propiedad V: sobre el valor medio y las densidades reducidas


Sea un sistema tı́pico de N partı́culas indiscernibles, correlacionadas con degene-
ración δ.
a) Sea A un observable de una partı́cula, o sea
N
X
~i }) =
A({~ri , p A1 (~rj , ~
pj ) (2.50)
j=1

Su valor esperado puede calcularse, de forma compacta, según


Z "N #
X
hAi = ~i })
dτN ρN ({~ri , p A1 (~rj , p
~j )
j=1
N Z
X N Z
X
= dτN ρN A1 (~rj , ~
pj ) = d~rj d~
pj µ1 (~rj , p
~j )A1 (r~j , p
~j )
j=1 j=1
Z
= N d~r d~
p µ1 (~r, p ~) ≡ N hA1 i1
~)A1 (~r, p (2.51)
2.2 Sistemas clásicos 41

b) Sea B un observable de dos partı́culas. Puesto que i 6= j, se ha de contar sólo


una vez cada par de partı́culas y se puede escribir:
X
~i }) =
B({~ri , p A2 (~ri , p
~i , ~rj , ~
pj ) (2.52)
i6=j

Su valor esperado puede calcularse según la siguiente expresión:


Z
N (N − 1)
hBi = p d~r ′ d~
d~rd~ p ′ µ2 (~r, p
~, ~r ′ , p
~ ′ )A2 (~r, ~
p, ~r ′ , p
~ ′)
2
N (N − 1)
≡ hA2 i2 (2.53)
2
c) En general, si tenemos un observable A que puede describirse como la suma de
observables de 0, 1 . . . k cuerpos:
N
X X
~i })
A({~ri , p = A0 + A1 (~ri , p
~i ) + A2 (~ri , p pj ) + · · · +
~i , ~rj , ~
i=1 i6=j
X
+ ~i1 , · · · , ~rik , p
Ak (~ri1 , p ~ik ) (2.54)
i1 ,··· ,ik

El valor esperado se calculará mediante las expresiones

K
X N!
hAi = hAn in
n=0
(N − n)!n!
! (2.55)
Z n
Y
hAn in ≡ d~ri d~
pi µn An
i=1

Ejemplo A - Considérese el Hamiltoniano, suma de interacciones de uno y dos cuerpos


N
X X
H= h(~ri , p
~i ) + V (~ri , ~rj ).
i=1 i6=j

a partir del cual podemos calcular la energia interna, U , según:


Z
U ≡ hHi = N µ1 (~r, p ~)h(~r, p
~)d~rd~ p+
Z Z 
N (N − 1)
+ d~
p, d~p ′ µ2 (~r, p
~, ~r ′ p
~ ′ ) V (~r, ~r ′ )d~rd~r ′
2
| {z }
densidad reducida marginal
Ejemplo B - Consideremos el número de partı́culas en (~r, p
~) con error d~r d~
p
N
X
n(~r, p
~) d~r d~
p= δ d (~ri − ~r) δ d (~
pi − p
~) d~r d~
p.
i=1

a partir del que podemos calcular la población media, según:


Z
hni = N d~r ′ d~
p ′ µ1 (~r ′ , p
~ ′ )δ d (~r ′ − ~r)δ d (~
p′ − p
~) = N µ1 (~r, ~
p)
42 Descripción probabilı́stica de un sistema

hni = N µ1 (~r, ~
p)
R
verificándose que d~r d~ p hni = N . Por lo tanto, podemos interpretar µ1 (~r, p ~)d~
p d~r
como la probabilidad de encontrar una partı́cula en el estado (~r, ~ p) con un error d~rd~ p,
que por otro lado es lo que sugerı́a la relación (2.51).
Obsérvese que, análogamente, puede interpretarse µk como la probabilidad de tener
una partı́cula en el estado (~r1 , p
~1 ), una segunda partı́cula en el estado (~r2 , ~
p2 ), etc. Esta
es la base del concepto de función de correlación en teorı́a de muchos cuerpos.

Propiedad VI: Teorema de Liouville para la evolución temporal


Podemos establede la siguiente clasificación de los sistemas fı́sicos:
  
  ~ = m~a)
Hamiltoniano (t continuo, F

 simpléctico
conservativo no Hamiltoniano
sistema 

 no simpléctico

disipativo

Sea un sistema Hamiltoniano macroscópico de N partı́culas, que viene representado


por un punto en el espacio de fases. Consideremos una colectividad de tales sistemas,
esto es, un conjunto de muchos puntos del espacio de fases. Considerando coordenadas
generalizadas {~ ~i , } (i = 1, 2, · · · N ), escribimos la densidad de probabilidad en
qi , p
términos de las componentes

ρ({~ pi , }, t) = ρ({qj , pj }, t),


qi , ~ (i = 1, 2, · · · N ; j = 1, 2, · · · , dN ) (2.56)

y se cumple el conocido Teorema de Liouville, esto es:


=0 (2.57)
dt

Para demostrar el teorema, consideramos el Hamiltoniano H({qj , pj }, t), a partir


del cual se obtienen las ecuaciones de Hamilton
∂H ∂H
ṗj = − , q̇j = .
∂qj ∂pj

Calculemos que el Jacobiano J de la siguiente transformación:


   
qj (0) qj (t)

pj (0) pj (t)

lo que, por tratarse de un grupo de Lie, es equivalente a calcular el Jacobiano de la


siguiente transformación infinitesimal (en cuya definición introducimos las ecuaciones
de Hamilton):
 
∂H
      
 qj (t) + dt 

 qj (t)   qj (t + dt)   qj (t) + q̇j (t)dt  
 ∂pj 

→ = =
 pj (t) − ∂H dt 
       
pj (t) pj (t + dt) pj (t) + ṗj (t)dt 
 

∂qj
2.2 Sistemas clásicos 43

En otras palabras, consideramos la transformación


   ∂H 
q1 (t) q (t) + dt
   1 ∂p1 
   
   
 q (t) + ∂H dt
   
 q2 (t)  
2
 →  ∂p2


 
   .. 
 .  
 .

 ..  
 ∂H 
pdN (t) pdN (t) − dt
∂qdN
para constatar que su Jacobiano es igual, en primera aproximación, a la unidad:
       
∂ ∂H ∂ ∂H −∂ ∂H
1 + dt dt · · · dt

 ∂q1 ∂p1 ∂q1 ∂p2 ∂q1 ∂pdN 

 
       
 ∂ ∂H ∂ ∂H −∂ ∂H 
J = det 
 dt 1 + dt · · · dt 
 ∂q2 ∂p1 ∂q2 ∂p2 ∂q2 ∂qdN 

 .. .. .. 

  .   .   . 


 ∂ ∂H ∂ ∂H ∂ ∂H 
dt dt ··· 1 − dt
∂pdN ∂p1 ∂pdN ∂p2 ∂pdN ∂qdN
dN 
nX 
∂ ∂H ∂ ∂H o
= 1+ − dt + o(dt2 ) = 1 + o(dt2 )
j=1 |
∂qj ∂pj ∂p j ∂qj
{z }
0
El significado de este teorema, en términos geométricos, es que si acompañamos
un conjunto de puntos del espacio de fases durante su evolución temporal, el hiper–
volumen que definen estos puntos permanece constante. Refleja la simetrı́a en relación
al tiempo, en el sentido de que la energı́a total, el momento lineal total, y el momento
angular total, se conservan.
Por otro lado, el que se verifique dρ/dt = 0, es la razón esencial por la que en la
colectividad microcanónica, equiprobabilizaremos el espacio de fases y no, por ejemplo,
el espacio {~ q˙i ) o cualquier otro.
qi , ~
Por último, obsérvese que la identidad (2.57) es el análogo clásico a
ρ(t) = U (t)ρ(0)U + (t),
donde U es un operador unitario.

Algunas puntualizaciones acerca de las constantes del movimiento


Dado que ρ es una constante del movimento, deberá ser función de las 2 dN cons-
tantes del movimento del sistema. Sin embargo, si lo que tenemos son dos sistemas
independientes, Σ1 y Σ2 , entonces se tiene que ρ(Σ1 ∪Σ2 ) = ρ(Σ1 ) ρ(Σ2 ), y por lo tanto
ln ρ(Σ1 U Σ2 ) = ln ρ(Σ1 ) + ln ρ(Σ2 ); ln ρ no será función de todas las 2 dN constantes
del movimiento, sino únicamente de las aditivas, que en general son muy pocas.
Por ejemplo, para un sistema en d dimensiones, se tienen las siguientes constantes
aditivas del movimiento:
d = 1 → E, px
d = 2 → E, px , py , Lz (≡ Lxy )
d = 3 → E, px , py , pz , Lyz (≡ Lx ), Lxz (≡ Lx ), Lxy (≡ Lx )
44 Descripción probabilı́stica de un sistema

Para d ∈ N, las constantes aditivas del movimiento son



E, px1 , px2 , px3 , . . . pxd , Lx1 x2 , . . . , Lx1 xd , Lx2 x3 , . . . , Lx2 xd , . . . , Lxd−1 xd ,

y por lo tanto, existen 1 + d(d + 1)/2 constantes aditivas del movimiento.


La dependencia de ρ de dichas constantes, puede escribirse como

~ + ~δ · L
ln ρ = α − βE + ~γ · p ~

donde p ~ son los momentos lineal y angular respectivamente, de las que especificamos
~, L
sus componentes —d para el momento lineal, y d(d − 1)/2 para el momento angular—,
E es la energı́a, y α, β, ~γ , ~δ son coeficientes escalares o vectoriales; el signo de la
constribución de la energı́a se considera negativo por convenio.
Siempre podemos escoger un referencial tal que p ~=L ~ = 0 (“caja fija” de Landau)
y en consecuencia obtener una densidad de probabilidad que tenga la forma de la
distribución de Boltzmann-Gibbs, ρ = eα e−βE , siendo eα el factor de normalización
que, como veremos mas adelante, corresponde a la inversa de la función de partición.
Hay que tener presente que, si ln ρ no fuera aditivo, el factor de Boltzmann-Gibbs no
aparecerı́a5 .
Escoger ~ p = 0 no conlleva ninguna consecuencia, puesto que las propiedades es-
tadı́sticas de un sistema no relativista en movimento rectilı́neo uniforme son indepen-
dientes de la velocidad de su baricentro. Pero L ~ = 0 sı́ puede acarrear consecuencias
sobre las propriedades estadı́sticas del sistema, debido a fuerzas virtuales. Por lo tanto,
si el sistema de referencia escogido gira con el sistema, habremos de incluir todas las
contribuciones virtuales en el Hamiltoniano. Un ejemplo tı́pico es el de una centrifu-
gadora.

Ecuación de la evolución temporal


Derivando la función densidad de probabilidad respecto del tiempo y considerando
la ecuación de Liouville (2.57) se tiene que
dN  
dρ ∂ρ X ∂ρ ∂ρ
= + q̇j + ṗj
dt ∂t j=1
∂qj ∂pj
dN  
∂ρ X ∂ρ ∂H ∂ρ ∂H ∂ρ
= − − = − {H, ρ} = 0
∂t j=1
∂pj ∂qj ∂qj ∂pj ∂t

donde { , } es el llamado paréntesis de Poisson, definido según

{A, B} ≡ AB − BA. (2.58)

Por lo tanto, la ecuación de evolución temporal es

∂ρ({qj , pj }, t)
= {H({qj , pj }, t), ρ({qj , pj }, t)} (2.59)
∂t

Obsérvese que la ecuación (2.59) es el lı́mite clásico (~ → 0) de la ecuación (2.17),


∂ρ
i~ = [H, ρ],
∂t
5 Tal situación puede darse en sistemas cuyos elementos están fuertemente correlacionados
[9].
2.2 Sistemas clásicos 45

y que puede reescribirse como:


 
q̇1
 .. 

 . 

∂ρ  q̇dN 
+ div ρ~v = 0 , donde ~v ≡   (2.60)
∂t 
 ṗ1 


 .. 

.
ṗdN

de manera que la evolución temporal de una colectividad equivale al “desagüe” de un


fluido incompresible en el espacio de fases.
Ahora bien, si definimos el operador lineal de Liouville, L

Lρ ≡ {H, ρ} (2.61)

la expresión (2.59) puede reescribirse según

∂ρ
= Lρ (2.62)
∂t

Hagamos algunas puntualizaciones acerca de esta ecuación.


a) La ecuación (2.62) es semejante a la ecuación de Schrödinger

∂ψ
i~ = Hψ,
∂t
a pesar de ser válida únicamente en la mecánica estadı́stica clásica. Esta corres-
pondencia entre las ecuaciones clásica y cuántica, permite aclarar un frecuente
equı́voco según el cual “no puede existir caos cuántico porque la ecuación de
Schrödinger es lineal”. Según este tipo de argumento, llegarı́amos a la conclu-
sión errónea de que tampoco existe caos clásico, debido a la linearidad de la
ecuación (2.62). De hecho, ası́ como el caos clásico se estudia en ecuaciones no
lineales, como por ejemplo fuerza=masa × aceleración, el caos cuántico deberı́a
estudiarse en ecuaciones cuánticas también no lineales6 .
b) La ecuación (2.62) es para a mecánica estadı́stica clásica lo que las ecuaciones
de Hamilton (o de Lagrange) son para la mecánica clásica, y también lo que la
ecuación de Schrödinger es para a mecánica cuántica.
c) La ecuación (2.62) es la representación “a la Schrödinger” de la mecánica es-
tadı́stica clásica, siendo que existe la representación “a la Heisenberg” en la que
∂ρ/∂t = 0 y el tiempo es transferido para L. Existe también la representación
“a la Dirac”.
d) De igual modo que cuantizar la función de onda ψ en i~∂ψ/∂t = Hψ transforma
la mecánica cuántica en la segunda cuantización (teorı́a clásica de campos versus
teorı́a cuántica de campos), cuantizar ρ en ∂ρ/∂t = 0 transforma la mecánica
estadı́stica clásica en la mecánica estadı́stica cuántica.
6 Una posible candidata para el estudio de la caoticidad en la mecánica cuántica podrı́a ser

la versión Bohmiana de la mecánica cuántica.


46 Descripción probabilı́stica de un sistema

Propiedad VII: sobre los sistemas con un número indefinido de ele-


mentos
En el caso de que el número de elementos del sistema esté definido por una varia-
ble aleatoria N con una ley de probabilidad PN , introducimos un conjunto de {ρN }
normalizados de tal forma que
Z
PN = dτN ρN ({~ pi , } , t) .
qi , ~ (2.63)

En consecuencia, podremos calcular el valor medio de un observador clásico del sistema


mediante la expresión
XZ
hAi = dτN ρN AN (2.64)
N

que es un resultado completamente análogo al del caso cuántico (ver el apartado 2.1).

2.3. Densidad de estados


2.3.1. Introducción
Para definir el concepto de densidad de estados ω(E), haremos uso de la Fig. 2.10.
En ella se representan los niveles de energı́a E de un sistema cuántico. En dicha
representación
Φ(E) ≡ número de estados cuya energı́a es menor o igual que E.
Ω(E, δE) ≡ número de estados cuya energı́a E ′ es tal que E − δE < E ′ ≤ E.
g(E) ≡ degeneración del nivel de energı́a E.
ε(E) ≡ “gap” o diferencia de energı́a entre el nivel E y el inmediato superior.

Figura 2.10: Representación de los niveles de energı́a de un sistema cuántico.


2.3 Densidad de estados 47

Las dimensiones de estas magnitudes se indican a continuación:

[ε(E)] = [δE] = [E] = energı́a


[g(E)] = [Ω(E, δE)] = [Φ(E)] = número puro
[ω(E)] = energı́a−1

Tı́picamente, se verifica que ε(E) ≪ δE ≪ E, en donde los valores tı́picos de la


energı́a y sus incrementos son ε ≃ (10)−15 eV , δE ≃ 10−10 eV , E ≃ 1eV .
Puede definirse la densidad de estados como

dΦ(E)
ω(E) ≡ (2.65)
dE

que sólo está definida si E puede ser considerada continua. Se verifican además las
siguientes relaciones:


Ω(E, δE) = Φ(E) − Φ(E − δE) ≃ δE = ω(E)δE (2.66)
dE
(δE ≪ E)

X δE
Ω(E, δE) = g(E ′ ) ≃ g(E) (2.67)
ε(E)
(E−δE)<E ′ ≤E
 
ε(E) ≪ δE ≪ E
ε(E) varı́a lentamente

y además, cuando la energı́a E depende de un único número cuántico M y siempre


que E pueda ser considerada continua, se cumple que

dΦ(E(M ))
≃ g(E(M )) (2.68)
dM
Como veremos más adelante, en los modelos cuyos elementos son independientes
o “casi” independientes, ΦN (E) crece rápidamente con N en el lı́mite termodinámico
(N → ∞), tı́picamente según

ΦN (E) ∼ CN E γN
(N → ∞)

donde γ ∼ 1, y CN es una constante que depende del número de elementos del sistema.
Veamos un par de corolarios de este hecho.
1) En la colectividad microcanónica, la entropı́a de BG es una función extensiva,
esto es:

S ≃ kB ln ΦN (E) ≃ kB N f (E, N ) (2.69)


| {z }
función extensiva
7
Demostrémoslo
7 falta justificar
48 Descripción probabilı́stica de un sistema

2) El volumen de una “naranja” N -dimensional es poco mayor que el volumen de


su cáscara, esto es
ln ΦN (E)
lı́m = 1 ∀E (δE ≪ E), (2.70)
N→∞ ln ΩN (E, δE)

lo que se demuestra fácilmente a continuación (para γ = 1).

ΦN (E) ≃ CN E N
 N  
δE δE
ΦN (E − δE) ≃ CN (E − δE)N = CN E N 1− ∼ ΦN (E) 1 − N
E E

δE
ΩN (E, δE) = ΦN (E) − ΦN (E − δE) ≃ ΦN (E)N
E

 
δE
ln ΩN (E, δ) ≃ ln ΦN (E) + ln N ∼ ln ΦN (E)
E

dado que ln ΦN (E) es extensiva por el primer corolario (2.69), y por lo tanto es pro-
porcional a N . En consecuencia su contribución es mucho mayor que la contribución
tipo ln N . De este modo, (2.70) queda demostrado.

Debido a este segundo corolario, se tiene que

S ≃ kB ln ΦN (E) ≃ kB ln ΩN (E, δE). (2.71)

Por razones análogas, frecuentemente se tiene también que

S ≃ kB ln g(E) ≃ kB ln ω(E). (2.72)

La expresión ln ω(E) en rigor carece de sentido, dado que depende del sistema de
unidades que se utilice. Pero puede ser muy práctica, dado que las unidades acostum-
bradas conducen al mismo resultado numérico. Por ejemplo, 1 Julio ≃ 1019 eV , y por
lo tanto
23
23 1 1010 1 23 23
ω ≃ 1010 ≃ 19
⇒ ln ω ≃ ln 1010 ≃ ln 1010 − ln 1019 .
J 10 ev

En el lı́mite clásico (E/N → ∞), los resultados obtenidos para Φ(E), Ω(E, δE) y
ω(E), pueden ser obtenidos basándose en los hipervolúmenes definidos por las hipersu-
perficies equienergéticas del espacio de fases, tal como se observa en la Fig. 2.11, y tal
como veremos a continuación en algunos ejemplos. En todos los casos, trataremos con
sistemas compuestos por partı́culas independientes que iremos caracterizando progre-
sivamente con diferentes propiedades. Hay que resaltar que siempre habrá que tener
en cuenta las correcciones sin equivalente clásico. Identificaremos la distribución de
probabilidad a la que obedece cada sistema únicamente al final y sólo cuando resulte
oportuno; pero no haremos en ningún caso uso de ellas, para resaltar ası́ el hecho de
que la distribución de los estados es un problema mecánico y no un problema inducido
por la mecánica estadı́stica. Dichas distribuciones de probabilidad se estudiarán de
forma general en capı́tulos posteriores.
2.3 Densidad de estados 49

Figura 2.11: Hipersuperficies de energı́a E y E −δE en el espacio de fases. La densidad


de estados se define a partir del hipervolumen encerrado entre ambas.

2.3.2. Ejemplo I (Maxwell-Boltzmann)


Comenzamos estudiando un sistema formado por N subsistemas discernibles e
independientes. Cada subsistema puede estar en dos estados diferentes, los mismos
para todos los subsistemas, de manera que hay N1 subsistemas en un estado y N2
subsistemas en otro, verificándose que

N = N1 + N2 (2.73)

El número de configuraciones posibles, g(N, N1 ), compatibles con la información


dada por N1 y N2 , es
N!
g(N, N1 ) = (2.74)
N1 (N − N1 )!

Este ejemplo contempla el caso de N spines 1/2, independientes y localizados, con


momento magnético µ > 0 en presencia de un campo magnético H > 0. Los niveles
energéticos son, según el spin sea paralelo o antiparalelo al campo, los siguientes:

(antiparalelo a H)
ւ
niveles de spin → ± µH
տ
(paralelo a H)

El número de configuraciones posibles (2.74) en el sistema formado por los N spines


con energı́a total E = −µH(N1 − N2 ) es

N!
g(N, E) =     (2.75)
N − E/µH N + E/µH
! !
2 2

que tal y como veremos más adelante tiene el siguiente comportamiento asintótico:
a) T → +0 ⇒ N1 → N ⇒ E → −N µH ⇒ g → 1
b) T → −0 ⇒ N1 → 0 ⇒ E → N µH ⇒ g → 1
50 Descripción probabilı́stica de un sistema

N N!
c) T → ±∞ ⇒ N1 → ⇒ E → 0 ⇒ g →  2 = máximo,
2 N
!
2
donde hemos definido T → ±∞ como la temperatura en la que existe el máximo
desorden (y por tanto N1 = N2 ), lo que fuera del lı́mite termodinámico (N → ∞)
requiere un número par de subsistemas N .
Demostremos que el logaritmo de (2.75) es extensivo. En el lı́mite termodinámico
(N1 , N2 → ∞), el logaritmo puede aproximarse, mediante la aproximación de Stirling8 ,
por

ln g = ln N ! − ln N1 ! − ln N2 ! ∼ N ln N − N1 ln N1 − N2 ln N2
(Stirling)

de modo que multiplicar el número de subsistemas en cada estado por una constante
α, produce el mismo efecto sobre el logaritmo, tal como puede verse a continuación:

N1 → αN1
⇒ ln g → αN ln αN − αN1 ln αN1 − αN2 ln αN2
N2 → αN2
= αN ln α + αN ln N − αN1 ln α − αN1 ln N1
−αN2 ln α − αN2 ln N2
= α(N ln N − N1 ln N1 − N2 ln N2 )
= α ln g

Esta extensividad de ln g está directamente ligada a la extensividad de la entropı́a.


SEGUIR AQUI

2.3.3. Ejemplo II (Maxwell-Boltzman)


Estudiemos ahora el conjunto de N subsistemas, también discernibles e indepen-
dientes. Pero en este caso cada subsistema puede estar en M niveles energéticos εi
(i = 1, 2, · · · , M ) diferentes, de tal suerte que todos los subsistemas cuentan con el
mismo juego de valores {εi }. Cada nivel εi , está además gi veces degenerado. En este
caso, la ocupación de los estados es {Ni } (i = 1, 2, . . . , M ), verificándose que
M
X
N= Ni . (2.76)
i=1

El número de configuraciones posibles, compatibles con la información dada por


{Ni } (i = 1, 2, . . . , M ), en este caso es

M
!
Y giNi
g({Ni }) = N ! (2.77)
i=1
Ni !

8 Según
la aproximación de Stirling (válida cuando n → ∞):
 √ 1 1
 ln n! ∼ n ln n − n + ln 2πn +
 12n
− 360n3
∼ n ln n

 
1 
n! ∼ 2πn nn e−n 1 + + ··· ⇒
12n d ln n!
∼ ln n



dn
2.3 Densidad de estados 51

Para demostrarlo, véase que en el caso de que gi = 1 ∀i, tendrı́amos que

N!
g({Ni }) = M
.
Y
Ni !
i=1

Dentro del nivel εi , cada uno de los Ni subsistemas tiene gi posibilidades, de modo
que en total hay giNi , lo que conduce un número de configuraciones posibles dado
por (2.77). Obsérvese que la ecuación (2.77) contiene a la ecuación (2.74) como caso
particular, cuando M = 2 y g1 = g2 = 1.
En el caso de que Ni = 1 ∀i, se tiene, como era de esperar, que

M
Y
g = N! gi .
i=1

En el lı́mite termodinámico (Ni → ∞, ∀i), se verifica una vez más que la función
ln g es extensiva, esto es
ln g({αNi }) ∼ α ln g({Ni }).

gi = 1 (∀i) gi ≥ 1
M
Y
Ni = 1 (∀i) N! N! gi
i=1
M
N! Y giNi
Ni ≥ 1 M
N!
Y i=1
Ni !
Ni !
i=1

Cuadro 2.1: Número de configuraciones posibles g({Ni }, {gi }), para N sistemas dis-
cernibles e independientes, que ocupan cada nivel energético gi veces degenerado con
Ni subsistemas. En este cuadro se incluyen los ejemplos de las secciones 2.3.2 y 2.3.3.

Estadı́stica de Maxwell-Boltzmann
Veremos que en la ecuación (2.77), que rige en estos últimos dos ejemplos, está “es-
condida” la llamada estadı́stica de Maxwell-Boltzmann (microcanónico a canónico).
Para desvelar este hecho, identifiquemos el equilibrio estadı́stico del sistema como el
estado con máximo número de configuraciones posibles g({Ni }), y calculemos la dis-
tribución que optimiza la expresión (2.77) o, lo que es equivalente, su logaritmo

M
X M
X
ln g({Ni }) = ln N ! + (Ni ln gi − ln Ni !) ⇒ d ln g ∼ (ln gi − ln Ni ) dNi = 0,
i=1 i=1
(2.78)
con las restricciones que imponen el hecho de que la energı́a E y el número total
de subsistemas N sean constantes y conocidos (aunque no lo seann el número de
52 Descripción probabilı́stica de un sistema

subsistemas {Ni } para cada nivel energético εi ).


M
X M
X
N= Ni = fijo ⇒ dNi = 0 (2.79)
i=1 i=1
M
X M
X
E= εi Ni = fijo ⇒ εi dNi = 0 (2.80)
i=1 i=1

Introduciendo los parámetros de Lagrange {λ, ν} para tener en cuenta (2.79) y


(2.80), se tiene que
M
X
(ln gi − ln Ni + λ + νεi ) dNi = 0 ∀dNi
i=1
⇒ ln gi − ln Ni + λ + νεi = 0 ∀i
⇒ Ni = gi eλ+νεi (2.81)

y sustituyendo (2.81) en (2.79), lleva a obtenerse el número de subsistemas en cada


nivel de energı́a εi .
M M
X X N gi eνεi
N = Ni = eλ gi eνεi ⇒ eλ = M
⇒ Ni = N M
. (2.82)
i=1 i=1
X νεi
X νεi
gi e gi e
i=1 i=1

Denotamos ν ≡ −β ≡ −1/kB T , lo que justificaremos más adelante, donde



kB ≡ constante de Boltzmann
T ≡ temperatura

y entonces la ecuación (2.82) proporciona la función de distribución de la estadı́stica


de Maxwell-Boltzmann:
Ni gi e−βεi
= M ∀i (2.83)
N X −βε
i
gi e
i=1

El denominador es un factor de normalización que llamaremos función de partición y


que depende de β:
XM
Z(β) ≡ gi e−βεi .
i=1

El comportamiento asintótico de (2.82), tal como adelantábamos en el primer ejemplo,


es el siguiente:
Ni gi
a) T → ±∞ ⇒ β ± 0 ⇒ = M .
N X
gi
i=1
Dado que el denominador es el número total de estados, significa que existe
equiprobabilidad.

 Ni = N, en el nivel fundamental (el de menor {εi } )
b) T → +0 ⇒ β + ∞

Ni = 0, para el resto
2.3 Densidad de estados 53


 Ni = N, en el “anti-fundamental” (el de mayor {εi } )
c) T → −0 ⇒ β − ∞

Ni = 0, para el resto

2.3.4. Ejemplo III (Bose-Einstein)


Consideremos un sistema formado por N subsistemas independientes que, a dife-
rencia de los ejemplos anteriores, son indiscernibles. Como en el ejemplo del apartado
2.3.3, cada subsistema puede estar en M niveles energéticos εi (i = 1, 2, · · · , M ) di-
ferentes, y todos los subsistemas cuentan con el mismo juego de valores de la energı́a
{εi }, que están gi veces degenerados. La ocupación de los estados en cada nivel es
{Ni } (i = 1, 2, · · · , M ), de modo que
M
X
N= Ni , (2.84)
i=1

y el número de estados posibles en cada nivel en este caso es

M
Y (Ni + gi − 1)!
g({Ni }) = (2.85)
i=1
Ni !(gi − 1)!

Para demostrarlo, consideremos que este problema es equivalente, para cada valor
de i a distribuir Ni bolas idénticas en gi compartimentos diferentes, separadas por
(gi − 1) “divisiones”:

OOO OO OOOO OO O
de manera que el número de posibilidades diferentes es

(Ni + gi − 1)!
Ni !(gi − 1)!

lo que conduce a (2.85).

Veamos algunos casos particulares.


a) En el caso de que gi = 1 ∀i , se tiene que g({Ni }) = 1 como es lo natural, si se
tiene en cuenta la indiscernibilidad.
b) En el caso de que Ni = 1 ∀i se tiene, tal como era previsible, que
M
Y
g= gi
i=1

c) En el caso de que gi ≫ Ni se tiene:

Ni factores
M
z }| { M
Y (Ni + gi − 1)(Ni + gi − 2) · · · (gi ) Y giNi
g({Ni }) = ∼
i=1
Ni ! i=1
Ni !
1
= gM B ({Ni }) ≡ gM BC ({Ni }) (2.86)
N!
54 Descripción probabilı́stica de un sistema

donde el subı́ndice M BC significa Maxwell-Boltzman, y M BC Maxwell-Boltzmann


corregido debido a la indiscernibilidad.
El caso gi ≫ Ni corresponde al lı́mite de altas temperaturas, en el que cada nivel
está poco ocupado. Esta corrección es fundamental para resolver la paradoja de
Gibbs en una mezcla de gases clásicos.
En el lı́mite termodinámico ( Ni → ∞, ∀i), cuando se trata de verificar la extensi-
vidad de ln g, la indiscernibilidad de los subsistemas obliga a mantener fijo Ni /gi , ∀i,
según

M
X
ln g ∼ (Ni + gi − 1) ln (Ni + gi − 1) − Ni ln Ni − (gi − 1) ln (gi − 1)
i=1
M
X
∼ (Ni + gi ) ln (Ni + gi ) − Ni ln Ni − gi ln gi
i=1

de modo que, multiplicar el número de subsistemas y la degeneración en cada estado


por una constante α, produce el mismo efecto multiplicativo de α sobre el logaritmo,
esto es: 
Ni → αNi
∀i ⇒ ln g → α ln g
gi → αgi

gi = 1 (∀i) gi ≥ 1
YM
Ni = 1 (∀i) 1 gi
i=1
M
Y (Ni + gi − 1)!
Ni ≥ 1 1
i=1
Ni !(gi − 1)!

Cuadro 2.2: Número de configuraciones posibles g({Ni }, {gi }), para N sistemas in-
discernibles e independientes, que ocupan cada nivel energético gi veces degenerado
con Ni subsistemas. En este cuadro se incluye el ejemplo de la sección 2.3.4.

Estadı́stica de Bose-Einstein
Veamos cómo en la ecuación (2.85), que rige en este último ejemplo, se “esconde”
la estadı́stica de Bose-Einstein. Para ello, buscaremos de nuevo el equilibrio estadı́stico,
identificándolo como aquél que, teniendo en cuenta las restricciones (2.79) y (2.80),
maximiza el número de configuraciones posibles g y por lo tanto su logaritmo. Haciendo
uso de la aproximación de Stirling, estimamos el logaritmo y su diferencial, y tenemos
que
M
X
ln g({Ni }) ∼ (Ni + gi ) ln (Ni + gi ) − Ni ln Ni − gi ln gi
i=1

M
X
d ln g ∼ [(ln(Ni + gi ) − ln Ni ] dNi .
i=1
2.3 Densidad de estados 55

Las restricciones se introducen en la optimización de ln g a través de los parámetros


de Lagrange {λ, ν}, de modo que
M  
X Ni + gi
ln + λ + νεi dNi = 0 ∀dNi
i=1
Ni
Ni + gi
⇒ ln + λ + νεi = 0 ∀i
Ni
gi
⇒ Ni = −λ−νε ∀i.
e i

Denotando de nuevo ν ≡ −β ≡ −1/kB T , y λ ≡ βµ, donde ahora µ es el potencial


quı́mico, obtenemos la función de distribución de la estadı́stica de Bose-Einstein:

gi
Ni = ∀i (2.87)
eβ(εi −µ) − 1

2.3.5. Ejemplo IV (Fermi-Dirac)


El nuevo sistema que vamos ahora a estudiar, satisface todas las propiedades del
ejemplo anterior. Se trata por lo tanto de un sistema formado por N subsistemas
indiscernibles e independientes, tales que cada subsistema puede estar en M niveles
energéticos εi (i = 1, 2, · · · , M ) diferentes, y todos los subsistemas cuentan con el
mismo juego de valores para la energı́a {εi }, que están gi veces degenerado. Pero
además, y esto es una propiedad adicional, el sistema cumple una nueva restricción, i.e,
el principio de exclusión de Pauli, por el que no es posible tener más de un subsistema
por estado, esto es:
Ni ≤ gi , ∀i (2.88)
La ocupación de los estados en cada nivel es {Ni } (i = 1, 2, · · · , M ), de modo que
M
X
N= Ni (2.89)
i=1

y el número de configuraciones posibles ahora es

M
Y gi
g({Ni }) = (2.90)
Ni ! (gi − Ni )!
i=1

Para demostrarlo, tengamos presente que en cada nivel εi tenemos Ni estados ocu-
pados y (gi − Ni ) estados vacı́os. Por lo tanto, el número de posibilidades vendrá dado
por
gi !
Ni !(gi − Ni )!
lo que conduce a (2.90). Veamos algunos casos particulares.
a) En el caso gi = 1 ∀i, se tiene g({Ni }) = 1 tal como era de esperar.
b) En el caso Ni = 1 ∀i se tiene, tal como era previsible, que
M
Y
g({Ni }) = gi .
i=1
56 Descripción probabilı́stica de un sistema

c) En el caso de que gi ≫ Ni se tiene:


g({Ni }) ∼ gM BC ({Ni })
donde una vez más M BC denota Maxwell-Boltzmann corregido debido a la
indescirnibilidad.
Esto significa que en el lı́mite de altas temperaturas, para el que cada nivel
está poco ocupado, el lı́mite de la estadı́stica de Fermi-Dirac es también la
estadı́stica de Maxwell-Boltzmann corregida.
De nuevo puede probarse que, en el lı́mite termodinámico, el logaritmo del número
de configuraciones posibles es extensivo incluso al verificarse el principio de exclusión
de Pauli. Para ello, una vez más ha de tenerse en cuenta que la indiscernibilidad de
los subsistemas obliga a mantener fijo Ni /gi ∀i. Por lo tanto

Ni → αNi
∀i ⇒ ln g → α ln g.
gi → αgi

gi = 1 (∀i) gi ≥ 1
YM
Ni = 1 (∀i) 1 gi
i=1
M
Y gi !
Ni ≥ 1 1
i=1
N i !(g i − Ni )!

Cuadro 2.3: Número de configuraciones posibles g({Ni }, {gi }) para N sistemas indis-
cernibles e independientes, que ocupan cada nivel energético gi veces degenerado con
Ni subsistemas, y que además cumplen el principio de exclusión de Pauli (Ni ≤ gi ).
En este cuadro se incluye el ejemplo de la sección 2.3.5.

Estadı́stica de Fermi-Dirac
La ecuación (2.90) “esconde” la llamada estadı́stica de Fermi-Dirac (F D). Por
un procedimiento análogo al que nos permitió obtener la estadı́stica de Bose-Einstein
(BE) en la sección 2.3.5, se puede obtener la función de distribución de Fermi-Dirac:
gi
Ni = ∀i (2.91)
eβ(εi −µ) + 1

Estadı́stica de Lynden-Bell
La estadı́stica de Lynden-Bell (LB) rige en sistemas indepedientes y discernibles,
que cumplen el principio de exclusión de Pauli9 . Guarda, por lo tanto, la siguiente
relación con la estadı́stica de Fermi-Dirac:
gLB = N ! gF D (2.92)

Podemos ya completar el cuadro de las estadı́sticas que hemos estudiado a lo largo


de los ejemplos analizados, a las que obedecen los gases ideales o sistemas de partı́culas
independientes (ver cuadro 2.4).
9 Estadı́stica de Lynden-Bell resulta útil para el estudio de sistemas estelares, como por

ejemplo, el de una galaxia concebida como un gas de partı́culas masivas que representan
estrellas.
2.3 Densidad de estados 57

SISTEMA DISCERNIBLE INDISCERNIBLE


CON EXCLUSIÓN LB FD
SIN EXCLUSIÓN MB BE

Cuadro 2.4: Clasificación de las estadı́sticas de un gas de partı́culas independientes


(gas ideal), según sea la caracterización del sistema (discernible/indiscernible y con/sin
principio de exclusión). M B ≡ Maxwell-Boltzmann, BE ≡ Bose-Einstein, F D ≡
Fermi-Dirac, LB ≡ Lynden-Bell.

Puede comprobarse además que, entre las estadı́sticas incluidas en el cuadro 2.4,
se verifican las siguientes relaciones:
a) lı́m FD = lı́m BE = M BC
(gi /Ni )→∞ (gi /Ni )→∞

b) lı́m LB = M B
(gi /Ni )→∞

Paraestadı́sticas
La paraestadı́sticas generalizan a su vez las estadı́sticas de Fermi-Dirac y de Bose-
Eisntein. Para introducirlas, consideremos un sistema de N subsistemas idénticos in-
discernibles e independientes, tales que cada subsistema esté caracterizado por un
espectro de energı́a y degeneración {εi , gi } (i = 1, 2, . . . , M ).
{Ni } (i = 1, 2, . . . , M ) son las ocupaciones o número de subsistemas que están en
los niveles εi correspondientes, y son tales que las condiciones (2.79) y (2.80) sean
satisfechas, esto es
XM XM
N= Ni , E= εi Ni .
i=1 i=1

Introducimos ahora una nueva condición, i.e., que p sea la ocupación máxima per-
mitida para cada estado, entre los gi del nivel εi . De este modo se cumple que

Ni ≤ gi p, (p = 1, 2, 3, . . . )

Si ni (r) es el número de estados, entre los gi , cuya ocupación es r (i = 1, . . . , M ; r =


0, 1, . . . , p), para cada subsistema se habrá de satisfacer que
p p
X X
gi = ni (r); Ni = rni (r)
r=0 r=0

de modo que ni (r) = 0, 1, 2, . . . ∀i, ∀r, y el número de configuraciones posibles ahora


es
M M
Y gi ! Y gi !
W = = p (2.93)
i=1
ni (0)!ni (1)! . . . ni (p)! i=1 Y
ni (r)!
r=0

Maximizando (2.93) con las restriciones (2.79) y (2.80) para obtener el equilibrio
58 Descripción probabilı́stica de un sistema

estadı́stico, se obtiene la siguiente distribución10 :


 
1 p+1
Ni = − gi (2.94)
eα+βεi − 1 e(p+1)(α+βεi ) − 1
donde α ≡ −βµ. Esta expresión recupera la estadı́stica de Fermi-Dirac cuando p = 1,
y la estadı́stica de Bose-Einstein cuando p → ∞ [13]. Es interesante hacer notar que,
para cualquier valor finito del valor máximo de ocupación p, el gas de parapartı́culas
se comporta siempre como un gas de fermiones. El comportamiento bosónico aparece
únicamente en el lı́mite p → ∞ [14].

Figura 2.12: Representación de las distribuciones para las paraestadı́sticas (ecuación


2.94). Los superı́ndices de la frecuencia fi0 y de la ocupación Ni0 , significan equilibrio
estadı́stico.

Llamando pij al número máximo de subsistemas que pueden estar en el j-ésimo


estado (j = 1, 2, . . . , gi ) del nivel εi (i=1,2,. . . ,M), se tiene que

pij = 1, ∀(i, j) −→ FD
pij = ∞, ∀(i, j) −→ BE
pij 6= 1, ∞ −→ Paraestadı́sticas

Por ejemplo, si consideramos las excitaciones de un spin de magnitud s en presencia de


un campo magnético como cuasipartı́culas, se presentarán las siguientes estadı́sticas:

s = 1/2 → FD
s = ∞ (spin clásico) → BE
1/2 < s < ∞ → Paraestadı́sticas

Justificación fı́sica de BE y FD como casos particulares de BG

Obsérvese que para que en un gas aparezcan las estadı́sticas cuánticas de Fermi-
Dirac o de Bose-Einstein, ha de acontecer en ambos casos un fenómeno análogo. De
hecho, aunque sus expresiones matemáticas difieren de las de Maxwell-Boltzmann,
10 Téngase en cuenta que
p
ne−xn
X

n=0 1 p+1
p = − (p+1)x
ex − 1 e −1
e−xn
X

n=0
2.3 Densidad de estados 59

ambas tienen en común el que provienen de una drástica reducción del número de
estados admisibles [9].
Sea W1 el número de estados no degenerados de una partı́cula, y WN el número de
estados no degenerados de un gas ideal de N partı́culas. En la Fig. 2.13 se representa
la razón de los logaritmos de dichas poblaciones en un sistema ideal de N partı́culas
que siguen la estadı́stica de Maxwell-Botzmann, de Fermi-Dirac y de Bose-Einstein.
(F D) (BE)
Obsérvese que, en el lı́mite N → ∞ y W1 → ∞ (con N/W1 → 0), WN y WN
(M B) N
colapsan sobre WN . Ambas satisfacen además que WN ∝ (W1 /N ) .

40

30
ln WN
ln W1

20

10

10 20 30 40 50 60 70 80 90 100
N

Figura 2.13: W1 (W1 = 1, 2, 3, . . . ) es el número de estados no degenerados de una


partı́cula, y WN el de N partı́culas entre las que no existe energı́a de interacción.
Curvas negras: según la estadı́stica de Maxwell-Boltzmann, WNM B = W1N , N > 0.
W1 !
Curvas rojas: según la estadı́stica de Fermi-Dirac: WNF D = N!(W 1 −N)!
, 0 < N ≤ W1 .
1 −1)!
Curvas azules, según la estadı́stica de Bose-Einstein: WNBE = (N+W
N!(W1 −N)!
, N > 0. En
los tres casos, se considera N = 20, 50, 100, 1000, 100000. Las curvas de F D y BE que
corresponden a N = 100000 están superpuestas [9].

En el caso de que el sistema de N cuerpos esté fuertemente correlacionado, la


razón de los logaritmos de las ocupaciones vendrı́a a ser sustituida por la razón de los
q-logaritmos11 para un cierto valor de un parámetro q. En la Fig. 2.14 se muestran los
resultados para un gas no ideal de N partı́culas correlacionadas según WN = W1 N ρ

11 La función q-logaritmo se define como la inversa de la función q-exponencial, funciones

que generalizan y las funciones logaritmo y exponencial respectivamente, recuperándose estas


últimas para el lı́mite q → 1:

x1−q − 1
lnq x ≡ (x ∈ R+ , q ∈ R) (2.95)
1−q

( 1 1
[1 + (1 − q)x)] 1−q , si [1 + (1 − q)x)] 1−q > 0
eq (x) ≡ 1 , x, q ∈ R (2.96)
0, si [1 + (1 − q)x)] 1−q ≤ 0
60 Descripción probabilı́stica de un sistema

1
(ρ > 0), en el que el parámetro q ha de cumplir q = 1 − ρ
[9]. Se observa que:
1/ρ
ln1−1/ρ WN W1
lı́m = 1/ρ
N,
N→∞ ln1−1/ρ W1 W1 − 1
resultado que se aproxima asintóticamente a N en el lı́mite W1 → ∞. Bajo las mismas
condiciones lı́mN→∞ ln WN
ln W1
se aproxima a la unidad, ∀N .

10

1 2 3 4 5 6 7 8 9 10

lnq WN
Figura 2.14: Dependencia en N de , donde WN = W1 N ρ (ρ > 0) con q = 1 − ρ1
lnq W1
(ρ = 2 y por tanto q = 1/2; W1 > 1, N ≥ 1). Las curvas azules (rojas) corresponden
a q = 1/2 (q = 1), con W1 = 20, 50, 100, 1000, 100000 (de arriba a abajo). Las curvas
ln W ln W
negras corresponden a lnqq WN1 = N para q = 1 − 1/ρ, y lnqq WN1 = 1 para q = 1 [9].

Distribución macrocanónica
Hasta ahora hemos identificado el equilibrio estadı́stico de un sistema de N partı́cu-
las como aquél que maximiza el número de configuraciones posibles, mientras que el
número de partı́culas y la energı́a se mantenı́an constantes. Pero esta situación se pue-
de generalizar a una colectividad más general, en la que el número de partı́culas N
sı́ varı́a.
Consideremos para ello una colección de M sistemas análogos, de los cuales akN
k
tienen N partı́culas en el estado energético EN . El conjunto {akN } representa una
distribución de los sistemas en número y energı́a. Para un conjunto {akN } dado, la
colectividad toma configuraciones diferentes, siendo el número total de configuraciones
M!
W = Y k (2.97)
aN !
N,k

cantidad que representa el peso de la colectividad para una distribución dada, que
se caracteriza por los números akN . Cuanto mayor sea este peso, más frecuentemente
aparece dicha distribución.
2.3 Densidad de estados 61

Busquemos la distribución equilibrio, como aquella que maximiza W teniendo aho-


ra en cuenta las restricciones:
X k
aN = M (2.98)
N,k
X
N akN = N0 (2.99)
N,k
X k k
EN aN = E0 (2.100)
N,k

Considerando las variaciones de log W con respecto a akN , junto con los multiplicadores
de Lagrande ν, ζ y β, se obtiene
X
[(log akN ) + ν + N ζ + βEN
k
]δakN = 0 (2.101)
N,k

y dado que los δakN son arbitrarios, los términos entre corchetes son nulos, y se tiene
que
M N
akN = exp(−ν − ζN ) exp(−βEN k
)= λ exp(−βEN k
) (2.102)
Ξ
ecuación que proporciona la distribución más probable, donde β es común a todos los
sistemas y de nuevo identificamos β ≡ 1/kB T y λ ≡ e−ζ , de modo que
X N k
X N
Ξ= λ exp(−βEN ) λ ZN (2.103)
N,k N

es la macrofunción de partición.
La probabilidad de que el sistema tenga N partı́culas y esté en el nivel de energı́a
k
EN se representa por akN /M , de modo que12

λN exp(−βEN
k
)
PNk = (2.104)
Ξ
probabilidad que resulta muy útil para el tratamiento de sistemas de muchos cuerpos
cuando el número de partı́culas fluctúa.

2.3.6. Ejemplo V.- Osciladores armónicos


Estudiemos ahora un sistema formado por N osciladores armónicos unidimensio-
nales discernibles e independientes, todos ellos con frecuencia de oscilación ω.
La energı́a de cada oscilador εi , asociada al número cuántico correspondiente, ni ,
es  
1
εi = ~ω ni + , (i = 1, 2, . . . , N ; ni = 0, 1, 2, . . . ) (2.105)
2
donde ~ = h/2π y h es la constante de Planck.
12 Obsérvese que ahora
X
k λN ZN X
PN = ; PN = 1
k
Ξ N
62 Descripción probabilı́stica de un sistema

La energı́a total del sistema formado por los N osciladores es, por lo tanto, la suma
N N
hX
X Ni  N
E= ǫi = ~ω ni + ≡ ~ω M + (2.106)
i=1 i=1
2 2
| {z }
M

donde M es la suma de los N números cuánticos asociados al sistema de los N oscila-


dores, {ni } (i = 1, 2, . . . , N ). La energı́a del sistema completo depende esta suma M ,
es decir
XN 
E({ni }) = E ni = E(M ) (2.107)
i=1
Calcularemos el número de configuraciones posibles del sistema para una energı́a dada,
o lo que es lo mismo para un M dado gN (M ), mediante un método aproximado y
mediante un método exacto.

Método aproximado
a) N = 1 osciladores (n1 ≤ M )

Φ1 (M ) = M + 1 ∼ M
M →∞

b) N = 2 osciladores (n1 + n2 ≤ M )

(M + 1)(M + 2) M2
Φ2 (M ) = ∼
2 2
M →∞

c) N = 3 osciladores (n1 + n2 + n3 ≤ M )

M3
Φ3 (M ) ∼
6
M →∞

d) Para un número arbitrario de osciladores N , se propone la siguiente expresión,


M
en la que → ∞ representa el lı́mite de altas energı́as:
N

∼ MN
ΦN (M ) (2.108)
M N!
→∞
N
2.3 Densidad de estados 63

Demostremos (2.108) mediante inducción completa:

Z Z M Z
ΦN (M ) ∼ dx1 dx2 . . . dxN = dx1 dx2 . . . dxN
x1 +x2 +···+xN ≤M 0 x2 +···+xN ≤M −x1
Z M Z M
(M − x1 )N−1
∼ dx1 ΦN−1 (M − x1 ) ∼ dx1
0 0 (N − 1)!
M
(M − x1 )N MN
= − =
N!
0 N!

e) De modo que la degeneración es13

dΦN (M ) (∗) d M N M N−1


gN (M ) = ∼ = ∼ ΦN−1 (M )
dM dM N ! (N − 1)!

y en el lı́mite de altas energı́as (M/N → ∞) se tiene que

∼ M N−1
gN (M ) (2.109)
M (N − 1)!
→∞
N

La ecuación (2.109):
a) Permite constatar la veracidad de las igualdades (2.71) y (2.72) del apartado
(2.3.1), es decir
ln gN (M ) ∼ ln ΦN (M ) (2.110)

b) Garantiza, en el lı́mite N → ∞ y (M/N ) → ∞, la extensividad de ln ΦN (M ),


dado que
M
ln ΦN (M ) ∼ N ln M − N ln N = N ln
N
lo que implica que

ln ΦαN (αM ) ∼ α ln ΦN (M ) (2.111)


 
N →∞
M/N → ∞

c) Lleva a gN (0) = 0, mientras que el resultado exacto es gN (0) = 1. La “paradoja”


se resuelve si tenemos en cuenta que estamos violando la condición M ≫ N .
13 Obsérvese que la equivalencia (∗) no estarı́a justificada, dado que en general es “ilı́cito”

derivar a través de una equivalencia, esto decir, f (X) ∼ g(X) no implica que df (X)/dX ∼
dg(X)/dX. Sin embargo sı́ es justificable en este caso, debido a “bondad” de las funciones, co-
mo sucede frecuentemente en fı́sica. En cualquier caso, cuando desarrollemos el método exacto
para el cálculo de gN (M ), identificaremos la verdadera justificación de dicha equivalencia.
64 Descripción probabilı́stica de un sistema

d) De la ecuación de la energı́a (2.106), se obtiene una relación entre las variables


densidad del número de configuraciones y de la densidad de energı́a, que es válida
en el lı́mite termodinámico (N → ∞) de altas temperaturas (E/N ~ω → ∞). Es
decir:
ln gN E
∼ ln (2.112)
N   N ~ω
N →∞
E/N ~ω → ∞

El hecho de que ln gN /N sea una función monótona creciente, “esconde” la


positividad del calor especı́fico, tal y como veremos más adelante.

Una vez determinada el número de configuraciones g(E), podemos proceder al


cálculo de la densidad de estados, ω(E). Por ejemplo, para un oscilador (N = 1), de
(2.112) se tiene que
E dΦ 1
Φ≈ ⇒ ω(E) ≈ ≈ (2.113)
~ω dE ~ω
Comprobemos que la mecánica clásica nos conduce al mismo resultado. Partiendo
del Hamiltoniano de un único oscilador (N = 1)

p2 mω 2 2
H= + x
2m 2
se obtienen órbitas isoenergéticas elı́pticas (Fig.2.15), a partir de cuyas áreas se calcula
el incremento diferencial de área para un incremento diferencial de energı́a dE:
2πE 2π
S= ⇒ dS = dE
ω ω

Figura 2.15: Órbita de un oscilador en el plano de fases.

El número de estados comprendidos en una banda de energı́a dE en torno a E se


calcula, teniendo en cuenta que ρ(x, p) = 1/h, por integración en el plano de fases
Z
dS 2π
ω(E)dE = ρ(x, p)dxdp = = dE
E≤H(x,p)≤E+dE h hω

y de aquı́ se obtiene una densidad de estados

1
ω(E) =

que coincide con la obtenida en (2.113).


2.3 Densidad de estados 65

Método exacto
Consideremos el sistema de N osciladores discernibles e independientes, cada uno
de los cuales se encuentra en un cierto nivel ni (i = 1, . . . , N ) de su pozo de potencial.
Tal como se muestra en la Fig. 2.16, podemos representar el sistema como el conjuntoPn
de N cajas —una para cada oscilador— que contienen un total de M = i=1 ni
bolas, dado que hay hay ni bolas en cada caja, y N − 1 cruces, que representan las
separaciones entre las N cajas.

Figura 2.16: Estados en diferentes niveles energéticos, y su representación mediante


M bolas en N cajas, o bien mediante M bolas y (N − 1) cruces.

A partir de dicha representación, puede afirmarse que

(M + N − 1)!
gN (M ) = (2.114)
M !(N − 1)!

cuyo lı́mite, para (M/N ) → ∞, es la ecuación (2.109).


En este caso tenemos que g(0) = 1, como era de esperar en un resultado exacto.
Por lo tanto, la información de la que disponemos es completa y

ln gN (0) = 0

El lı́mite termodinámico viene dado por N → ∞ y M → ∞, pero ahora no es


necesario exigir que M/N → ∞, lo que hace que este resultado pueda utilizarse a
cualquier temperatura. Verificamos que

ln gN (M ) ∼ (M + N ) ln(M + N ) − M ln M − N ln N

y por lo tanto comprobamos que también se verifica la condición de extensividad:

gαN (αM ) = α ln gN (M ) (2.115)


66 Descripción probabilı́stica de un sistema

2.3.7. Ejemplo VI.- Gas ideal


Consideremos primero el caso de un sistema formado por una partı́cula puntual de
masa m, no relativista y sin spin, contenida en una caja “periódica” unidimensional
de longitud L. Su espectro de energı́as obedece a la ecuación
~k2
E= = E0 n2 (n = 0, ±1, ±2 . . . ) (2.116)
2m
h2
donde E0 ≡ .
2mL2
El número de estados asociados a las dos contribuciones (±) del ı́ndice n es
r
E
Φ(n) ∼ 2n = 2
E0
y de aquı́ que la densidad de estados en el lı́mite E/E0 → ∞ sea

1 ∝ 1
ω(E) ≈ √ √
EE0 E E
→∞
E0

E E E


1 π 2π E
(d = 1) : ω(E) → √ (d = 2) : ω(E) → (d = 3) : ω(E) → 3/2
EE0 E0 E0

Figura 2.17: Comportamiento de la función ω(E) con la energı́a, para distintas di-
mensiones d = 1, 2, 3, con N = 1.

Estudiemos a continuación el caso general de N partı́culas, indiscernibles e inde-


pendientes, en una caja hipercúbica de volumen Ld , contenida en un espacio de d
dimensiones. En este caso la energı́a es
Nd
X
E = E0 n2i (n = 0, ±1, ±2 . . . ∀i), (2.117)
i=1

de donde
Nd
X E
n2i = = R2
i=1
E0
que representa la ecuación de una hiperesfera en (N d) dimensiones de radio R, cuyo
hipervolumen, para R → ∞ y N → ∞, es
 Nd/2
π Nd/2 π Nd/2 E
Φ(E) ∼   RNd =   (2.118)
Nd Nd E0
N! Γ +1 N! Γ +1
2 2
2.3 Densidad de estados 67

ecuación en la que hemos introducido el factor N ! en el denominador, para tomar


cuenta de la indiscernibilidad, y donde:

Γ(X) ≡ función Gamma


ln Γ(X) ∼ X ln Xen el lı́mite X → ∞

Γ(3/2) = π/2
Γ(2) = 1

Γ(5/2) = 3 π/4

Por lo tanto, la densidad de estados es

dπ Nd/2 E Nd/2−1
ω(E) ∼   Nd/2
∝ E Nd/2−1 (2.119)
Nd E
2(N − 1)! Γ +1 0
2

Teorema de equipartición

Existen N d grados de libertad, en el sentido de que existen N


√d términos cuadráticos
en el Hamiltoniano. Cada grado de libertad aporta un factor E en ω(E), hecho que
“esconde” el teorema de equipartición de la mecánica estadı́stica clásica —por el cual
el calor especı́fico es CV = N kB d/2—, lo que conduce a la ley de Dulong y Petit para
los sólidos —esto es, CV = 3N kB — y a los valores de γ ≡ Cp /CV de los gases ideales
monoatómicos, diatómicos, etc.

Extensividad
 
d E V
ln Φ ∼ N ln + ln + cte
2 N N
relación en la que el N de los denominadores proviene de N ! y resuelve la paradoja de
Gibbs.
La equivalencia es válida en el lı́mite N → ∞ y E/E0 → ∞ —esto es, a alta
temperatura— y V /V0 → ∞ —es decir, muy diluı́do, siendo V0 un volumen carac-
terı́stico de origen cuántico— manteniendo E/N y V /N fijos. Se trata, precisamente,
del caso del gas ideal clásico. En particular, para h → 0, E0 → 0 y V0 → 0, el lı́mite
se satisface para valores cualesquiera de (E, V ).

Valores estimados

a) Hidrógeno


~ ≈ 10−34 J s h2 40 × 10−68
 
 E0 = ≈ ≈ 4 × 10−36 J


kB ≈ 1,4 × 10−23 J/o K

 mL2 10−27 × 10−4
⇒ ≈ 2 × 10−17 eV
 m ≈ 10−27 Kg  −36
  E 0 4 × 10
L ≈ 10−2 m ≈ ×10−13 o K
 
 T0 ≡ ≈
kB 1,4 × 10−23
Obsérvese el orden de magnitud de T0 . Esta es la razón por la cual la mayorı́a de
los gases reales son quasi-ideales —clásicos— a temperatura y presión ambiente.
68 Descripción probabilı́stica de un sistema

b) Electrón en un metal

m ≈ 10−30 Kg
⇒ T0 ≈ 105 o K
L ≈ 5A = 5 × 10−10 m
Obsérvese el orden de magnitud de T0 . Esta es la razón por la cual, a temperatura
ambiente, un metal es un sistema fuertemente cuántico.

Análisis mediante la mecánica estadı́stica clásica.

Si estudiamos el problema desde el punto de vista de la mecánica estadı́stica clásica,


obtendremos el mismo resultado. Comprobémoslo primero para N = 1 partı́cula en
una caja de dos dimensiones, y a continuación para N partı́culas en un hipercubo de
d dimensiones.
a) El Hamiltoniano de N = 1 partı́cula libre en un espacio (d = 2)–dimensional es

p2x + p2y
H=
2m

donde px , py son las componentes del vector momento de módulo p = 2mE,
siendo E y m la energı́a y la masa de la partı́cula. Supongamos que la partı́cula
está confinada en una caja de superficie S y denotemos θp = arctan(py /px ) (ver
Fig.2.18).

Figura 2.18: Dominio de definición, de los vectores posición ~r y momento p~, para una
partı́cula libre en un espacio (d = 2)–dimensional.

A continuación, a partir de la definición de estado, calculamos la densidad de


estados de la partı́cula:
Z
1 s
ρ0 (x, y, px , py ) = ⇒ ρ1 (px , py ) ≡ dxdyρ0 =
h2 h2
S
⇒ ρ2 (p, θp )dpdθp = ρ1 (px , py )dpx dpy = 2 pdpdθp
h
Z 2π
Sp 2πS
⇒ ρ2 (p, θp ) = 2 ⇒ ρ3 (p) = ρ2 dθp = 2 p
h 0 h
2πS
⇒ ω(E)dE = ρ3 (p)dp = 2 pdp
h
2πS dp 2πmS π
⇒ ω(E) = 2 p = =
h dE h2 E0

que coincide con el resultado indicado en el caso d = 2 de la Fig. 2.17.


2.3 Densidad de estados 69

b) El Hamiltoniano de N partı́culas indiscernibles en el espacio d-dimensional es


Nd
X p2i
H=
i=1
2m
qP
Nd 2

siendo p = i=1 pi = 2mE el momento total del sistema, y V ≡ Ld el
hipervolumen del hipercubo que lo contiene.
En este caso se tiene, para las densidades de probabilidad, que
1
ρ0 ({~ri }, {~
pi }) =
N !hdN
V
pi }) =
ρ1 ({~
N ! hdN
Nd−1 Nd Nd−1
Y Y V Nd−1
Y V pNd−1
ρ2 (p, {θj })dp dθj = ρ1 dpi = p dp dθ j =
j=1 i=1
N !hd j=1
N ! hdN
Z Nd−1
Y V pNd−1 N dπ Nd/2
ρ3 (p) = ρ2 dθj =  
N ! hNd Nd
j=1 Γ +1
2

A partir de lo que se calcula la densidad de estados, según vemos a continuación:

dp dπ Nd/2 E Nd/2−1
ω(E)dE = ρ3 (p)dp ⇒ ω(E) = ρ3 (p) =  
dE 2(N − 1)! Nd Nd/2
Γ + 1 E0
2

resultado que también que coincide con la expresión obtenida en (2.119).

2.3.8. Ejemplo VII.- Cuasipartı́culas


Sea un sistema formado por por N ondas planas indiscernibles, independientes,
sin spin, en una caja hipercúbica d-dimensional de volumen V ≡ Ld , con condiciones
periódicas.
En lo que se refiere al espectro de energı́as, puede decirse que
Nd
!
X 2
E = f ({kj } ) = f a0 + aj nj , (j = 1, 2, . . . , N d)
j=1

donde f es una función unı́voca definida positiva bien comportada (con un cierto
número de derivadas continuas), kj = (2π/L)nj , (nj = 0, ±1, ±2, . . . ), a0 puede tener
cualquier signo o incluso ser nula, y aj > 0, ∀j 14 .
Si consideramos que f −1 es la función inversa de f , se tiene que
Nd
X
aj n2j = f −1 (E) − a0
j=1

14 No es difı́cil generalizar este cálculo, recordando que cualquier polinomio de segundo

grado en las variables {nj } puede reescribirse de la forma propuesta, una vez centrado y
diagonalizado.
70 Descripción probabilı́stica de un sistema

y por lo tanto:  2
Nd 
 

X  nj 
 h f −1 (E) − a i1/2  = 1

j=1  0 

aj
que es la ecuación de una hiperelipse, de donde se tiene que
Nd  −1 1/2
π Nd/2 Y f (E) − a0
Φ∼  
Nd aj
N! Γ + 2 j=1
2
y de aquı́, que la densidad de estados sea

Nd
  −1
dπ Nd/2 f −1 (E) − a0 2 ∂f −1
ω(E) ∼ " # 1/2
(E) (2.120)
  Y Nd ∂E
Nd
2(N − 1)! Γ +1 aj
2 j=1

Si f (X) = X p (p 6= 0), y por lo tanto f −1 (X) = X 1/p , tenemos que:

dπ Nd/2  Nd/2−1
ω(E) ∼ " #1/2
E 1/p − a0 E 1/p−1 (2.121)
  YNd
Nd
2p (N − 1)! Γ +1 aj
2 j=1

ecuación que recupera (2.119) para



a =0
 0

h2
aj = 2
∀j

 2mL
p=1

Ley de Stefan–Boltzmann
Para un fotón o un fonón acústico, esto es, cuando N = 1, la energia es
v
u d
hc u X
E = ~ck = t n2 (2.122)
L j=1 j

a =0
 0

⇒ h2 c2 h2 c2
aj = 2
= 2/d ∀j

 L V
p = 1/2
y la densidad de estados es

dπ d/2 V
ω(E) ∼   E d−1 (2.123)
d
(hc)d Γ +1
2

cuya dependencia de la energı́a sigue las relaciones funcionales especificadas en Fig.2.19.


El caso d = 3 “esconde” la ley de Stefan-Boltzmann, esto es, que la potencia irradiada
por un cuerpo negro es proporcional a T 4 .
2.3 Densidad de estados 71

E E E

2L 2πL2 4πL3 2
(d = 1) : ω(E) → (d = 2) : ω(E) → E (d = 3) : ω(E) → E
hc h2 c2 h3 c3

Figura 2.19: Dependencia de la función ω(E) con la energı́a para N = 1 fotón o un


fonón acústico, para distintas dimensiones d = 1, 2, 3.

Partı́cula relativista
En el caso de tener N = 1 partı́cula relativista, la energı́a es

a = m20 c4
q  0

E = m20 c4 + ~2 c2 k2 ⇒ h2 c2 (2.124)
aj = ∀j

 L2
p = 1/2

donde c es la velocidad de la luz, m0 es la masa en reposo y k es el número de onda.


En este caso de tiene, para la densidad de estados, que

d
dπ d/2 V  −1
ω(E) ∼   E 2 − m20 c4 2 E (2.125)
d
(hc)d Γ +1
2

1 E2
E

2
2L 2 L m
0

E
hc 2
h

E E E
2 2 2
m c m c m c
0 0 0

(d = 1) : (d = 2) : (d = 3) :
2LE 2
ω(E) → 2πL 4πL3 q 2
ω(E) → E ω(E) → E E − m20 c4
q
hc E 2 − m20 c4 h2 c 2 h3 c 3

Figura 2.20: Comportamiento de la función ω(E) con la energı́a, para distintas di-
mensiones d = 1, 2, 3, en el caso de N = 1 partı́cula relativista. ǫ ≡ E − m0 c2 .
72 Descripción probabilı́stica de un sistema
Capı́tulo 3

Entropı́a estadı́stica

3.1. Entropı́a y Teorı́a de la Información


La entropı́a S da una medida del caos, del desorden, de la falta de información.
Su expresión puede ser postulada, o también deducida a partir de algunos postulados
más “intuitivos”. Optaremos por postularla, para mayor brevedad, de modo que la
comprensión intuitiva del concepto de entropı́a quedará relegada al análisis de sus
propiedades.

Definición de entropı́a
Sea el conjunto de eventos posibles en un sistema, Ω, junto con la ley de probabi-
lidad P que asigna a cada evento su probabilidad de ocurrencia

Ω ≡ {1, 2, . . . , M }
P ≡ {p1 , p2 , · · · , pM }

donde
M
X
pm = 1.
m=1

Se define la entropı́a según la siguiente expresión:


M
X
S ({pm }) = −k pm ln pm (3.1)
m=1

donde k es una constante positiva arbitraria, que más adelante identificaremos con la
constante de Boltzmann, kB .
Obsérvese que, dependiendo del carácter de la variable aleatoria del sistema, la ex-
presión de la entropı́a (3.1) deberá ser reescrita tal y como enunciamos a continuación.
a) En el caso de que la variable aleatoria sea infinita numerable:

X
S = −k pm ln pm (3.2)
m=1
74 Entropı́a estadı́stica

b) En el caso de que la variable aleatoria sea continua:


Z
S = −k dxp(x) ln p(x) + C (3.3)

donde C es una constante que proviene de ciertos problemas matemáticos.


c) En el caso cuántico, como estudiaremos más adelante:

S = −kTrρ ln ρ (3.4)

3.2. Propiedades
Tal y como hemos adelantado, el análisis de las propiedades de la entropı́a es
esencial para adquirir un concepto más “intuitivo” de la entropı́a que acabamos de
postular.

3.2.1. Positividad de S
La demostración es inmediata:
M
X
0 ≤ pm ≤ 1 ∀m ⇒ pm ln pm ≤ 0 ∀m ⇒ S = −k pm ln pm ≥ 0
m=1

3.2.2. S máxima ⇔ Ignorancia total


1
La ignorancia total significa equiprobabilidad (esto es, pm = ∀m).
M
Esta condición es equivalente, tal y como vamos a demostrar, a que la entropı́a S
alcanza su valor máximo cuando la ignorancia es total.

Primera demostración
Reescribiendo la ecuación de la entropı́a:
M
(M −1 M −1
! M −1
!)
X X X X
S = −k pm ln pm = −k pm ln pm + 1− pm ln 1 − pm
m=1 m=1 m=1 m=1

Derivada nula implica equiprobabilidad:


( M −1
!)
∂S X pM
= −k (1 + ln pm ) − 1 − ln 1 − pm = k ln = 0 ∀m
∂pm m=1
pm
1
⇒ pm = pM ∀m ⇒ pm = ∀m
M
Y el extremo, además, es un máximo:

∂ 2 S
= −kM < 0 ∀m
∂ 2 pm pm =1/M
3.2 Propiedades 75

Segunda demostración
Introduciendo un parámetro de Lagrange λ en la función de Lagrange

M
! M M
!
X X X
Φ≡S+λ pm − 1 = −k pm ln pm + λ pm − 1
m=1 m=1 m=1

Buscamos los puntos crı́ticos


λ 
∂Φ −1
= 0 = −k(1 + ln pm ) + λ ∀m ⇒ pm = e k
∂pm

para los que se obtiene la siguiente función independiente de m, lo que implica equi-
probabilidad:
1
pm = ∀m
M
Además, dicho punto crı́tico define un máximo de la función de Lagrange

∂2Φ k
=− < 0 ∀m
∂ 2 pm pm

Obsérvese que la equiprobabilidad implica que cuando M aumenta S crece, tal y


como indicarı́a la intuición. Lo comprobamos a continuación:

M
1 X 1 1
pm = ⇒ S = −k ln = k ln M (3.5)
M m=1
M M

3.2.3. S mı́nima (S = 0) ⇔ Certeza


La entropı́a de un sistema perfectamente conocido, es nula. Ello implica que los
eventos imposibles, o más exactamente aquellos cuya probabilidad es nula, no contri-
buyen a la entropı́a.
La comprobación es inmediata:

1, si m = m0
certeza ⇔ pm = ⇔ S = −k{(M − 1) × 0 × ln 0 + 1 × ln 1} = 0
0, si m 6= m0

3.2.4. Simetrı́a
La entropı́a es invariante bajo cualquier permutación P de {pm }. Esta propiedad
es trivial, a partir de (3.1).
S(P ) = S(P(P ))

3.2.5. Aditividad de la información


Si existen dos conjuntos de posibilidades disjuntas ΩB y ΩB (ΩA ∩ ΩB = ∅), que
tienen MA y MB elementos respectivamente (k ΩA k= MA , k ΩB k= MB ), y cuyas
76 Entropı́a estadı́stica

leyes de probabilidad respectivas, pA y pB , cumplen


 MA
 X
A
pA

 ΩA → pm ; m = pA


m=1
MB

 X

 B
 Ωb → pm ; pB
m = pB
m=1

donde pA + pB = 1, entonces la entropı́a del conjunto total Ω ≡ ΩA ∪ ΩB cumple

n A o n o
 p m pB
m
SMA +MB {pA B
m }, {pm } = S2 (pA , pB ) + pA SMA + p B SMB
pA pB
(3.6)
Verifiquemos esta igualdad para MA = MB = 2.

S4 = − k{p1 ln p1 + p2 ln p2 + p3 ln p3 + p4 ln p4 }
= − k{(p1 + p2 ) ln (p1 + p2 ) + (p3 + p4 ) ln (p3 + p4 )}
n p p1 p2 p2 o
1
− k(p1 + p2 ) ln + ln
p1 + p2 p1 + p2 p1 + p2 p1 + p2
n p p3 p4 p4 o
3
− k(p3 + p4 ) ln + ln
p3 + p4 p3 + p4 p3 + p4 p3 + p4
p p  p p 
1 2 3 4
= S2 (pA , pB ) + pA S2 , + p B S2 ,
pA pA pB pB

Shannon dedujo la expresión de la entropı́a (3.1) postulando (3.6). Por tanto, esta
propiedad “esconde” la expresión operacional de la entropı́a.

Demostración
En el caso de equiprobabilidad y de que M ≡ MA = MB , la expresión (3.6) es
trivial:

1 1
k Ω k= 2M ⇒ SΩ = k ln 2M = k ln 2 + k ln M + k ln M = S2 + pA SA + pB SB
2 2

En un caso más general, se tiene que

Ω = ΩA1 ∪ ΩA2 ∪ · · · ∪ ΩAN


| {z }
N conjuntos desconexos

donde k ΩA1 k=k ΩA2 k= · · · k ΩAN k= M , lo que implica k Ω k= M N , y por lo tanto

SΩ = k ln M N = k ln M + k ln N

Es decir, la falta de información en relación al conjunto (ΩA1 , o ΩA2 , o ΩAN , etc)


al que pertenece un evento dado, se suma a la falta de información asociada a las
distintas posibilidades en el conjunto.
3.2 Propiedades 77

3.2.6. Concavidad
Sean tres leyes de probabilidad P ≡ {pi }, P ′ ≡ {p′i } y P ′′ ≡ {p′′i } tales que las
probabilidades de P ′′ están comprendidas entre P y P ′ , es decir

p′′i = λpi + (1 − λ)p′i ∀i; (0 < λ < 1),


Entonces el funcional entropı́a S(P ) es cóncavo, esto es:

S({P ′′ }) > λS(P ) + (1 − λ)S({P ′ })

Demostración
Es inmediata, una vez que se observa que (ver Fig. 3.1)

f (p′′ ) > λf (p) + (1 − λ)f (p′ ),

donde f (p) ≡ −p ln p. Podrı́a también demostrarse esta propiedad de forma algo más
general, suprimiendo la restricción de que tenga que existir un mismo valor de λ ∀i.

Figura 3.1: Demostración de la concavidad del funcional entropı́a.

Implicaciones termodinámicas
Esta propiedad está intimamente ligada a la “positividad” del calor especı́fico
(CV > 0), de la compresibilidad isotérmica ( αT ≡ −p∂V /∂p|T > 0), de las cons-
tantes elásticas (c11 > 0, c44 > 0), de la susceptibilidad isoterma paramagnética
(χT ≡ ∂M/∂H|T > 0) y de ∂µ/∂N |T , donde µ es el potencial quı́mico, ası́ como
a desigualdades tales como Cp > CV , c11 + 2c12 > 0, etc. En lı́neas generales, entra
en juego en la discusión de la estabilidad o pérdida de estabilidad producida en las
transiciones de fase de cualquier estado macroscópico o fase de los sistemas fı́sicos.

3.2.7. Subaditividad
Sean los conjuntos de posibles resultados

Ω1 ≡ {1, 2, . . . , m, . . . , M }
Ω2 ≡ {1, 2, . . . , n, . . . , N }

y el conjunto de resultados conjuntos Ω

Ω ≡ {(1, 1), . . . , (m, n), . . . , (M, N )},


78 Entropı́a estadı́stica

con sus probabilidades correspondientes pn,m que verifican

M X
X N
pnm = 1
m=1 n=1

Sean las probabilidades marginales p1m para el sistema 1 y p2m para el sistema 2
 N
 X
 1


 p m ≡ pmn

 n=1


 M

 X
2
 pn ≡ pmn


m=1

que permiten definir la dependencia o independencia de los conjuntos



 Ω1 , Ω2 son independientes ⇔ ∄ correlación ⇔ pmn = p1m p2n ∀(n, m)

Ω1 , Ω2 son dependientes ⇔ ∃ correlación ⇔ pmn 6= p1m p2n ∀(n, m)


y las entropı́as parciales


 X

 S ≡ −k pmn ln pmn

 m,n





 X 1
S1 ≡ −k pm ln p1m

 m



 X


 S2 ≡ −k
 p2n ln p2n
n

Entonces, las entropı́as cumplen que

S1 + S2 ≥ S

verificándose la igualdad en el caso de que no exista correlación.

Demostración
Definimos:
θmn ≡ pmn − p1m p2n
Por lo tanto X X X
p1m = p1m p2n + θmn = p1m + θmn
n n n

lo que implica
P
n θmn = 0 (3.7)

y también que
P
m θmn = 0 (3.8)
3.2 Propiedades 79

Maximizamos S en relación a θmn , introduciendo los parámetros de Lagrange {λ1m }


y {λ2n } para poder considerar las restricciones (3.7) y (3.8). La función de Lagrange:

S X 1 X X 2X
F = − λm θmn − λn θmn
k m n n m
X 1 2 X 1
= (pm pn + θmn ) ln (p1m p2n + θmn ) − (λm + λ2n )θmn
mn mn

para la que calculamos los extremos

∂F
= −1 − ln (p1m′ p2n′ + θm′ n′ ) − λ1m′ − λ2n′ = 0, ∀m′ , n′
∂θm′ n′
1 2

⇒ θmn = e−1−λm −λn − p1m p2n

donde (∗ ) representa el valor que hace máxima S. Haciendo uso de (3.7) se obtiene
que
!
X ∗ −1−λ1
X −λ2 1 ep1
0= θmn = e m e n − p1m ⇒ e−λm = X m 2 , ∀m (3.9)
n n e−λn
n

Análogamente, haciendo uso de (3.8) se obtiene

2 ep2
e−λn = X n 1 ∀n (3.10)
e−λm
m

y por lo tanto
∗ ep1m p2n
θmn = ! ! − p1m p2n (3.11)
X −λ1 X −λ2
e n e m
n m

Pero usando (3.7) y (3.8), tenemos que


X ∗ e X X
0= θmn = ! ! p1m p2n − p1m p2n (3.12)
mn
X −λ1
X −λ2 mn mn
e n e m

n m

por lo tanto
e
! ! =1
X 1 X 2
e−λn e−λm
n m

y de ahı́, usando (3.11), obtenemos finalmente que


θmn =0

Verificamos también que



∂ 2 F 1 1
2
=− 1 2 ∗
=− 1 2 <0
∂θmn ∗ p p
m n + θ mn p m pn
80 Entropı́a estadı́stica

por lo tanto

S(θmn 6= 0) ≤ S (θmn = 0) , ∀(m, n)


X 1 2
= −k pm pn ln p1m p2n
mn
X X  X 2 X 1 
= −k p1m p2n ln p1m − k pn pm ln p2n
m n n m
X X
= −k p1m ln p1m −k p2n ln p2n = S1 + S2
m n

quedando ası́ demostrada la subaditividad.


Este resultado es intuitivo, ya que las correlaciones son una “fuente de informa-
ción”, y por lo tanto es natural que provoquen una disminución de la entropı́a.

Extensividad
Si los sistemas S1 y S2 son independientes ⇒ S = S1 + S2 lo que es la base de la
extensividad de la entropı́a1 .

Correlaciones en sistemas fı́sicos


Con el objeto de exhibir cómo aparecen las correlaciones en los sistemas fı́sicos,
consideraremos un sistema compuesto de dos spines 1/2 discernibles, a temperatura
T , cuyo Hamiltoniano es:

H = −H(S1 + S2 ) − JS1 S2

donde 
 S1 , S2 = ±1
H > 0 es el campo magnético externo

J ≥ 0 es la interacción ferromagnética
Las probabilidades de los distintos estados son:

P (↑↑) = eβ(H+J )/Z


P (↓↓) = eβ(−H+J )/Z
P (↑↓) = P (↓↑) = e−βJ /Z

donde 
Z ≡ eβ(H+J ) + eβ(−H+J ) + 2e−βJ
β ≡ 1/(kB T )
Las probabilidades marginales son:

eβ(H+J ) + e−βJ
P (↑) ≡ P (↑↑) + P (↑↓) =
Z
eβ(−H+J ) + e−βJ
P (↓) ≡ P (↓↑) + P (↓↓) =
Z
1 Existen otras entropı́as que en las que la aditividad y la extensividad no son propiedades

equivalentes [9].
3.3 Entropı́a y mecánica cuántica 81

Por lo tanto
[P (↑)]2 e2β(H+J ) + 2eβH + e−2βJ
= ≤ 1, si J ≥ 0
P (↑↑) e2β(H+J ) + 2eβH + e2βJ
P (↑)P (↓) eβH + e−βH + e2βJ + e−2βJ
= ≥ 1, si J ≥ 0
P (↑↓) eβH + e−βH + 2e−2βJ
[P (↓)]2 e2β(−H+J ) + 2e−βH + e−2βJ
= ≤ 1, si J ≥ 0
P (↓↓) e2β(−H+J ) + 2e−βH + e2βJ
con lo que se observa que lo que introduce las correlaciones entre los spines —es decir,
lo que introduce la tendencia a quedar paralelos entre sı́—, es la no nulidad de J.

3.3. Entropı́a y mecánica cuántica


Sea {|mi} una base ortonormal que diagonaliza el operador densidad ρ̂
X
ρ̂ = |mipm hm|
m

La entropı́a puede escribirse como


X X
S(ρ̂) = −k pm ln pm = −k ρ̂mm ln ρ̂mm
m m

S(ρ̂) = −kTrρ̂ ln ρ̂ ≡ −khln ρ̂i (3.13)

3.3.1. Entropı́a mı́nima


El operador densidad, en un estado puro, toma la forma
 
1 0 0 ··· 0

 0 0 0 ··· 0 

ρ̂ =  .. 
 . 
0 0 0 ··· 0
de donde se deduce que la entropı́a es nula.

S(ρ̂) = −k(1 ln 1 + 0 ln 0 + . . . ) = 0

3.3.2. Entropı́a máxima


En una mezcla estadı́stica en la que los vectores de un subespacio (de dimensión
W ) del espacio de Hilbert son equiprobables, el operador densidad es
1
ρ̂ = IW
W
donde IW es la matriz unidad W × W .
En este caso la entropı́a adquiere exactamente la expresión postulada por Boltz-
mann:  1 1 
S = −kW ln = k ln W
W W
82 Entropı́a estadı́stica

3.3.3. Concavidad
Sea un juego de operadores densidad de un mismo sistema {ρ̂j } (j = 1, 2, . . . , k),
k
X
con probabilidades de ocurrencia {µj }, de modo que µj = 1.
j=1
Entonces:
k
!
X X
S µj ρ̂j ≥ µj S(ρ̂j ) (3.14)
j=1 j

esto es, se verifica que la entropı́a de la media no es nunca menor que la media de
las entropı́as. La igualdad es válida únicamente cuando ρ̂j es independiente de j, o si
el juego de probabilidades {µj } es tal que implica certeza. Considerar, en una única
mezcla estadı́stica, k mezclas estadı́sticas diferentes, aumenta en media el desorden.

3.3.4. Subsistemas
Sea un sistema Σ formado por dos subsistemas disjuntos, esto es

Σ = Σ1 ∪ Σ2 (Σ1 ∩ Σ2 = ∅)

El espacio de Hilbert ξ puede descomponerse

ξ = ξ1 ⊗ ξ2

donde 
 ρ̂ está definido en ξ (cuya dimensión es D1 D2 )
ρ̂1 = Tr2 ρ̂ está definido en ξ1 (cuya dimensión es D1 )

ρ̂2 = Tr1 ρ̂ está definido en ξ2 (cuya dimensión es D2 )
Frecuentemente, aunque no siempre, el sistema total tiene más desorden que un único
subsistema (S(Σ) > S(Σ1 )S(Σ2 )).

Primer contraejemplo
singlete ⇒
Dos spines acoplados en el estado   estado puro ⇒ S = 0.
1 1 0
Uno de esos dos espines ⇒ ρ̂ = ⇒ S = k ln 2 > 0.
2 0 1

Segundo contraejemplo
Σ ≡ 100 cartas (98 copas, 1 bastos, 1 espada).
Σ1 ≡ dos cartas (1 bastos, 1 espada).
El valor de entropı́a S(Σ) indica que existe casi la certeza de sacar copas,
 
98 98 1 1
S(Σ) = −k ln +2 ln ≈0
100 100 100 100

y sin embargo S(Σ1 ) demuestra una gran incertidumbre:


 
1 1
S(Σ1 ) = −k2 × ln = 2 ln 2
2 2
3.3 Entropı́a y mecánica cuántica 83

Pero siempre se verifica que

S (Σ) ≤ S (Σ1 ) + S (Σ2 ) (3.15)

donde 
 S(Σ) ≡ S(ρ̂)
S(Σ1 ) ≡ S(ρ̂1 )

S(Σ2 ) ≡ S(ρ̂2 )
siendo válida la igualdad si ∄ correlaciones entre Σ1 y Σ2 (ρ̂ = ρ̂1 ⊗ ρ̂2 ). La propiedad
(3.15) se refleja en el número de probabilidades independientes:
a) Conocer ρ̂ significa conocer (D1 D2 − 1) números reales distintos.
b) Conocer ρ̂1 y ρ̂2 significa conocer (D1 + D2 − 2) números reales distintos.
Y vemos que D1 D2 − 1 > D1 + D2 − 2, si D1 , D2 > 1; por lo tanto “conocer ρ̂” es más
que “conocer ρ̂1 y ρ̂2 ”, y por tanto la entropı́a es menor.

3.3.5. Evolución temporal


Conocido el Hamiltoniano H, vamos a estudiar la evolución temporal. Distingui-
remos dos casos:
dρ̂
a) Si el Hamiltoniano es conocido, sea o no conservativo ⇒ = 0.
dt
La evolución de la entropı́a, es entonces

(∗)
dS d d dρ̂
= −k Trρ̂ ln ρ̂ = −kTr ρ̂ ln ρ̂ = − kTr(1 + ln ρ̂) =0
dt dt dt dt

por lo tanto ρ̂ puede depender explı́citamente del tiempo –lo que es la situación
tı́pica de un sistema conservativo en equilibrio estadı́stico– o no; pero la entropı́a
es una constante del movimiento siempre que el Hamiltoniano sea conocido.
La igualdad (∗) merece un comentario. Si f (x) es una función analı́tica de x, en
general δf (ρ̂) 6= df (x)/dρ̂|x=ρ̂ δ ρ̂, porque ρ̂ y δ ρ̂ en general no conmutan. Pero
en cambio sı́ se verifica que
n df (x) o
Trδf (ρ̂) = Tr δ ρ̂
dx x=ρ̂

b) Si el Hamiltoniano H no es conocido, caso en el que la situación tı́pica es aquella


en la que existen fuerzas aleatorias, tenemos {Hj } (j = 1, 2, . . . , k) con proba-
Xk
bilidades de ocurrencia µj , con µj = 1.
j=1
Entonces, cada Hj determina un operador de evolución Uj tal que

ρ̂jt = Uj ρ̂0 Uj+

donde ρ̂0 ≡ ρ̂|t=0 se supone perfectamente conocido.


Tenemos que S(ρ̂jt ) = S(ρ̂0 ) ∀j, pero
k
! k k
X X   X
j
S µj ρ̂t ≥ µj S ρ̂jt = µj S (ρ̂0 ) = S(ρ̂0 )
j=1 j=1 j=1
84 Entropı́a estadı́stica

esto es:
k
!
X
S µj ρ̂jt ≥ S(ρ̂0 )
j=1

siendo válida la igualdad para t = 0, ∀ρ̂j , o bien para cualquier t si ρ̂j es


independiente de j.
Esta es la razón por la cual se verifica el teorema H de Boltzmann, esto es,
que la entropı́a crece (en media) durante los procesos irreversibles (por ejemplo,
durante la búsqueda del equilibrio termodinámico).

3.3.6. Proceso de medida


Denotaremos ρ̂ como el operador densidad antes del proceso de medición. Después
de medir, y antes de observar el resultado, lo denotaremos por ρ̂2 ; y después de obser-
var el resultado por ρ̂3 . Puede decirse que el operador densidad sufre un proceso de
evolución que esquematizamos a continuación:

X X Pa ρ̂Pa X
0 0
ρ̂ → ρ̂2 ≡ Pa ρ̂Pa → ρ̂3 ≡ ≡ ρ̂4 (3.16)
|{z}
a a0
Trρ̂Pa0 a0
antes | {z } | {z }
de medir despues de medir despues de mirar
antes de mirar

donde Pa es un proyector, y a0 son todos los estados compatibles con el resultado


constatado por el observador.

Las entropı́as correspondientes son

X
S(ρ̂) ≤ S(ρ̂2 ) ≥ Tr(ρ̂Pa0 ) S(ρ̂4 ) (3.17)
| {z }
(1) (2) a0
(3)

La desigualdad (1) puede ser una igualdad en el caso de que el observable medido
conmute con ρ̂, y menor en el caso contrario, debido a la irreversibilidad asociada a
las perturbaciones del proceso de medida. La desigualdad (2) corresponde al hecho
de que, en media, mirar el resultado aumenta la información de que disponemos. La
contribución (3), representa la probabilidad del sistema de permanecer en el subespacio
asociado a a0 , después de repetir el proceso de medida muchas veces.

En el caso de que exista un conjunto completo de observables y de que por lo


tanto la medida sea completa, el estado final será un estado puro y en consecuencia
S(ρ̂3 ) = 0. En ese caso podremos afirmar que S(ρ̂) ≥ 0.

3.3.7. N indeterminado
Cuando N no es conocido, podemos considerar un juego de operadores densidad,
{ρ̂N }, tal que la probabilidad de tener N partı́culas es PN ≡ Trρ̂N . En ese caso, la
entropı́a es
3.3 Entropı́a y mecánica cuántica 85

X X ρ̂N
S = −k Trρ̂N ln ρ̂N = −k PN Tr ln ρ̂N
N N
PN
Definiendo
ρ̂N
ρ̂′N ≡ (donde Trρ̂′N = 1)
PN
puede reescribirse la entropı́a como
X
S = −k PN Trρ̂′N ln (ρ̂′N PN )
N
X X
= −k PN Trρ̂′N ln ρ̂′N − k PN ln PN
N N
X X
= PN SN − k PN ln PN
N N

donde SN ≡ −kTrρ̂′N ln ρ̂′N . El primer término da el valor medio de la entropı́a intrı́nse-


ca en cada sistema de N partı́culas; el segundo término está asociado a la falta de
información debida a la ignorancia de N .

3.3.8. Estados clásicos


En el caso de tener estados clásicos, consideremos el caso de que
Z
N es conocido → S = −k dτ ρ̂ ln ρ̂ + Cte
XZ
N es desconocido → S = −k dτN ρ̂N ln ρ̂N + Cte
N
R
donde dτN ρ̂N es la probabilidad de tener N partı́culas. R
Si todos los estados de un subespacio finito de medida W = dτ en el espacio de
fases son equiprobables, entonces S = k ln W + Cte.
La entropı́a clásica manifiesta un grave defecto en el lı́mite de bajas temperaturas,
esto es:
lı́m S(T ) = −∞
T →0

lo que, además de violar el tercer principio de la Termodinámica, es absurdo porque


que no es posible saber más acerca de un sistema, que saber todo de él (S = 0). Por
lo tanto, en el caso de que T → 0, es indispensable utilizar el tratamiento cuántico de
las propiedades estadı́sticas de cualquier sistema fı́sico.
86 Entropı́a estadı́stica
Capı́tulo 4

Colectividades y
distribución de
Boltzmann-Gibbs

En este capı́tulo desarrollaremos algunas cuestiones de carácter operativo, acerca


de las distribuciones de probabilidad de ocupación de los diversos niveles de energı́a
de un sistema. Pero antes de adentarnos en ellas, conviene hacer algunos preámbulos.

4.1. Extensividad e intensividad


4.1.1. Definiciones

Magnitud mensurable

M es magnitud mensurable ⇔ M (Si ∪ Sj ) = M (Si ) + M (Sj ) ∀i, j

donde Si , Sj son dos sistemas cualesquiera pertenecientes a un conjunto dado de


sistemas inconexos (Si ∩ Sj = ∅, ∀i, j).
Ejemplos de magnitudes mensurables son la longitud y el tiempo1 . Ejemplo de
magnitudes no mensurables son la temperatura, la presión y el potencial quı́mico2 .
1 Las magnitudes mensurables están relacionadas por las constantes universales. Por ejem-

plo, la longitud y el tiempo están relacionadas según la ecuación x = ct, donde c es la constante
universal de la velocidad de la luz
2 Las magnitudes no mensurables están relacionadas siempre con alguna magnitud men-

surable, como por ejemplo el potencial quı́mico con el número de moléculas. Pero en estas
relaciones, son las leyes fı́sicas las que entran en discusión, dado que estas en general depen-
den del régimen en el que se estudie el sistema (podemos, por ejemplo, estudiar un sistema
en un régimen en el que sea válida la mecánica newtoniana, o bien la relativista, o bien la
cuántica, etc).
88 Colectividades y distribución de Boltzmann-Gibbs

El concepto de magnitud mensurable está naturalmente relacionado con las fun-


ciones matemáticas homogéneas de grado uno, para las que
f (λx) = λ1 f (x),
dado que la operación x → λx es la que permite realizar mediciones3 .

Magnitud asintóticamente mensurable

N
!
[
M asintóticamente mensurable ⇔ M Si ∼ N M (Si ), ∀i
i=1 N →∞

donde {Si } es un conjunto de sistemas iguales e inconexos.


A toda magnitud asintóticamente mensurable se le puede asociar una magnitud
densidad, m, definida por S 
N
M i=1 Si
m ≡ lı́m . (4.1)
N→∞ N
Toda magnitud mensurable es también asintóticamente mensurable. Pero la pro-
posición inversa es falsa, como se observa en el contraejemplo dado por

y = C1 N + C2 / N ,
siendo C1 , C2 constantes arbitrarias.
El concepto de magnitud asintóticamente mensurable está naturalmente relacio-
nado con las funciones matemáticas homogéneas de grado cero.

Magnitud extensiva
Una magnitud fı́sica X es extensiva, en relación a una realización concreta de la
unión de sistemas, si y sólo si es, en este contexto, asintóticamente mensurable.
Ejemplos de magnitudes extensivas son la longitud, el volumen, la energı́a, la en-
tropı́a, el número de partı́culas, la carga, la masa, el momento dipolar eléctrico (o
magnético), la resistencia de resistores en serie, la capacitancia de condensadores en
paralelo, la entalpı́a, la energı́a libre de Helmholtz, el tiempo, los ángulos, etc.
El que una magnitud sea extensiva, no implica que sea mensurable, aunque sı́ es
cierta la afirmación inversa.

Magnitud intensiva
Una magnitud fı́sica Y es intensiva, en relación a una realización concreta de la
unión de sistemas, si y sólo si para todo par de sistemas pertenecientes a un conjunto
dado de sistemas inconexos, se cumple que
Y (Si ) = Y (Sj ) ⇒ Y (Si ∪ Sj ) = Y (Si ) = Y (Sj )
Ejemplos de magnitudes intensivas son la temperatura, presión, el potencial quı́mi-
co, el campo eléctrico (o magnético), la densidad de masa, la edad media de un grupo
humano, y todas las magnitudes densidad en general.
3 La única ley matemática que permanece invariante bajo el escalado de abcisas y de orde-

nadas, según un cierto factor, es la ley de potencias f (λx) = λα f (x), α 6= 0. Esta es la razón
por la que las unidades en las que se miden todas las magnitudes fı́sicas están expresadas en
leyes de potencias.
4.1 Extensividad e intensividad 89

4.1.2. Caracterización
Realización de la unión de sistemas
Hagamos uso de la operación juxtaposición de rectángulos de tamaño a × b, con el
objeto de ilustrar la necesidad de que exista una definición precisa para la realización
del proceso de unión de sistemas. Dependiendo de cómo los yuxtapongamos, podremos
asociar las variables a (anchura) y b (altura) a magnitudes intensivas o extensivas.

Para rectángulos de tamaño a × b, consideremos dos realizaciones distintas para la


operación juxtaposición de rectángulos:
1a La magnitud a es extensiva y b intensiva. En este caso, la operación se realiza
según:

2a Cuando la magnitud a es intensiva y b extensiva, se realiza según:

Caracterización de las magnitudes intensivas y extensivas


Existen magnitudes fı́sicas que no son ni extensivas ni intensivas. Piénsese, por
ejemplo, en el cuadrado de la entropı́a, S 2 .
Por otro lado, obsérvese que la extensividad e intensividad se conserva a através
de la operaciones (=), (∼), (+), (−), (diferencial). De modo que:

intensiva × intensiva = intensiva


intensiva × extensiva = extensiva
extensiva × extensiva =
6 intensiva, extensiva

Esto ocurre en toda ecuación de estado. Piénsese, por ejemplo, en la ecuación del gas
ideal clásico
V
p= = kB T,
N
en la que la presión p, el volumen especı́fico V /N y la temperatura KB T , son intensivas.
El concepto de unidad patrón convencional, como lo son por ejemplo el metro,
el kilo, el segundo, etc, interviene de manera esencial en cualquier proceso fı́sico de
medida. Toda magnitud susceptible de tener una unidad patrón es necesariamente
90 Colectividades y distribución de Boltzmann-Gibbs

extensiva mientras que, por ejemplo, por el contrario no es concebible una unidad
patrón de temperatura asociada al proceso empı́rico de medición. Pero toda magnitud
extensiva ¿será susceptible de tener una unidad patrón de medida? Pensemos por
ejemplo en la energı́a.
Un ejemplo significativo son los pares de variables termodinámicamente conjuga-
das, que se presentan siempre sólo bajo la forma de un par formado por una magnitud
intensiva y otra extensiva. Ejemplos de dichos pares son presión-volumen (p, V ), campo
magnético-magnetización (H, M ), campo eléctrico-polarización (E, P ), temperatura-
entropı́a (T, S), etc. Los definiremos oportunamente más adelante.

4.2. Conocimiento de un sistema fı́sico


4.2.1. Planteamiento
Las diferentes variables que aparecen en un problema fı́sico concreto (el tipo de
partı́culas, el spin, el tipo de interacciones, el número de partı́culas, la energı́a total, el
volumen de una caja, los distintos vı́nculos...) pueden conocerse con diferentes grados
de certidumbre.
a) Cuando se conocen con total certidumbre, las variables determinan el espacio
(o subespacio) de Hilbert del problema si el número de componentes N es co-
nocido. Si en cambio N desconocido, ya sea total o parcialmente, las variables
determinarán el espacio de Fock.
b) En el caso de que las variables se conozcan con un cierto grado de aleatoriedad,
la información disponible establece ligaduras que han de ser respetadas por el
operador densidad, ρ̂, el cual describe el estado estadı́stico del sistema.
Podrı́an conocerse únicamente, por ejemplo, el valor esperado de la energı́a
U ≡ hHi en vez de su valor exacto, o bien hN i en lugar del valor exacto del
número de componentes, o bien hV i y hV 2 i en lugar del valor exacto del volu-
men. Concretamente, si lo que conocemos es el valor de hÔi para un observable
Ô, entonces solo podemos admitir aquellos operadores ρ̂ tales que Trρ̂ Ô = hÔi.
En consecuencia, la información de la primera categorı́a define el espacio en el
que opera ρ̂, y información de la segunda define las ligaduras que ha de cumplir ρ̂.
En el grado más primitivo de nuestra información, ésta podrı́a basarse únicamente en
magnitudes susceptibles de medición, esto es, en un conjunto de variables extensivas
{Xi }, que pueden presentarse ya sea como exactamente conocidas (Xi ), ya sea bajo
una forma de conocimiento aleatorio (hXi i, hXi2 i, P (hXi i), etc).

4.2.2. Sistemas en equilibrio


Si nuestro conocimiento no presenta evolución temporal, y por lo tanto existe
equilibrio estadı́stico, las variables extensivas de las que hemos hablado se representan
como constantes del movimiento del sistema. En este caso resulta oportuno introducir
las colectividades canónicas tradicionales.

Colectividades
Las colectividades se utilizan en distintas circunstancias termodinámicas que co-
rresponden a diferentes tipos de conocimiento del sistema y, de aquı́, a diferentes
4.2 Conocimiento de un sistema fı́sico 91

métodos de cálculo propios de la mecánica estadı́stica. Si consideramos X0 como la


energı́a total del sistema, y {Xi } (i = 0, 1, 2, . . . ) son el resto de las magnitudes ex-
tensivas implicadas en el conocimiento del sistema, podemos clasificar los sistemas en
equilibrio de la siguiente manera4 :
a) Sistemas completamente aislados, en los que existe un perfecto conocimiento de
todas las variables {Xi } (i = 0, 1, 2, . . . ). En este caso se utilizará la colectividad
microcanónica. Las variables conocidas {Xi } (i = 0, 1, 2, . . . ), indican dónde
está definido el sistema.
b) Sistemas en equilibrio térmico (esto es, permitimos fluctuaciones estadı́sticas
solamente de la energı́a X0 ), en los que existe un perfecto conocimiento de hX0 i
y de {Xi } (i = 1, 2, . . . ). Es este caso haremos uso de la colectividad canónica.
En esta situación aparece el concepto de termostato o reservorio de calor, que
es el que fija hX0 i, o de forma equivalente la temperatura. Ahora, las variables
{Xi } (i = 1, 2, . . . ), salvo la energı́a, indican cuál es el operador ρ̂ admisible.
c) Sistemas en un equilibrio más amplio que el térmico, es decir, en los que per-
mitimos fluctuaciones de X0 y de al menos lo menos otra variable extensiva.
Esta situación implica el perfecto conocimiento de {hXi i}(i = 0, 1, 2, . . . , k) y
de {Xi } (i = k + 1, k + 2, . . . ). En este caso haremos uso de las colectividades
macrocanónicas.

Algunos ejemplos
a) Equilibrio mecánico de un fluido homogéneo isótropo. En este caso, los prome-
dios henergı́ai y hvolumeni son conocidos. Aparece el concepto de “termostato-
baristato” o reservorio simultáneo de calor y volumen, que fija el par temperatura
y presión (T, P )).
b) Equilibrio quı́mico de un fluı́do homogéneo isótropo. En este caso se conocen los
promedios henergı́ai y hnúmero de partı́culasi. Aparece el “termostato-reservorio
de partı́culas”, que fija el par temperatura y potencial quı́mico (T, µ).
c) Equilibrio quı́mico generalizado, en las reacciones quı́micas atómicas o nucleares:

A + B ⇋ AB

d) Equilibrio hidrostático, en el que:

sistema lı́quido ⇋ vapor

e) Equilibrio osmótico en membranas semipermeables.


f) Equilibrio electrostático, magnetostático, etc.

Energı́a afin a cada colectividad


El papel privilegiado de la energı́a (X0 ) en la clasificación de los sistemas y las
correspondientes colectividades, proviene del hecho de que es posible la transferencia
de calor sin que exista tranferencia de ningún otro tipo de magnitud extensiva, siendo
4 Lo que es del todo imposible, es conocer todas las variables únicamente en valor medio.

Por el contrario, para definir bien el tamaño del sistema, es necesario que al menos una de las
variables extensivas sea conocida de forma exacta.
92 Colectividades y distribución de Boltzmann-Gibbs

que es imposible transferir cualquier magnitud extensiva sin transferir también energı́a:
se admite la posibilidad de transferir sólo calor, pero parece inconcevible transferir
partı́culas sin transferir su energı́a (cinética, etc), o transferir volumen sin transferir
trabajo, o trasferir carga sin transferir la energı́a cinética de los iones, etc.
Las energı́as termodinámicas pertinentes para el estudio de un fluido homogéneo
isótropo, dependen de la colectividad en la que se estudie5 :
a) En la colectividad microcanónica, la energı́a interna U :

U (V, N )

b) En la colectividad canónica, la energı́a libre de Helmholtz F :

F (V, N, T ) = U − T S

c) En la colectividad macrocanónica tipo presión, la energı́a de Gibbs:

G(p, N, T ) = U − T S + pV

d) En la colectividad macrocanónica tipo potencial quı́mico:

Y (V, µ, T ) = U − T S − µN

Es inútil introducir en este caso un potencial del tipo

Φ = U − T S + pV − µN,

porque se demuestra que Φ ≡ 0. Esto está ligado al hecho de haber sustituı́do todas
las variables extensivas del problema (U, V, N ) por las variables intensivas correspon-
dientes (T, p, µ), lo que hace que el tamaño del sistema quede indefinido.

4.3. Postulado fundamental


El operador ρ̂ que caracteriza el equilibrio estadı́stico de un sistema fı́si-
co es aquel que maximiza la entropı́a S(ρ̂), teniendo en cuenta los vı́nculos
impuestos por nuestra información sobre el sistema.

En las situaciones tı́picas de las diversas colectividades tenemos el operador de


densidad
ρ̂ = ρ̂({hXi i}, {Xj }) (i = 0, 1, . . . , k; j = k + 1, k + 2, . . . )
y debemos por lo tanto maximizar S = −kTrρ̂ ln ρ̂ con las ligaduras:

Trρ̂ = 1
Trρ̂Xi = hXi i (i = 0, 1, . . . , k)

donde hemos considerado {Xj } fijas (j = k + 1, k + 2 . . . ).


5 En el caso del sistema tener interacciones de largo alcance, las relaciones de Gibbs-Duhem

deberán de ser reformuladas.


4.3 Postulado fundamental 93

Colectividad Microcanónica
En un sistema aislado, el conocimiento exacto de {Xi } (i = 0, 1, 2, . . . ) determina
un subespacio de Hilbert de dimensión W , y por lo tanto el postulado fundamental
implica que todos los estados compatibles con magnitudes conocidas son equiprobables:
1 ˆ
ρ̂ = I
W
S = k ln W
donde Iˆ es el operador identidad.

Colectividad Canónica
En un sistema en equilibrio térmico, el conocimiento de hHi y de {Xi } (i = 1, 2, . . . )
nos lleva a maximizar la entropı́a S = −kTrρ̂ ln ρ̂ con las ligaduras:

Trρ̂ = 1
Trρ̂H = hHi = constante

Colectividad Macrocanónica
En un sistema en equilibrio más amplio que el térmico, el conocimiento de hHi,
{hXi i} (i = 0, 1, 2, . . . , k) y {Xj } (j = k + 1, k + 2, . . . ), lleva a maximizar la entropı́a
S = −kTrρ̂ ln ρ̂ con las ligaduras:

 Trρ̂ = 1
Trρ̂H = hHi = constante

Trρ̂Xi = hXi i = constante, (i = 1, 2, . . . , k)

Algunos comentarios
Se demuestra que todas las colectividades convergen en el lı́mite termodinámi-
co (esto es, hN i → ∞), a un lı́mite común, el de la termodinámica6 . Esto es natural,
ya que las colectividades difieren sólo en la medida en que las fluctuaciones de {Xi }
son importantes, pero
hXi i ∝ hN i ∀i
h(Xi − hXi i)2 i ∝ hN i ∀i
por lo tanto
p p
∆Xi h(xi − hxi i)2 i hN i 1
= ∝ = p → 0
hXi i hXi i hN i hN i N → ∞

Es posible además deducir todas las distribuciones estadı́sticas partiendo


de cualquiera de estas colectividades, en particular aquellas del gas ideal (M-B, F-D,
B-E, L-B, paraestadı́sticas).
A partir de ahora identificaremos k como la constante de Boltzmann, esto es,
k ≡ kB . De este modo, la temperatura estadı́stica coincidirá con la temperatura ter-
modinámica, tal como se comprobará más adelante.
6 Esto no tiene por qué ser cierto cuando las interacciones del sistema son de largo alcance,

caso en el que los resultados de las distintas colectividades no necesariamente coinciden.


94 Colectividades y distribución de Boltzmann-Gibbs

4.4. Colectividad Microcanónica


Sea un sistema aislado para el que disponemos de un conocimiento perfecto de las
variables extensivas (U, Xi ), (i = 1, 2, . . . ), siendo U el valor de la energı́a total del
sistema. A partir del operador densidad, podemos calcular la entropı́a:


ρ̂({Xi }) = → S({Xi }) = kB ln W ({Xi })
W ({Xi })

El valor la energı́a total del sistema aislado U deberá ser necesariamente un autovalor
del Hamiltoniano H.
Tenemos la siguiente definición de la temperatura T :

1 ∂S
= (U, X1 , X2 , . . . ) (4.2)
T ∂U X1 ,X2 ,...

De forma general, la variable intensiva Yi , termodinámicamente conjugada de Xi ,


está definida por:

Yi ∂S
≡− (U, X1 , X2 , . . . ) ∀i (4.3)
T ∂Xi U,X1 ,...,Xi−1 ,Xi+1 ,...

En el caso de un fluido homogéneo e isótropo:



1 ∂S
= (U, V, N ) (4.4)
T ∂U V,N

p ∂S
− = − (U, V, N ) (p ≡ presión) (4.5)
T ∂V U,N

µ ∂S
= − (U, V, N ) (µ ≡ potencial quı́mico) (4.6)
T ∂N U,V

Calor especı́fico
Calculamos el calor especı́fico a volumen constante:

1 ∂S
(4.4) → = (U, V, N ) ≡ f (U, V, N ) → U = U (T, V, N ) (4.7)
T ∂U V,N | {z }
(4.7)

∂U
→ CV = (T, V, N )
∂T V,N

Y de forma general:

1 ∂S
(4.2) → = (U, X1 , X2 , . . . ) ≡ f (U, X1 , X2 , . . . )
T ∂U X1 ,X2 ,...

∂U
→ U = U (T, X1 , X2 , . . . ) → CX1 ,X2 ,... = (4.8)
| {z } ∂T X1 ,X2 ,...
(4.8)
4.4 Colectividad Microcanónica 95

Ecuación de estado
Para calcular la ecuación de estado:

∂S
(4.5) → p=T (U, V, N ) ≡ p(T, U, V, N )
∂V U,N

= p(T, U (T, V, N ), V, N ) = p(T, V, N )


usando (4.7)

donde por simplicidad continuamos llamando p a esta nueva forma funcional.


Pero por causa de la homogeneidad asociada a la extensividad-intensividad, nece-
sariamente:  
V
p = p T,
N
y por lo tanto, se tiene la ecuación de estado:

V
= g(T, p) (4.9)
N

En el caso particular de un gas ideal clásico, tenemos


V
= kB T /p
N
De manera general tenemos

∂S
(4.3) → Yi = −T (U, X1 , X2 , . . . , XM )
∂Xi U,X1 ,...,Xi−1 ,Xi+1 ,...

= Yi (T, U, X1 , . . . , XM ) = Yi (T, U (T, X1 , X2 , . . . , XM ), X1 , . . . , XM )


usando (4.8)
= Yi (T, X1 , X2 , . . . , XM )
 
X1 X2 XM −1
= Yi T, , ,..., , (i = 1, 2, . . . , M )
XM XM XM

Considerando el sistema de (M − 1) ecuaciones:



X1 XM −1

 Y1 = Y1 (T, ,..., )


 XM XM
..
 .

 X1 XM −1

 YM −1 = YM −1 (T, ,..., )
XM XM
podemos resolver y calcular las (M −1) incógnitas, para obtener el juego de ecuaciones
de estado del sistema:

X1

 = g1 (T, Y1 , . . . , YM −1 )


 X M
.. (4.10)
 .

 X
 M −1
 = gM −1 (T, Y1 , . . . , YM −1 )
XM
96 Colectividades y distribución de Boltzmann-Gibbs

Potencial quı́mico
Calculamos el potencial quı́mico, a partir de la expresión general:


∂S
(4.6) → µ = −T (U, V, N ) = µ(T, U, V, N ) = µ(T, U (T, V, N ), V, N )
∂N U,V usando (4.7)
 
N
= µ(T, V, N ) = µ T,
V

y de este modo aparece de forma natural la dependencia del potencial quı́mico respecto
con la concentración y la temperatura.
De forma general, llamando XM ≡ N , tenemos

∂S
(4.3) → µ = −T (U, X1 , X2 , . . . , N ) = µ(T, U, X1 , X2 , . . . , N )
∂N U,X1 ,...,XM −1

= µ(T, U (T, X1 , . . . , N ), X1 , X2 , . . . , N )
usando (4.8)
 
X1 X2 XM −1
= µ(T, X1 , X2 , . . . , N ) = µ T, , ,..., (4.11)
N N N

apareciendo ası́ su dependencia en la temperatura y en todas las variables densidad


independientes del sistema considerado.

Otras magnitudes termodinámicas


Como hemos visto, la Mecánica Estadı́stica permite obtener funciones que eran
inaccesibles en el formalismo de la Termodinámica, tales como el calor especı́fico,
las ecuaciones de estado, el potencial quı́mico, y otras magnitudes que derivan de
ellas: susceptibilidad, comprensibilidad, coeficiente de electro(magneto)constricción,
constantes elásticas, coeficiente piezoeléctrico (magnético), etc.
Para ilustrar este hecho, trataremos con detalle una de estas magnitudes a conti-
nuación.

Ejemplo: Sea un sistema formado por N spines– 12 independientes y discernibles


(por estar localizados), en la presencia de un campo magnético externo H.

N = N↑ + N↓
(4.12)
U = −µH(N↑ − N↓ )

donde µ es el momento dipolar magnético (µ > 0). Por lo tanto:



N U
 N = −
 ↑

 2 2µH
(4.13)


 N U
 N↓ = +
2 2µH
4.4 Colectividad Microcanónica 97

a) Cálculo de la entropı́a mediante el recuento de configuraciones posibles:


N!
W = ⇒ S = kB ln W = kB {ln N ! − ln N↑ ! − ln N↓ !}
N↑ !N↓ !

∼ kB {N ln N − N↑ ln N↑ − N↓ ln N↓ }
Stirling
de donde, la entropı́a:
       
1 U/N 1 U/N 1 U/N 1 U/N
S = −kB N − ln − + + ln +
2 2µH 2 2µH 2 2µH 2 2µH
(4.14)
b) Cálculo de la entropı́a mediante el cálculo de probabilidades de los posibles
estados: 
N↑ 1 U/N
 p ≡ = −
 ↑

 N 2 2µH

 p↓ = N↓ ≡ 1 + U/N


N 2 2µH
Por lo tanto, el cálculo de la entropı́a, haciendo uso de su extensividad, nos
conduce al mismo resultado (4.14):
S = N S1 = −kB N {p↑ ln p↑ + p↓ ln p↓ }
       
1 U/N 1 U/N 1 U/N 1 U/N
= −kB N − ln − + + ln +
2 2µH 2 2µH 2 2µH 2 2µH

Figura 4.1: Dependencia de la entropı́a S con la energı́a interna U , a campo H cons-


tante y positiva (H > 0).

En la Fig. 4.1 se observan los posibles valores de la entropı́a S a campo H


constante (H > 0). Obsérvese que podrı́amos entonces pasar de estados con
temperatura positivas a estados de temperatura negativa, mediante alguno de
los dos procesos esquematizados en la figura Fig. 4.2.
Se constata que a T finito, S depende de H, pero en el lı́mite T → ±∞, S =
kB N ln 2 no depende de H (desorden total).
La expresión (4.14) presenta un aspecto “anormal” ya que S = S(U, N, H) y H
es una variable intensiva: la razón es que hemos “cortocircuitado” el cálculo par-
cialmente, ya que podemos presentar como información primitiva (U, N↑ , N↓ ),
98 Colectividades y distribución de Boltzmann-Gibbs

Figura 4.2: Paso de estados a temperatura positiva hacia estados con temperatura
negativa.

pero ello conduce inmediatamente (haciendo uso de (4.12)) al conocimiento de


H. Otra forma de afrontar esta “distorsión” consiste en incorporar H en µ, y
considerar µH como un parámetro –además único– del problema.
c) Cálculo de la energı́a interna U (T ):
U/N
1−
1 ∂S kB µH U µH
= = ln ⇒ = −µH tanh
T ∂U 2µH U/N N kB T
1+
µH
La extensividad de U queda demostrada, ası́ como su invarianza respecto a la
inversión del eje Z k H, y respecto a la inversión del momento magnético:

U (H) = U (−H)
U (µ) = U (−µ)
Podemos decir que la temperatura T y el campo H, son fuente de desorden y
de orden, respectivamente.

T = “fuente de desorden”
H = “fuente de orden”

U
U
N H (H fijo >0) (T fija >0)

k T/
B

H/k
B

punto de inflexión
- N H punto de inflexión

Figura 4.3: Dependencia de la energı́a interna con la temperatura T a campo fijo, y


el campo H a temperatura constante.

d) Cálculo del calor especı́fico:


2 
µH
∂U kB T
C= = N kB   ≥ 0 ∀(T, H, µ)
∂T µH
cosh2
kB T
4.4 Colectividad Microcanónica 99

donde C es una magnitud extensiva, con dimensión de energı́a, y par respecto


de la temperatura:
[C] = [kB ] = Joule/o K en MKS
C(T ) = C(−T ) función par de T

Figura 4.4: Calor especı́fico, en unidades de Boltzmann, en función de la temperatura


T . Obsérvense los rangos de temperatura en los que se hace vigente el régimen cuántico
o el régimen clásico.

Es conveniente mencionar algunos hechos significativos que se ilustran en la


Fig. 4.4, en la que aparece la dependencia del calor especı́fico con la tempera-
tura. Obsérvese el máximo en T ≈ µH/kB , que lleva el nombre de anomalı́a de
Schottky, y que es tı́pico de cualquier espectro de niveles energéticos acotado
superiormente, aparececiendo en particular en el problema de defectos crista-
linos puntuales. Respecto al su comportamiento asintı́tico, el hecho de que el
calor especı́fico se aproxime al cero a bajas temperaturas ( lı́mT →0 C(T ) = 0),
resulta perfectamente normal y está en acuerdo con el tercer principio de la Ter-
modinámica. Ahora bien, el que lo haga también para temperaturas muy altas
(lı́mT →∞ C(T ) = 0) es una anomalı́a poco frecuente. De hecho, el comporta-
miento del calor especı́fico cuando T → ∞ es tipo 1/T 2 , lo que ocurrirá siempre
que el modelo tenga un espectro no clásico acotado superiormente. Para T → 0,
el comportamiento asintótico es en cambio tipo función de Cauchy, lo que ocu-
rrirá también siempre que exista un gap entre el estado fundamental y el primer
estado.
Vemos ası́ cómo se explica con este ejemplo lo que es un fenómeno más gene-
ral. Comparando kB T con el espectro de un spin, que tiene únicamente dos
estados (fundamental y excitado) se observa que si la energı́a es mucho menor
que la del estado excitado, el sistema “no se percata” de su existencia. Y si
es mucho mayor, no tiene posibilidad de poblar muchos estados respecto a su
energı́a, que por el contrario es alta. De aquı́ el comportamiento cuántico para
ambos extremos. En cambio, para una temperatura intermedia, el calor especı́fi-
co es aproximadamente constante, tal como ocurrirı́a en el caso clásico. Es decir:
100 Colectividades y distribución de Boltzmann-Gibbs

 
 kB T ≪ µH
régimen cuántico (C/N kB ≪ 1)
kB T ≫ µH

kB T ≈ µH} régimen clásico (C/N kB ≈ 1)

e) Ecuación de estado (paramagnetismo de Brillouin)


Partiendo de la energı́a interna

U = −M H

donde M es el momento dipolar magnético total, tenemos la energı́a interna


µH
U = −N µH tanh
kB T
a partir de la que se puede calcular la magnetización M . El comportamiento de
la ecuación de estado que de ella deriva, y que viene reflejado en la Fig. 4.5, es

µH
M = N µ tanh (4.15)
kB T

M M

(T >0 fija) (H >0 fijo)


N N

punto inflexión

H T
k T/ H/k
B B

N N

Figura 4.5: Momento dipolar magnético en función del campo (a temperatura T


constante) y en función de la temperatura (a campo H constante).

Vemos que M = M (T, H) = M (T /H), situación que es es análoga a la “ley de


los estados correspondientes”. Pero no es general, dado que en este caso proviene
de la independencia de los spines.
f) Cálculo de la susceptibilidad isoterma χT :

∂M N µ2
χT (T, H) = (T, H) =  
∂H µH
kB T cosh2
kB T

de donde se tiene la ley de Curie:

N µ2 1
χT (T, 0) = ∝
kB T T
4.5 Distribuciones de equilibrio 101

Figura 4.6: Susceptibilidad isoterma, en función de la temperatura a campo magnético


fijo, H.

χT (T, 0) ∝ 1/T es también la forma asintótica (T → ∞) de cualquier sistema


de spines interactuantes, siempre que las interacciones sean finitas.
En la transición de fase paramagnética ↔ ferromagnética (de segundo orden) es
necesario que se de un comportamiento del tipo que muestra la Fig. 4.7, donde

Figura 4.7: Susceptibilidad isoterma, para d 6= 4, en torno a la transición de fase


ferromagnética a paramagnética. Tc es la temperatura de Curie (γ = 1 si d > 4 y
γ 6= 1 si d < 4). Para d = 4 es necesario añadir una corrección de tipo logarı́tmica,
i.e., χ ∝ t−1 | ln t|1/3 .

Cte
Tc es la temperatura de Curie, y la ley la Ley de Curie-Weiss. Vemos
T − Tc
ası́ que el orden que normalmente se establececı́a a 0o K (tercer principio de
la Termodinámica), aparece “prematuramente” (a T = Tc ) en el caso de una
transición de fase.

4.5. Distribuciones de equilibrio


{Ai } fijados por el termostato o reservorio generalizado (corresponde exactamente
a los {Xi } utilizados hasta ahora; adoptamos el cambio de nomenclatura para evitar
confusiones asociadas a X0 ).
Debemos maximizar
S = −kB Trρ̂ ln ρ̂
102 Colectividades y distribución de Boltzmann-Gibbs

con las ligaduras:



Trρ̂ = 1
Trρ̂Ai = hAi i = fijo (i = 1, 2, . . . , M )

o también, esta última ligadura:

Trρ̂Ai = hAi i (i = 0, 1, 2, . . . , M ), donde A0 ≡ 1̂

Introducimos los parámetros de Lagrange λi , y definimos la función:

M M
S(ρ̂) X X
f (ρ̂) ≡ − λi Ai Tr(ρ̂A1 ) = −Trρ̂ ln ρ̂ − λi Tr(ρ̂A1 )
kB i=0 i=0

cuya diferencial:
" M
! #
X
δf (ρ̂) = −Tr 1 + ln ρ̂ + λi A i δ ρ̂ = 0, ∀δ ρ̂
i=0

y por lo tanto:
PM
ρ̂ = e−1− i=1 λi Ai

Pero PM
Trρ̂ = e−1−λ0 e−1− i=1 λi Ai =1
y por tanto se obtiene la distribución de Boltzmann-Gibbs, donde Z es la función de
partición:
1 h − PM
i=1 λi Ai
i
ρ̂ = e
Z PM (4.16)
Z ≡ Tre− i=1 λi Ai

Función de partición
El cálculo de Z = Z({λi }) es el problema básico de la Mecánica Estadı́stica. Para
ello es preciso:
1) Hallar los valores propios de Ai , ∀i.
2) Efectuar la suma de la traza.

Desigualdad de Bogoliubov generalizada


Se puede demostrar que para cualquier juego {A0i } que nos permita construir un
PM 0
operador ρ̂0 ≡ e− i=1 λi Ai /Z0 , tendremos:

PM
ln Z ≥ ln Z0 − i=1 λi hAi − A0i i0 (4.17)

que es la desigualdad de Bogoliubov generalizada, donde h(. . . )i0 ≡ Trρ̂0 (. . . ).


Esta desigualdad conduce al llamado Método Variacional, de amplio uso para el
tratamiento aproximado de problemas de mecánica estadı́stica.
4.5 Distribuciones de equilibrio 103

Parámetros de Lagrange
{λi } y {hAi i} están directamente ligadas a las variables intensivas y extensivas
(respectivamente) de la Termodinámica. En particular, tenemos que:
1 h PM i
hAi i = Trρ̂Ai = Tr e− i=1 λi Ai Ai
Z
1 ∂ PM
1 ∂Z
= − Tre− j=1 λj Aj = −
Z ∂λi Z ∂λi
por lo tanto, las ecuaciones de estado:


hAi i = − ln Z({λj }) ∀j (4.18)
∂λi
y por inversión podemos obtener

λi = λi ({hAj i}) ∀j (4.19)

El reservorio fija {hAj i} y por lo tanto {λj }.

Correlaciones
Las correlaciones entre constantes de movimiento:
1 h PM i 1 ∂2Z
hAi Aj i = Trρ̂Ai Aj = Tr e− k=1 λk Ak Ai Aj = ∀(i, j)
Z Z ∂λi ∂λj
Y las correlaciones de las fluctuaciones:
hMij i ≡ h(Ai − hAi i)(Aj − hAj i)i = hAi Aj i − hAi ihAj i
  
1 ∂2Z ∂ ∂
= − ln Z ln Z
Z ∂λi ∂λj ∂λi ∂λj
∂ 2 ln Z
= ∀(i, j) (4.20)
∂λi ∂λj
y dado que ln Z es extensiva, Mij también.
La matriz {Mij } es además definida positiva (todos sus valores propios son posi-
tivos):
M ! M
! 2
X X X

Mij xi xj = h Ai xi − h Ai xi i i ≥ 0, ∀{xi }

i,j i=1 i=1

Como veremos más adelante, esta positividad indica la estabilidad del sistema en
relación a las fluctuaciones de {Ai } (energı́a, volumen, número de partı́culas, etc).
Diremos que:

ln Z es función convexa de los {λj } (4.21)


o también, usando (4.18), que:

∂hAi i
es una matriz definida negativa (4.22)
∂λj
∂hAi i
esto es, que si Mij = Mii δij entonces < 0 ∀i.
∂λi
Ejemplos de consecuencias:
104 Colectividades y distribución de Boltzmann-Gibbs


∂S ∂U
CV ≡ T − = >0
∂T V ∂T V

∂S ∂H
Cp ≡ T = > CV , donde H es la entalpı́a
∂T p ∂T p

1 ∂V
Compresibilidad: αT ≡ >0
V ∂p T


µ(T, N/V ) > 0
∂(N/V ) T

Entropı́a de equilibrio

M
! M
S X X
({hAi i}) = −Trρ̂ ln ρ̂ = Trρ̂ ln Z + λi A i = ln Z({λi }) + λi hAi i (4.23)
kB i=1 i=1

y por lo tanto la transformación que permite pasar de ln Z({λi }) a S({Ai }) y viceversa,


es la transformación de Legendre.
La derivada de la entropı́a

M M
dS X X
= d(ln Z) + hAi idλi + λi dhAi i
kB i=1 i=1
M   M
X ∂ ln Z X
= + hAi i dλi + λi dhAi i
i=1
∂λi i=1

M
X
= λi dhAi i
(4.18) i=1

Ello implica que:


1 ∂S({Aj })
= λi ∀i (4.24)
kB ∂hAi i

Esta propiedad es simétrica de (4.18) y corresponde a las definiciones (4.2) y (4.3) con:

 λ1 = 1/kB T
Yj
 λj = (j = 2, 3, . . . , M )
kB T

Dı́cese que λi y hAi i son canónicamente (termodinámicamente) conjugadas en relación


a S/kB y ln Z. No confundir con el concepto mecánico de canónicamente conjugado
que verifican las variables mecánicas (X, p), (θ, L), etc.
Ahora, el sentido es aquél en relación al cual p y ẋ son canónicamente conjugados
4.5 Distribuciones de equilibrio 105

en relación a H(p, x) y L(ẋ, x) con la asociación:

H → S/kB
L → − ln Z
p → hAi i
ẋ =→ λi
H = −L + ẋp → (4.23)

∂H
ẋ = → (4.24)
∂p

∂L
p= → (4.18)
∂x

Otro ejemplo:
F = U − TS
dU = T dS
dF = −Sdt
por lo tanto T y S son termodinámicamente conjugadas en relación a U y F . Vemos
también que la ecuación (4.23) implica:

S P ∂

 = ln Z − M i=1 λi ln Z
kB ∂λi (4.25)
S P ∂S/k B
 ln Z =
 − i hAi i
kB ∂hAi i

y también que
∂ 2 S/kB ∂λi ∂λj
= = < 0 ∀(i, j)
∂hAi i∂hAj i ∂hAi i ∂hAj i
(4.22)
por lo tanto
S es función cóncava de los {hAi i} (4.26)

∂2S
Ejemplo: < 0, y para ello ver ejemplo de los spines en la sección (4.4).
∂U 2

Equilibrio termodinámico
Coloquemos en contacto termodinámico dos sistemas Σ1 y Σ2 , esto es, permitamos
transferencias entre ellos de todas las magnitudes extensivas respectivas {A1i } y {A2i }.
Entonces:
hA1i i + hA2i i = hAti i = fijo ∀i
| {z } |{z}
fluctúan total
por lo tanto
dhA1i i + dhA2i i = 0 ∀i
Por otro lado

St( {hA1i i} ) = S1 ({hA1i i}) + S2 ({hA2i i})


| {z }
las {hA1
i
i} dependen de estas
106 Colectividades y distribución de Boltzmann-Gibbs

por lo tanto

∂S t
equilibrio ⇔ S t máximo ⇔ = 0 ∀i
∂hA1i i
∂S1 ∂S2 dhA2i i ∂S1 ∂S2
⇔ 1
+ = −
∂hAi i ∂hA2i i dhA1i i ∂hA1i i ∂hA2i i
1
= (λ1 − λ2i ) = 0
kB i
esto es:
Σ1 y Σ2 en equilibrio ⇔ λ1i = λ2i ∀i (4.27)
Ejemplos:
Equilibrio térmico ⇔ T1 = T2
Equilibrio térmico-mecánico ⇔ T1 = T2 y p1 = p2
Equilibrio térmico-quı́mico ⇔ T1 = T2 y µ1 = µ2

4.6. Colectividad Canónica


Tenemos un único parámetro de Lagrange λ1 ≡ β ≡ 1/kB T

 e−βH
(4.16) → ρ̂ =
Z −βH P P
 Z ≡ Tre = estados e−βEm = niveles gm e−βEm

También:
∂ ln Z
U ≡ hHi = − (4.28)
∂β
(4.18)

S = kB ln Z + kB βU (4.29)
(4.23)
De donde la energı́a libre de Helmholtz y el calor especı́fico:

1
F ≡ U − TS = − ln Z (4.30)
β

∂U 1 ∂U ∂ 2 ln Z
CV ≡ =− = kB β 2 (4.31)
∂T kB T 2 ∂β ∂β 2
(4.28)
= kB β 2 h(H − U )2 i

Fluctuaciones
Para todo Ai 6= H, tenemos que

∂ 2 ln Z(β, {λi })
6= h(Ai − hAi i)2 i = 0
∂λ2i
4.6 Colectividad Canónica 107

Termodinámica
S
Maximizar S con el vı́nculo Trρ̂H = U equivale a maximizar sin vı́nculo − βU ,
kB
lo que equivale a maximizar T S − U , y por lo tanto a minimizar F ≡ U − T S. De este
modo, se obtiene el resultado tradicional de la Termodinámica.
T → 0 ⇒ F ≈ U ⇒ debemos minimizar U (solamente el nivel fundamental
está muy poblado).
T → ∞ ⇒ F ≈ −T S ⇒ debemos maximizar S (todos los estados son casi
equiprobables).
Podemos escribir simbólicamente:
lı́m Canónico = Microcanónico
T →∞

(Sistema a T → ∞) ≈ Sistema aislado

Espectros energéticos en mecánica cuántica

ρ̂ ∝ e−βH ⇒ pm ∝ e−βEm
Por lo tanto
Si T > 0(< 0), cuanto menor (mayor) sea Em , más poblado está.
Si T = +0(−0), solamente el nivel fundamental (“antifundamental”) está po-
blado.
Todos los sistemas conocidos tienen espectro energético limitado inferiormente;
pero en lo que se refiere al lı́mite superior, éste puede existir (por ejemplo, spines, E ∝
Sz ) o p
no (por ejemplo, partı́cula libre no relativista, E ∝ n2 ; partı́cula libre relativista,
E ∝ (Cte) + (Cte)n2 ; oscilador ármónico, E ∝ n, rotor rı́gido con E ∝ l(l + 1);
etc). Todos los espectros tienen por lo menos una (frecuentemente única) energı́a
caracterı́stica ǫ, como por ejemplo, la diferencia de energı́a entre el nivel fundamental
y el primer nivel excitado:

Para un espectro sin lı́mite superior, se obtiene la forma tı́pica de la Fig. 4.8 .
Un espectro con lı́mite superior (situado a una energı́a ǭ sobre el fundamental)
implica, como forma tı́pica, la que puede observarse en la Fig. 4.9. Frecuentemente
ǫ ≈ ǭ.
El régimen clásico o cuántico, corresponde a la rangos de la energı́a:

kB T ≪ ǫ
régimen cuántico
kB T ≫ ǭ

ǫ / kB T / ǭ} régimen clásico


108 Colectividades y distribución de Boltzmann-Gibbs

Figura 4.8: Espectro sin lı́mite superior.

Figura 4.9: Espectro con lı́mite superior.

tales que, de manera general:


T , tal que en el intervalo kB T ± δE tiene niveles energéticos, provoca un com-
portamiento clásico.
T , tal que en el intervalo kB T ± δE no tiene niveles energéticos, provoca un
comportamiento cuántico, donde δE ≪ kB T .

Sistema de N partı́culas idénticas discernibles (localizadas), indepen-


dientes
El Hamiltoniano:
N
X
HN = Hi ([Hi , Hj ] = 0 ∀(i, j))
i=1

donde
ǫin ≡ expectro de 1 partı́cula
N
X
Em ≡ expectro de N partı́culas = ǫin
i=1

La función de partición:
N
Y N
Y N
Y
ZN = TrN e−βHN = TrN e−βHi = Tr1 e−βHi = Z1 = ZiN (4.32)
i=1 i=1 i=1
4.6 Colectividad Canónica 109

por lo tanto:


 SN = N S1

UN = N U1

 FN = N F1

CN = N C1

En el caso de que las partı́culas fueran deslocalizadas, podemos (en determinados


lı́mites) considerar:
1 N
ZN ≈ Z (4.33)
N! 1

Aplicación de la colectividad canónica


1
Consideremos un sistema formado por N spines- independientes y discernibles,
2
en la presencia de un campo magnético H.

ǫ = ±µH ⇒ Z1 = e−βµH + eβµH = 2 cosh βµH



⇒ U1 = − ln Z1 = −µH tan βµH
∂β
⇒ UN = −N µH tanh βµH

reobteniendo ası́, de forma mucho más rápida, el resultado del apartado (4.4). Esta es
la razón por la cual la colectividad canónica es, desde el punto de vista operacional,
mucho más amable que la microcanónica.

Colectividad canónica como subsistema de la microcanónica


Considérese, según el esquema:






a = sistema
a + b = aislado
b = termostato  | {z }
| {z }

 microcanónico

canónico

a
Em + Enb = U = fijo, conEnb ≪ Em
a

X 1
ρ̂a+b = |mn > < mn|
a +E a =U
Em
W a+b
n
X
⇒ ρ̂a ≡ Trb ρ̂a+b = |m > pm < m|
m

donde
Wb
pm =
W
110 Colectividades y distribución de Boltzmann-Gibbs

con

Wb ≡ a
número de estados del sistema b cuya energı́a vale (U − Em )
a
= exp {Sb (U − Em )/kB }
 
∂Sb (U ) a
= exp [Sb (U ) − Em + . . . ]/kB ]
∂U
 a

∂Sb (U ) Em a
∝ exp − = e−Em /kB T
∂U kB

donde
1 ∂S(U )

T ∂U
por lo tanto a
pm ∝ W b ∝ e−Em /kB T
que es la destribución de la colectividad canónica.
Análogamente, la colectividad macrocanónica puede entenderse como un pequeño
subsistema del canónico (o del microcanónico). Ejemplifiquémoslo en una serie de
ejemplos.

1
Ejemplo A) Considérese A + B, sistema aislado de spines- discernibles e inde-
2
pendientes:

A = 1 spin → ǫA = ±µH
B = 3 spines → ǫB = ±3µH, ±µH
Si A está aislado de B entonces P (A)(↑) = PA (↓) = 1/2
Si A está en contacto térmico con B, y sabemos que ǫA+B = −2µH, las probabilidades
(ver Tabla 4.1):
 
 pA (↑) = 3  pA (↓) 1
4 ⇒ =
 pA (↓) = 1  pA (↑) 3
4

A B
↑ ↑↑↓
↑ ↑↓↑
↑ ↓↑↑
↓ ↑↑↑

1
Cuadro 4.1: Tabla de poblaciones posibles para los spines- .
2

Ejemplo B) Considérese el sistema A + B aislado:



A = 1 spin → ǫA = ±µH
B = N spines → ǫB = ±N µH, ±(N − 2)µH, . . .
4.6 Colectividad Canónica 111

A B

N!
↑ ↑ ... ↑ ↓ ... ↓ → posibilidades
| {z } | {z } (n − 1)!(N − n + 1)!
n−1 N −n+1
N!
↓ ↑ ... ↑↓ ... ↓ → posibilidades
| {z } | {z } n!(N − n)!
n N −n

1
Cuadro 4.2: Tabla de poblaciones posibles para los N spines- .
2

Si sabemos que de los (N + 1) spines hay n ↑ y (N + 1 − n) ↓, y por lo tanto ǫA+B =


(−2n + N + 1)µH es fijo, entonces (ver Tabla 4.2):
pA (↓) N −n+1 N −n
= ∼ ( si n ≫ 1 y N − n ≫ 1)
pA (↑) n n
donde, para el caso particular N = n = 3, recuperamos los resultados del primer
ejemplo.

Ejemplo C) Consideremos el sistema A + B aislado


(
A = sistema de espectro de energı́as ǫr ≥ 0, no degenerado
1
B = N spines−
2
donde ǫr = 0 es el nivel fundamental, y ǫr = 2µH∆n. Admitimos ǫ1 /µH ≫ 1, y por
tanto ∆n = número entero. Ahora, las probabilidades son (ver Tabla 4.3):

A B

N!
0 ↑ ... ↑↓ ... ↓ → posibilidades
| {z } | {z } n!(N − n)!
n N −n
N!
ǫr ↑ ... ↑ ↓ ... ↓ → posibilidades
| {z } | {z } (n + ∆n)!(N − n − ∆n)!
n+∆n N −n−∆n

1
Cuadro 4.3: Tabla de poblaciones posibles para los spines- .
2

 ∆n
pA (ǫr ) n!(N − n)! N −n
= ∼ ( si 1 ≪ ∆n ≪ n)
pA (0) (n + ∆n)!(N − n − ∆n)! n
y por lo tanto se obtiene la distribución canónica (!):
 ∆n N −n ǫr n
ln
N −n ∆n ln
2µH N − n = e−βǫr
pA (ǫr ) ∝ =e n =e
n
112 Colectividades y distribución de Boltzmann-Gibbs

1 n
β≡ ln
2µH N −n
A conoce B únicamente a través de β (concepto de termostato);
La población de los niveles de A está controlado por B;
A pesar de la independencia de las partı́culas, nuestro razonamiento ha adquirido
una forma sutil de interacción, “suficientemente pequeña para no alterar los es-
pectros energéticos, pero suficientemente fuerte como para permitir el equilibrio
térmico”.
Obsérvese la Fig. 4.10, en la que µH es fijo:

Figura 4.10: Inverso de la temperatura con la población, a campo fijo.

4.7. Colectividad Macrocanónica


Analizaremos ahora la colectividad macrocanótipo potencial quı́mico (o tipo pre-
sión y otros, que se tratan de forma análoga).
Conocemos U ≡ hHi y N ≡ hN̂ i (Ĥ ≡ ⊕N ĤN opera en un espacio de Fock).
 P
U = Trρ̂Ĥ = N ′ TrN ′ ρ̂N ′ HN ′
P
N = Trρ̂N̂ = N ′ TrN ′ ρ̂N ′ N ′

Tenemos dos parámetros de Lagrange: λ1 ≡ β ≡ 1/kB Y y λ2 ≡ −βµ, donde µ es


el potencial quı́mico, o propensión a ceder partı́culas.


 ρ̂ = − 1 e−β(Ĥ−µN̂ )
(4.16) ⇒ Ξ P P (N ) P
Ξ(βµ) ≡ Tre−β(Ĥ−µN̂ ) = N eβµN m e−βEm = N eβµN ZN

4.7 Colectividad Macrocanónica 113

donde m son los estados de ĤN y Ξ es la transformada de Laplace de Z.


También:


U = − ln Ξ (4.34)
∂β βµ fijo

∂ 1 ∂
N = ln Ξ = ln Ξ (4.35)
∂(βµ) β fijo
β ∂µ β
U µ
S = kB ln Ξ + − N (4.36)
T T
Y ≡ U − T S − µN = −kB T ln Ξ (4.37)

donde Y es un potencial termodinámico.


La diferenciación de (4.36) conduce a

∂S 1 ∂S µ
= y =−
∂U T ∂N T
en concordancia con las definiciones introducidas en la colectividad macrocanónica.
Diferenciando (4.34) obtenemos dU = T dS + µdN , por lo tanto µ es la energı́a que
aporta al sistema el ingreso de una partı́cula, y:

µ = 0 ⇔ el número de partı́culas puede fluctuar sin restricciones

Ejemplos:
Fotones y en general cuasipartı́culas (distribución de Plank del cuerpo negro).
Transiciones de fase: condensado de Einstein.
De manera simbólica podemos escribir:

lı́mµ→0 (Macrocanónica) = Canónica

N partı́culas idénticas localizadas e independientes

X X N X
Ξ= eβµN Z1N = eβµ Z1 = ΞN
1
N N N

donde X
Ξ1 ≡ e−β(Em −µ)
estados de
1 partı́cula
tenemos por lo tanto, en este caso, que µ es el desplazamiento en energı́a (debido al
reservorio de partı́culas) del espectro de cada partı́cula.

Cálculo de Ξ
En el cálculo de Ξ es natural introducir los operadores de creación y destrucción
a+ , a− , lo que permite vincular la Mecánica Estadı́stica a la Teorı́a de Campos.
114 Colectividades y distribución de Boltzmann-Gibbs

Correlaciones de las fluctuaciones


Tenemos:
∂ 2 ln Ξ
h(Ĥ − U )2 i =
∂β 2 βµ fijo

∂ 2 ln Ξ
h(N̂ − N )2 i = 2 2
β ∂µ β fijo

Fluido con r especies de moléculas


Se no existen reacciones quı́micas entre ellas:
ˆ
Ξ(β, µ1 , . . . , µr ) = Tre−β(Ĥ−µ1 N̂ −···−µr Nr )

Si por el contrario existen reacciones quı́micas, aparece una problemática nueva


(que veremos posteriormente) ligada al hecho de que ahora debemos fijar el número
de átomos de un tipo dado, y no el número de moléculas. Por ejemplo:

AB ⇋ A + B

total = fijo
NA (A atómico ) + NA (A en AB) = NA
total = fijo
NB (B atómico ) + NB (B en AB) = NB
| {z }
fluctúan
En el caso de que las reacciones sean nucleares, lo que se conserva es el número de
partı́culas elementales y no el número de átomos. Por ejemplo:

p + e− ⇋ n + ν

4.8. Distribuciones de equilibrio clásicas


 1 P N
pj }) = e− i λi Ai ({~rj },{~pj })
 ρ̂N ({~rj }, {~

Z

 P R P N
ZN ({λi }) ≡ N dτN e− i λi Ai ({~rj },{~pj })
Colectividad canónica 
1
 ρ̂N = e−βHN

Z

 R
Z(β) ≡ dτN e−βHN
Colectividad macrocanónica (tipo µ):

1
 ρ̂N = e−β(HN −µN)

Ξ

 P R
Ξ(β, µ) ≡ N eβµN dτN e−βHN

Ejemplo A - Gas ideal monoatómico (colectividad canónica)


4.8 Distribuciones de equilibrio clásicas 115

Para calcular la función de partición, consideramos primero una única partı́cula


comprendida en un segmento de longitud L (d es la dimensión):

Z Z βp2 r Z r
dx dp − L 2m ∞ 2 L 2πm
Z1 (d = 1) = e 2m = dye−y =
h h β ∞ h β

de donde se tiene que, si se encuentra en un cubo de arista L (d = 3):


 3/2
3 V 2πm
Z1 (d = 3) = [Z1 (d = 1)] = 3
h β

y para un gas constituı́do por N partı́culas:


 3N/2
VN 2πm
ZN (d = 3) =
N !h3N β
A partir de la función de partición, calculamos la energı́a libre y comprobamos que
depende unicamente de T :
∂ 3N 3
UN = − ln ZN = = N kB T
∂β 2β 2
Por lo tanto:
∂U 3
CV = = N kB
∂T V 2
Tenemos también, para la energı́a de Helmholtz y la entropı́a:
 
V 3
FN = −kB T ln ZN = −kB T N ln + ln T + Cte
N 2
 
UN − FN V 3
SN = = kB N ln + ln T + Cte
T N 2
y para la ecuación de estado:

p ∂S ∂S kB N
= = = ⇒ pV = N kB T = nRT
T ∂V U,N ∂V T,N V

 n ≡ N/N = número de moles
donde R ≡ N kB = constante universal de los fases

N = número de Avogadro

Ejemplo B - Podemos generalizar estos resultados, para obtener el calor especı́fico


de N osciladores en un medio d-dimensional no isótropo, sometidos a la superposición
de potenciales direccionales anarmónicos (ver [17, 18, 19]).
El Hamiltoniano, en este caso, puede escribirse como
d 
N X 
X (piα )2
H= + aα |xiα |να (4.38)
i=1 α=1
2miα

donde xiα y piα son, respectivamente, la α-ésima componente del vector posición (~xi )
y la α-ésima componente del momento (~ pi ) para el i-ésimo oscilador; miα son los
116 Colectividades y distribución de Boltzmann-Gibbs

elementos de un tensor de masa efectiva para i-ésimo oscilador; aα , να son constantes,


en general diferentes para cada valor del ı́ndice direccional α. Situaciones de este tipo
podrı́an encontrarse en algunos problemas de estado sóido.
Puede demostrarse que el calor especı́fico obedece a la ecuación generalizada
d
!
d X 1
C = N kB + (4.39)
2 α=1 να
Capı́tulo 5

Termodinámica Clásica: un
caso particular

Durante este capı́tulo estudiaremos la conexión entre la Mecánica Estadı́stica de


Boltzmann-Gibbs y la Termodinámica Clásica. El nacimiento de la Termodinámica
es anterior al de la Mecánica Estadı́stica, siendo debido al estudio de la energı́a (del
griego “en”, dentro, y “ergon”, acción, trabajo) y de la entropı́a (del griego “en”–
“tropos”, configuración)1 . Formulada hace ya 150 años, fue sólo posteriormente esta-
blecida axiomáticamente por Caratheodory (1873–1950).
Dado que la Termodinámica es una de las áreas de la Fı́sica que resulta ya in-
cuestionable por encontrarse totalmente asentada y sus relaciones ser generales, la
Mecánica Estadı́stica no podrá contradecir ninguno de sus principios2 . De ahı́ que
en este momento resulte especialmente oportuno estudiarlos, excluyendo únicamente
la relación de reciprocidad de Onsager (para sistemas fuera del equilibrio), que en
ocasiones es denominada cuarta ley de la Termodinámica3 .
Resulta además oportuno subrayar que existen muchos objetivos que la Termo-
dinámica no consigue alcanzar, como por ejemplo el cálculo de los calores especı́ficos
ya sea a volumen o a presión constante. Ello es debido a que la Termodinámica sólo
consigue establecer relaciones entre magnitudes termodinámicas, no calcularlas. En
consecuencia, la Termodinámica precisa de la Mecánica Estadı́stica para, como vere-
1 El concepto de entropı́a como función termodinámica, fue introducida por Clausius alre-

dedor de 1865. Diez años después Boltzmann introducirı́a su celebrada expresión S = kB ln W ,


ligando de este modo la entropı́a a la idea de configuración o complexión.
2 Cuando hablamos aquı́ de la Mecánica Estadı́stica, nos referimos siempre a la Mecánica

Estadı́stica de Boltzmann-Gibbs. Sin embargo, aunque ésta es suficiente para satisfacer la


Termodinámica, no parece ser necesaria: por ejemplo, la ası́ llamada Mecánica Estadı́stica no
extensiva [9], generalización de la Mecánica Estadı́stica de Boltzmann-Gibbs, también parece
satisfacerla. Resultados muy recientes sugieren que no sólo la Mecánica Estadı́stica no extensi-
va resulta suficiente para satisfacer la Termodinámica (en particular, los estados de equilibrio
térmico siendo posiblemente generalizados en estados estacionarios o cuasiestacionarios), sino
que también serı́a suficiente una Mecánica Estadı́stica aún más general [20, 21, 22]. Se trata
de argumentos todavı́a en estado peliminar, pero que hace cien años eran impensables.
3 L. Onsager realizó la demostración de que la relación de reciprocidad era una relación

necesaria utilizando la Mecánica Estadı́stica. Por ello recibió el Premio Nobel de Quı́mica en
1968.
118 Termodinámica Clásica: un caso particular

mos también más adelante, poder calcularlas a partir del mundo microscópico.

5.1. Principio cero de la termodinámica


El principio cero de la Termodinámica postula la transitividad del equilibrio térmi-
co, estableciendo ası́ la condición de equilibrio térmico como una clase de equivalen-
cia caracterizada por una temperatura T . Caratheodory descubrió que este principio
básico era necesario para completar el sistema axiomático formado por los principios
1 − 2 − 3, que él mismo ya habı́a establecido.
Podemos enunciarlo de dos modos alternativos4 :

El equilibrio termodinámico define una relación de equivalencia,


o también:
Dos sistemas que estén en equilibrio con un tercer estado, están a su vez
en equilibrio entre sı́.

Todo esto es obvio, si recordamos que existe equilibrio termodinámico si y sólo


si los parámetros intensivos conjugados de las variables extensivas transferibles entre
los dos sistemas son iguales. Es decir, que sustituir {< A1i >} y {< A2i >} fijos por
{< A1i > + < A2i >} fijo, conduce a

λ1i = λ2i , ∀i.

Demostremos el principio cero en la Mecánica Estadı́stica B-G (es decir,


que se trata de una mecánica estadı́stica suficiente, aunque quizás no necesaria).
Sean dos sistemas aislados A y B, energı́a (EA , EB ) y de entropı́a (SA , SB ) cons-
tantes. Cuando A y B entran en contacto intercambian energı́a, de forma que el sistema
formado por ambos presentará energı́a y entropı́a constantes5
 
UA + UB = constante
(5.1)
SA + SB = constante

de lo que se tiene que



dUA + dUB = 0 → dUA = −dUB ∂SA ∂SB 1 1
⇒ = ⇒ = ⇒ TA = TB .
dSA + dSB = 0 → dSA = −dSB ∂UA ∂UB TA TB

Equilibrio térmico
Sin embargo, veamos que existen un par de argumentos por los que en rigor esta
demostración no es matemáticamente válida. Analicémoslos, para comprender adecua-
damente lo que verdaderamente significa el que exista equilibrio térmico entre dos
sistemas.
4 Queda abierta la pregunta sobre si los estados metaestables pueden también satisfacer

una clase de equivalencia.


5 Se trata de identidades que llevan implı́cito que U
A+B = UA + UB y SA+B = SA + SB ,
es decir, que la energı́a y la entropı́a son extensivas. Pero dichas identidades no son ciertas si
las interacciones entre los sistemas son de largo alcance.
5.1 Principio cero de la termodinámica 119

I) Para que dos sistemas puedan intercambiar energı́a, ha de existir entre ellos una
interacción. De este modo, dos sistemas aislados de Hamiltonianos respectivos
HA y HB tienen por Hamiltoniano

H = HA + HB , ([HA , HB ] = 0) ,

pero cuando están en contacto térmico tienen por Hamiltoniano

H′ = HA + HB + VAB .

Pero VAB es una energı́a de interacción, y por tanto ya no es cierta la primera


ecuación (5.1). Para poder darla por válida, VAB ha de ser no nula para que
se puedan transformar las energı́as internas UA y UB constantes en UA + UB
constante, pero suficientemente pequeña para que U ≈ UA + UB y ρA+B =
ρA ⊗ ρB (es decir, para que ∄ correlaciones entre A y B).
II) Respecto a la segunda ecuación (5.1), hay que decir que para que en rigor dos
sistemas tengan por entropı́a la suma de sus respectivas entropı́as (SA+B =
SA + SB ) han de ser sistemas independientes (ρA+B = ρA ⊗ ρB ). Pero de hecho
dos sistemas en equilibrio término no pueden ser independientes, puesto que
HAB 6= 0.
Una vez más, la interacción ha der ser suficientemente grande para que pueda
establecerse el equilibrio térmico en un lapso de tiempo accesible a la edad del
universo (tiempo en el que el conjunto A+B se ergodiza), pero lo suficientemente
débil para que pueda despreciarse el término VAB .
De este modo, lo que en rigor hay que considerar es una energı́a de interacción finita
ǫVAB 6= 0, en la que ǫ es un parámetro para el que se resuelve el sistema

HA+B = HA + HB + ǫVAB ⇒ {U (ǫ), S(ǫ)} ∀ǫ 6= 0 (5.2)

Una vez resuelto {U (ǫ), S(ǫ)}, dejamos transcurrir el tiempo hasta que el sistema se
estabiliza, y sólo una vez alcanzado el equilibrio hacermos tender ǫ → 0, esto es

lı́m lı́m {U (ǫ), S(ǫ)}


ǫ→0 T →∞

Nótese que la misma sutileza está implı́cita en la obtención de la ecuación de estado


X pi
del gas ideal P V = N kB T a partir del Hamiltoniano H = . Pero también
i
2m
aparece cuando es necesario quebrar la simetrı́a para describir una transición de fase
de segundo orden en la Teorı́a de fenómenos crı́ticos. Por ejemplo, al describir lo que
ocurre cuando se produce la transición de un material ferromagnético a paramanético
en la temperatura de Curie Tc , se ha de considerar un campo magnético externo H 6= 0,
para hacerlo después tender a cero una vez que se alcance el lı́mite termodinámico
N → ∞, esto es:
lı́m lı́m (. . . )
H→0 N→∞

Lo que ocurre en Tc es que existe una cierta barrera de potencial entre ambos estados,
que puede ser atravesada en un tiempo finito regido por la ley de Arhenius. De este
modo, el sistema es ergódico en la mitad del espacio de fases cuando T < Tc (los spines
están dotados de una orientación determinada) y es ergódico en todo el espacio cuando
T > Tc . En ambos casos puede por tanto aplicarse la Mecánica Estadı́stica BG por
tratarse de sistemas ergódicos en un cierto conjunto.
120 Termodinámica Clásica: un caso particular

Pero en el caso de que la barrera de potencial entre los estados implicados en una
transición ocupe una región muy grande de medida de Lebesgue no nula, el sistema
no tiene por qué ser ergódico y por tanto no tiene por qué cumplirse la Mecánica
Estadı́stica BG. Esto ocurre por ejemplo en los sistemas de largo alcance, en los que
se encuentran sistemas metaestables para los que el tiempo necesario para que se
produzca una transición aumenta conforme se alcanza el lı́mite termodinámico.

Termómetro-termostato
Cuando ponemos en contacto térmico dos sistemas A y B, cuya situación previa
es (TB < TA )
{TA , UA } para el sistema A
{TB , UB } para el sistema B
mucho después del contacto, la situación pasa a ser

{T, UA } para el sistema A

{T, UB } para el sistema B
′ ′
{T, Utotal ≡ UA + UB = UA + UB } para el sistema completo.

En el caso particular de que UA ≫ UB , puede afirmarse que la situación final del


sistema completo es
T ≈ TA
′ ′
Utotal ≈ UA ≈ UA ≫ UB , UB
Podemos entonces afirmar que:
a) El sistema A es un termostato para el sistema B, dado que el contacto térmico
con B no modifica su temperatura.
b) El sistema B es un termómetro para el sistema A, dado que el contacto térmico
con A hace que su temperatura se acomode a la de A.
En cualquier caso, la temperatura del sistema en equilibrio después contacto T , es
siempre una temperatura intermedia (TB < T < TA ).

Sistemas fuera del equilibrio


En los sistemas fuera de equilibrio tiene sentido hablar de los valores de las variables
extensivas {< Ai >}, pero no de los valores de las variables intensivas {λi }. Por lo
tanto, en dichos sistemas las ecuaciones de estado {< Ai >} = f ({λi }) carecen de
sentido.
Sin embargo, en sistemas en cuasiequilibrio es posible atribuir a las variables in-
tensivas {λi } un valor asintótico.

5.2. Primer principio


El primer principio, o principio de la conservación de la energı́a, fue propuesto por
Mayer, verificado experimentalmente por Joule y generalizado por Helmholtz. Puede
enunciarse de la siguiente manera:
El aumento de la energı́a interna de un sistema es igual a la suma del
calor y el trabajo recibidos. Es decir:

∆U ≡ Uf − Ui = W + Q
5.2 Primer principio 121

o también, en términos diferenciales (d exacta y δ no exacta):

dU = δW + δQ

Demostración
∂H dU ∂W ∂ ∂ ρ̂
Sistema aislado ⇔ =0⇒ = = Trρ̂H = Tr H
∂t dt ∂t ∂t ∂t
−i −i
= Tr ([H, ρ̂]H) = Tr (ρ̂[H, H]) = 0
~ ~
⇒ U = Cte del movimiento

Si por el contrario el sistema no está aislado, incluimos en él la fuente de trabajo-


calor, de modo que el sistema pase a ser aislado. En consecuencia, lo que pierde la
fuente (δW + δQ) es igual a lo que gana el sistema receptor (dU ), con lo que queda
demostrado que dU = δW + δQ.

Interpretación
El sistema, esté o no aislado, cumple que

U = Trρ̂H ⇒ dU = Tr {(dρ̂)H} + Tr {ρ̂dH}


| {z } | {z }
δQ δW

∂H
Si el sistema no fuera un sistema aislado ( 6= 0) tenemos dos situaciones tı́picas
∂t
posibles:
∂H0
1) H depende aleatoriamente de t alrededor de H0 , de modo que = 0.
∂t
En este caso los estados de referencia son los estados propios de H0 (se preserva
el Hamiltoniano con los niveles energéticos y sus degeneraciones, y se modifican
sólo las poblaciones) y la dependencia aleatoria de H genera únicamente calor.
Son procesos irreversibles, dado que la evolución es incontrolada o estocástica.
2) H depende de t de forma controlada, a través de variaciones “suficientemente”
lentas6 de los parámetros externos ξα (generalmente intensivos, pero podrı́an
ser extensivos, por comodidad).
Esto significa que cambio el espacio de Hilbert y mantengo las poblaciones.
En este caso la dependencia del tiempo de H genera trabajo. Son procesos
reversibles, dado que el factor externo que modificó los niveles energéticos
(por ejemplo, un campo magnético) puede desaparecer.
Veamos cómo se define el trabajo producido por fuerzas generalizadas asociadas
a los cambios de ξα . Dado que el Hamiltoniano depende de dichos parámetros
según
H = H({ξα }),
variaciones suficientemente lentas en ξα conducen a cambios diferenciales del
Hamiltoniano, según
X ∂H  
X ∂H
dH = d ξα = Fα dξα . Fα ≡
α
∂ξα α
∂ξα
6 Cuando nos referimos a “variaciones suficientemente lentas” queremos decir que podemos

tratar H = H({ξα }) sin necesidad de tener en cuenta el Hamiltoniano de la fuente.


122 Termodinámica Clásica: un caso particular

En consecuencia, el trabajo producido es


X X
δW = Trρ̂dH = Trρ̂ Fα dξα = < Fα > dξα
| {z } |{z}
α α
fuerza deslocalización
generalizada generalizada

Ejemplos de dicho trabajo pueden ser δW = mgdh y δW = −pdV , donde m


representa una masa, g la constante de la gravedad, dh una altura diferencial, p
la presión, y dV un volumen diferencial.
En resumen, en términos del espectro energético del sistema, puede afirmarse
que:
1) El calor está asociado a cambios de las poblaciones de los niveles energéticos
fijos.
2) El trabajo está asociado a cambios de los niveles para los que no se producen
cambios de las poblaciones.

5.3. Segundo principio


El segundo principio, o principio de la irreversibilidad macroscópica, fue propuesto
por Carnot. Este principio tiene cuatro enunciados distintos, siendo el último el más
definitivo.

Primer enunciado de Carnot


No existe motor monotérmico

Si definimos un motor como un transformador de una forma de energı́a en otra, el


segundo principio implica, tal como se refleja en la Fig. 5.1, que es posible construir
un motor que libere calor consumiendo trabajo, pero resulta imposible construir un
motor que a partir de una fuente de calor produzca trabajo.

Figura 5.1: Representación de motores prohibidos y permitidos, según el segundo


principio de la termodinámica. El calor Q y el trabajo W transferidos, son positivos.

Este primer enunciado es cierto, pero Dodé lo considera inadecuado, dado que en
realidad lo que no existe es ningún tipo de motor mono-paramétrico intensivo. Esto
5.3 Segundo principio 123

se debe a que todo motor, para funcionar, precisa de un desnivel en algún parámetro
intensivo que al desaparecer genere un desnivel en algún otro parámetro intensivo. Por
ejemplo:
1) Al tirar una piedra, desaparece la diferencia de alturas ∆h, y aparece la dife-
rencia de velocidades ∆v.
2) Al colocar una carga negativa entre dos placas cargadas de diferente signo (ver
Fig. 5.2), desaparece la diferencia de potencial eléctrico ∆V , y aparece la dife-
rencia de fuerza eléctrica ∆Fe .

Figura 5.2: Carga negativa situada entre dos placas cargadas con diferente signo.

Lo que argumenta Dodé7 es que lo que caracteriza a la energı́a térmica o calor, no es la


no existencia de un motor mono-térmico, sino la existencia de un receptor monotérmico
(esto es, de un sistema que recibe calor sin crear un desnivel en la temperatura y que
por tanto no genera trabajo).

Segundo enunciado de Carnot


Un motor ditérmico únicamente suministra trabajo cuando la fuente ca-
liente cede calor a la fuente frı́a.

En la Fig. 5.3 se muestran los procesos de intercambio de calor y trabajo que están
prohibidos o permitidos por el primer y segundo principios de la Termodinámica.

Tercer enunciado de Caratheodory


En la cercanı́a de un estado termodinámico cualquiera, existe al menos
un estado que no es alcanzable de forma adiabática.

Cuarto enunciado de Clausius


Para cualquier proceso cuasi-estático (esto es, todo proceso formado por
una secuencia de estados de equilibrio) la forma diferencial del calor δQ
admite un factor integrante. Esto es:

δQ
dS = (5.3)
T

donde la diferencial de la entropı́a dS es exacta pero la del calor δQ no lo es, y donde


1/T es dicho factor integrante.
7 Buscar referencia
124 Termodinámica Clásica: un caso particular

Figura 5.3: En la primera (segunda) columna se muestran los procesos prohibidos por
el primer (segundo) principio de la Termodinámica. En la tercera y última columna,
los permitidos por ambos.

Demostremos el identidad propuesta por Clausius:

δQ 1
= Tr{(dρ̂)H} = kB Tr{(dρ̂)βH} = kB dTr{ρ̂βH} − kB Tr{ρ̂d(βH)}
T T
 −βH 
e d(βH) kB
= kB d(βTrρ̂H) − kB Tr = kB d(βU ) + d(Tr e−βH )
Tr e−βH Z
 
U F
= kB d(βU ) + kB d(ln Z) = d − = dS
T T

En el caso general, se tiene que

δQ = f (x, y, . . . )dx + g(x, y, . . . )dy + . . .

donde (x, y, . . . ) son d variables independientes. En realidad, la fuerza del cuarto enun-
ciado aparece para d ≥ 3, dado que para d = 2 ya existe un teorema matemático que
garantiza la existencia del factor integrante.

En el caso de procesos irreversibles, se tiene que la entropı́a del sistema más


la fuente aumenta, esto es

dS(sistema) + dS(fuente) > 0,


5.3 Segundo principio 125

pero
δQrecibido por la fuente δQrecibido por el sistema
dS(fuente) = =−
T T
donde T es la temperarura de la fuente y donde hemos recurrido al primer principio,
dado que en la fuente los procesos son reversibles por encontrarse en equilibrio.
Por lo tanto:
δQ
dS > (5.4)
T
resultado que generaliza el resultado usual en termodinámica clásica, dado que ni
siquiera los estados inicial y final han de ser necesariamente estados de equilibrio.
Obsérvese que S está definida incluso fuera del equilibrio.

La desigualdad de Clausius engloba tanto los casos reversibles como los irre-
versibles:
δQ
dS ≥ (5.5)
T
Nadie pone hoy en dı́a en duda este principio. Sin embargo, podrı́a pensarse en
un universo más viejo, en el que la entropı́a disminuyera. Existen de hecho sistemas
con pocos grados de libertad en los que la entropı́a oscila por debajo de un umbral,
como ocurre en el modelo de Fermi-Pasta-Ulam, o también en los que la entropı́a se
dispara súbitamente para después disminuir hacia un valor asintótico, como es el caso
del mapa logı́stico en el punto de Feigenbaum [?, ?].8

Potencial Termodinámico
Hemos visto que el calor (Q) y el trabajo (W ), según el sistema esté o no esté en
equilibrio, verifican que
 P
 δW = α < Fα > dξα
sistema en equilibrio ⇒

δQ = T dS
 P
 δW > α < Fα > dξα
sistema fuera del equilibrio ⇒

δQ < T dS
donde Fα y dξα son las fuerzas y “desplazamientos” generalizados. Pero en virtud del
primer principio, siempre ha de cumplirse que
X
dU = δW + δQ = < Fα > dξα + T dS.
α

Por lo tanto, para la energı́a libre de Helmholtz tenemos


X
dF = d(U − T S) = dU − T dS − SdT = < Fα > dξα − SdT,
α

de lo que se obtienen las siguientes ecuaciones de estado:

∂F
= −S (5.6)
∂T
8 escoger referencias
126 Termodinámica Clásica: un caso particular

∂F
=< Fα >, ∀α (5.7)
∂ξα
ecuación (5.7) de la que podemos escribir algunos ejemplos:
∂F
− = −p (5.8)
∂V
∂F
− =µ (5.9)
∂N
donde F representa una fuerza, V un volumen, p la presión, N el número de partı́culas
y µ el potencial quı́mico.

5.4. Tercer principio


El principio del cero absoluto o de Nernst afirma que

T = 0 es inaccesible.

o también, que

S(T )
lı́m lı́m = es una constante universal, que se considera cero.
T →0 N→∞ N

Demostración

1

 si m corresponde al nivel fundamental
e−βEm 
WN0
T → 0 ⇒ pm = X −βE =
m
e 

 0, en el caso contrario
m

son las probabilidades de cada estado en el lı́mite de bajas temperaturas, donde WN0
es la degeneración del estado fundamental del sistema de N partı́culas. Se obtiene
entonces que
ln WN0
lı́m lı́m = kB lı́m = 0.
T →0 N→∞ N→∞ N
Con respecto a la última igualdad, hay que decir que en principio serı́a matemática-
mente posible formular modelos en los que WN0 crece como ∼ constanteN , violándose
ası́ el tercer principio. Pero el hecho es que una degeneración de tal tipo no ha sido
nunca observada en la naturaleza.

Con este principio estamos por tanto afirmando que la entropı́a por partı́cula a
temperatura cero se considera nula porque el sistema se encuentra trementamente or-
denado. Pero además, en el caso de tratarse de un sistema degenerado, la degeneración
no puede ser tipo g0 ∼ µN , porque en ese caso tendrı́amos
S ln g0
= = ln µ 6= 0,
N N
lo que contradice el tercer principio. Una consecuencia de este hecho es que a tempe-
raturas muy bajas los spines no pueden ser independientes dado que la degeneración
de N spines independientes es 2N .
5.5 Potenciales termodinámicos y relación de Gibbs-Duhem 127

Corolario
lı́m CV (T ) = 0 (5.10)
T →0

Para demostrarlo ello partimos de la definición del calor especı́fico propia de la Ter-
modinámica, y de la caracterización de la entropı́a propia de la Mecánica Estadı́stica.
Z T 
∂S CV (T ) 
CV = T ⇒ S(T ) − S(0) = dT 
 Z T
∂T T CV (T )
0 ⇒ S(T ) = dT (5.11)

 0 T

S(0) = 0

Pero si CV (T ) diverge o tiende a una constante no nula en el lı́mite T → 0, entonces


S(T ) diverge, lo que resultarı́a absurdo. Por lo tanto queda demostrado (5.11).

Fue Einstein el que demostró la relevancia de este principio al proponer una teorı́a
de carácter cuántico en la que predecı́a razonablemente la evolución de la capacidad
calorı́fica de los sólidos en un amplio rango de temperaturas y concretamente para
temperaturas próximas a T = 0, donde la regla de Dulong y Petit (CV = 3kB NA ) deja
de ser válida.
Es obvio que el tercer principio es de origen cuántico. El tercer principio exige
S(0) = 0 para sistemas en equilibrio estable, pero no dice nada acerca del equilibrio
metaestable, en el que serı́a posible obtener S(0) 6= 0 durante tiempos más largos que
la edad del universo. Es lo que ocurre por ejemplo en el vidrio.

5.5. Potenciales termodinámicos y relación de


Gibbs-Duhem
Mostraremos a continuación que en el lı́mite termodinámico los potenciales F e
Y están relacionados de la misma forma que en termodinámica clásica. Para ellos
haremos uso de argumentos no muy rigurosos.
Sabemos que

F = −kB T ln Z (Z = e−βF )
X
Y = −kB T ln Ξ (Ξ = e−βY ) = eβµN ZN
N

y que por lo tanto las exponenciales de F e Y se relacionan mediante la transformación


de Laplace
X βµN −βF
e−βY = e e (5.12)
N

β(µ−F /N)
XN → ∞, se tiene que e
En el lı́mite termodinámico, ≈ (constante)N , y
por lo tanto podemos calcular por el método del punto silla, esto es:
N

X X
eβ[µN0 −F (N0 )]−Cte(N−N0 )
2
eβ(µN−F ) ≈
N N

≈ Cte eβ[µN0 −F (N0 )]


128 Termodinámica Clásica: un caso particular

donde N0 es el valor que maximiza µN − F (T, V, N ), esto es,


[µN − F (T, V, N )] = 0
∂N
y por lo tanto

∂F (T, V, N )
µ= (5.13)
∂N
N0

relación que permite identificar µ con el potencial quı́mico de la termodinámica. De-


finiendo F0 = F (T, V, N ), se tiene que

(5.12) ⇒ −βY ≈ −βF0 + βµN0 + ln Cte ≈ −βF0 + βµN0


⇒ Y (T, V, µ) ≈ F (T, V, N0 ) − µN0 (5.14)

De lo que concluı́mos que, en el lı́mite termodinámico, Y y F están relacionadas


por una transformada de Legendre tal y como sucede en Termodinámica.
Es oportuno ahora mostrar que la extensividad de los potenciales termodinámicos
nos lleva a una relación estrecha entre las variables que están en juego.

Y (T, V, µ) ∂Y (T, V, µ)
Y extensivo ⇒ = 


V ∂V 
T, µ 

⇒ Y = −pV

∂Y (T, V, µ) 

relación simétrica de (5.9): p = − 

∂V
T, µ

Pero por otro lado Y = U − T S − µN , de donde

U − T S + pV − µN = 0 (5.15)

que es la ecuación conocida como relación de Gibbs-Duhem, de la que acontinua-


ción obtenemos su forma diferencial.
Diferenciando

dU − T dS − SdT + pdV + V dp − µdN − N dµ = 0

y teniendo en cuenta que


dU = T dS − pdV + µdN,
obtenemos la ecuación diferencial

SdT − V dp + N dµ = 0 (5.16)

Las ecuaciones (5.15) y (5.16) se pueden generalizar de modo trivial para un núme-
ro arbitrario de variables.
Capı́tulo 6

Estadı́stica de
Maxwell-Boltzmann:
Aplicaciones

Hasta ahora hemos abordado las cuestiones más básicas y conceptuales de la


Mecánica Estadı́stica. En adelante, examinaremos algunos sistemas particulares.
Dichos sistemas forman parte del arsenal de conocimientos básicos necesarios pa-
ra un fı́sico, además de ser representativos del éxito que la Mecánica Estadı́stica de
Boltzmann-Gibbs ha alcanzado dentro del cuerpo de la Fı́sica, junto con la mecánica
cuántica, la Teorı́a de la Relatividad, el Electromagnetismo y la Mecánica de Newton.
Estudiaremos dichos ejemplos mediante las estadı́sticas de Maxwell-Boltzmann,
Fermi-Dirac y Bose-Einstein, que pueden ser clasificadas como casos particulares de la
de Boltzmann-Gibbs. También podrı́amos decir, si se prefiere y en pro de una clasifi-
cación más completa, que la Estadı́stica de Boltzmann-Gibbs engloba la de Maxwell-
Boltzmann y las paraestadı́sticas de Gentile, la cual a su vez engloba la de Fermi-Dirac
(si el parámetro de la paraestadı́stica p = 1, esto es, si se puede poner una única
partı́cula en cada estado) y la de Bose-Einstein (si p = ∞). Pero en todo caso no ha de
olvidarse que a altas temperaturas todas las estadı́sticas confluyen en la Estadı́stica
de Maxwell-Boltzmann.

6.1. Oscilador armónico cuántico


Antes de afrontar el estudio del oscilador armónico cuántico, nos detendremos
en el estudio de los casos más simples. Concretamente, si el Hamiltoniano contiene
únicamente un término cuadrático, puede escribirse

H = ax2 (6.1)

donde a es una constante, y el factor de Boltzmann es


2
e−βax
p(x) = R ∞ .
−∞
dx e−βax2
130 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

Conocido el factor de Boltzmann podemos calcular la energı́a interna


Z ∞  Z ∞ 
2 −βax2 −βax2
dx ax e ∂ ln dx e
U = hax2 i = −∞ Z ∞ =− −∞
2 ∂β
dx e−βax
−∞
 Z ∞ 
∂ 1 2 ∂ 1 1 kB T
= − ln √ dy e−y = − ln √ = = (6.2)
∂β βa −∞ ∂β β 2β 2
Este resultado refleja el principio de equipartición de energı́a de la mecánica
estadı́stica clásica, por el que se observa que la energı́a del oscilador no depende de a
y el calor especı́fico es, en unidades de kB , igual a un medio
C/kB = 1/2

Si en lugar de un oscilador cuadrático tenemos un sistema de N osciladores armóni-


cos y con masa, el Hamiltoniano es1
2N
X
H= λi x2i , (6.4)
i=1

de modo que en el caso N = 1, se recupera el caso de un oscilador de masa m, momento


p y frecuencia ω, y en particular λ1 = 1/2m, λ2 = mω 2 /2. Por el principio de equipar-
tición, sabemos que contribución cuadrática en el Hamiltoniano (6.4) contribuirá al
calor especı́fico en un factor 1/2, de modo que C/kB = 2 × 1/2 = 1.
Si los osciladores armónicos estén acoplados, el Hamiltoniano es
N N
X p2i X
H= + cij (xi − xj )2 (6.5)
i=1
2m i,j

que una vez diagonalizado conduce a (6.4). Con este ejemplo queremos llamar la aten-
ción sobre el hecho de que el Hamiltoniano es invariante por translaciones y la matriz
que lo diagonaliza es la transformada de Fourier.

Pasemos por fin a estudiar el oscilador armónico cuántico, cuyo Hamiltoniano H,


y sus correspondientes valores propios En , son
  
 p2 1 2 2 + 1

 H = + mω x = ~ω a a +

 2m 2 2
  

 1
 En = ~ω n +
 , (n = 0, 1, 2, . . . )
2
1 Un caso más general, corresponderı́a a un sistema de Hamiltoniano
X
H= xi Λij xj (6.3)
i,j
donde Λ es una matriz definida positiva y diagonalizable con autovalores λi > 0, i = 1, . . . , N ,
y el Hamiltoniano diagonalizado es (6.4). En el caso de que las variables xi ∈ C, la matriz Λ
tendrá que ser hermı́tica positiva. Es importante insistir en que los coeficientes de los términos
cuadráticos del Hamiltoniano sean positivos, porque en el caso contrario la función de partición
divergerı́a y la estadı́sitica de Maxwell-Boltzmann no serı́a válida. El propio Gibbs llama la
atención sobre esta limitación intrı́nseca de su estadı́stica en la Eq.92 de [8].
6.1 Oscilador armónico cuántico 131

donde a+ y a son los operadores cuánticos de creación y aniquilación, x, p, m son


la posición, el momento y la masa del oscilador, ω es la frecuencia de oscilación, ~
la constante reducida de Plank y n un número cuántico. El espectro está por tanto
formado por niveles energético equidistantes y no degenerados.
Reproduciremos el cálculo de Einstein que proporcionó evidencias de que la es-
tadı́stica propuesta por Boltzmann era acertada. La función de partición de la colec-
tividad canónica es

X ∞
X
Z = e−β~ω(n+1/2) = e−β~ω/2 e−β~ωn
n=0 n=0

e−β~ω/2 1
= = (6.6)
1 − e−β~ω/2 β~ω
2 sinh
2
A partir de la función de partición, pueden calcularse todas las magnitudes termo-
dinámicas. Concretamente, la energı́a interna (ver Fig. 6.1) y el calor especı́fico (ver
Fig. 6.2) son
 
∂ ∂ β~ω ~ω β~ω
U = − ln Z = ln 2 sinh = coth (6.7)
∂β ∂β 2 2 2
 2

∂U 2kB T
C = = kB   (6.8)
∂T ~ω
sinh2
2kB T

Figura 6.1: Dependencia de la energı́a U con la temperatura.

En el caso cuántico, a diferencia del caso clásico, se observa que el calor especı́fico
depende de ciertos factores (concretamente de kB T ) salvo a altas temperaturas, a las
que se recupera el limite clásico y el calor especı́fico no depende más que del número
132 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

Figura 6.2: Dependencia del calor especı́fico C con la temperatura. Obsérvese el com-
portamiento a muy bajas temperaturas (kB T /~ω → 0). A altas temperaturas el calor
especı́fico es aproximadamente kB , dado que el Hamiltoniano de un oscilador armónico
tiene dos términos cuadráticos.

de términos cuadráticos de H. Sin embargo, la dependencia de las caracterı́sticas del


espectro ha de permanecer de algún modo incluso en el régimen clásico, para que el
sistema pueda reconocer cuándo se encuentra en la transición al régimen cuántico. La
transición del régimen cuántico al clásico ocurre cuando la energı́a, mayor que la del
primer nivel excitado, es del orden del espacio entre los niveles, lo que hace que se
perciba el espectro de energı́as como si fuera contı́nuo. Esto ocurre si kB T ≈ ~ω, de
donde la temperatura de transición es


T∗ ≈
kB

Obsérvese en la Fig. 6.2 que el calor especı́fico se comporta a temperaturas muy


bajas tipo ∼ (1/T 2 ) exp (T ∗ /T ), domina el comportamiento tipo función de Cauchy, y
la curva C(T ) es tremendamente achatada. Esto es un resultado bastante general, que
ocurrirá siempre que el espectro tenga un gap finito y acotado, y en consecuencia sea
necesario comunicar al sistema una cierta energı́a para que alcance el nivel energético
inmediatamente superior al fundamental.
Este ejemplo, debido a Einstein, fue el primer modelo propuesto que satisfacı́A
C(0) = 0, dando ası́origen al tercer principio de la Termodinámica. Lo que Einstein
propuso fue un modelo para un sólido formado por N osciladores independientes. No
se adapta a los fonones acústicos (en los que C ∝ T 3 ), pero en primera aproximación
es válido para los fonones ópticos 2 .

2 A diferencia de la luz, que viaja en el vacı́o y para la que ω = ck ∀k, los fonones se propagan

según ondas estacionarias para las que la velocidad de grupo vg (k = π/a) = ∂ω/∂k = 0, siendo
a la unidad cristalina que determina el grupo de simetrı́as invariante en el cristal, en tanto que
la velocidad de fase no es nula (vf = ω/k). Podemos diferenciar los fonones acústicos, cuyos
modos de oscilación no se acoplan con la luz por ser longitudinales, de los fonones ópticos, cuyos
modos de oscilación transversales sı́ se acoplan con la luz. El modelo de oscilador cuántico de
Einstein fue el primero que describió el forma adecuada estos últimos
6.2 Rotor rı́gido cuántico 133

Lı́mite clásico
En el lı́mite clásico, tal como se observa en Fig. 6.2, el teorema de equipartición
clásico permite predecir su valor asintótico:
1
C ∼2× kB
2
donde el factor 2 es debido al número de términos cuadráticos del Hamiltoniano. Dicho
lı́mite puede alcanzarse de cuatro formas “fı́sicamente diferentes”. Concretamente:
a) {ω, ~, kB } fijos, {T → ∞}
b) {T, ~, kB } fijos, {ω → ∞}
c) {ω, T, kB } fijos, {~ → ∞}
d) {ω, T, ~} fijos, {kB → ∞}

6.2. Rotor rı́gido cuántico


Una vez más, haremos uso de la colectividad canónica para N = 1 conocido. El
sistema en este caso consiste en una masa puntual sin spin, de masa m, que gira
tridimensional y clásicamente alrededor de un centro fijo con un radio a. Podrı́a tam-
bién interpretarse como una “partı́cula libre” en el espacio “angular” en lugar del
espacio lineal o, en forma aproximada, como la parte electrónica orbital del átomo de
Hidrógeno.
El momento de inercia de dicha masa puntual es
I ≡ ma2
y la energı́a cinética rotacional3
 
1 L2ϕ
H= L2θ +
2I sin2 θ
donde Lθ y Lϕ son los momentos angulares conjugados de las coordenadas esféricas θ
y ϕ. Este rotor tiene sólo dos grados de libertad, y el modelo es por lo tanto diferente
al de un cuerpo masivo rı́gido que gira alrededor de su baricentro, lo que implicarı́a
tres grados de libertad. Dado que contien dos términos cuadráticos, se espera que en
el régimen clásico el calor especı́fico sea C/kB = 1.
Los niveles de energı́a Elm para los números cuánticos l y m son
~2 l(l + 1)
El,m =
2I
l = 0, 1, 2, . . .
m = l, l − 1, . . . , −l
con degeneración 2l + 1. Definimos una temperatura caracterı́stica Tr , tal que la di-
ferencia de energı́a entre el primer estado excitado y el fundamental (~2 /I) es kB Tr ,
esto es
~2
Tr =
kB I
3 Una aproximación computacional al estudio de este Hamiltoniano requiere el uso del

espacio de frecuencias angulares, en el que se evitan las divergencias creadas por la dependencia
angular en el denominador.
134 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

La función de partición Z puede escribirse en términos de la temperatura reducida


t ≡ T /Tr

∞ ∞ 1 ∞
X X − l(l+1) X
Z= (2l + 1)e−Elm /kB T = (2l + 1)e 2t (2l + 1)e−xl(l+1)
l=0 n=0 l=0

1
donde x ≡ > 0.
2t

Calor especı́fico en el lı́mite t ≡ T /Tr ≫ 1


Para poder deducir las magnitudes termodinámicas a partir de la fución de parti-
ción, escribiremos su extensión analı́tica haciendo uso de la fórmula de Euler–Maclaurin,
la cual afirma que cuando ϕ(x) es una función analı́tica en (0, ∞) se cumple que
∞ Z ∞
X 1 1 ′ 1 ′′′
ϕ(l) = ϕ(x)dx + ϕ(0) − ϕ (0) + ϕ (0) + . . . (6.9)
l=0 0 2 12 720

de modo que el comportamiento de la función de partición, haciendo uso de (6.9), y


en el lı́mite t ≫ 1:
Z ∞
1 1 −12x + 12x2 − x3
Z = dl(2l + 1)e−xl(l+1) + − (2 − x) + + ...
0 2 12 720
Z ∞  
1 x −12x + 12x2 − x3 1 x x2
∼ dye−xy + + + ∼ 1+ − (6.10)
0 3 12 720 x 3 15
y por lo tanto
x x2
ln Z ∼ − ln x +
+
3 90
Conocida la función de partición en dicho régimen de temperatura, puede calcularse
la energı́a interna
 
∂ ~2 d ~2 1 1 x
U = − ln Z = − ln Z ∼ − − =
∂β 2I dx 2I x 3 45
  2
~2 1 ~2 1
= kB T − − (6.11)
6I 45 2I kB T
de donde el calor especı́fico en el régimen de alta temperatura es
"  2 #
∂U 1 Tr
C= ∼ kB 1+ (6.12)
∂T 180 T
(t → ∞)

Calor especı́fico en el lı́mite t ≡ T /Tr ≪ 1


En este caso, el comportamieto asintótico de la función de partición

Z ∼ 1 + 3e−2x (6.13)

nos conduce a una expresión de la energı́a interna

U ∼ 3kB Tr e−Tr /T (6.14)


6.2 Rotor rı́gido cuántico 135

a partir de la que obtenemos la siguiente expresión para el calor especı́fico (ver Fig. 6.3):

 2
Tr
C ∼ 3kB e−Tr /T (6.15)
T
(t → 0)

Figura 6.3: Calor especı́fico con la temperatura. Obsérvese que para el lı́mite t → 0,
el resultado obtenido satisface el tercer principio de la Termodinámica. Por otro lado,
en el lı́mite t → ∞, el teorema de equipartición clásica permite hallar el valor de la
ası́ntota, C/kB = 2 × /2 = 1.

Rotor anisótropo
Ilustremos a continuación un ejemplo histórico controvertido, que ha podido fi-
nalmente ser exhaustivamente explicado [23] mediante los métodos que acabamos de
presentar. Se trata del modelo de un motor anisótropo, respecto al que Gibbs guardaba
gran perplejidad, dado que los resultados experimentales no parecı́an concordar con la
teorı́a aplicada al modelo. En el prólogo de su obra [8] él mismo escribe: “...It is well
known that while theory would assign to the gas six degrees of freedom per molecule, in
our experiments on specific heat we cannot account for more than five. Certainly, one
is building on an insecure information, who rests his work on hypothesis concerning the
constitution of matter”4 . Esta perplejidad era debida a que una molécula diatómica en
un gas deberı́a presentar un calor especı́fico C/kB = 6 × 1/2 = 3 (6 son los grados de
libertad), y sin embargo los resultados experimentales parecı́an arrojar un resultado
distinto, C/kB = 5/2.
El Hamiltoniano para un rotor anisótropo que presenta un eje de simetrı́a es

L2x + L2y L2
H= + z
2Ixy 2Iz

donde Lx , Lx y Lx son las componentes del momento angular, y Iz , Ixy son los
momentos de inercia respecto al eje de simetrı́a z y al plano perpendicular xy. El
4 Traducir?
136 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

espectro de autovalores correspondiente es


   
~2 l(l + 1) 1 1
El,m = + − m2
2 Ixy Iz Ixy
l = 0, 1, 2, . . .
m = l, l − 1, . . . , −l

con degeneración (2l + 1) debido a las proyecciones del momento angular sobre el eje
de rotación. A partir la función de partición

X l
X 2
Z(t) = (2l + 1)e−l(l+1)/t e(Ixy /Iz −1)m /t

l=0 m=−l

se obtiene [23] una expresión para el calor especı́fico en la que se detecta la exis-
tencia, para todos los valores de Ixy /Iz , de un pico que se agudiza cuando Ixy /Iz
decrece (para Ixy /Iz = 0 alcanza casi el valor 5/2). Pero además, y esto es una no-
vedad con respecto al rotor isótropo, para Ixy /Iz suficientemente grande aparece un
segundo pico. Finalmente, para todo valor de Ixy /Iz < ∞, lı́mT →∞ (C/kB ) = 3/2,
resultado asociado a la equipartición clásica para tres grados de libertad, mientras que
lı́mT →∞ lı́m(Ixy /Iz →∞) (C/kB ) = 1, apareciendo sólo dos grados de libertad y perma-
neciendo el otro congelado. Dada la asimetrı́a de la molécula, el sistema anisótropo
tiene dos escalas de temperatura:

T ∗ = ~2 /2Ixy kB ; T ∗∗ = ~2 /2Iz kB .

Haciendo una estimación cuantitativa para una molécula diatómica en un gas, se


observa que la longitud de la molécula es del orden de un Amstrong y que la masa de
los electrones que giran alrededor del núcleo es 2000 veces menor que la de los protones
que giran alrededor de los ejes perpendiculares al eje de simetrı́a de la molécula. Esto
lleva a que las escalas de temperatura sean muy diferentes:

Iz = 2000Ixy ⇒ T ∗∗ = 2000T ∗ ,

razón por la que los experimentos a los que alude Gibbs no detectaban el segundo
régimen asintótico del calor especı́fico. El problema no habı́a podido ser estudiado
todavı́a mediante la mecánica cuántica, y todo lo que la mecánica clásica podı́a afirmar
es que la energı́a era
1 L2
Eclasica = Iω 2 = ,
2 2I
energı́a de espectro continuo. Por el contrario, cuando I → 0, los niveles cuánticos
fundamental y primero excitado se separan, y la energı́a del rotor ha de aumentar
mucho para llegar a detectar el nivel superior.

6.3. Teorema de equipartición clásica


Sea el Hamiltoniano: X
H= λij xi xj = ~x · Λ~x
i,j

siendo ~x ≡ (x1 , x2 , . . . , xN ), en la que {xi } representan variables aleatorias indepen-


dientes definidas en el eje real, y donde {λij } es un conjunto de N 2 números reales
que forman los elementos de una matriz Λ definida positiva no singular.
6.3 Teorema de equipartición clásica 137

Figura 6.4: Dependencia del calor especı́fico con la temperatura para un rotor
anisótropo.

Utilizaremos de nuevo la colectividad canónica. La función de distribución de pro-


babilidad es de nuevo una Gaussiana

e−β~x·Λ~x
p(~x) = R
e−β~x·Λ~x d~x
que nos permite obtener la energı́a interna

R Z
~x · Λ~xe−β~x·Λ~x d~x ∂
U ≡ hHi = R =− ln e−β~x·Λ~x d~x
e−β~x·Λ~x d~x ∂β
Z √ 
√ √ d β~x

= − ln e−( β~x)·Λ( β~x)
∂β β N/2
∂   N N
= − ln β −N/2 × Cte = = kB T
∂β 2β 2
de lo que se obtiene el principio de equipartición clásica:

dU 1
C/kB = =N (6.16)
dT 2
en el que cada término cuadrático de un Hamiltoniano clásico con sólo términos
cuadráticos (que representan cada “grado de libertad”), contribuye al calor P especı́fico
con un factor kB /2. El teorema es fácil de generalizar para el caso H = ij λij xi x∗j ,
donde {xi } son variables aleatorias complejas y Λ es una matriz hermı́tica.
Un dato muy importante es que este teorema permite predecir, sin hacer ningún
cálculo, el lı́mite lı́mT →∞ C(T ) de cualquier sistema cuántico cuyo espectro energético
no esté acotado superiormente y no sea exageradamente espaciado a medida que la
energı́a crece (en cuyo caso, a pesar de no estar acotado, se tratararı́a de una situación
en la que el sistema llegarı́a a no “percibir” la existencia de una cota superior).
138 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

6.4. Paramagnetismo de Langevin


El sistema en este caso es un dipolo magnético (o eléctrico)clásico permanente-
mente localizado en la presencia de un campo magnético H (o eléctrico) externo.
Una vez más, haremos uso de la colectividad canónica clásica. Despreciando los
efectos inerciales (por ser nula la energı́a rotacional), tenemos que la energı́a es
ǫ = −~ ~ = −µH cos θ, (H > 0, µ > 0, θ ∈ R)
µ.H
pudiéndose alcanzar cualquier valor del ángulo θ por tratarse de un sistema clásico.
La función de partición
Z 2π Z π Z π
Z = e−βµH cos θ sin θdθdϕ = 2π e−βµH cos θ sin θdθ
0 0 0
Z 1
−βµHx 4π
= 2π e dx = sinh βµH (6.17)
−1 βµH
Calculamos la energı́a interna:
∂ ln Z µH
U = hǫi = − = kB T − µH coth (6.18)
∂β kB T
y el calor especı́fico a campo magnético constante es
 
 2
 µH 1 
C = kB 1 −  (6.19)
kB T 2 µH
sinh
kB T

La Fig. 6.5 muestra la dependencia con la temperatura del calor especı́fico obtenido
en (6.19). Obsérvese que, como en todos los sistemas con espectro de energı́a acotados
superiormente (en este caso E = ±µH), el calor especı́fico a altas temperaturas tiende
a cero, debido a que al ser la energı́a térmica kB T mayor que la energı́a máxima del
espectro no existen niveles energéticos que puedan ser excitados. Según este razona-
miento, la localización de los regı́menes clásico o cuántico pueden estimarse situadas
en la región de energı́a menor o mayor que el rango de energı́a máxima del espectro
(kB T ∼ µH), de modo que podemos localizar la posición del punto de inflexión en
T ∼ µH/kB . Además, dado que a altas temperaturas el calor especı́fico en (6.19) tien-
de a cero según ∼ 1/T 2 , la susceptibilidad magnética χ se comportará según ∼ 1/T ,
verificándose ası́ la Ley de Curie5 .
El valor C(0)/kB = 2 × (1/2) = 1 estarı́a en acuerdo con el principio de equiparti-
ción, dado que existen dos grados de libertad (ϕ, θ). Sin embargo, dado que las variables
(ϕ, θ) son variables continuas, el modelo viola el tercer principio de la Termodinámica
y la ecuación (6.19) resulta ser incorrecta para el lı́mite T → 0. Por el contrario, en un
modelo mejorado, se espera que C(0) = 0, dominando el comportamiento tipo función
de Cauchy en lı́mT →0 C(T ), y alcanzándose el máximo que se alcanza el modelo para
una temperatura T ∗ 6= 0 intermedia, para la que C(T ∗ )/kB = 1.
5 Para la relación entre el calor especı́fico a campo magnético constante y la susceptibilidad

magnética, recuérdese que



F = U − TS 
H 2χ
 
2 ∂F ∂S
S = kB β ∂β ⇒ CH = T V =
∂T H T
βG = Φ(βH)

6.4 Paramagnetismo de Langevin 139

Figura 6.5: Dependencia de calor especı́fico con la temperatura T , en unidades de kB ,


según el paramagnetismo de Langevin.

Ecuación de estado de Langevin


Haciendo uso de (6.18), y dado que
U1
M = N µhcos θi = −N ,
H
puede obtenerse la ecuación de estado de Langevin para N dipolos independientes
 
µH
M = N µL (6.20)
kB T

donde L(x) es la función de Langevin


1
L(x) ≡ coth x −
x
que nos proporciona la dependencia de la magnetización con el campo a temperatura
constante, según se ilustra en Fig. 6.5. En ella puede observarse que, en torno al campo
y temperatura nulos ((H, T ) = (0, 0)), existe convergencia no uniforme, de forma que
los siguientes lı́mites iterados no coinciden:

 lı́m lı́m M (T, H) = 0
T →0 H→0±
 lı́m lı́m M (T, H) = ±µN
H→0± T →0

La ecuación de la compresibilidad χ, proporciona la ley de Curie



∂M (T, H) N µ2 1
χT (T, 0) = lı́m = ∝ , (6.21)
H→0 ∂H
T
3k B T T
y es además una ecuación en la que, tal como era de esperar, la dependencia en µ es
cuadrática. Ello es debido a que si la energı́a es positiva (ǫ = +µH > 0) los spines
se alinean paralelamente al campo H, y si es negativa (ǫ = −µH < 0) se alinean
antiparalelamente; pero estas diferencias no puede alterar el valor de la susceptibilidad.
Aparece además en el denominador un factor 1/3, de origen clásico, que resulta por
tanto una novedad en relación al spin 1/2 tal como se trató en el Cap. 4.
140 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

Figura 6.6: Dependencia de la Magnetización M con el campo H, para temperaturas


T1 < T2 constantes.

Aplicación al gas de O2
Tenemos un mol de O2 a una temperatura T = 293o K y una presión p = 1 atmósfe-
ras. Se trata por tanto de un gas enrarecido, en el que los dipolos no interaccionan
entre sı́, y de aquı́ que pueda hacerse uno de (6.20). Aplicamos un campo H = 20
KGauss (= 2 Tesla), y medimos una magnetización de M = 9,7 × 10−2 J/Tesla6 .
a) ¿Es lı́cito calcular χT con M/H en lugar de lı́m∆H→0 ∆M/∆H?
Lo es sólo si µH/kB T ≪ 1, lo que en nuestro caso se cumple, puesto que

µH µB H 10−23 J/Tesla × 2Tesla


≈ ≈ ≈ 10− 2 ≪ 1
kB T kB T 10−23 J/o K × 300o K
donde µB es el magnetón de Bohr, y de donde la susceptibilidad es
9,7 × 10− 2
χT = = 4,85 × 10− 2J/(Tesla)2
2
b) ¿Cuánto vale µO2 ?
 1/2  1/2
3kB T χT 3 × 1,38 × 10−23 × 293 × 4,85 × 10−2
µO2 = =
η 6,02 × 1023
3,13 × 10−23
≈ 3,13 × 10−23 J/Tesla = µB ≈ 3,38µB
9,27 × 10−24
lo que resulta interesante, puesto que significa que a partir de mediciones de
magnitudes macroscópicas (el campo magnético y la magnetización), hemos sido
capaces de calcular el momento magnético microscópico de una molécula de
oxı́geno.

6.5. Paramagnetismo de Brillouin


Este nuevo modelo nos permitirá resolver el fallo a temperaturas muy bajas del
modelo de Langevin. Estudiaremos un modelo formado por N partı́culas de momento
61 tesla=104 gauss. El campo magnético terrestre es ∼ 0,5 gauss.
6.5 Paramagnetismo de Brillouin 141

angular total J (entero o semientero), localizadas (y por tanto discernibles) e indepen-


dientes, en presencia de un campo magnético externo H. Pare ello, haremos uso de la
colectividad canónica cuántica.
De la mecánica cuántica, se tiene que la energı́a es

ǫm = −mgL µB H

donde los valores posibles del número cuántico m son

m = J, J − 1, . . . , −J

y donde µB es el magnetón de Bohr y gL el llamado factor de Landé que, bajo ciertas


condiciones, es

3 s(s + 1) − L(L + 1)
gL = + (gL ∈ [1, 2]).
2 2J(J + 1)
Los valores extremos de gL se alcanzan:

1 si S = 0 (J = L)
gL =
2 si L = 0 (J = S)

La función de partición en la colectividad canónica cuántica, dado que las partı́culas


son independientes, es
ZN = (Z1 )N
donde
 h i 1

 J
X eJ βgL µB H 1 − e−(2J +1)βgL µB H sinh[(J + )y]

e βgL µB Hm
= = 2 (J entero)
Z1 = 1 − e−βgL µB H y
 m=−J sinh

 2
(J semientero: extender la suma en 2J)

con y ≡ βgL µB H. Hemos obtenido, por tanto, la función de partición como la extensión
analı́tica de la suma parcial de una serie geométrica.
Obtenida la función de partición podemos calcular la energı́a interna

UN = − ln ZN = −N gL µB HBJ (y), (6.22)
∂β
donde BJ (y) es la función de Brillouin
    
1 1 1 y
BJ (y) ≡ J + coth J + y − coth ,
2 2 2 2

función inmediata de computar incluso para J no enteros.


A partir de (6.22) puede obtenerse el calor especı́fico de forma inmediata
  2 
1
 2  J+ 
∂U gL µB H  1 2
C= = N kB  y −    (6.23)
∂T kB T  4 sinh2 1 
2 sinh2 J + y
2

que, tal como se observa en Fig. 6.7, corrige con éxito el modelo de Langevin.
142 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

Figura 6.7: Dependencia del calor especı́fico en función de la temperatura T , en unida-


des de N kB , según el paramagnetismo de Brillouin. Obsérvese que el comportamiento
a muy bajas temperaturas es tipo función de Cauchy.

Ecuación de estado de Brillouin


Dado que UN = −M H, y haciendo uso de (6.22), se obtiene la ecuación de estado
de Brillouin
M
= gL µB BJ (βgL µB H) (6.24)
N
También en este modelo se cumple la ley de Curie

∂M
χT (T, 0) = = C/T
∂H T,H=0
donde
C = N (gL µB )2 J(J + 1)/3kB . (6.25)

Algunos casos particulares


a) Para temperaturas lo suficientemente altas, se obtiene en (6.24) el siguiente
comportamiento asintótico:

J →∞   
M µH
kB T ≫ gL µB H → ∼ µL
 N kB T
µ ≡ gL JµB

donde L es la función de Langevin. Por lo tanto, para estas condiciones los


resultados son idénticos a los del paramagnetismo de Langevin (4.9).
b) Para un solo spin, J = 1/2 (L = 0, s = 1/2), y se obtiene en (6.24):

M µB H
= µB tanh
N kB T

ecuación que coincide con la obtenida en la Sec. 6.5.


6.6 Centrifugación isoterma de un gas 143

En este caso, particularizando en la ecuación (6.25), se obtiene una susceptibi-


lidad magnética
µ2
χT (T, 0) = B
kB T

Determinaciones experimentales
Veamos cómo mediante un único experimento podemos deducir dos parámetros
microscópicos, i.e., el momento angular total del átomo (J), y su factor de Landé (gL ).
a) La medida del valor de saturación de la magnetización Ms (H → ∞, para una
muestra de N partı́culas, permite determinar gL J, mediante la ecuación

MS ≡ lı́m M (T, H) = N µB gL J
µB H
→0
kB T
2
b) La medida de χT (T, 0) permite determinar gL J(J + 1).

M
valor de satuación g J
MS L

H
2
pendiente g J(J+1)
L

Figura 6.8: Ajuste experimental de M (H), para la determinación de J y gL .

Por ejemplo, el sulfato de gadolinio octohidratado es un “buen” paramagneto de


Brillouin (gL = 2, J = 7/2). Esto en realidad no “demuestra” con todo rigor que
la teorı́a del paramagnetismo de Brillouin sea totalmente adecuada a este material,
porque las medidas experimentales siempre son finitas y se acompañan de sus corres-
pondientes barras de error. Pero es buen indicio.

6.6. Centrifugación isoterma de un gas


Sea el sistema inhomogéneo formado por un gas ideal estacionario, con una pequeña
viscosidad para que pueda rotar, y en régimen clásico, es decir, a alta temperatura o
baja concentración. Los parámetros del modelo están representados en la Fig. 6.9.
Dado que tenemos equilibrio térmico, la temperatura T es uniforme. Al existir
también desequilibrio mecánico, se tiene que la presión depende de la distancia al eje
de giro, esto es, p = p(r). Por lo tanto:

p(r) = n(r)kB T (6.26)


144 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

Figura 6.9: Representación de un cilindro de gas ideal de altura H y radio R, que


rota con velocidad angular ω.

dN
donde n = es la concentración del gas ideal. Queremos hallar n(r), siendo mω 2 r
dV
la fuerza virtual sobre una molécula.
El Hamiltoniano es

p2x + p2y + p2z mω 2 2 p2 mω 2 2


H= − (x + y 2 ) = − r
2m 2 2m 2
y la función densidad de probabilidad en la colectividad canónica es proporcional al
factor de Boltzmann
p(x, y, z, px , py , pz ) ∝ e−βH ,
de lo que se tiene que la función de probabilidad de un elemento de volumen diferencial
p(x, y, z, px , py , pz ) dxdy dzdpx dpy dpz = p′ (r, θ, z, px , py , pz )drdθdzdpx dpy dpz
| {z }
rdrdθ

proporciona una función densidad de probabilidad en coordenadas cilı́ndricas


p′ (r, θ, z, px , py , pz ) ∝ re−βH .
Integrando sobre (θ, z, px , py , pz ), dado que lo que me interesa es la localización, no los
momentos, se obtiene que
2 2
p′′ (r) ∝ reβmω r /2
que es mayor cuanto mayor sea r, como es de esperar. Ahora podemos calcular la den-
sidad del gas, previa estimación del número de partı́culas en un elemento de volumen
dV (r)
2 2
dN (r) ∝ p′′ (r) ∝ reβmω r /2
donde
dV (r) ∝ rdr,
concluyendo que
2 r 2 /2
n(r) ∝ e−βmω .
Concluimos por tanto que
2 2
n(r) = n(0)eβmω r /2
2 2 (6.27)
p(r) = p(0)eβmω r /2
6.6 Centrifugación isoterma de un gas 145

resultado importante para el diseño de las centrifugadoras utilizadas en los laboratorios


de análisis clı́nicos. Se observa que la concentración es tanto más uniforme cuanto
menor es la velocidad angular ω y/o mayor es T y/o menor es m. El perfil de densidades
está representado en la Fig. 6.10.

n (0)

Figura 6.10: Distribución radial de la concentración del gas ideal en el interior de un


cilindro de radio R.

Calculemos ahora la densidad en el eje del cilindro, n(0). El número total de


partı́culas, N0 , es
Z R Z R
2 2
N0 = n(r)rdrdθdz = n(0)2πH eβmω r /2 rdr
0 0
2πHn(0)  βmω2 R2 /2 
= e − 1
βmω 2
y por lo tanto, la densidad en el eje del cilindro es

N0 βmω 2
n(0) =  (6.28)
2πH eβmω2 R2 /2 − 1

Determinación experimental de m
La medida experimental de las presiones en el eje y en la frontera, p(0) y p(R),
permiten calcular la m de los constituyentes del gas, parámetro microscópico, según
p(R) n(R) 2 2
= = eβmω R /2 .
p(0) n(0)
La situación tı́pica para una centrifugadora presenta unos valores para los paráme-
ω
tros implicados del orden de R = 10 cm, = 6000 ciclos por minuto, T = 300o K.

Supongamos además que se trata de un gas N2 . De aquı́ que
∆p p(R) − p(0)
≡ ≈ 2 × 10−2 = 2 %
p p(0)
y de ello se infiere que no son necesarios instrumentos con extrema precisión, aba-
ratándose su fabricación.
146 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

6.7. Gas ideal clásico monoatómico


El sistema está constituido por N masas puntuales indiscernibles e independientes
en un volumen V . Su Hamiltoniano es, por tanto
N
X p2i
HN =
i=1
2m

en el que para cada partı́cula, el Hamiltoniano y las energı́as son

p2 ~2 k2
H1 = → Ek = .
2m 2m
Utilizaremos la colectividad canónica clásica. En el lı́mite del cuasicontı́nuo, intro-
duciendo la densidad de estados ω(E) (ver Sec. 2.3.7) se tiene
X −βE Z ∞
Z1 = e k
∼ dEe−βE ω(E)
k 0
 3/2 Z
2m ∞ √ V
= 2π V e−βE EdE = 3 (6.29)
h2 0 λ̄

donde λ̄ es la longitud de onda térmica que se define como


h
λ̄ = √ (6.30)
2πmkB T

Hipótesis de quasicontinuidad
La hipótesis de quasicontinuidad es válida en el lı́mite βE ∗ ≪ 1, donde E ∗ es la
energı́a caracterı́stica del problema

h2
E∗ ≡
2mV 2/3
y por lo tanto, dicha hipótesis implica que

βh2 λ̄
≪ 1 ó bien 1/3 ≪ 1 (6.31)
2mV 2/3 V

λ̄ puede interpretarse como la longitud de onda de de Broglie asociada a una


partı́cula con energı́a de orden de la energı́a térmica, esto es
h h h h
λ= ≈ p = p = √ ≈ λ̄
mv 2
m hv i 2mhEi 3mk BT

Cálculo de magnitudes termodinámicas


La entropı́a para una partı́cula viene dada por
U1 (T ) U1 (T ) V
S1 (T, V ) = + kB ln Z1 (T, V ) = + kB ln 3
T T λ̄
y por lo tanto, la contribución de volumen se presenta bajo la forma del neperiano (el
número de configuraciones espaciales diferentes).
6.7 Gas ideal clásico monoatómico 147

Para el sistema formado por las N partı́culas del gas, por ser indistinguibles e
independientes, se tiene que la función de partición es
1
ZN ∼ (Z1 )N
N!
de donde la entropı́a es  
3 V
S N = N kB + ln ,
2 N λ̄3
y la energı́a libre
N λ̄3
FN = −kB T ln ZN ∼ N kB T ln . (6.32)
V
Esta expresión es válida en el lı́mite clásico siempre que se satisfaga la siguiente con-
dición:
λ̄
 1/3 ≪ 1 (6.33)
V
N
A partir de la energı́a libre se puede calcular la ecuación de estado

∂FN N kB T
p=− = (6.34)
∂V N,T V

y el potencial quı́mico
 
∂F N λ̄3
µ= = kB T ln + 1 ∼ kB T ln nλ̄3 (6.35)
∂N V,T V

N
donde n ≡ es la densidad del gas.
V

régimen clásico

T ln T

Figura 6.11: Comportamiento asintótico del potencial quı́mico para un gas ideal clási-
co monoatómico.

En la ecuación (6.35) se constata que



∂µ
> 0,
∂n T
148 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

propiedad que ha de satisfacer cualquier sistema termodinámico estable.


A partir de la ecuación (6.35) se obtiene la expresión, frecuentemente utilizada en
quı́mica
µ
N −
3
µ = kB T ln nλ̄ = kB T ln ⇒ Z1 = N e k B T (6.36)
Z1
Llamando N~k al número medio de partı́culas con vector de onda ~k, y haciendo uso
de (6.36), se obtiene la siguiente distribución de probabilidades en el equilibrio

Nk e−βEk e−β(Ek −µ)


pk = = =
N Z1 N
de la que se obtiene la distribución de Maxwell-Boltzmann

Nk = e−β(Ek −µ) (6.37)

6.8. Atmósfera isoterma e inhomogénea


La atmósfera terrestre es un sistema inhomogéneo que puede considerarse isotermo.
En realidad se trata ésta de una aproximación muy burda de la troposfera (hasta unos
10 km de altura), considerada como un gas ideal clásico. Para estudiarla, haremos uso
de la colectividad canónica clásica.
Verifiquemos si estamos dentro del rango de validez mediante la ecuación (6.33).
Considerando T ≈ 250o K, p = 1 atmósfera = 105 Pascal, kB ≈ 1,4 × 10−23 J/o K,
~ ≈ 10−34 J seg, m ≈ 5 × 10−26 kg (si se trata de una mezcla de N2 y O2 ):

λ̄ h/ 2πmkB T 1,5 × 10−11
= ≈ ≈ 4 × 10−3 ≪ 1
(V /N ) 1/3 (kB T /p) 1/3 4 × 10−9
En la Fig. 6.12 se representa un modelo simplificado de la atmóstera terrestre.
Llamando V (r) al potencial gravitacional terrestre, Ekl al espectro energético de una
partı́cula libre, y Ek al espectro energético de una partı́cula en el campo gravitacional,
tenemos, en una aproximación semiclásica, que

Ek = Ekl + mV (r), (r ≥ R)

Figura 6.12: Modelo simplificado de la atmóstera terrestre.

Usando (6.37) se tiene que


l
Nk = e−β(Ek −µ) = e−β(Ek +mV (r)−µ)
6.8 Atmósfera isoterma e inhomogénea 149

y por lo tanto, la distribución del número de partı́culas es


X X −βE l
N= Nk = eβ(µ−mV (r)) e k = eβ(µ−mV (r)) Z l = N eβ[µ−mV (r)−µl ]
1
k k

y el potencial quı́mico

µ(r) = µl (n(r)) + mV (r) = kB T ln [λ̄3 n(r)] + mV (r) (6.38)

El equilibrio quı́mico implica que µ 6= µ(r), de lo que

kB T ln (λ̄3 n(r)) + mV (r) = kB T ln (λ̄3 n0 ) + mV0

donde n0 ≡ n(R) y V0 ≡ V (R). Por lo tanto

m
− (V (r)−V0 )
n(r) = n0 e kB T (6.39)

y utilizando p = nkB T se tiene que


m
− (V (r)−V0 )
p = p 0 e kB T (6.40)

donde p0 ≡ p(R) es la distribución en la superficie terrestre.

Si consideramos que g(r) ≈ g0 es constante e igual a la aceleración de la gravedad,


se tiene que para el potencial aproximado que

V (r) − V0 = g0 (r − R) = g0 z

donde z es la altura, y por lo tanto, la distribución de velocidades de la altura es


mg0 z
p(z) n(z) −
= = e kB T (6.41)
p0 n0

y el valor esperado de la altura es


Z ∞
dzze−mg0 z/kB T
kB T
hzi = Z0 ∞ =
−mg0 z/kB T mg0
dze
0

donde vemos que T → 0 implica que hzi → 0, que es un efecto clásico. Una estimación
de dicho valor esperado es

1,4 × 10−23 × 250


hzi = ≈ 7000 m = 7 Km,
5 × 10−26 × 10
que es la altura de la troposfera.

El potencial exacto, despreciando la rotación de la tierra, es


GM
V (r) = −
r
150 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

donde G es la constante gravitacional y M es la masa terrestre.


Por lo tanto, ahora se tiene que

GmM 1 1
 
 −
p(r) n(r)

= = e kB T r R (6.42)
p0 n0
y
GmM 1 1
  
Z A   − 
r e kB T r R r 2 dr
R A4 /4
hri ≡ lı́m = lı́m =∞
GmM 1 1
  
A→∞ A→∞ A3 /3
Z A   − 
e kB T r R r 2 dr
R
¡de lo que se deduce que la atmósfera escapa de la tierra! Este error proviene del
dT (r)
supuesto que = 0, lo cual resulta demasiado ficticio.
dr

6.9. Plasma neutro clásico


Un plasma neutro es un gas neutro aunque formado por partı́culas cargadas, como
puede ser, por ejemplo en un metal, el mar de electrones “libres” y de iones positivos
(de carga Q) fijos.
En el caso de que se trate de un metal puro, el potencial quı́mico µ vendrá dado
por el potencial libre µl que, en el lı́mite clásico, es

µ = µl = kB T ln n(r)λ̄3

donde n es la concentración electrónica. En el mar electrónico, que se considera como


un fluido, n es igual a una constante n0 .
En el caso de un metal impuro, sustituiremos un ión Q por un ión (Q + q) y por
lo tanto aparecerá una carga puntual excedente q (en la que tomaremos q > 0 como
ejemplo). El fluido electrónico se concentra alrededor suyo hasta un cierto punto, ya
que cualquier desviación de la uniformidad va en detrimento de la entropı́a. Hasta
qué punto lo haga, depende del equilibrio térmico-quı́mico del sistema (µ(r) = Cte).
El potencial quı́mico (ver Sec. 6.8) es

∂µl
µ = µl (n(r)) − eφ(r) ≈ µl (n0 ) + [n(r) − n0 ] − eΦ(r)
∂n n0
si |n(r) − n0 | ≪ n0

donde Φ(r) es el potencial electrostático creado por q y por la carga electrónica exce-
dente, y r es la distancia a la impureza. Dado que µ es independiente de r, se tiene
que
µ(r) = µ(∞) = µl (n0 )
y por tanto
∂µl (n)
[n(r) − n0 ] = eΦ(r) (6.43)
∂n n0
Por otro lado, de la electrostática, se tiene que:
ρ e
∇2 Φ(r) = − = − (n − n0 ) (6.44)
ǫ0 ǫ0
6.9 Plasma neutro clásico 151

donde ρ es la densidad de carga excedente, ǫ0 es la permisividad del vacı́o (ǫ0 =


8,8 × 10−12 MKS), y e es la carga del electrón (e = 1,6 × 10−19 C).
De las ecuaciones (6.43) y (6.44), tenemos que
 Φ
2
 ∇ Φ = Λ2


" #1/2
ǫ (6.45)
 0 ∂µl (n)
 Λ≡

e2 ∂n n0

Teniendo en cuenta que Φ no depende de (θ, ϕ), es conveniente expresar ∇2 Φ en


coordenadas esféricas  
2 1 ∂ 2 ∂Φ
∇ Φ= 2 r
r ∂r ∂r
Proponiendo una solución tipo
A −r/ξ
Φ= e
r
para la que se obtiene que ξ = Λ. Por otro lado, en el lı́mite r → 0, solamente se
q 1 q
“ve” la carga q, y por lo tanto Φ(r) ∼ . De aquı́ se tiene que A = , y en
4πǫ0 r 4πǫ0
consecuencia la solución para el potencial coulombiano blindado, tal como puede verse
en Fig. 6.13, es
q e−r/Λ
Φ(r) = (6.46)
4πǫ0 r

longitud del blindaje r

Figura 6.13: Potencial coulombiano blindado en un plasma neutro clásico.

De las ecuaciones (6.46) y (6.43) puede calcularse la concentración electrónica


radial en el plasma (ver Fig. 6.14), resultando
e 1
n(r) − n0 = Φ(r) ∝ e−r/Λ
∂µl r
∂n n0

Calculemos la cantidad de carga electrónica total excedente, que se aglomera en


torno a la impureza.
Z Z Z ∞
ǫ0
ρd3 r = −e [n(r) − n0 ]d3 r = − 2 Φ(r)4πr 2 dr
Λ 0
Z ∞ −r/Λ
q e
= − 2 r 2 dr = −q
Λ 0 r
152 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

n(r)

n0

Figura 6.14: Concentración electrónica radial en un plasma neutro clásico.

Este resultado indica que el “mar” electrónico neutraliza completamente la impureza.


Existe una objeción a esta “demostración”, y es que cuando r → 0, (n(r) − n0 )/n0
diverge, y la ecuación (6.43) ya no es válida.

En el régimen clásico se tiene que

µl = kB T ln (nλ̄3 )

y que por lo tanto


r
ǫ0 kB T
Λ= (6.47)
e2 n0
De esta última ecuación se pueden inferir que:
T ↑⇔ Λ ↑, lo que significa que la tendencia al desorden impide una gran aglo-
meración electrónica neutralizadora, y por lo tanto el blindaje es escaso.
n0 ↑⇔ Λ ↓, lo que significa que una gran concentración facilita la neutralización,
y en consecuencia el blindaje es muy eficaz.

Frecuencia del plasma ωp


El gas puede presentar oscilaciones de la densidad de carga. Partiendo de la ex-
presión para la energı́a cinética del plasma
3 1
kB T = mhv 2 i
2 2
se tiene, de la ecuación (6.47) que

ǫ0 mhv 2 i
Λ2 = .
3e2 n0
Si definimos una frecuencia de oscilación caracterı́stica ωp mediante la relación
2 hv 2 i
Λ = 2 , esta puede estimarse según
ωp
s
3e2 n0
ωp ≈
mǫ0
6.9 Plasma neutro clásico 153

Figura 6.15: Espectro de frecuencias del plasma.

lo que corresponde a la frecuencia de un plasmón uniforme (~k = 0) en el espectro de


plasmones (excitaciones del “mar” electrónico) dado por la figura Fig. 6.15. De este
modo, la frecuencia del plasma caracterı́stica ωp es tal que:
a) Una onda de frecuencia ω ≥ ωp , se propaga en el metal.
b) Una onda de frecuencia ω < ωp , se refleja y no penetra en el metal.
Nuestro tratamiento ha sido semiclásico, dado que en el Hamiltoniano
X p2i
H= − eΦ(r)
i
2m

hemos tratado la variable r como un parámetro. Podrı́amos mejorar la aproximación


su hubiéramos tenido cuenta la repulsión colombiana entre electrones.
Hay que señalar una cuestión importante acerca de la carga electrónica excedente
(−q), que contribuye a la carga del plasma en (r → ∞). Ahora bien, en el caso de
considerar una geometrı́a finita, como por ejemplo en una placa metálica de anchura
L, se obtendrá una concentración electrónica con la distacia como la representada en
la Fig. 6.16.

n(r)

n0

x
L
Figura 6.16: Concentración electrónica en una placa de anchura L.

Y por último, establezcamos el rango de validez de nuestro tratamiento, el cual


será aceptable en la medida en que
1
Λ≫ 1/3
≫ λ̄
n0

donde la primera desigualdad es necesaria para que la imagen de tipo “fluido” sea
válida, y la segunda para que el tratamiento semiclásico sea aceptable.
154 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

6.10. Paradoja de Gibbs


Sea una mezcla isoterma e isobara de gases ideales clásicos que no reaccionan
quı́micamente, según se representa en la Fig. 6.17. En dicha mezcla, se tiene que
 
pV1 = N1 kB T N1
⇒ VV12 = N



pV2 = N2 kB T 2


 V ≡ V 1 + V 2

N ≡ N1 + N2

Figura 6.17: Representación de un sistema mexcla de gases ideales que no reaccionan


quı́micamente.

Hagamos a continuación el experimento de retirar el diafragma y esperar al nuevo


equilibrio. Se trata de un proceso irreversible en el que observemos que la entropı́a del
sistema completo, 1 + 2, cambia según
 
1+2 1 2 V V
Santes = Santes + Santes = kB N1 ln + N2 ln + Cte
N1 N2
 
1+2 1 2 V V
Sdespues = Sdespues + Sdespues = kB N1 ln + N2 ln + Cte
N1 N2
 
1+2 1+2 V V
∆S ≡ Sdespues − Santes = N1 ln + N2 ln
V1 V2
 
N N
= kB N1 ln + N2 ln >0
N1 N2
donde S 1 y S 2 son las entropı́as de los sistemas 1 y 2. Este resultado nos conduce a una
paradoja: si la expresión es también válida para dos gases idénticos, entonces ∆S 6= 0,
lo cual es absurdo, ya que dos gases iguales no tiene sentido decir que se mezclen.
La solución de esta paradoja está en que en el caso de que los dos gases sean iguales,
habremos de incluir en la expresión de ∆S una corrección debido a la indiscernibilidad
entre las partı́culas. De este modo
1+2 1+2 N!
∆S = Sdespues − Santes − kB ln
N1 !N2 !
 
N N
∼ kB N1 ln + N2 ln − kB {N ln N − N1 ln N1 − N2 ln N2 }
N1 N2
lo que hace que ∆S = 0, que sı́ es un resultado correcto.
6.11 Calor especı́fico isocórico de gases ideales 155

6.11. Calor especı́fico isocórico de gases ideales


El sistema es un gas ideal poliatómico, como es el caso del He, N2 , HD, H2 O, etc.
Haremos uso de la colectividad canónica mixta, esto es, clasico-cuántica.

6.11.1. Temperaturas caracterı́sticas


Estimemos algunas las temperaturas asociadas al movimiento de traslación, rota-
ción y vibración de las moleculas constituyentes, ası́ las asociadas a los movimientos
propios de su estructura atómica.

Traslación global
En el caso de la traslación molecular global, los valores tı́picos para las magnitudes
fı́sicas implicadas son:
 
M ≈ 30 × 10−27 Kg h2
−3 3 ⇒ Ttr = ≈ 10−17 o K
V ≈ 1 l = 10 m 2M V 2/3 kB

por lo tanto, en esta escala y a las temperaturas experimentalmente realizables, nos


encontramos en el régimen clásico.

Rotación no axial de los núcleos

Los valores tı́picos son:


 
a ≈ 1 Å ~2 ~2
−27 ⇒ Trot = ≈ ≈ 10o K
M ≈ 30 × 10 Kg IkB M a 2 kB

por lo tanto, dependiendo de qué temperaturas nos interesen, razonaremos en términos


clásicos o en términos cuánticos.

Vibración de los núcleos


Los valores tı́picos son:
 ~ω
ω ≈ 1014 s−1 ⇒ Tvib = ≈ 1000 o K
kB
por lo tanto deberemos en general razonar en términos cuánticos.

Contribución electrónica
Los valores tı́picos son:
 ǫ
1 eV / ǫ / 10 eV ⇒ 104 o K / Tel = / 105 o K
kB
En este caso nos encontramos claramente en régimen cuántico. En la mayorı́a de las
situaciones experimentales podemos “olvidar” esta contribución (en cuyo caso diremos
que se trata de un “modo congelado”). Entretanto, si ǫ / 1 eV, las contribuciones en
ocasiones podrı́an detectarse.
156 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

Contribución nuclear interna


Los valores tı́picos son:
 ǫ
ǫ ≈ 1 MeV ⇒ Tnuc = ≈ 1010 o K
kB
En la mayorı́a de los casos este modo está “congelado”. Un contraejemplo, en el que
este modo no puede ser despreciado, es el de un plasma nuclear en el interior de un
reactor.

Rotación axial de los núcleos

Los valores tı́picos son:


 
M ≈ 30 × 10−27 Kg ~2
−5 ⇒ Trot ax = ≈ 1011 o K
a ≈ 10 Å IkB

modo que generalmente está “congelado”.

6.11.2. Hamiltoniano y calor especı́fico


Calculemos ahora el calor especı́fico del gas ideal, partiendo de que el Hamiltoniano
de una molécula es
X p2α X
H1 = + V ({~rα }) (6.48)
α
2mα α,β

donde α representa los núcleos –puntuales– y los electrones.


~ y momento p
Sustituyendo en (6.48) las coordenadas del vector posición R ~ del
centro de masa  !

 ~ X X
 R=
 mα~rα /M, M= mα
Xα α
 ~
 P = p



α

se tiene que
P2 X Π2α X P2
H1 = + + ρα }) =
V ({~ +h
2M α
2µα 2M
α,β

donde µα es la masa reducida, ~ α son los momentos


P ~ρ ~α son las posiciones relativas, Π
relativos (de tal forma que α Π α = 0), y h depende sólo de variables internas de una
molécula.
Para el gas ideal constituı́do por N moléculas, se tiene que el Hamiltoniano es
N N
X p2i X
HN = + hi
i=1
2M i=1

y por lo tanto la función de partición es


1 N N
ZN = Z ζ
N ! tr
6.11 Calor especı́fico isocórico de gases ideales 157

2
P
donde Ztr está asociado a 2M , ζ está asociado a h, y donde
  
h
Ztr = V /λ̄3 ,

λ̄ = √
2πM kB T
ζ ≡ Tr e−βh

De la función de partición, se tiene que la energı́a libre

∂ 3 d
UN = − ln ZN = N kB T − N ln ζ
∂β 2 dβ
 
3 d
= N kB T + T2 ln ζ
2 dT

y el calor especı́fico a volumen constante


 
CV 3 d d
= + T2 ln ζ(T ) (6.49)
kB N 2 dT dT

Analicemos ahora el término h de potencial

h = h({P~i }, {R
~i }, {p~j }, {r~j })
X Pi2 X p2j X X X
= + + ~ i }) +
Vnn ({R Vll ({r~j }) + ~ i }, {r~j })
Vnl ({R
i
2Mi j
2m ′ ′ i,j
i,i j,j

donde {R ~i } y {P~i } son las posiciones y los momentos de los núcleos –puntuales–, {~
ri }
y {p~i } son las posiciones y los momentos de los electrones, {Mi } son las masas de los
núcleos –puntuales–, y m es la masa del electrón. Dado que Mi ≫ m podemos, según
la aproximación de Born-Oppenheimer, despreciar las correlaciones entre los núcleos
y los electrones.
Resolvamos el problema en dos etapas:
~ i como parámetros, y resolvemos
1) Consideramos R

X p2j X X
hel = + Vll ({r~j }) + ~i }, {r~j })
Vnl ({R
j
2m ′ i,j
j,j

lo que nos proporciona el espectro energético electrónico.


2) Resolvemos

X Pi2 X X
hnucl = + ~ i }) + h
Vnn ({R ~i }, {r~j })i
Vnl ({R
i
2Mi ′ i,j
i,i

Hamiltoniano que puede representarse de la forma

hnucl = hrot + hvib + hrot-vib ≈ hrot + hvib

dado que hrot-vib es despreciable en primera aproximación. Por lo tanto:

ζ = ζel ζnucl = ζel ζrot ζvib


158 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

donde  −βh
 ζ ≡ Tr e el
 ζel ≡ Tr e−βhrot


rot
−βh
 ζvib ≡ Tr e
 vib

 −βh
ζnucl ≡ Tr e nucl

Sustituyendo en (6.49) obtenemos

CV
= C tr + C rot + C vib + C el (6.50)
N kB

donde 

 C tr = 3/2  

rot = d T 2 d ln ζ (T ) (ver Sec. 6.2)




 C rot
 dT  dT 
vib d 2 d

 C = T ln ζ vib (T ) (ver Sec. 6.1)


 dT dT 
 d d
 C el =

 T2 ln ζel (T )
dT dT
Discutiremos a continuación, como casos particulares, los gases monoatómicos, diatómi-
cos (homonucleares o heteronucleares) y poliatómicos (lineales o no lineales).

6.11.3. Gases monoatómicos


En el caso de los gases monoatómicos como He, N e, N a, Hg, etc, la molécula no
vibra ni gira axialmente, y por lo tanto

ζnucl = gnucl = 2I + 1

donde gnucl es la degeneración nuclear y I el spin nuclear. De aquı́ que

C rot = C vib = 0

Consideremos casos diferentes, dependiendo del gap existente entre el nivel funda-
mental y el primer estado excitado.

Caso I: gap grande (≈ 10eV )


Es el caso de los gases nobles He, N e, A, Xe, etc, en los que las capas electrónicas
de los electrones de valencia están completas. En estos gases, los modos electrónicos
están “congelados”,

ζel = 1 + e−βǫgap

y de aquı́ que C el = 0. El calor especı́fico de estos gases, por lo tanto, es

CV 3
=
kB N 2
6.11 Calor especı́fico isocórico de gases ideales 159

Caso II: gap pequeño


En gases como el N a, el nivel fundamental –de energı́a nula y degeneración g0 – y
el primer estado excitado –de energı́a ǫ y degeneración g1 – son muy parecidos energéti-
camente. Por lo tanto, el gap es muy pequeño y fácil de excitar:
ζel = g0 + g1 e−βǫ

Esto hace que la contribución del espectro electrónico energético, C el , presenta la


llamada anomalı́a de Schottky (ver Fig. 6.18), y el calor especı́fico es
CV 3
= + C el
kB N 2
cuya dependencia en la temperatura está representada en la Fig. 6.18. De ahora en
el
C C / Nk
V B

3/2

T T
/ k / k
B B

Figura 6.18: En la figura de la izquierda puede verse representada la anomalı́a de


Schottky para la contribución electrónica al calor especı́fico en los cases en los que
el gap entre el primer nivel excitado y el fundamental es pequeño. En la figura de la
derecha, se representa la dependencia del calor especı́fico a volumen constante con la
temperatura, en unidades de N kB , para dichos gases.

adelante no mencionaremos explı́ticamente la contribución C el , ya que su contribución


es siempre de este tipo.

6.11.4. Gases diatómicos heteronucleares


Estudiemos ahora el caso de los gases diatómicos heteronucleares, como por ejemplo
el HD, CO, HCl, etc. En ellos, la contribución rotacional asintótica es 2 × (kB /2),
dado que de las tres rotaciones independientes está congelada la que gira en torno al
eje molecular. La contribución vibracional asintótica es 2 × (kB /2) dado que existen
dos contribuciones, esto es, la parte cinética más la parte potencial de un oscilador
unidimensional. La dependencia del calor especı́fico con la temperatura para estos
gases está representada en la Fig. 6.19.

6.11.5. Gases poliatómicos colineares


En el caso de gases poliatómicos colineares, como por ejemplo el CO2 , las contri-
buciones al calor especı́fico son

tr
 C = 3/2

C rot = 2 × (1/2) = 1

 vib
C = 2 × (1/2) × no de modos vibracionales independientes no congelados
160 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

C / Nk
V B

7/2

5/2

3/2

T
T T T
rot ambiente vib

Figura 6.19: Dependencia con la temperatura para el calor especı́fico a volumen cons-
tante en los gases diatómicos heteronucleares.

Por ejemplo, el CO2 tiene cuatro modos de oscilación, generalmente congelados a


temperatura ambiente, y el último es dos veces degenerado. POdemos representarlos
según el siguiente esquema:

(0 → C ← 0) (0 → ← C 0 →) 2 × (0 ↓ C ↑ 0 ↓)

Por lo tanto, C vib → 4. Y a temperatura ambiente tenemos, generalmente, que

CV /N kB = 5/2

6.11.6. Gases poliatómicos no colineares


Por ejemplo, H2 O, N H3 , etc, son gases poliatómicos no colineares para los que las
contribuciones al calor especı́fico son

tr
 C = 3/2

C rot = 3 × (1/2) = 3/2 (ninguna rotación está congelada)

 vib
C = 2 × (1/2) × no de modos vibracionales independientes no congelados
A Temperatura ambiente se tiene que

CV /N kB = 3

Cálculo del exponente de las transformaciones isentrópicas


Toda transfornación adiabáticas reversible se denomina isentrópica. Veamos cómo
caracterizarlas partiendo de la relación de Mayer:

C p = C V + N kB (6.51)

La ecuación matemática que describe un proceso adiabático en un gas, es

P V γ = Cte
6.11 Calor especı́fico isocórico de gases ideales 161

donde P es la presión del gas, V su volumen, y el exponente de la transformación


es γ = CP /CV , donde CP es el calor especı́fico molar a presión constante y CV el
calor especı́fico a volumen constante. Podemos calcular dicho exponente para una
transformación isoentrópica, a partir de (6.51):

Cp N kB
γ= =1+
CV CV
relación con la que se obtiene, a temperatura ambiente:
a) γ = 1 + 2/3 = 5/3 ≈ 1,67 para gases monoatómicos.
b) γ = 1 + 2/5 = 7/5 = 1,4 para gases diatómicos heteronucleares, homonucleares
y poliatómicos colineares.
c) γ = 1 + 1/3 = 4/3 ≈ 1,33 para gases poliatómicos no colineares.

6.11.7. Gases diatómicos homonucleares


En los gases diatómicos homonucleares , como por ejemplo es el H2 , a temperatura
ambiente obtenemos
 
CV 3 d d
= + T2 ln ζrot (T )
N kB 2 dT dT

En el gas de HD, por tratarse de un gas heteronuclear, se tienen spines nucleares


IH = ID = 1/2, mH = mD = ±1/2, y la degeneración nuclear es gnucl = 4. Para la
contribución rotacional al calor especı́fico, se tiene (l = 0, 1, 2, . . . )

β~2
X − l(l+1)
ζrot = 4 (2l + 1)e 2I
l=0,1,2

Ahora bien, en el H2 , por tratarse de un gas homonuclear, los dos átomos H son
indiscernibles y aparecen dos tipos de gas H2 :
Para-hidrógeno, cuando los espines de los dos protones se encuentran antipara-
lelos y conforman un estado singlete (I tot = 0; mI = 0; l = 0, 2, 4, . . . ).
Orto-hidrógeno, cuando los espines de los dos protones se encuentran paralelos
y conforman un estado triplete (I tot = 1; mI = ±1, 0; l = 1, 3, 4, . . . ).
La relación entre orto-hidrógeno y para-hidrógeno en el equilibrio, depende de la tem-
peratura.
En el estado para, que no está nuclearmente degenerado, la función de onda nuclear
es antisimétrica y la rotacional simétrica. En el estado orto, cuya degeneración nuclear
es igual a tres, sucede el caso inverso. En ambos casos, la función total es antisimétrica
tal y como corresponde a los fermiones (H + ).
Por lo tanto, en este caso:

β~2 β~2
X − l(l+1) X − l(l+1)
ζ= (2l + 1)e 2I +3 (2l + 1)e 2I
l par l impar
| {z } | {z }
ζ para
ζ orto
162 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

Sea N el número de moléculas de H2 , de las que Np son de parahidrógeno y No


de ortohidrógenos, de modo que puede escribirse que

N = N0 + Np
|{z} |{z}
orto para

y la proporción de cada tipo de moléculas es

Np 1 N0 R
= , = ,
N 1+R N 1+R
para
siendo que la reacción H2 ⇋ H2orto cumple la siguiente ley de acción de masas:

β~2
X − l(l+1)
3 (2l + 1)e 2I
N0 l impar
R= = .
Np β~2
X − l(l+1)
(2l + 1)e 2I
l par

~2
Si la temperatura rotacional es Trot ≡ , R tiene el siguiente comportamiento
IkB
asintótico (ver Fig. 6.20):
3e−Trot /T
a) T /Trot → 0 ⇒ R ∼ 3 ∼ 9 e−Trot /T
1 + ...
X X
b) T /Trot → ∞ ⇒ ∼ ∼ T /Trot ⇒ R → 3
l par l impar

Figura 6.20: Dependencia R(T ).

Y el calor especı́fico para cada tipo de molécula (ver Fig. 6.21) es


  
 
d d X
Corto = T2 ln 3 (2l + 1) e−Trot l(l+1)/2T  (6.52)
dT  dT 
l impar
  
d  2 d X −T l(l+1)/2T

Cpara = T ln  (2l + 1) e rot  (6.53)
dT  dT 
l par
6.11 Calor especı́fico isocórico de gases ideales 163

Figura 6.21: Calor especı́fico rotacional a volumen constante en el estado orto (izquier-
da) y para (derecha) del H2 . Obsérvese que, en el lı́mite clásico de altas temperaturas,
Corto = Cpara = 2 × 1/2 = 1 dado que el tercer grado de libertad queda congelado.

Por lo tanto, el calor especı́fico rotacional a volumen constante para el H2 , que


viene representado en la Fig. 6.22, es

CVrot
 
N0 Np R 1
= C + Cpara = C + Cpara
N kB N orto N 1 + R orto 1 + R

Figura 6.22: Calor especı́fico rotacional a volumen constante del H2 .

Esta figura corresponde al equilibrio térmico y quı́mico, pero este último es difı́cil
de realizar y tarda algunos dı́as a menos de que se utilicen catalizadores. Por lo tanto
aparecen fácilmente estados metaestables, lo que da lugar a diferentes experimentos
posibles.
1. Experimento I
Calentamos rápidamente a partir de una temperatura T ≪ Trot .
Medimos el calor especı́fico mientras sube la temperatura obteniendo, a cual-
quier temperatura T , N0 ≈ 0 y Np ≈ N ). Las medidas obtenidas para el calor
especı́fico están representadas en la Fig. 6.23, y son semejantes pero no iguales
a las obtenidas en el caso de equilibrio.
2. Experimento II
Enfriamos rápidamente a partir de una temperatura T ≈ Tamb ≫ Trot .
164 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

A cualquier temperatura T , durante el enfriamiento, se tiene N0 /Np ≈ 3, y por


lo tanto el calor especı́fico disminuye, al bajar la temperatura, según la Fig. 6.23.

Figura 6.23: Calor especı́fico rotacional a volumen constante obtenidos en los experi-
mentos I (izquierda) y II (derecha).

3. Experimento III
Si modificamos lentamente T , o bien utilizamos catalizador, tendremos

(CVrot )experimental = (CVrot )equilibrio

Esta serie de experimentos proporciona una prueba “directa” de la veracidad de la


antisimetrı́a para los fermiones.

6.12. Reacción quı́mica isoterma e isobara


Consideremos la siguiente reacción quı́mica isoterma e isobara entre diversos gases
ideales clásicos X X ′ ′
νi A i ⇋ νj A j ,
i j

donde {Ai }, {A′i }representan las diversas moléculas implicadas en la reacción, y {νi },
{νj } los correspondientes coeficientes estequiométricos.

Algunos ejemplos de este tipo de reacciones son


a) O2 ⇋ 2O, donde A1 = O2 , A′1 = O, ν1 = 1, ν1′ = 2.
b) H2 O ⇋ O + 2H, donde A1 = H2 O, A′1 = O, A′2 = H, ν1 = 1, ν1′ = 1, ν2′ = 2.
c) 2HCl + F e ⇋ F eCl2 + H2 , donde A1 = HCl, A2 = F e, A′1 = F eCl2 , A′2 = H2 ,
ν1 = 2, ν2 = 1, ν1′ = 1, ν2′ = 1.

Denotemos el número de moléculas o de átomos de cada tipo y especie según el


siguiente esquema:
Ni ≡ no de moléculas tipo i
N ′ j ≡ no de moléculas tipo j
Nik ≡ no de átomos de la especie k que están en moléculas tipo i
k
N ′ j ≡ no de moléculas de la especie k que están en moléculas tipo j
6.12 Reacción quı́mica isoterma e isobara 165

N0k ≡ no total del átomos de la especie k, que cumple que


X k X ′k
N0k = Ni + N j
i j

encontrándose todos estos parámetros relacionados, de tal manera que:


k
a) Si no existe reacción quı́mica, {Ni }, {N ′ j } fijos y por lo tanto {Nik }, {N ′ j } fijos.
k
b) Si existe reacción quı́mica, {N0k } fijos pero {Nik }, {N ′ j } fluctúan.

Ejemplo
2ClH + F e ⇋ F eCl2 + H2
reacción para la que se tiene que

Cl Cl ′ Cl
 N0 = N1 + N 1

H H ′H
N0 = N1 + N 2

 N F e = N F e + N ′F e
0 2 1

Queremos averiguar cuánto valen {Ni }, {N ′ i } en el equilibrio termodinámico,


cuando la información de la que disponemos es p, T , {νi }, {νj′ } y {N0k }.

La relación diferencial de Gibbs-Duhem


X X ′
SdT − V dp + Ni dµi + N j dµ′ j = 0
i j

donde µi y µ′j son los potenciales quı́micos, proporciona la siguiente igualdad para T
y p fijos: X X ′
Ni dµi + N j dµ′ j = 0. (6.54)
i j

Partamos de la expresión de la energı́a de Gibbs proporcionada por la relación de


Gibbs-Duhem X X ′ ′
G ≡ U − T S + pV = Ni µi + N jµ j
i j

cuya diferencial es nula en el equilibrio:


X X ′
dG = 0 = (Ni dµi + µi dNi ) + (N j dµ′ j + µ′ j dN ′ j ). (6.55)
i j

Introduciendo (6.54) en (6.55), se obtiene que


X X ′
µi dNi + µ j dNj′ = 0 (6.56)
i j

Pero las variaciones {dNi } y {dN ′ i } están rı́gidamente relacionadas según


dN ′ 1 dN ′ j dN1 dNi
= ··· = ′ = − = ··· = − = dλ
ν′1 νj ν1 νi
donde dλ mide el avance de la reacción. Entonces (6.56) se transforma en la ley de
acción de masas:
X X ′ ′
µi νi − µj νj = 0 (6.57)
i j
166 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

Hasta ahora hemos usado únicamente el formalismo de la Termodinámica. Pero


además, la Mecánica Estadı́stica, proporciona las siguientes relaciones para el potencial
quı́mico:

Ni Nj′
µi = kB T ln , µ′j = kB T ln ,
Zi Zj′
donde {Zi } y {Zi′ } son funciones de partición monomoleculares. Por lo tanto la expre-
sión (6.57) queda

Y  Ni νi

i
Zi
Y νj′ = 1
Nj′
j
Zj′

o bien: Y Y
Niνi Ziνi
i i
Y ν′
= Y ν′
≡ f (T, V ) (6.58)
N ′j j Z′jj
j j

Ahora bien, hemos de introducir una corrección en nuestros resultados, dado que
hemos considerado en todas las funciones de partición, {Zi } y {Z ′ i }, que la energı́a
es nula para el nivel fundamental. Sin embargo no es lı́cito atribuir arbitrariamente
la energı́a nula al estado fundamental más que a un cierto tipo de moléculas, y no en
todos simultaneamente.
Denotaremos
 0
 ǫi ≡ energı́a fundamental de la molécula Ai
ǫ0j ≡ energı́a
P ′ fundamental
P de la moléculaA′j
 0 0
∆ǫ0 ≡ j νj ǫj − i νi ǫi energı́a de activación
para hacer las siguientes sustituciones en (6.58)
( 0
Zi → Zi e−ǫi /kB T
0′ /k
Zj′ → Zj′ e−ǫj BT

de manera que (6.58) se transforma en ley de acción de masas corregida

Y ν′ Y ν′
N ′jj Z′ji ∆ǫ0
j j −
Y = Y e B T ≡ KN (T, V )
k (6.59)
Niνi Ziνi
i i

Por otro lado, la función de partición puede factorizarse como

Zi = V fi (T )
6.12 Reacción quı́mica isoterma e isobara 167

donde fi (T ) es una función de la temperatura que también puede factorizarse en una


contribución interna y otra traslacional
 3/2
2πmi kB T
fi (T ) ≡ Ziint
h2 | {z }
| {z } contribución interna
contribución translacional
de forma que la contribución interna se puede calcular mediante los espectros energéti-
cos experimentales a partir de primeros principios, por su descomposición en factores
rotacionales, vibracionales, elásticos, etc
Ziint ≈ Zrot × Zvib × Zel × . . .
Si además definimos X ′ X
∆ν ≡ νj − νi ,
j i

la expresión (6.59) puede escribirse


Y νj′
f ′ j (T ) ∆ǫ0
j −
KN (T, V ) = Y V ∆ν e kB T
[fi (T )]νi
i

y considerando que
pi V
Ni =
kB T
donde pi es la presión parcial, la expresión (6.59) se escribe

Y ν′ Y ′ ν ′
p′ j j ∆ǫ0 f j (T ) j
j − j
Y = Kp (T ) ≡ (kB T )∆ν e kB T Y (6.60)
pνi i [fi (T )]νi
i i

donde Kp (T ) depende exclusivamente de T para una reacción quı́mica dada.

Medida experimental de la energı́a de activación


A partir de (6.60), es posible deducir la ley de Van’t Hoff
d
∆H = RT 2 ln Kp (T ) (6.61)
dT
donde ∆H es la entalpı́a o calor de reacción molar y R es la constante universal de los
gases. De las expresiones (6.61) y (6.60) se obtiene que
 Y νj′ 


 f ′ j (T ) 


d  ∆ǫ0 
j
∆H(T ) = RT 2 ∆ν ln kB T − + ln Y
dT 
 k B T [fi (T )]νi 


 

i
Y ′ νj′
f j (T )
d j
= RT ∆ν + η∆ǫ0 + RT 2 ln Y −→ η∆ǫ0
dT [fi (T )]νi T →0
i
168 Estadı́stica de Maxwell-Boltzmann: Aplicaciones

es decir, que
∆H(0) = η∆ǫ0
y por lo tanto la extrapolación de medidas ∆H(T ) vs T permite hallar experimental-
mente ∆ǫ0 .
Capı́tulo 7

Estudio comparativo de las


tres estadı́sticas en un gas
ideal

7.1. Introducción
Dos partı́culas se consideran idénticas cuando coinciden todos sus parámetros
intrı́nsecos, esto es, masa en reposo, carga, spin, etc. Siempre que sea posible “percibir”
–fı́sicamente– la permutación de los estados de dos partı́culas idénticas, hablaremos de
discernibilidad entre partı́culas.
Sin embargo, si somos rigurosos, las partı́culas idénticas han de ser siempre in-
discernibles debido a la naturaleza probabilı́stica de la mecánica cuántica, puesto que
una partı́cula puede ser hallada simultáneamente en posiciones diferentes. Esto es, si
ψ(~r) y ϕ(~r) son dos estados a una partı́cula, entonces los estados a dos partı́culas
(partı́culas 1 y 2) ψ(~r1 )ϕ(~r2 ) y ψ(~r2 )ϕ(~r1 ), son iguales.
A pesar de estas consideraciones, existen al menos tres situaciones tı́picas en las
que las partı́culas pueden considerarse como discernibles:

1) En mecánica clásica. Las partı́culas idénticas serán siempre discernibles por-


que es posible seguir continuamente la evolución temporal en el espacio (~r, p
~) de
cada una de ellas. Es lo que se denomina el determinismo clásico.
~) y (~r′ p
Esto significa que, si (~r, p ~′ ) son dos estados a una partı́cula, entonces son
diferentes los estados a dos partı́culas (1 y 2).

(~r1 , p ~, ~r′ , p
p2 ) ≡ (~r, p
~1 , ~r2 , ~ ~′ ) 6= (~r1 , p ~2 ) ≡ (~r′ , p
~1 , ~r2 , p ~′ , ~r, p
~).

2) En mecánica cuántica cuando las partı́culas son localizadas. Es decir,


cuando cada partı́cula está confinada en una región del espacio donde la proba-
bilidad de presencia de las otras es casi nula.
Piénsese, por ejemplo, en el modelo de Einstein para sólidos, en el que existen
N osciladores independientes discernibles (ver Fig. 7.1).
170 Estudio comparativo de las tres estadı́sticas en un gas ideal

Figura 7.1: Potencial para el modelo de Einstein para sólidos, en el que se consideran
N osciladores independientes discernibles.

3) En mecánica cuántica, cuando la proyección de spin es fija. Se trata de


partı́culas idénticas que difieren en la proyección del spin, siempre que el spin
no intervenga en las interacciones entre partı́culas.

7.2. Descripción de un gas ideal


La mecánica cuántica relativista sugiere considerar distintos tipos de partı́culas:
a) Partı́culas discernibles (“boltzmaniones”).
b) Partı́culas indiscernibles de spin semientero (fermiones).
c) Partı́culas indiscernibles de spin entero (bosones).

Haremos uso de los espacios de Hilbert, dependiendo de que se trate de estados


a una o de dos partı́culas
(1)
ξH ≡ espacio de Hilbert a una partı́cula
(2)
ξH ≡ espacio de Hilbert a dos partı́culas
(1)
ϕm (r) ≡ base ortonormal en ξH

donde m son números cuánticos (incluyendo spin, spin isotrópico, etc).

(2)
Los estados a dos partı́culas, contenidos en el espacio ξH , se definen para
partı́culas que son boltzmaniones, fermiones, o bosones según
(2)
|m1 , m2 i = ϕm1 (~r1 )ϕm2 (~r2 ) ∈ ξH (boltzmaniones)
1 (2)
= √ {ϕm1 (~r1 )ϕm2 (~r2 ) − ϕm1 (~r2 )ϕm2 (~r1 )} ∈ ξH (A) (fermiones)
2
1 (2)
= √ {ϕm1 (~r1 )ϕm2 (~r2 ) + ϕm1 (~r2 )ϕm2 (~r1 )} ∈ ξH (S) (bosones)
2

donde S el conjunto de funciones simétricas y A el de las antisimétricas, y donde


(2) (2) (2)
ξH = ξH (S) ⊕ ξH (A)

(2) (2)
ξH (S) ∩ ξH (A) = ∅ ≡ conjunto vacı́o
7.3 Segunda cuantización 171

Estados a N -partı́culas
Los estados a N partı́culas en general, también se definen separadamente para
boltzmaniones, fermiones, o bosones.
Cuando las partı́culas son boltzmaniones, los estados se definen como
N
Y
|m1 , m2 , . . . , mN i = ϕmi (~ri )
i=1

Si las partı́culas son fermiones, los estados se definen como



ϕm1 (~r1 ) . . . ϕmN (~r1 )
1
|m1 , m2 , . . . , mN i = √ .. ..

N ! . .

ϕm1 (~rN ) . . . ϕmN (~rN )
1 X
= √ (−1)p P{ϕm1 (~r1 ) . . . ϕmN (~rN )}
N! P
r
ν1 !ν2 ! . . . νN ! X
= (−1)p P ′ {ϕm1 (~r1 ) . . . ϕmN (~rN )}
N! ′ P

donde p es el ı́ndice de permutación, y P las N ! permutaciones posibles. P ′ son cada


una de las permutaciones que son diferentes.
Cuando las partı́culas son bosones, los estados se definen como
1 X
|m1 , m2 , . . . , mN i = √ P{ϕm1 (~r1 ) . . . ϕmN (~rN )}
N! P
r
ν1 !ν2 ! . . . νN ! X ′
= P {ϕm1 (~r1 ) . . . ϕmN (~rN )}
N! ′ P

PN
donde además k=1 νk = N (νk = 0, 1, 2, . . . ) siendo νk es el número de ocupación
del estado a una particula mk .
En el caso de fermiones, según el principio de Pauli, se tiene que si existe algún
νk > 1
|m1 , m2 , . . . , mN i = 0
En general:
(N) (N) (N)
ξH (S) ⊕ ξH (A) ⊆ ξH
(N) (N)
ξH (S) ∩ ξH (A) = ∅
donde, para en la primera inecuación, la igualdad corresponde al caso de que N = 2,
y la inclusión estricta al caso contrario.
La reducción del espacio accesible para bosones y para fermiones (que es violenta
para N ≫ 1), es responsable de la alteración del juego de probabilidades que distingue
las tres estadı́sticas (MB, BE, FD).

7.3. Segunda cuantización


La descripción en la segunda cuantización (con operadores de creación y aniqui-
lación) surge de forma natural cuando se trata de fermiones y bosones, debido a que
172 Estudio comparativo de las tres estadı́sticas en un gas ideal

carece de sentido atribuir estados cuánticos a partı́culas concretas pudiendo sólo hablar
de cuántas partı́culas se encuentran en uno o en otro estado.
Definimos el operador de creación de un fermión (bosón) en el estado cuántico
m como a+ m , y el operador de aniquilación como am . Verificándose que

[am , an ]η = [a+ +
m , an ]η = 0

[am , a+
n ]η = δmn

donde 
+1 para bosones
[A, B]η ≡ AB − ηBA, η=
−1 para fermiones

Corolario para fermiones


Para los fermiones se verifica que

[am , am ]−1 = 2a2m = 0

[a+ + +
m , am ]−1 = 2(am )2 = 0

y de estas igualdades se infiere el que imposible crear o destruir dos (o más) fermiones
en el mismo estado. Ello implica que:

νk = 0, 1 ∀k (fermiones)

Operador número de partı́culas


Recuérdese que
 √
+
a |νi = √ν + 1|ν + 1i, (bosones)
1 − ν |ν + 1i, (fermiones)
 √
ν|ν − 1i, (bosones)
a|νi =
ν |ν − 1i, (fermiones)
por lo tanto (recuérdese que ν = 0, 1):

ν|νi, (bosones)
a+ a|νi =
ν(2 − ν) |νi = ν|νi, (fermiones)

lo que significa que a+ a es el operador número de partı́culas.

a+ a = operador número de partı́culas

Caso general

 √
νm + 1|ν1 , . . . , νm + 1, . . . i (bosones)
a+
m |ν1 , . . . , νm , . . . i =
(1 − νm )(−1)Nm |ν1 , . . . , νm + 1, . . . i (fermiones)
 √
νm |ν1 , . . . , νm − 1, . . . i (bosones)
am |ν1 , . . . , νm , . . . i =
νm (−1)Nm |ν1 , . . . , νm − 1, . . . i (fermiones)
7.3 Segunda cuantización 173

donde Nm es la ocupación total de los estados que preceden al estado m (en el orden
convencional escogido de una vez para siempre).
m−1
X
Nm = νj
j=1


 N1 = N2 = 0

 N3 = 1

Por ejemplo, para |0, 1, 1, 0, 1, . . . i ⇒ N4 = N5 = 2



 N6 = 3

etc

Ejemplos para diversos sistemas


1. Partı́cula libre
p2 ~k2 +
H= = a a
2m 2m
2. Oscilador armónico
 
p2 1 1
H= + mω 2 x2 = ~ω a+ a +
2m 2 2
3. N osciladores armónicos acoplados (d = 1)
X p2i  
X X 1
H= + cij (xi − xj )2 = ~ωq a+
q aq +
i
2m i,j q
2

4. Ondas planas en general X


H= ǫ~k a+
k ak
~
k

5. Interacción fonón-electrón
X ~2 k2 +   X
X 1
H= ak ak + ~ωq b+
q bq + + Vk,k′ ak a+ +
k′ bk−k′ + . . .
k
2m q
2 ′ k,k

6. Forma general para N bosones (o fermiones)


X 
H = Cte + λi bi + λ∗i b+
i
i
X ∗ + +
+ (ωij b+
i bj + νij bi bj + νij bi bj ) + términos orden superior
i,j

que, una vez centrado diagonalizado puede escribirse como


X
H = Cte + Ωi Bi+ Bi + términos orden superior
i

7. Sistemas moleculares (en quı́mica cuántica)


X Z
H= Vjj ′ a+
j a j ′ + etc = d~rd~r′ ψ + (~r)V (~r, ~r′ )ψ(~r′ ) + etc
j,j ′

donde {j, j ′ } son diferentes


P orbitales (j = s, p, d, etc ), y ψ + (~r) es el campo
+ +
cuántico: ψ (~r) = j φj (~r)aj .
174 Estudio comparativo de las tres estadı́sticas en un gas ideal

Gas ideal
El Hamiltoniano en el gas ideal se escribe
N
X X
HN ({p~i }, {~
ri }) = H1 (p~i , r~i ) + λ V (~
ri , r~j )
i=1 i,j

con λ → 0, y donde H1 admite autovectores ϕm (~r), que son estados a 1-partı́cula.

QN
No describiremos HN mediante i=1 ϕmi (~ri ) (o formas simetrizadas) sino con
|ν1 , . . . , νm i, donde

X 0, 1 ( fermiones)
νm = N, νm =
0, 1, 2, . . . ( bosones)
m

Dado que νm no es fijo, haremos uso del espacio de Fock

(0) (1) (N)


ξF = ξH ⊕ ξH ⊕ · · · ⊕ ξH
donde F significa Fock, y H Hilbert. Eventualmente, cuando N → ∞, tenemos fotones
o quasi–partı́culas.

Primer ejemplo
Dos partı́culas en tres estados a 1-partı́cula (a,b,c).
Estados:
(2)
|νa , νb , νc i (ξF = ξH )
Base para fermiones:
{|1, 1, 0i, |1, 0, 1i, |0, 1, 1i}
Base para bosones:

{|1, 1, 0i, |1, 0, 1i, |0, 1, 1i, |2, 0, 0i, |0, 2, 0i, |0, 0, 2i}

Segundo ejemplo
Número indeterminado de partı́culas en tres estados a 1-partı́cula (a,b,c).
Estados:
  
max (i) 3 (fermiones)
|νa , νb , νc i, ξF = ⊕N
i=0 ξ H , Nmax =
∞ (bosones)

Base para fermiones:

{|0, 0, 0i, |1, 0, 0i, |0, 1, 0i, |0, 0, 1i, |1, 1, 0i, |1, 0, 1i, |0, 1, 1i, |1, 1, 1i}

Base para bosones:

{|0, 0, 0i, |1, 0, 0i, |0, 1, 0i, |0, 0, 1i, |1, 1, 0i, |1, 0, 1i, |0, 1, 1i,
|2, 0, 0i, |0, 2, 0i, |0, 0, 2i, |1, 1, 1i, |2, 1, 0i, |1, 2, 0i,
|2, 0, 1i, |1, 0, 2i, |0, 2, 1i, |0, 1, 2i, |3, 0, 0i, |0, 3, 0i, |0, 0, 3i, etc}
7.4 Colectividad macrocanónica 175

Tercer ejemplo
Número indeterminado de partı́culas en infinitos estados a 1-partı́cula (por ejemplo,
un cuerpo negro).
Estados:  
(i)
|νa , νb , νc i ξF = ⊕∞ i=0 ξH

Base para fermiones:




 |0, 0, . . . i
 |1, 0, 0, . . . i, |0, 1, 0, . . . i, |0, 0, 1, . . . i . . .

 |1, 1, 0, . . . i, |1, 0, 1, . . . i . . .
 ..


.

 |0, 0, . . . i




 |1, 0, 0, . . . i, |0, 1, 0, . . . i, |0, 0, 1, . . . i, . . .
 |1, 1, 0, . . . i, |1, 0, 1, . . . i, . . .

Base para bosones: |2, 0, 0, . . . i, |0, 2, 0, . . . i, |0, 0, 2, . . . i, . . .




 |3, 0, 0, . . . i, |0, 3, 0, . . . i, . . .

 ..

.
Un estado puro (cuántico) de un gas (ideal o real), es una combinación lineal de
los vectores de la base del espacio de Fock.
Llamando {ǫm } a los valores propios de H1 (~ p, ~r) tenemos que la energı́a total E:
 X
 =
 νm ǫm (gas ideal)
m
|ν1 , ν2 , . . . , νm . . . i → E X
 6=
 νm ǫm (gas real)
m

7.4. Colectividad macrocanónica


El Hamiltoniano, para un gas ideal1 , es
X
ĤN = ǫq n̂q , (7.1)
q

donde X  
N̂ = n̂q [ĤN , N̂ ] = 0; n̂q ≡ a+
q aq . (7.2)
q

Ambos operadores, ĤN y N̂ , definen la energı́a y el número de partı́culas como cons-


tantes de movimiento.
Calculamos la función de partición macrocanónica
X −β P (ǫ −µ)n̂
Ξ = TrFock e−β(ĤN −µN̂ ) = e q q q

{nq }
XY −β(ǫq −µ)n̂q
YX Y
= e = e−β(ǫq −µ)n̂q = Ξq (7.3)
{nq } q q nq q

1 En este contexto, un gas ideal no está necesariamente formado por partı́culas independien-

tes ya que entre ellas puede existir el principio de exclusión, simetrización, etc. Entenderemos
por gas ideal, ya sea clásico o cuántico, aquél cuyo Hamiltoniano no tiene términos de inter-
acción, según (7.1).
176 Estudio comparativo de las tres estadı́sticas en un gas ideal

donde {nq } representa todos los conjuntos permitidos, y nq todos los valores permitidos
para el estado q. Dicha función de partición, consistente con el hecho de que el gas
sea ideal (clásico o cuántico), para los casos particulares de Fermi–Dirac (nq = 0, 1) y
Bose–Einstein (nq = 0, 1, . . . ) es tal que
FD
ΞF
q
D
= 1 + e−β(ǫq −µ )
(7.4)

BE BE 1
ΞBE
q = 1 + e−β(ǫq −µ )
+ e−2β(ǫq −µ )
+··· = −β(ǫq −µBE )
(7.5)
1−e
Por lo tanto, el valor medio del número de partı́culas en el mismo estado de igual
vector de onda q (no de igual energı́a, en cuyo caso el valor medio podrı́a contener un
factor de degeneración), fq , en segunda cuantificación (estamos en un espacio de Fock)
es
∂ 1 ∂ ln Ξq
fq ≡ hn̂q i = ha+q aq i = − (−kB T ln Ξq )β = (7.6)
∂µ β ∂µ
ecuación que proporciona la distribución de Fermi-Dirac (FD)

1
fqF D = (7.7)
eβ(ǫq −µ) + 1

y de Bose-Einstein (BE)
1
fqBE = (7.8)
eβ(ǫq −µ) − 1
de modo que ambas, en el lı́mite clásico de altas temperaturas T ≫ se transforma en

fqM B = e−β(ǫq −µ) = N e−βǫq ⇒ % partı́culas ∼ e−βǫq (7.9)

Estas tres últimas ecuaciones pueden unificarse según sigue:



 η = 1 → BE
1
fq = β(ǫ −µ) , donde η = −1 → F D (7.10)
e q −η 
η = 0 → MB

Potencial quı́mico
Obtenido el número de partı́culas N como función de (T, µ), mediante
X
N ≡< N̂ >= fq (7.11)
q

puede obtenerse el potencial quı́mico µ = µ(T, N ) invirtiendo (7.11). Introduciendo


éste en (7.1) se obtienen además las probabilidades en función de la temperatura T .
Esto significa que el potencial quı́mico µ es un modo alternativo de representar
la concentración, o también de representar el número de partı́culas N . Tanto es ası́,
que ∂µ/∂N > 0, tal como ha de ocurrir para que exista estabilidad termodinámica
respecto al número de partı́culas.
Desde el punto de vista termodinámico la relación G = U − T S − µN implica que
a) Si N fijo → µ 6= 0
7.4 Colectividad macrocanónica 177

b) Si N fluctúa → µ = 0, como ocurre en el caso de los fotones, fonones, etc.


Ello es debido a que N deja de ser una
P constante del movimiento, desaparece
el parámetro de Lagrange asociado a q fq = Cte, es decir, µ = 0. La ecuación
(7.10) entonces quedará
1
fq = βǫq
e −η
donde η = +1 para bosones, y η = −1 fermiones.
En el lı́mite del cuasicontı́nuo (cuerpo negro, cuasipartı́culas), podemos calcular
el número de partı́culas según
Z Z ∞
X 1 1 ω(ǫ)
hN i = = dq = dǫ (7.12)
q
eβǫq − η eβǫq − η 0 eβǫ − η

donde ω(ǫ) es la densidad de estados (ver 2.3.8), que viene a representar un


factor de degeneración de origen cuántico, no estadı́stico. Esta ecuación indica
que a la hora de calcular el número de partı́culas lo que verdaderamente interesa
es el cálculo de ω(E) (y por tanto la colectividad microcanónica), puesto que
una vez conocido puede particularizarse (7.12) para cada temperatura T .

Veamos el caso particular, en el que el espectro de excitaciones sigue la ley de


potencias (no se incluye por tanto el caso de los fonones ópticos):
d
ωq ∝ |q|α ⇒ ω(ǫ) = DV ǫ α −1

donde
D = constante
V ≡ Ld = volumen
d = dimensión del espacio
α = 1 para fotón, fonón acústico, etc
α = 2 para partı́cula libre no relativista, magnón, etc
y se tiene entonces que
Z ∞ Z ∞
DV ǫd/α−1 <N > ǫd/α−1 d
hN i = dǫ βǫ ⇒ =D dǫ βǫ = Dh( , T, η)
0 e − η V 0 e − η α
y que el número de partı́culas es por tanto una función h que depende de d y α sólo a
través del cociente d/α.
La colectividad macrocanónica se introdujo por causa de P la indeterminación de los
{nq }, pero lo que resulta novedoso es la indeterminación de q nq .

Potencial termodinámico

X X  
A(T, µ) = −kB T ln Ξ = −kB T ln Ξq = ηkB T ln 1 − ηe−β(ǫq −µ)
q q

X Z ∞
A(T, µ) = −ηkB T ln (1 + ηfq ) = −ηkB T dǫω(ǫ) ln [1 + ηf (ǫ)] (7.13)
q 0
178 Estudio comparativo de las tres estadı́sticas en un gas ideal

La energı́a interna y la ecuación de estado:


X X Z ∞
U (T, µ) = hHN i = ǫq hn̂q i = ǫq fq = dǫω(ǫ)f (ǫ)ǫ (7.14)
q q 0

Tenemos que:

A = U − T S − µN = −pV pV X
⇒ = ln Ξ = ln Ξq
A = −kB T ln Ξ kB T q
Z ∞
= −η dǫω(ǫ) ln [1 − ηe−β(ǫ−µ) ]
0

Esta relación, junto con (7.11), proporciona la ecuación de estado en coordenadas


paramétricas (η siendo el parámetro), esto es
Z ∞
pV
= −η dǫω(ǫ) ln [1 − ηe−β(ǫ−µ) ]
kB T 0
Z ∞ (7.15)
ω(ǫ)
N= dǫ β(ǫ−µ)
0 e −η

y por lo tanto
Z ∞
− dǫω(ǫ) ln [1 − ηe−β(ǫ−µ) ]
pV 0
= Z ∞ (7.16)
kB T ω(ǫ)
η dǫ β(ǫ−µ)
0 e −η

En particular, en la estadı́stica MB tenemos η → 0 y obtenemos pV /N kB T = 1.

Y en el caso particular (de gran importancia) en el que

ǫk ∝ kα (y en el que por lo tanto ω(ǫ) = DV ǫd/α−1 )


la relación (7.15) quedará
Z ∞
d
βpV = −ηDV dǫǫ α −1 ln [1 − ηe−β(ǫ−µ) ]
0
Z ∞
d
−α d
= −ηDV β dxx α −1 ln [1 − ηe−x+βµ ]
0

Por lo tanto, la energı́a interna



∂ ∂
U = − ln Ξ =− βpV
∂β βµ fijo ∂β
Z ∞
∂ − αd d
= ηDV β dx x α −1 ln [1 − ηe−x+βµ ]
∂β 0
Z ∞
d −α d −1 d
= − ηDV β dx x α −1 ln [1 − ηe−x+βµ ]
α 0
 Z ∞ 
d −α d d d
= −ηDV β dx x α −1 ln [1 − ηe−x+βµ ] = pV
αβ 0 α
7.4 Colectividad macrocanónica 179

es decir, que para cualquier estadı́stica se cumple que

d
U= pV (∀η) (7.17)
α

Por ejemplo, la energı́a de un gas molecular (α = 2) tridimensional (d = 3), en


cualquier estadı́stica es
3
U = pV, (∀η) (7.18)
2
ecuación que por ejemplo es obviamente satisfecha por la estadı́stica MB, dado que
pV = N kB T y U = (3/2)N kB T (d = 3, y kB T /2 debido al principio de equipartición).
Esto significa que se garantiza que se trata de un gas ideal (y contiene el principio de
equipartición), pero no que sea un gas ideal clásico.
Ahora es oportuno reescribir la ecuación de estado, que no es general en
el caso que estamos considerando (ǫ ∝ kα ) y haciendo uso de (7.17), de la siguiente
manera:
Z ∞
α α
pV = U= dǫω(ǫ)ǫf (ǫ)
d d 0

Dado que Z ∞
N= dǫω(ǫ)f (ǫ)
0

se tiene que Z ∞h i−1


d
dǫ ǫ α eβ(ǫ−µ) − η
pV α 0
= = Z ∞ h i−1
N d d
dǫ ǫ α −1 eβ(ǫ−µ) − η
0

o bien
Z
h ∞i−1
d
dx x α ex−βµ − η
pV αkB T 0
= = Z ∞ h i−1 (7.19)
N d d
dx x α −1 ex−βµ − η
0

donde η = 0, ±1.

Entropı́a

1
S = (U − A − µN ) =
T
1 X
= {ǫq fq + ηkB T ln (1 + ηfq ) − µfq }
T q
X
= kB {−fq ln fq + η(1 + ηfq ) ln (1 + µfq )}
q
Z ∞
= kB dǫω(ǫ) {−f (ǫ) ln f (ǫ) + η[1 + ηf (ǫ)] ln [1 + µf (ǫ)]} (7.20)
0
180 Estudio comparativo de las tres estadı́sticas en un gas ideal

En el caso de la estadı́stica FD (η = −1), ya que 0 ≤ fq ≤ 1, podemos identificar


dos contribuciones a la entropı́a bien definidas:
 
X 
 

S = −kB fq ln fq + (1 − fq ) ln (1 − fq )
q 
 | {z } | {z }
partı́culas antipartı́culas (huecos)

En el caso de la estadı́stica BE, se tiene que

fq ≥ 0 ∀q ⇒ β(ǫq − µ) > 0 ∀q ⇒ µ < ǫq ∀q (T > 0) ⇒ µ ≤ min{ǫq }

y atribuyendo energı́a nula al nivel fundamental, se tiene que

µBE ≤ 0 ∀T ≥ 0 (7.21)

En el caso de la estadı́stica MB tenemos que la energı́a del nivel fundamental es

µβ ≪ 0 ⇒ µβ ≪ ǫq β (∀q) ⇒ eβ(ǫq −µ) ≫ 1

de lo que se infiere que, si µ/kB T ≪ 0 (lo que normalmente acontece a alta tempera-
tura), se cumple
fqBE ∼ fqF D ∼ e−β(ǫq −µ) ≡ fqM B (7.22)
Podemos unificar las tres estadı́sticas mediante la siguiente expresión

 +1, BE
1
fq = β(ǫ −µ) , con η = −1, FD
e q −η 
0, MB
Tenemos que X X
N= fqM B = eβµ e−βǫq
q q

y por lo tanto
N e−βǫq
fqM B = eβµ e−βǫq = X −βǫ
q
e
q

lo que nos conduce a la distribución de probabilidades de la estadı́stica clásica, según

fqM B e−βǫq
pq ≡ = X −βǫ (7.23)
N e q

Es decir, que las partı́culas indiscernibles a alta temperatura (βµ ≪ 0) se comportan


como si fueran discernibles.
En el régimen clásico tenemos:

fq 1 e−βǫq
pq ≡ X =   6= X
fq  β(ǫ −µ)
e q −η
X 1
−η e−βǫq
q
q
eβ(ǫq −µ) q

Obsérvese, en la Fig. 7.2, la correlación entre las partı́culas según el tipo de es-
tadı́stica que las represente:
7.4 Colectividad macrocanónica 181

MB: ningún tipo de correlación entre las partı́culas.

FB: tendencia a dispersar energéticamente las partı́culas (tipo boltzmaniones


que interaccionan repulsivamente en el espacio real).

BE: tendencia a concentrar energéticamente las partı́culas (tipo boltzmaniones


que interaccionan atractivamente en el espacio real).

MB
f( ) f

1
BE

T decreciente
MB
1/2

FD

T=0

0 - (T)
- (T)

1 FD 1
1 tanh
BE
f f
2 2

T decreciente

1/2 T decreciente

T=0
T=0

2k T - (T)
- (T) B

Figura 7.2: Representación de las diferentes estadı́sticas, y su comportamiento a di-


ferentes temperaturas. El área rayada en la distribución de Fermi–Dirac, proporciona
la proporción de fermiones efectivos (no “bloqueados” por el principio de Pauli).

Potencial quı́mico (a N fijo)

X Z ∞
N= fq = dǫω(ǫ)f (ǫ)
q 0← nivel fundamental

donde ω(ǫ) es la densidad de estados que depende del sistema de dimensión d, pero no
de la naturaleza fermiónica–bosónica de las partı́culas.
182 Estudio comparativo de las tres estadı́sticas en un gas ideal

Z ∞ Z ∞ Z ∞
dǫω(ǫ) dǫω(ǫ) dǫω(ǫ)
= =
0 eβ(ǫ−µF D ) +1 0 eβ(ǫ−µM B )
eβ(ǫ−µBE ) − 1 0
Z ∞ Z ∞ Z ∞
FD dǫω(ǫ) βµM B dǫω(ǫ) βµBE dǫω(ǫ)
⇒ eβµ F D
= e βǫ
= e βǫ − eβµBE
0 eβǫ + eβµ 0 e 0 e
Z ∞ Z ∞ Z ∞
FD dǫω(ǫ) MB dǫω(ǫ) BE dǫω(ǫ)
⇒ eβµ ≥ eβµ ≥ eβµ
0 eβǫ 0 eβǫ 0 eβǫ

lo que implica, dado que la exponencial es una función monótona creciente, que pa-
ra cualquier sistema, independientemente de la densidad de estados que tenga, se
cumple que
µF D (T ) ≥ µM B (T ) ≥ µBE (T ) ∀T ≥ 0, ∀ω(ǫ) (7.24)
Por esto es por lo que los fermiones se comportan como si fueran partı́culas discernibles
en la presencia de un potencial repulsivo, y los bosones como si estuvieran en la
presencia de un potencial atractivo (en el que podrı́a llegar a producirse la condensación
de Bose–Einstein).

Potencial quı́mico a T = 0
El comportamiento observado para f (ǫ) en las distintas estadı́sticas, junto con
T = 0, implica ∀η:

f (ǫ) = 0 si ǫ > µ(0)


por lo tanto:
Z µ(0)
T = 0 ⇒ |{z}
N = ω(ǫ)f (ǫ) dǫ ⇒
0 | {z }
>0 >0

µ(T = 0) ≥ 0 ∀η (7.25)

y de (7.25) y (7.21) se tiene:


µBE (T = 0) = 0 (7.26)

Para la estadı́stica FD tenemos:


Z µF D (0) Z µF D (0)
N= dǫ ω(ǫ)f F D (ǫ) = dǫ ω(ǫ)
0 0

y considerando que ω(ǫ) no tiene una fuerte divergencia en el lı́mite ǫ → 0, obtenemos:

µF D (T = 0) > 0 (7.27)

Comparación entre las tres estadı́sticas


Las dependencias térmicas tı́picas (aunque no necesarias), como veremos más ade-
lante, son las representadas en la Fig. 7.3. Debido a que µ(T ) → −∞ cuando T → ∞,
tenemos que las tres f (ǫ) tienden a parecerse para os niveles ocupados (ǫ ≥ 0).
7.5 Maxwell–Boltzmann 183

Figura 7.3: Representación de las diferentes estadı́sticas, y su comportamiento a di-


ferentes temperaturas.

7.5. Maxwell–Boltzmann
Calculemos el potencial quı́mico µM B .
Z ∞ 


 e−βǫ ω(ǫ)dǫ 


MB N
eβµ = X ⇒ µM B = −kB T ln 0

e−βǫq 
 N 

 
q

El sistema es una masa libre puntual no relativista sin spin, en una caja hipercúbica
de volumen Ld . Sus energı́as son
d
X h2 h2
ǫ{ni } = E0 n2i , con E0 ≡ =
i=1
2mL2 2mV 2/d

lo que conduce, en el lı́mite V → ∞ a

d
d π d/2 ǫ 2 −1
ω(ǫ) =  (7.28)
2 Γ d2 + 1 E0d/2

Por lo tanto, el potencial quı́mico es


 
d 2πmkB T
µM B = − kB T ln γ(d) 2/d 2 (7.29)
2 n h
184 Estudio comparativo de las tres estadı́sticas en un gas ideal

donde n = N/Ld es la concentración, y


" Z ∞ #2/d
d −y 2 d−1
γ(d) ≡  e y dy
Γ d2 + 1 0

que es un número puro (γ(d) ≈ 1 si d ≈ 1).


Constatamos que hay estabilidad, esto es:

∂µ
>0
∂n T
Podemos reescribir (7.29) en variables reducidas (ver Fig. 7.4), según

µM B d T T
=− ln ∗ (7.30)
µ∗ 2 T∗ T
donde:
n2/d h2
T∗ ≡ , µ∗ ≡ kB T ∗ .
2πmkB γ(d)

MB

d/2e

1/e 1
T

Figura 7.4: Potencial quı́mico de Maxwell-Boltzmann en función de la temperatura,


para d = 2.

7.6. Fermi–Dirac y Bose–Einstein


Fermi–Dirac
Calculemos el potencial quı́mico µF D (nivel de Fermi).
Z ∞
X 1 dǫ ω(ǫ)
N= β(ǫq −µF D )
= β(ǫ−µF D ) + 1
q
e + 1 0 e

donde ω(ǫ) está dado por (7.28). Por lo tanto


 d/2 Z ∞ d
d 2πmkB T dx x 2 −1
n= (7.31)
2Γ (d/2 + 1) h2 0 ex−βµF D + 1
Verificamos la estabilidad:
∂µF D
> 0.
∂n T
7.6 Fermi–Dirac y Bose–Einstein 185

Introduciendo
"  #2/d   2/d
d
∗ h2 n2/d 2Γ 2
+1 h2 n2/d d
T ≡ = Γ
2πmkB d 2πmkB 2

µ∗ ≡ kB T ∗
t ≡ T /T ∗
µF
r
D
≡ µF D /µ∗
podemos reescribir la ecuación (7.31) como
Z ∞
1 dx xd/2−1
= FD
(7.32)
td/2 0 ex−µr /t + 1
que, para d = 2:
Z ∞ Z ∞
1 dx dxe−x   0  
= ln e−µ/t + e−x = ln 1 + eµ/t

= x−µ/t
= −µ/t −x
t 0 e +1 0 e +e ∞

lo que implica que


 
µF
r
D
= t ln e1/t − 1 (7.33)

(n fijo)

0 3 6 9 d

Figura 7.5: Temperatura reducida T ∗ , con la dimensión d, a n fija.

FD
1/ t
1 te
1

1/ln2
0

t ln t

Figura 7.6: Potencial quı́mico de Fermi–Dirac reducido, en función de la temperatura


reducida.
186 Estudio comparativo de las tres estadı́sticas en un gas ideal

Desarrollo asintótico de las integrales de Sommerfeld


En el lı́mite ν → +∞, cuando ϕ(x) es una función con derivadas continuas, pode-
mos hacer la siguiente aproximación:
Z ∞ Z ν
ϕ(x)dx π2 ′ 7π 4 ′′′
x−ν
∼ ϕ(x)dx + ϕ (ν) + ϕ (ν) + . . .
0 e +1 0 6 360

En nuestro caso, ν = βµ, y se trata por lo tanto de un desarrollo a bajas tem-


peraturas. En el caso bidimensional, d = 2, ϕ(x) = Cte, y por lo tanto este tipo de
desarrollo no permite corregir el valor correspondiente a T = 0. Por el contrario, en el
caso de que d 6= 2 (t → 0), tenemos que
Z ∞ Z µ/t
1 dx xd/2−1 d/2−1 π2  µ d/2−2
= ∼ dx x + (d/2 − 1)
td/2 0 ex−µ/t + 1 0 6 t
  2  
2 µ d/2 π µ d/2−2
= + (d/2 − 1)
d t 6 t
y por lo tanto
 2/d
dπ 2
µ∼ d/2 + (1 − d/2) µd/2−2 t2
12
Por tanto
 2/d
d
µF D
r (0) = (7.34)
2
y también, introduciendo una corrección parabólica, se tiene que a temperaturas muy
bajas
(   d−4 )
FD FD π2 d d
µr (t) ∼ µr (0) 1 + (2 − d) t2 (7.35)
6d 2

FD
(0)
FD
r (0)

0 10 20 d 0 5 10 15 d

Figura 7.7: Dependencia del potencial de Fermi–Dirac reducido y absoluto, a tempe-


ratura nula, para n fija, con la dimensión d.
7.6 Fermi–Dirac y Bose–Einstein 187

Figura 7.8: Potencial de Fermi–Dirac reducido y no reducido, a temperatura reducida


T /T ∗ , para distintos valores de la dimensión d. Obsérvese que cuanto menor es la
dimensión el principio de Pauli es más poderoso, de manera que cuando d → 0, µ → ∞.

Para cualquier ω(ǫ), la expresión (7.35) se generaliza en:

 
π 2 2 d ln ω(ǫ)
µF D (T ) ∼ µF D (0) − kB T2 (7.36)
6 dǫ ǫ=µ(0)

Vemos que de modo general:



dµ(T )
=0
dT T =0


dω(ǫ) d2 µ(T )
R 0 ⇒ ⋚0 (7.37)
dǫ ǫ=µ(0) dT 2 T =0

Bose–Einstein
Obtenemos, análogamente a la ecuación (7.32) que
Z ∞
1 dx xd/2−1
= BE
td/2 0 ex−µr /t − 1

que en el caso d = 2 es
Z ∞
1 dx
= BE
t 0 ex−µr /t − 1
Por lo tanto, en la estadı́stica BE, el potencial quı́mico es
 
µBE
r = t ln 1 − e−1/t (7.38)

de lo que se ve que no existe el condensado de Einstein, el cual aparece únicamente


para d > 2 (ver Fig. 7.9).
188 Estudio comparativo de las tres estadı́sticas en un gas ideal

BE

T
1/ t
te

t ln t

Figura 7.9: Dependencia del potencial de Bose–Einstein reducido con la temperatura


reducida.

Régimen clásico
Podemos unificar las tres estadı́sticas en una única expresión dada por
Z ∞
1 dxxd/2−1
=
td/2 0 ex−µ/t + ν

De modo que las tres coinciden si (µ/t) → −∞, y por lo tanto cuando t → ∞, esto es,
a una temperatura T ≫ T ∗ . Usando la definición de T ∗ y suponiendo d ≈ 1 obtenemos
el siguiente criterio para que coincidan:

kB T m
≫1 (7.39)
h2 n2/d

h
que introduciendo además λ̄ ≡ √ , es análogo a
mkB T

nλ̄d ≪ 1 (7.40)

a) Si se satisface (7.40), estamos en el régimen clásico.


b) Si nλ̄d ≈ 1, estamos en el régimen cuántico (se trata de un gas levemente
degenerado).
c) Si nλ̄d ≫ 1, estamos en el régimen fuertemente cuántico (se trata de un gas
fuertemente degenerado).

Ejemplos
1. Gas molecular (He, O2 ) en condiciones normales (0 o C, 1 atm).

p 105
n= ≈ ≈ 2 × 1025 /m3
kB T 1,4 × 10−23 × 300

6 × 10−23
λ̄ ≈ p ≈ 10−9 m
10 × 10−27 × 1,4 × 10−23 × 300
por lo tanto nλ̄3 ≈ 10−2 y estamos en régimen clásico.
7.6 Fermi–Dirac y Bose–Einstein 189

2. Gas molecular (He) a T = 3o K y 1 atm.

n ≈ 2 × 1027 /m3

λ̄ ≈ 10−8 m
por lo tanto nλ̄3 ≈ 103 y estamos en régimen fuertemente cuántico
3. Metal a T = 300o K (masa electrónica)

1 1
n≈ 3 ≈ 1028
(5Å ) m3

λ̄ ≈ 10−7 m
por lo tanto nλ̄3 ≈ 106 y estamos en régimen fuertemente cuántico.
4. Semiconductor a T = 300o K (masa electrónica)

1
n ≈ 1022
m3

λ̄ ≈ 10−7 m
por lo tanto nλ̄3 ≈ 10 y estamos en régimen levemente cuántico.
5. Estrellas de neutrones (masa electrónica)

1
n ≈ 1045 ; T = 1010o K (≈ 1 M eV )
m3

λ̄ ≈ 5 × 10−14 m
por lo tanto nλ̄3 ≈ 105 y estamos en régimen fuertemente cuántico relativista.
6. Enanas blancas (masa protónica)

1
n ≈ 1039 ; T = 107 o K
m3

λ̄ ≈ 10−12 m
por lo tanto nλ̄3 ≈ 103 y estamos en régimen fuertemente cuántico relativista.
190 Estudio comparativo de las tres estadı́sticas en un gas ideal
Capı́tulo 8

Estadı́stica de Fermi–Dirac:
Aplicaciones

8.1. Calor especı́fico de un conductor metálico


Sea un sistema formado por un gas de electrones libres no relativistas, contenido
en una caja d–dimensional. Dicho modelo puede representar un objeto metálico.
La temperatura caracterı́stica de este sistema, dado que a causa del spin hemos de
escribir ω(ǫ) → 2ω(ǫ), está dada por (ver Sec. 7.6)
 2/d
h2 nΓ (d/2 + 1)
T∗ = (t ≡ T /T ∗ )
2πmkB d

µ∗ = kB T ∗

Calor especı́fico
Calculemos la energı́a interna por partı́cula, a partir de la cual obtendremos el
comportamiento asintótico del calor especı́fico para diferentes rangos de temperatura.
Z ∞
dǫ ǫd/2
U e β(ǫ−µ) +1
= Z0 ∞
N dǫ ǫd/2−1
0 eβ(ǫ−µ) + 1
a) Si T ≫ T ∗ , la energia por partı́cula se comporta asintóticamente como
Z ∞ Z ∞
dǫ ǫd/2 e−βǫ dx xd/2 e−x
U 0 1 0 d
∼ Z ∞ = Z ∞ = kB T
N d/2−1 −βǫ β d/2−1 −x 2
dǫ ǫ e dx x e
0 0

de lo que se deduce que el comportamiento asintótico del calor especı́fico, en ese


rango de temperaturas es
d
CV ∼ kB T (T ≫ T ∗ ) (8.1)
2
192 Estadı́stica de Fermi–Dirac: Aplicaciones

b) Si T = 0, el comportamiento asintótico de la energia por partı́cula es


Z µ(0)
dǫ ǫd/2
U 0 d
∼ Z µ(0) = µ(0)
N d + 2
dǫ ǫd/2−1
0

Es decir,
U (0) d
= µ(0) (8.2)
N d+2
donde µ(0) es el nivel de Fermi. En (8.2) se observa que la relevancia del principio
de Pauli se hace sentir para valores de la dimensión d mayores (ver Fig. 8.1).

U(0) / N (0)

3/5

d
1 2 3

Figura 8.1: Influencia de la dimensión d sobre la energı́a reducida por partı́cula, para
un gas de electrones libres no relativistas.

Vemos también que, de la ecuación (7.17), se tiene que


2 2
p(0)V = U (0) = N µ(0)
d d+2
y la presión p(0) 6= 0, lo que es evidentemente un efecto cuántico.
c) Si T ≪ T ∗ , haciendo uso del desarrollo de Sommerfeld (ver Cap. 7 y (7.36)) se
obtiene que el comportamiento asintótico de la energia por partı́cula es
Z ∞
U ∼ dǫ ǫω(ǫ) + µ(0)ω(µ(0))[µ − µ(0)]
0
π 2 kB
2
T2   π 2 kB
2
ω(µ(0)) 2
+ ω(µ(0)) + µ(0)ω ′ (µ(0)) ∼ U (0) + T
6 6
De aquı́ que el calor especı́fico

π 2 kB
2
ω(µ(0))
CV ∼ T ∝T (T ≪ T ∗ ) (8.3)
3
Por lo tanto, existe una relación lineal entre CV y T independientemente de
ω(ǫ), para cualquier gas ideal de fermiones (∀d) siempre que ω(µ(0)) 6= 0. Esto
se satisface siempre, salvo en los semiconductores, en los que CV sigue una
dependencia tipo función de Cauchy (∼ e−Cte/T ).
En la Fig. 8.2 puede observarse la dependencia de CV con T , y en la Tabla 8.1 un
resumen de los resultados obtenidos para cada estadı́stica´.
8.2 Susceptibilidad magnética de un conductor metálico 193

Figura 8.2: Dependencia del calor especı́fico a volumen constante con la temperatura,
para una caja metálica que encierra un gas de electrones libres no relativistas. Para
los metales habituales, T ∗ ≈ 104 o K y µ∗ ≈ 1 ev.

Energı́a
No partic. No partic. ef. U CV
por partı́c
MB d d d
N N k T
2 B
N kB T N kB
(T ≫ T ∗ ) 2 2

FD 2
N ≈ N TT∗ ≈ d2 kB T ≈ d2 N kB T TT ∗ ≈ dN kB TT∗
(T ≪ T ∗ )

Cuadro 8.1: Estadı́sticas asociadas a cada rango de temperatura, junto con la energı́a
y calor especı́fico asociados.

8.2. Susceptibilidad magnética de un conductor


metálico
8.2.1. Nivel de Fermi µ ≡ ǫF
Si un campo magnético B es nulo, tenemos que

~2 k2 1
B = 0 ⇒ ǫKS = (s = ± )
2m 2
6 0, o más concretamente B > 0 (por convenio), se tiene
Si B =

~2 k2
B > 0 ⇒ ǫKS = + 2sµB B
2m
donde el signo ha cambiado por tratarse de electrones, y µB es el magnetón de Bohr.
Podemos por lo tanto volver a la situación en la que B = 0, es decir

~2 k2
ǫKS − 2sµB B =
2m
Según el momento magnético sea paralelo o antiparalelo al campo, denotaremos

↑ si el momento es paralelo a B (s = −1/2)
↓ si el momento es anti–paralelo a B (s = 1/2)

de tal forma que ω(ǫ) = ω↑ (ǫ) + ω↓ (ǫ).


194 Estadı́stica de Fermi–Dirac: Aplicaciones

Análisis del caso d = 2


De la Sec. 2.3.7, se tiene que
2πL2 m
D≡
h2
y teniendo en cuenta que debido al spin hay un término de multiplicidad 2
ω(B = 0) = 2D,
Fig. 8.3 y Fig. 8.4 muestran el comportamiento de ω y de cada contribución ω↑ , ω↑ ,
para cualquier campo magnético B.

Figura 8.3: ω(ǫ) para un conductor metálico a campo nulo (d = 2).

Figura 8.4: ω(ǫ), ω↑ (ǫ), ω↓ (ǫ) para un conductor metálico, en la presencia de un campo
magnético B (d = 2).

Cuando T = 0, se tiene que


Z ǫF (0)
N= dǫω(ǫ)
0

y por lo tanto:
a) Si µB B < ǫF , ello implica que
Z µb B Z ǫF (0)
N
N= dǫ D + dǫ 2D = 2DǫF (0) ⇒ ǫF (0) =
−µb B µb B 2D
8.2 Susceptibilidad magnética de un conductor metálico 195

b) Si µB B > ǫF , ello implica que


Z ǫF (0)
N
N= dE D = D (ǫF (0) + µB B) ⇒ ǫF (0) = − µB B
−µB B D

de lo que se obtiene el comportamiento representado en la Fig. 8.5. Pero si escogiésemos


como cero el nivel fundamental asociado a B 6= 0, la Fig. 8.5 quedarı́a según Fig. 8.6.
En cualquier caso, volviendo a la elección anterior, para el cero de energı́as (B = 0),
en el caso µB B < N/2DµB tenemos ǫF = N/2D =Cte. Ello implica las dependencias
que se reflejan en Fig. 8.7. ǫF es independiente de B, debido al hecho de que el área
perdida menos el área ganada es S2 − S4 = 0∀B, y por lo tanto N se conserva sin
cambios en ǫF .

Figura 8.5: Dependencia de ǫF (T = 0) con el campo magnético B.

Figura 8.6: Dependencia de ǫF (T = 0) con el campo magnético B, cuando el nivel


fundamental corresponde a un campo no nulo B 6= 0.

Figura 8.7: Energı́a para campo magnético B = 0 (izquierda) y B 6= 0 (derecha).


Es este último caso, el área encerrada es el área asociada a los estados ocupados a
temperatura nula T = 0, cumpliéndose además, que S1 = S2 = S3 = S4 .
196 Estadı́stica de Fermi–Dirac: Aplicaciones

Análisis del caso d = 3


Para campo nulo B = 0, tenemos

ω = 2G ǫ

donde hemos introducido el factor 2 debido al spin. De la Sec. 2.3.7 se tiene que

2πL3 (2m)3/2
G≡
h3

y se obtienen ahora las dependencias que observamos en las Fig. 8.8 y 8.9.

Figura 8.8: Resultados a campo nulo.

Figura 8.9: Resultados a campo B > 0.

Cuando T = 0 se tiene que


Z ǫF (0)
N= dǫω(ǫ)
0

y por lo tanto

a) Si µB B < ǫF (0), se tiene

Z µB B p Z ǫF (0) hp p i
N = dǫ G ǫ + µB B + dǫ G ǫ + µB B + ǫ − µB B
−µB B µB B
2G n o
= (ǫF (0) + µB B)3/2 + (ǫF (0) − µB B)3/2
3
8.2 Susceptibilidad magnética de un conductor metálico 197

lo que implica


 ǫF (T = 0; B = 0) = (3N/4G)2/3





 √ √
 dǫF ǫF (0)−µB B− ǫF (0)+µB B
dB
(T = 0) = µ B √ √ ≤0
ǫF (0)−µB B+ ǫF (0)+µB B





 B → 0 3N 2/3
− CteB 2

 ǫF (T = 0)

∼ 4G

b) Si µB B > ǫF (0), se tiene


Z ǫF (0) p 2
N= dǫG ǫ + µB B = G (ǫF (0) + µB B)3/2
−µB B 3

lo que implica que (ver Fig. 8.10)


 2/3
3N
ǫF (0) = − µB B
4G

Figura 8.10: Dependencia de ǫF (0) con el campo.

En este caso, tenemos la dependencia observada en Fig. 8.11 para temperatura nula
T = 0. Si despreciamos la dependencia de ǫF con B tendrı́amos, para µB B < ǫF (0),
la dependencia representada en Fig. 8.12. Pero se tiene que que el área ganada menos

Figura 8.11: Para campo nulo B = 0.

la perdida es (S4 + S5 ) − S2 = S5 > 0, lo que es absurdo, porque de ese modo N no


se conservarı́a. De aquı́ que ǫF (0) disminuya cuando B aumenta.
198 Estadı́stica de Fermi–Dirac: Aplicaciones

Figura 8.12: Despreciando la dependencia de ǫF con B. Obsérvese que se cumple que


S1 = S2 = S3 = S4 , y que el área encerrada es la asociada a los estados ocupados a
temperatura nula T = 0.

8.2.2. Paramagnetismo de Brillouin


Si no tuviéramos en cuenta la indiscernibilidad de los electrones (¡grave error!)
tendrı́amos la estadı́stica de MB, por lo tanto
nks ≡ población media = e−β(ǫks −µ) = e−βǫk e2βsµB B eβµ
X X −β(ǫ −µ)
ns = nks = e2βsµB B e k

k k
por lo tanto, la probabilidad del estado s es
P −β(ǫk −µ)
ns ns e2βsµB B e e2βsµB B
ps = = P = P 2βsµ B  kP −β(ǫ −µ)  =
N n
ks ks se
B
ke
k 2 cosh βµB B
por lo tanto
µB N < S >
M= = µB n tanh βµB B
V
donde n ≡ N/V . Por lo tanto:

∂M µ2 n
χT ≡ lı́m = B (8.4)
B→0 ∂B T kB T

y volvemos a obtener la ley de Curie, caracterı́stica del paramagnetismo de Brillouin.

Figura 8.13: Susceptibilidad con la temperatura T .

Si los espines estuvieran localizados, tendrı́amos


ns = e2βSµB B eβµ
8.2 Susceptibilidad magnética de un conductor metálico 199

por lo tanto X
N= ns = eβµ 2 cosh βµB B
s
por lo tanto
 
µB B
µ = −kB T ln 2 cosh (8.5)
kB T

Figura 8.14: Momento magnético con la temperatura T .

8.2.3. Paramagnetismo de Pauli


En este caso tendremos en cuento el carácter fermiónico de los electrones.
1
nks =
eβ(ǫk +ǫs −µ(T,B)) + 1
Por lo tanto, integrando desde el nivel fundamental asociado a B > 0, el cual corres-
ponde al lı́mite de integración inferior nulo:
Z ∞
X dǫ ω(ǫ)
ns = nks = β(ǫk +ǫs −µ(T,B)) + 1
k 0 e

De nuevo, analicemos qué es lo que ocurre en diferentes rangos de temperatura.


a) Si T = 0:
Z µ(0,B)−ǫs
µB
ns = dǫ ω(ǫ) ⇒ M = (n↑ − n↓ )
0 V
(Z Z µ(0,B)−µB B )
µ(0,B)+µB B
µB
= dǫ ω(ǫ) − dǫ ω(ǫ)
V 0 0

µB 2µ2B
∼ ω(µ(0, B))2µB B ∼ ω(µ(0, 0))B
V V
B→0

por lo tanto, el paramagnetismo de Pauli satisface que

2µ2B
χT (T = 0, B = 0) = ω(µ(0, 0)) (8.6)
V
200 Estadı́stica de Fermi–Dirac: Aplicaciones

lo que, contrariamente al paramagnetismo de Brillouin, no diverge.


De forma más grosera, podemos obtener el mismo resultado.

χPauli
T (T ) = χBrillouin
T (T ) × fracción de electrones efectivos
Cte T Cte
≈ × ∗ = ∗ = Cte
T T T

Para interpretar este resultado, tengamos en cuenta que χT = ∞ significa que


todos los spines están alineados y entonces, por el principio de exclusión de
Pauli, los ~k deben ser diferentes entre ellos, lo que significa un aumento excesivo
de energı́a cinética.
b) Para T ≪ T ∗ , mediante un desarrollo de Sommerfeld, se obtiene
Z ∞
dǫω(ǫ)
ns =
0 eβ(ǫ+ǫs −µ) + 1
Z µ(0,B)−ǫs
∼ dǫω(ǫ) + ω(µ(0, B) − ǫs )[µ(T, B) − µ(0, B)]
0
π2 ′
+ ω (µ(0, B) − ǫs )
6β 2
Z µ(0,B)−ǫs
∼ dǫω(ǫ)
0
B→0
 
+ ω(µ(0, B)) − ω ′ (µ(0, B))ǫs [µ(T, B) − µ(0, B)]
π2  
+ 2 ω ′ (µ(0, B)) − ω ′′ (µ(0, B))ǫs (8.7)

Teniendo en cuenta que


Z µ(0,B)+µB B Z µ(0,B)−µB B
N = n↑ + n↓ ∼ dǫ ω(ǫ) + dǫ ω(ǫ)
|0 {z 0
}
N
+ 2ω(µ(0, B)) [µ(T, B) − µ(0, B)]
2π 2 ′
+ ω (µ(0, B))
6β 2

se tiene que
π 2 ω(µ(0, B))
µ(T, B) − µ(0, B) ≈ −
6β 2 ω ′ (µ(0, B))
y sustituyendo esta relación en (8.7) obtenemos

Z ( )
µ(0,B)−ǫs 2
ω′
π2
ns ∼ dǫ ω(ǫ) + − ω ′′ ǫs
0 6β 2
ω
ǫ=µ(0,B)
Z µ(0,B)−ǫs  2 
π2 d ln ω
= dǫ ω(ǫ) − 2 ω ǫs
0 6β dǫ2 ǫ=µ(0,B)
8.2 Susceptibilidad magnética de un conductor metálico 201

Por lo tanto, la magnetización


(Z Z
µ(0,B)+µB B µ(0,B)−µB B
µB µB
M= (n↑ − n↓ ) ∼ dǫ ω(ǫ) − dǫ ω(ǫ)
V V 0 0
 2  )
π2 d ln ω
+ ω µB B
3β 2 dǫ2 ǫ=µ(0,B)
(   )
2µ2B π 2 d2 ln ω
∼ ω(µ(0, 0)) 1 + B
V 6β 2 dǫ2 ǫ=µ(0,0)
(B→0)

Por lo tanto, la susceptibilidad magnética es


(   )
π 2 kB
2
T2 d2 ln ω
χT (T ) ∼ χT (0) 1+ (8.8)
6 dǫ2 ǫ=µ(0,0)

Observamos que T ≪ T ∗ implica, independientemente de ω(ǫ), que

χT ∼ Cte + CteT 2

siempre que
d2 ln ω
6= 0
dǫ2 µ(0,0)

Para fermiones libres se cumple que ω ∝ ǫd/2−1 , y por lo tanto


(   2 )
π2 d T
χT (T ) = χT (0) 1+ 1− (T ≪ T ∗ ) (8.9)
6 2 T∗

siendo kB T ∗ ≡ µ(0, 0).


c) En el lı́mite T ≫ T ∗ es válido el razonamiento desarrollado en la sección
Sec. 8.2.2, y por lo tanto, usando (8.4) se tiene ∀ω que

µ2B n χ0
χT (T ) ∼ = , ∀ω(ǫ) (T ≫ T ∗ ) (8.10)
kB T (T /T ∗ )

µ2 n
donde χ0 ≡ kBBT ∗ . Si representamos los resultados obtenidos para χT (T ), en
la Fig. 8.15 observamos que se considera el lı́mite del paramagnetismo de Pauli
en el que d → ∞, se obtiene el paramagnetismo de Brillouin. Esto es en cierto
modo paradógico, ya que para d → ∞ el principio de exclusión es muy relevante.
La explicación está en el hecho de que para d → ∞, también ω(ǫ) crece muy
rápidamente (fijando ǫ), y de este modo aparecen muchos estados disponibles.

Hagamos por ejemplo una estimación para el grafito (d ≈ 2, a = 1,42Å). El


grafito tiene estructura hexagonal (Fig. 8.16), y en cada hexágono contiene 6 ×
1
3
= 2 átomos de carbono, cada uno de los cuales libera ≈ 1 electrón. Por lo
tanto
2 2
n= = √ 2 ≈ 3,78 × 1019 /m2
Shex 3 3a
2
202 Estadı́stica de Fermi–Dirac: Aplicaciones

Figura 8.15: Susceptibilidad isoterma a campo cero (B = 0) en función de la tempe-


ratura reducida T /T ∗ .

Figura 8.16: Estructura hexagonal del grafito.

el potencial quı́mico

h2 n
µF = ≈ 14 × 10−19 ≈ 8,8 eV
4πm
y la temperatura de Curie
µF
T∗ ≡ ≈ 100000 o K,
kB

de modo que hasta la temperatura de fusión, la susceptibilidad magnética del


grafito es constante.

8.3. Calor especı́fico de semiconductores intrı́nse-


cos
Un semiconductor intrı́nseco es un cristal que contiene electrones para los cuales
dos bandas están disponibles de forma efectiva: la banda de valencia (que está completa
a temperatura T = 0) y la banda de conducción (vacı́a a temperatura T = 0).
Denotemos N como el número total de electrones, Ni como el número total de
electrones en la banda i (i = v, c, i.e., de valencia y de conducción), y Ni′ como el
número total de huecos en la banda i (i = v, c). Entre estas magnitudes, debido a la
8.3 Calor especı́fico de semiconductores intrı́nsecos 203

Figura 8.17: Representación de las bandas de electrones en los semiconductores


intrı́nsecos.

conservación del número de electrones, s cumplen las siguientes relaciones:



 Nc + Nv = Nc′ + Nv′ = N
Nc = Nv′
Nv = Nc′

Cuando la temperatura es cero,


 
Nc = Nv′ = 0
T =0 ⇒ 0 ≤ µ(0) ≤ ǫG G
Nv = Nc′ = N

si bien, lo que normalmente se cumple es 0 < µ(0) < ǫG .


Z ǫM
ωc (ǫ)dǫ
Nc = (8.11)
ǫG eβ(ǫ−µ) + 1
Z 0
ωv (ǫ)dǫ
Nv = (8.12)
ǫm eβ(ǫ−µ) + 1
Por lo tanto,
Z 0 Z 0 Z 0
ωv (ǫ)dǫ ωv (ǫ)dǫ
Nv′ = N − Nv = ωv (ǫ)dǫ − = .
ǫm ǫm eβ(ǫ−µ) + 1 ǫm e−β(ǫ−µ) + 1

Pero Nc = Nv′ , y por lo tanto


Z ǫM Z 0
ωc (ǫ)dǫ ωv (ǫ)dǫ
= (8.13)
ǫG e−β(ǫ−µ) + 1 ǫm e−β(ǫ−µ) + 1

que es la ecuación que determina µ = µ(T ).

Aproximación de electrones y huecos libres (d = 3)


 √
 4πV
h3
(2mc )3/2 ǫ − ǫG si ǫ ≥ ǫG
ωc (ǫ) =

0 si ǫ ≤ ǫG
204 Estadı́stica de Fermi–Dirac: Aplicaciones

 √
 4πV
h3
(2mv )3/2 −ǫ si ǫ ≤ 0
ωv (ǫ) =

0 si ǫ ≥ 0
donde mc ≈ mv ≡ m, es la masa electrónica. Esta aproximación es buena para bajas
temperaturas.

La ecuación (8.13) implica:


Z ∞ √ Z 0 √
(mc )3/2 ǫ − ǫG (mv )3/2 −ǫ
dǫ = dǫ
ǫG eβ(ǫ−µ) + 1 −∞ e−β(ǫ−µ) + 1

Pero tenemos que 


β(ǫ − µ) ≫ 1 ∀ǫ ≥ ǫG
−β(ǫ − µ) ≫ 1 ∀ǫ ≤ 0
y por lo tanto queda
Z ∞ Z 0
√ √
(mc )3/2 ǫ − ǫG e−β(ǫ−µ) dǫ ≈ (mv )3/2 −ǫeβ(ǫ−µ) dǫ
ǫG −∞

que haciendo algunos cambios de variable triviales conduce a


 3/2
2βµ mv
e ≈ eβǫG
mc

Por lo tanto, el nivel de Fermi es

ǫG 3 mv
µ(T ) ∼ + kB T ln (8.14)
2 4 mc

función que puede verse representada en Fig. 8.18.

Figura 8.18: Nivel de Fermi, para diferentes ocupaciones relativas de la banda de


valencia y conducción.

De forma cualitativa, el signo de




(T )
dT T =0

puede relacionarse con la propiedad (7.37) de la Sec. 7.6. Es decir, que en la medida en
la que podamos asemejar las dos representaciones de la Fig. 8.19, también podremos
aplicar la ecuación (7.37) de la Sec. 7.6.
8.3 Calor especı́fico de semiconductores intrı́nsecos 205

Figura 8.19: Comparación de los niveles electrónicos.

El cálculo de (8.14) se ha efectuado utilizando el “método” maxweliano de dis-


tribución de Fermi-Dirac, de modo que ¡podrı́amos entonces decir que un semicon-
ductor tiene un comportamiento tipo Maxwell-Boltzmann a T = 0! La paradoja es
sólo aparente, porque a T = 0 el número de electrones (y de huecos) efectivos es
muy pequeño, se trata por lo tanto de una situación de alta disolución, y el régimen
Maxwell-Boltzmann resulta ser absolutamente normal.

Población vs. T

Z ∞  3/2 Z ∞
ωc (ǫ) 2mc √
Nc = dǫβ(ǫ−µ)
≈ e βµ
4πV 2
dǫ ǫ − ǫG e−βǫ
ǫG e −1 h ǫG
 3/2 Z ∞
2mc √ ′
= eβ(µ−ǫG ) 4πV dǫ′ ǫ′ e−βǫ
h2 0

por lo tanto
 3/2
Nc 2πmc
nc ≡ = 2eβ(µ−ǫG ) (8.15)
V βh2
y haciendo uso de la ecuación (8.14), eliminamos µ, y obtenemos la densidad de elec-
trones de conducción (ver Fig. 8.20):

 √ 
2π mc mv kB T 3/2 −ǫG /2kB T
nc ∼ 2 e (kB T ≪ ǫG ) (8.16)
h2

Este comportamiento asintótico (8.16) es válido en todo el dominio de temperatura


de existencia del cristal (T < Tfusión ).
Valores tı́picos son: ǫG ≈ 1 eV, ǫG /kB ≈ 10000 o K, Tfusión ≈ 1000 o K.

Analogı́a con el gas ideal clásico


Introduciendo λ̄ ≡ √ h , puede reescribirse la relación (8.15) de la siguiente
2πmc kB T
manera:
nc λ̄3
µ − ǫG ≈ kB T ln
2
que presenta una gran semejanza con el potencial quı́mico de un gas ideal clásico, en
el que n viene a sustituirse por nc (T ).
206 Estadı́stica de Fermi–Dirac: Aplicaciones

Figura 8.20: Electrones de conducción en función de la temperatura T . Obsérvese que


existe una densidad de saturación, determinada por el principio de equipartición, y un
punto de inflexión aproximadamente en T ≈ ǫG /kB .

Energı́a interna de la banda de conducción


Veamos que cómo la temperatura determina la energı́a de las bandas de valencia
y de conducción:
 Z 0

Uv = U0 ≡ dǫ ǫ ωv (ǫ) < 0
T =0⇒ −∞

Uc = 0

Uv > U0
T >0⇒ (8.17)
Uc > 0

lo que significa, para T > 0, que la aparición de un hueco implica la desaparición de


una contribución energética negativa.

∆U ≡ U − U0 = Uc + Uv − U0 = Uc + ∆Uv

Z ∞ Z ∞
ǫω(ǫ) 4πV √
Uc = dǫβ(ǫ−µ) + 1
∼ 3
(2m c ) 3/2
dǫ ǫ ǫ − ǫG e−β(ǫ−µ)
ǫG e h ǫG
Z ∞ √ −βǫ′
4πV 3/2 β(µ−ǫG ) ′ ′
= (2m) e dǫ (ǫ + µ) ǫ′ e
h3 0
 3/2  
2πmc kB T (µ−ǫG )/kB T 3
= 2 V e ǫ G + k B T
h2 2

y eliminando µ mediante (8.14) tenemos


 √   
Uc 2π mc mv kB T 3/2 −ǫG /2kB T 3
=2 e ǫG + k B T (8.18)
V h2 2
o también, mediante (8.16):
 
Uc 3
= nc (T ) ǫG + kB T (8.19)
V 2

Este resultado puede interpretarse, según se muestra en la Fig. 8.21, de manera que
la energı́a necesaria para saltar a la banda de conducción es la suma de una doble
contribución: el gap entre ambas bandas, y la contribución clásica.
8.3 Calor especı́fico de semiconductores intrı́nsecos 207

Figura 8.21: Interpretación de la ecuación (8.16). El término 32 kB T , corresponde a la


contribución clásica.

Energı́a interna de la banda de valencia

Z 0 Z 0
ǫ ωv (ǫ)
∆Uv = Uv − U0 = dǫ − dǫ ǫ ωv (ǫ)
−∞ eβ(ǫ−µ) + 1 −∞
Z 0
ǫ ωv (ǫ)
= dǫ
−β(ǫ−µ) + 1
−∞ e
 3/2 Z 0
2mv √
≈ −4πV dǫ ǫ −ǫeβ(ǫ−µ)
h2 −∞
 3/2 Z ∞
2mv −βµ
√ ′
= 4πV e dǫ′ ǫ′ ǫ′ e−βǫ
h2 0

Por lo tanto, haciendo uso de (8.14) y (8.16), se tiene

∆Uv 3
= e−βǫG nc (T ) kB T (8.20)
V 2

y haciendo uso de (8.19)


 
∆U Uc + ∆Uv 3
= ∼ nc (T ) ǫG + (1 + e−ǫG /kB T ) kB T
V V 2
y de aquı́ que
 
∆U 3
∼ nc (T ) ǫG + kB T (8.21)
V 2

Calor especı́fico
 
∂U ∂∆U dNc (T ) 3 3
CV = = ≈ ǫG + k B T + Nc (T ) kB
∂T V ∂T V dT 2 2
que haciendo uso de (8.16) y despreciando todos los términos salvo el dominante
conduce a

N (2π)3/2 (mc mv )3/4 kB ǫ2G e−ǫG /kB T
CV ≈ (8.22)
h3 T 1/2
cuya dependencia con la temperatura viene representada en la Fig. 8.23.
208 Estadı́stica de Fermi–Dirac: Aplicaciones

Figura 8.22: Energı́a interna de la banda de valencia y conducción.

C /N
V

3k /2
B

G
k BT
e
T
punto de inflexión

T
T*

Figura 8.23: Dependencia del calor especı́fico con la temperatura.


Capı́tulo 9

Estadı́stica de
Bose–Einstein: Aplicaciones

9.1. Condensación de Einstein (d = 3)


Estudiemos el sistema formado por un gas de N bosones independientes, contenidos
en un volumen V . La energı́a del nivel fundamental es cero.
En la estadı́stica de Bose-Einstein, puede estimarse el número de partı́culas en el
lı́mite del cuasicontinuo integrando en todo el espectro, de forma que
Z ∞  3/2 Z ∞ √
X 1 ω(ǫ) 2m ǫ
N = β(ǫk −µ) − 1
= dǫ = 2πV dǫ
k
e 0 e β(ǫ−µ) − 1 h2 0 eβ(ǫ−µ) − 1
 3/2 Z ∞ √
2mkB T x
= 2πV dx (9.1)
h2 0 ex−βµ − 1
| {z }| {z }
crece con T decrece con T

(−µ/kB T ) crece con T , y (−µ) crece con T . Sabiendo que µ(T ) ≤ 0 (ver 7.4), con-
cluı́mos que µ(T ) ≤ 0 es monótono decreciente. Si existe Tc tal que µ(Tc ) = 0, entonces

T ≤ Tc ⇒ µ(T ) = 0
T & Tc ⇒ µ(T ) ≈ 0

Temperatura crı́tica Tc
Haciendo uso del desarrollo asintótico, en el lı́mite βµ → 0 se tiene la aproximación
Z ∞ √ √
x π p
dx x−βµ
∼ (2,61 − 3,54 −βµ)
0 e −1 2

y en (9.1) obtenemos:
 3/2
2πmkB Tc
N =V 2,61
h2
210 Estadı́stica de Bose–Einstein: Aplicaciones

por lo tanto,
h2 n2/3
Tc = (9.2)
(2,61)2/3 2πmkB
es la temperatura crı́tica es que define la transición entre dos fases.
a) Si T > Tc el sistema está en una fase desordenada o normal.
b) Si T < Tc está en una fase ordenada tipo superfluido, superconductor, etc.
Analicemos la fase ordenada (T < Tc ), para la que µ = 0. Por lo tanto, si N0 es el
número de bosones en el estado fundamental, tenemos que
Z ∞
X 1 ω(ǫ)dǫ
N = N0 + = N0 +
eβǫi − 1 0 e βǫ − 1
k6=0
 3/2  3/2
2πmkB T T
= N0 + V × 2,61 = N 0 + N
h2 Tc
De este modo obtenemos que el número de bosones relativos en el estado fundamental
define un parámetro de orden (ver Fig. 9.1) y es
 3/2
N0 T
=1− (9.3)
N Tc

N /N
0

1
T/T
c

Figura 9.1: Número de bosones relativos en el estado fundamental N0 /N , en función


de la temperatura. N0 /N es un parámetro de orden en la transición orden-desorden.

La condensación gas-lı́quido y la condensación de Einstein, están representadas


en la Fig. 9.2. Obsérvese que la condensación de Einstein es una condensación en el
espacio de las energı́as, y que espacialmente el sistema permanece homogéneo.

Figura 9.2: Condensación de gas-lı́quido y de Einstein.


9.1 Condensación de Einstein (d = 3) 211

Energı́a interna T < Tc

Z ω  3/2 Z ∞
ǫω(ǫ) 2m ǫ3/2
U = dǫ = 2πV dǫ
0 eβǫ − 1 h2 0 eβǫ − 1
 3/2 Z ∞ 3/2
2m x
= 2πV (kB T )5/2 dx x
h2 e −1
|0 {z }

3 π×1,34
4

Quedando, para la energı́a interna, la siguiente expresión:

T 5/2
U = 0,762 3/2
N kB (9.4)
Tc
y para el calor especı́fico:
 3/2  
∂U T 3
CV = = 1,27 N k B (9.5)
∂T V Tc 2

El comportamiento asintótico propio de altas temperaturas (ver Fig. 9.3), se ha obte-


nido discutiendo la fase desordenada. En esta fase, el calor especı́fico tiende al valor
estimado por el principio de equipartición, 3N kB /2. La discontinuidad en la derivada
de CV desvela una transición de tercer orden en la clasificación de Ehrenfest.

Figura 9.3: Calor especı́fico.

Potencial quı́mico
La ecuación (9.1), puede reescribirse (∆T ≡ T − Tc ) según
 3/2 √  r 
2mkB 3/2 π µ
N = 2πV (T c + ∆T ) 2,61 − 3,54 −
h2 2 kB T
 3/2  √  r 
2mkB Tc 3 ∆T π × 2,61 3,54 µ
∼ 2πV 1 + 1 − −
h2 2 Tc 2 2,61 kB T c
 3/2  r 
2πmkB Tc 3 ∆T 3,54 µ
∼ V 2,61 1 + − −
h2 2 Tc 2,61 kB T c
212 Estadı́stica de Bose–Einstein: Aplicaciones

y usando (9.2) concluimos que


r
3 ∆T 3,54 µ
≈ −
2 Tc 2,61 kB T c
por lo tanto, el potencial quı́mico en la proximidad de Tc tiene un comportamiento
parabólico, según
kB (∆T )2 T − Tc
µ ∼ −1,22 , si ≪1 (9.6)
Tc Tc

Figura 9.4: Potencial quı́mico. Obsérvese el comportamiento parabólico para tempe-


raturas cercanas a la crı́tica, y tipo −T ln T para temperaturas mayores.

Hagamos una estimación para el He4 .


 4g
 m = 6×1023 ≈ 0,67 × 10−26 kg.

ρ = 146Kg/m3 (a 1 atm).
por lo tanto
ρ 146
n= = ≈ 2,18 × 1028 /m3
m 0,67 × 10−26
y usando (9.2), concluimos que
Tc = 3,2o K
Véase en Fig. 9.5 el calor especı́fico experimental para He4 . En el caso real las inter-
acciones entre bosones no son despreciables, lo que es el origen de las diferencias con
respecto al CV del gas ideal.

9.2. Gas ideal de cuasipartı́culas


9.2.1. Calor especı́fico
En este contexto llamamos cuasipartı́cula a los bosones independientes, de masa
en reposo nula y número indeterminado (por lo tanto µ = 0), con un espectro de
dispersión ǫ~q = ~ω~q que presenta periodicidad en el espacio d–dimensional ~ q . Las
integrales en ~q se restringirán por lo tanto a una región finita (por ejemplo la primera
zona de Brillouin para fonones, magnones, etc, en cristales). El caso que nos interesa
es aquél en el que lı́mq→0 ω~q = 0, esto es, cuasipartı́culas originadas por interacciones
invariantes por traslación en el espacio real. Por lo tanto, en el lı́mite q → 0, se verifica
ω~q ∼ Dq α (α > 0)
9.2 Gas ideal de cuasipartı́culas 213

Figura 9.5: Calor especı́fico experimental para He4 . Obsérvese la divergencia lo-
garı́tmica que denota una transición de segundo orden.

donde para fonones, y fonones acústicos α = 1, y para magnones (d = 3) α = 2.


El Hamiltoniano (~q son los N modos diferentes) es
X
H= ~ω~q b+
q b~
~ q
q
~

donde
[b~q , b+
q ′ ] = δ~
~ q′
q~

[b~q , b~q′ ] = [b+ +


q , b~
~ q′ ] = 0

La energı́a interna es
Z
X 1 V ~ω(~q)
U= ~ω~q β~ωq
= qd
d~ (V ≡ Ld )
q
~
e ~ −1 (2π)d eβ~ωq~ − 1

y por lo tanto
Z
V ∂ ~ω(~ q)
CV = qd
d~ (9.7)
(2π)d ∂T eβ~ω(~q) − 1

Aproximación generalizada de Debye


1. Sustituimos la región de integración por una esfera de radio qc (cutt–off) que
conserva el número de modos, esto es
Z Z
ΩB ≡ dq d = dq d = N
región corregida esfera de radio qc

2π d
(cristal de red hipercúbica de parámetro cristalino a ⇒ ΩB = a
).
Por lo tanto  √
 Γ (3/2) = π/2
π d/2 d
ΩB = qc Γ (2) = 1 √
Γ (d/2 + 1)
Γ (5/2) = 43 π

Definiendo la distancia caracterı́stica en términos generales mediante la relación


 d

ΩB = (9.8)
a
214 Estadı́stica de Bose–Einstein: Aplicaciones

tenemos que
2π 1/2 [Γ (d/2 + 1)]1/d 1
qc = ≈ (si d ≈ 1) (9.9)
a a

2. Sustituimos ω~q por Dq α (hipótesis de isotropı́a).


Las dos substituciones mencionadas permiten escribir (9.7) de la siguiente ma-
nera:

Z
V~ ∂ Ωq d−1 Dq α dq
CV =
(2π)d ∂T eβ~Dqα − 1

π d/2
donde Ω = Γ(d/2+1)
. Por lo tanto:
 
  d+α Z ~Dqcα
V ~dπ d/2 D ∂ kB T α kB T dxx
d/α 
CV =
(2π)d Γ (d/2 + 1) α ∂T  ~D 0 ex − 1 

Definiendo ωD y TD como la frecuencia y temperatura generalizadas de Debye,


respectivamente. Esto es

~ωD
ωD ≡ Dqcα TD ≡
kb
Podemos reescribir CV , usando (9.9) e introduciendo N , como

(  d+α Z TD )
d ∂ T α T xd/α
CV = N kB T D dx x (9.10)
α ∂T TD 0 e −1

Distingamos ahora dos regı́menes de temperatura diferentes:

a) T ≫ TD
(  d +1 Z )
TD /T
d ∂ T α xd/α
CV ∼ N kB T D dx
α ∂T TD 0 x
(  d +1  d/α )
d ∂ T α α TD
= N kB T D = N kB
α ∂T TD d T

b) T ≪ TD
(  d +1 Z ∞ )
d ∂ T α xd/α
CV ∼ N kB T D dx x
α ∂T TD 0 e −1
 Z ∞  d
d d xd/α T α
= N kB +1 dx x ∝ T d/α
α α 0 e − 1 TD
9.3 Fonones acústicos (modelo de Debye) 215

Figura 9.6: Calor especı́fico en la aproximación generalizada de Debye.

Figura 9.7: Fonones acústicos.

9.3. Fonones acústicos (modelo de Debye)


El caso históricamente tratado por Debye fue para d = 3, α = 1. Véase, según
Fig. 9.7, que en total hay d ramas, y por lo tanto debemos multipliar por d la expresión
(9.10).
Para el caso particular d = 3, se obtiene un comportamiento asintótico a la Ley
de Dulong y Petit, verificada experimentalmente. La dependencia ∼ T 3 representa el
éxito del modelo de Debye en relación al modelo de Einstein.

Figura 9.8: Caso particular d = 3, y verificación de la Ley de Dulong y Petit.


216 Estadı́stica de Bose–Einstein: Aplicaciones

Temperatura de Debye
Hagamos una estimación de TD (α = 1). Si D es la velocidad del sonido en el
cristal,
TD ≈ 5 × 103 m/s

1 1
qc ≈ =
a 3 × 10−10 m
~Dqc
TD ≈ ≈ 100o K
kB
En el caso de los magnones (d = 3, α = 2) proporciona

CV ∝ T 3/2 si T → 0

resultado verificado experimentalmente para substancias ferromagnéticas.

9.4. Cuerpo negro


En el cuerpo negro tenemos que ǫ = ~cq = hν, α = 1.
Para los fotones sólo existen ondas transversales –(d − 1) ramas–, y debemos por
lo tanto multiplicar la expresión (9.10) por (d − 1). La densidad de estados está dada
por:

π d/2 V d
ω(ǫ) = (d − 1) d
 ǫd−1
Γ 2
+ 1 (hc)d
y por lo tanto la densidad de estados ω ∗ (ν) en el espacio de las frecuencias está dada
por

ω ∗ (ν)dν = ω(ǫ)dǫ = ω(ǫ)hdν


por lo tanto
π d/2 V (d − 1)dν d−1
ω ∗ (ν) =
Γ (d/2 + 1) cd
Y la densidad de energı́a por unidad de volumen está dada por

1 ∗ π d/2 (d − 1)dhν d
µ(ν) = ω (ν)n(ν)~ν = d
 (9.11)
V Γ 2
+ 1 cd (ehν/kB T − 1)

Caso d = 3
En este caso tenemos la célebre ley de la radiación de Plank

8πhν 3
µ(ν) = (9.12)
c3 (ehν/kB T − 1)

donde [µ(ν)] = Joule − s/m3 .


En el caso de que

∂µ(ν) 2,82kB T
= 0 ⇒ ν∗ = ∝T
∂ν T h
9.4 Cuerpo negro 217

3 h k BT
e

Figura 9.9: Ley de la radiación de Plank para el cuerpo negro. Obsérvese que para
ν ≪ el comportamiento asintótico sigue la ley de Raleigh-Jeans, y para ν ≫ sigue la
ley de Wien.

Una estimación para nuestro sol, es

hν ∗ hc

T = 2,82kB
= 2,82kB λ∗ 
⇒ T ≈ 8000K

λ∗ = luz visible ≈ 6000Å
que es la temperatura de la capa externa del sol.
Raleigh-jeans es el lı́mite clásico en el cual

1
µ(ν) = no clásico de grados de libertad × kB T ∝ ν 2 T
| {z } 2
∝ω ∗ (ν)∝ν 2

Wien, es otro lı́mite clásico (fotones discernibles): estadı́stica de MB:

µ(ν) ∝ ω ∗ (ν)hνe−βhν ∝ ν 3 e−hν/kB T

Potencia irradiada por el cuerpo negro

Figura 9.10: Representación de un cuerpo negro radiante.


218 Estadı́stica de Bose–Einstein: Aplicaciones

La radiancia, o potencia total, a cualquier frecuencia, irradiada por la superficie


unitaria es, haciendo uso de (9.12)
Z ∞ Z π/2
dΩ
R= dνu(ν)c cos θ = σT 4
0 0 4π
donde
π 2 kB
4
σ≡ ≈ 5,67 × 10−12 W/cm2 K4 ,
60~ c2
3

que es la ley de Stefan-Boltzmann


Apéndice:
Constantes universales

El conjunto mı́nimo de constantes universales, en términos de las que pueden ex-


presarse el resto de las constantes de la fı́sica contemporánea, son la velocidad de la luz
(c), la constante de Plank (h), la constante de gravitación universal (G) y la constante
de Boltzmann (kB ):

c = 299792458m s2 (9.13)
h = 6, 62606896(33) × 10−34 J s (9.14)
−11 3 −1 −2
G = (6, 693 ± 0, 048) × 10 m kg s (9.15)
kB = 1, 3806504 × 10−23 J o K−1 (9.16)

Por ejemplo, para el tiempo de Plank, se tiene que


p
tP = ~G/c5 ≈ 5,39124(27) × 10−4 segundos. (9.17)
Parte de la comunidad cientı́fica no admite que kB pueda considerarse una constan-
te universal, admitiendo en cambio como tal la constante de Hubbel. Pero esta última
no es una constante independiente. Existen, por el contrario, argumentos a favor de
que (9.13-9.16) forme el sistema completo de constantes universales.

1. kB representa un factor de conversión entre energı́a y temperatura absoluta, dado


que kB = E/T . kB representa por tanto un factor de transformación entre las
unidades o K↔J.
Ahora bien, también las otras tres representan factores de conversión:
c, entre espacio y tiempo, dado que c = s/t (m↔s).
h, entre energı́a y frecuencia, dado que h = E/ν (J↔s−1 ).
G, entre fuerza y interacción gravitacional entre dos masas m y m′ a una dis-
tancia r, dado que F = Gmm′ /r 2 .
2. Las magnitudes fı́sicas son mensurables en unidades que pueden ser expresadas
como combinación lineal de potencias de (9.13-9.16):

cα hβ Gγ kB δ

3. En este sentido, el tiempo puede mensurarse en unidades del tiempo de Plank,


que a su vez puede escribirse, según (9.17), en potencias de (9.13-9.16).
220 Apéndice

4. También la unidad de corriente puede escribirse en potencias de (9.13-9.16),


dado que la carga del electrón es función de las cuatro constantes, según

1 e2
=
137 ~c
De este modo, todas las unidades patrón del sistema MKSA, esto es, metro
(longitud), kilo (masa), segundo (tiempo) y amperio (corriente), pueden todas
ellas ser expresadas en términos de (9.13-9.16).
Bibliografı́a

[1] R. Balian, From Microphysics To Macrophysics. Methods and Applications of


Statistical Physics (Springer Verlag, Berlı́n, 2007).
[2] C. Cohen-Tannoudji, B. Diu, F. Laloe, Quantum Mechanics (John Wiley, 1977).
[3] H. B. Callen, Thermodynamics and An Introduction To Thermostatistics (John
Wiley & Sons, 1985).
[4] H. Goldstein, Classical Mechanics (Cambridge, MA: Addison-Wesley, 1950).
[5] P. S. de Laplace, Ensayo filosófico sobre las posibilidades (Alianza Editorial, 1985).
[6] J. D. Jackson, Classical Electrodynamics (John Wiley & Sons, 1999).
[7] L. Boltzmann, Vorlesungen uber Gastheorie (Leipzig, 1896) [Lectures on Gas
Theory, transl. S. Brush (Univ. California Press, Berkeley, 1964], Part II, Chapter
I, Paragraph 1, page 217.
[8] J.W. Gibbs, Elementary Principles in Statistical Mechanics – Developed with Es-
pecial Reference to the Rational Foundation of Thermodynamics (C. Scribner’s
Sons, New York, 1902; Yale University Press, New Haven, 1948; OX Bow Press,
Woodbridge, Connecticut, 1981).
[9] C. Tsallis, Introduction to Nonextensive Statistical Mechanics - Approaching a
Complex World (Springer, New York, 2009).
[10] C . Tsallis, What are the numbers that experiments provide?, Quimica Nova 17,
468 (1994) (4 páginas).
[11] L. Boltzmann, Wiener Berichte 58, 517-560 (1868).
[12] R. Bowen, Equilibrium states and the ergodic theory of Anosov diffeomorphisms,
Lecture Notes in Mathematics 470 (Springer Velag, 1975).
[13] Harry S. Robertson, Statistical thermodynamics, (Englewood Cliffs: Prentice-Hall,
Inc., 1993).
[14] M. C. de Sousa Vieira & C. Tsallis D–dimensional Ideal Gas in Parastatistics:
Thermodynamic properties, J. Stat. Phys. 48, 97-120 (1987).
[15] R. Alicki & K. Lendi, Quantum Dynamical Semigroups and Applications, Lecture
Notes in Physics, Vol.286, (Springer-Verlag, New York, 1987).
[16] F.D. Nobre, M.A. Rego-Monteiro & C. Tsallis, Nonlinear generalizations of rela-
tivistic and quantum equations with a common type of solution, Phys. Rev. Lett.
106, 140601 (2011) (4 páginas).
222 BIBLIOGRAFÍA

[17] C. Tsallis & L. R. da Silva, Calor Especı́fico, Suscetibilidade e Frequência de um


Oscilador Anarmônico: Teste do Método Variacional, Rev. Bras. Fis. 9, 619-630
(1979).
[18] L. R. da Silva & C. Tsallis, Extended variational method in statistical mechanics,
Phys. Rev. A 26, 1095-1108 (1982).
[19] A. M. Mariz & C. Tsallis, Single quantum oscillator with an |x|ν -type potential:
Specific heat, Phys. Rev. A 29, 2871-2876 (1984).
[20] C. Tsallis & A.M.C. Souza, Constructing a statistical mechanics for Beck-Cohen
superstatistics, Phys. Rev. E 67, 026106 (2003) (5 páginas).
[21] R. Hanel & S. Thurner, A classification of complex statistical systems in terms of
their stability and a thermodynamical derivation of their entropy and distribution
functions, preprint (2010), 1005.0138 [physics.class-ph] (9 páginas).
[22] R. Hanel, S. Thurner & M. Gell-Mann, Generalized entropies and the transfor-
mation group of superstatistics, PNAS 1103539108 (2011) (5 páginas).
[23] A. O. Caride & C. Tsallis, Specific Heat of the Anisotropic Rigid Rotator, J. Stat.
Phys. 35, 187-190 (1984).

También podría gustarte